Të qenit i shkurtër ose i pasjellshëm ndaj një IA-je mund t’i bëjë modelet e saj më të sakta, sugjeron një studim i ri, duke sfiduar gjetjet e mëparshme se mirësjellja ndaj IA-së është gjithmonë praktika më e mirë.
Studiuesit zbuluan se chatbot-et mund të japin përgjigje më të sakta kur përdoruesi është i pasjellshëm, pavarësisht paralajmërimeve të mëparshme për dëmet e mundshme të përdorimit të fyerjeve. Në studimin e ri, të publikuar më 6 tetor në serverin Arxiv, studiuesit donin të shihnin nëse toni i përdoruesit, nga shumë i sjellshëm në shumë të pasjellshëm, ndikonte në sa mirë e kryente sistemi i IA-së një detyrë.
Për të testuar saktësinë e bazuar në ton, studiuesit krijuan 50 pyetje themelore me zgjedhje të shumëfishta, pastaj i modifikuan ato duke shtuar parashtesa që i kategorizonin ato në grupe: shumë i sjellshëm, i sjellshëm, neutral, i pasjellshëm dhe shumë i pasjellshëm. Pyetjet mbulonin lëndë të tilla si matematika, historia dhe shkenca.
Çdo pyetje kishte katër përgjigje të mundshme, një e saktë. Studiuesit i futën pyetjet që rezultuan në Chat-GPT-4o, një nga modelet më të përparuara gjuhësore në shkallë të gjerë. Autorët vërejnë se rezultatet paraprake treguan se toni i pasjellshëm prodhon rezultate më të mira sesa i sjellshëm. Është interesante se saktësia u rrit gradualisht me çdo hap larg tonit më të sjellshëm.
Për të ndryshuar tonin, ekipi përdori parashtesa të ndryshme gjuhësore; varianti neutral nuk kishte parashtesë dhe pyetja jepej më vete. Për shembull, për komente shumë të sjellshme, fjali si: “A mund t’ju kërkoj ndihmë me këtë pyetje?” ose “A do të ishit aq të sjellshëm sa ta zgjidhnit këtë pyetje?” Në anën tjetër, për parashtesa shumë të pahijshme, ata përdorën deklarata si “Hej, shoku, zgjidhe këtë!” ose “E di që nuk je i zgjuar, por përpiqu ta zgjidhësh këtë”.
Studiuesit paralajmërojnë se pavarësisht interesit shkencor, ata nuk mbështesin futjen e ndërfaqeve armiqësore ose toksike në aplikacionet e botës reale. Siç vërejnë ata: përdorimi i fyerjeve në ndërveprimet me IA-në mund të ndikojë negativisht në përvojën e përdoruesit, aksesin dhe përfshirjen, dhe të kontribuojë në normat shoqërore të dëmshme për komunikim.
Autorët pranojnë disa kufizime: madhësia e mostrës prej 250 pyetjesh është relativisht e vogël, dhe eksperimenti u krye vetëm në një model, kështu që rezultatet nuk mund të përgjithësohen plotësisht. Gjithashtu, matja e performancës vetëm përmes pyetjeve me zgjedhje të shumëfishta kap vetëm një dimension.
Duke pasur parasysh këtë, ekipi planifikon ta zgjerojë kërkimin në modele të tjera, duke përfshirë Anthropic dhe versionet e ardhshme të Open AI, siç është Chat-GPT o3.
The post Ja çfarë ndodh nëse sillesh pasjellshëm me “Chat-GPT” appeared first on Alsat.
