Studimi: Përgjigjet ‘lajkatuese’ të IA-së dëmtojnë aftësinë për vetëkorrigjim
Aplikacionet e inteligjencës artificiale kanë tendencë t’u tregojnë përdoruesve atë që duan të dëgjojnë dhe t’i vërtetojnë më shumë nga sa duhet veprimet e tyre, sipas një studimi nga studiues në dy universitete amerikane.
Studimi nga studiues në universitetet ”Stanford” dhe ”Carnegie Mellon”, i cili u botua në revistën ”Science”, zbuloi se përgjigjet lajkatuese të chatbot-eve të IA-së mund të përforcojnë besimet e dëmshme dhe të përkeqësojnë konfliktet.
Ekipi i udhëhequr nga shkencëtarja e kompjuterave Myra Cheng analizoi 11 modele kryesore të gjuhës së IA-së nga OpenAI, Anthropic, Google dhe Meta.
Modelet e konsideruan të vlefshme sjelljen e përdoruesit mesatarisht 49% më shpesh sesa vetë njerëzit.
Ky miratim u dha edhe kur përdoruesit raportuan mashtrim, veprime të paligjshme ose dëm emocional.
Në një test duke përdorur postime nga platforma online Reddit, sistemet e IA-së ranë dakord me përdoruesit në 51% të rasteve – edhe pse komuniteti njerëzor e kishte dënuar më parë sjelljen unanimisht.
Në eksperimente që përfshinin më shumë se 2 400 pjesëmarrës, studiuesit shqyrtuan efektet e kësaj këshille të bazuar në IA.
Pas vetëm një ndërveprimi me një IA të këndshme, pjesëmarrësit ishin më të bindur se kishin të drejtë.
Në të njëjtën kohë, gatishmëria e tyre për të marrë përgjegjësi, për të kërkuar falje ose për të zgjidhur konfliktet u ul.
Studimi arriti në përfundimin se IA po dëmtonte aftësinë për vetëkorrigjim dhe vendimmarrje të përgjegjshme.



