Studimi: Përgjigjet ‘lajkatuese’ të IA-së dëmtojnë aftësinë për vetëkorrigjim

27 mars 2026 | 08:09

Aplikacionet e inteligjencës artificiale kanë tendencë t’u tregojnë përdoruesve atë që duan të dëgjojnë dhe t’i vërtetojnë më shumë nga sa duhet veprimet e tyre, sipas një studimi nga studiues në dy universitete amerikane.

Studimi nga studiues në universitetet ”Stanford” dhe ”Carnegie Mellon”, i cili u botua në revistën ”Science”, zbuloi se përgjigjet lajkatuese të chatbot-eve të IA-së mund të përforcojnë besimet e dëmshme dhe të përkeqësojnë konfliktet.

Ekipi i udhëhequr nga shkencëtarja e kompjuterave Myra Cheng analizoi 11 modele kryesore të gjuhës së IA-së nga OpenAI, Anthropic, Google dhe Meta.

Modelet e konsideruan të vlefshme sjelljen e përdoruesit mesatarisht 49% më shpesh sesa vetë njerëzit.

Ky miratim u dha edhe kur përdoruesit raportuan mashtrim, veprime të paligjshme ose dëm emocional.

Në një test duke përdorur postime nga platforma online Reddit, sistemet e IA-së ranë dakord me përdoruesit në 51% të rasteve – edhe pse komuniteti njerëzor e kishte dënuar më parë sjelljen unanimisht.

Në eksperimente që përfshinin më shumë se 2 400 pjesëmarrës, studiuesit shqyrtuan efektet e kësaj këshille të bazuar në IA.

Pas vetëm një ndërveprimi me një IA të këndshme, pjesëmarrësit ishin më të bindur se kishin të drejtë.

Në të njëjtën kohë, gatishmëria e tyre për të marrë përgjegjësi, për të kërkuar falje ose për të zgjidhur konfliktet u ul.

Studimi arriti në përfundimin se IA po dëmtonte aftësinë për vetëkorrigjim dhe vendimmarrje të përgjegjshme.

Lajme të sponsorizuara

Të fundit
Këshilli i Sigurimit i Kombeve të Bashkuara (KS i OKB-së)…