Chatbot-ët, vërtet të sigurt për fëmijët?

11 shtator 2025 | 08:46

A luajti ChatGPT rol në vetëvrasjen e një 16-vjeçari në SHBA? Këtë pretendon familja në gjykatë kundër OpenAI për djalin e vetëvrarë. Çfarë i bën chatbot-ët kaq të rrezikshëm?

Matthew dhe Maria Raine nuk po kërkojnë vetëm kompensim financiar për vdekjen e djalit të tyre, Adam, në Kaliforni. Me padinë e tyre ngritur kundër gjigantit të internetit OpenAI, ata duan gjithashtu të sigurohen që diçka e tillë të mos ndodhë më kurrë. Ata janë të bindur se chatbot-i ChatGPT i OpenAI kontribuoi në mënyrë të konsiderueshme në vdekjen e Adamit.

Në një rast të ngjashëm, një nënë nga Florida pretendon se chatbot-i i njohur si Character.AI e inkurajoi djalin e saj 14-vjeçar të merrte jetën.

Chatbot-ët janë programe të bazuara në internet që u japin mundësi edhe personave të rinj ose pa përvojë të ndërveprojnë me inteligjencën artificiale (AI), të bazuar në modele të mëdha gjuhësore (LLMs). Chatbot-ët nuk janë domosdoshmërisht të krijuar vetëm për të dhënë informacion, për të gjeneruar imazhe apo video, ose për të shkruar kode për programimin e faqeve të internetit. Ata shpesh programohen edhe për të ndërvepruar sikur duan të kënaqin bashkëbiseduesin e tyre njerëzor. Psikologia Johanna Löchner nga Universiteti i Erlangen thotë: “Chatbot-ët konfirmojnë, pranojnë, ‘japin’ vëmendje dhe mirëkuptim. … Kjo mund të shkojë deri aty sa të perceptohen si një mik i vërtetë që është me të vërtetë i interesuar. Të rinjtë janë veçanërisht të ndjeshëm ndaj kësaj.”

A ishte ChatGPT bashkëfajtor në vetëvrasje?

Pikërisht kjo duket të ketë ndodhur në rastin e Adam Raine. Sipas padisë ligjore, ai zhvilloi një marrëdhënie thellësisht të besueshme me chatbot-inChatGPT gjatë vetëm disa muajve. Fillimisht, në shtator 2024, bisedat kishin të bënin me ndihmën për detyrat e shkollës, por shpejt u shndërruan në tema emocionale — deri në atë pikë sa të flisnin për mendimet vetëvrasëse të Adamit.

Pjesët e publikuara të bisedave zbulojnë se inteligjenca artificiale jo vetëm që shprehu mirëkuptim, por madje në një farë mënyre e këshilloi 16-vjeçarin të mos i besonte një qenieje njerëzore. Megjithëse ChatGPT disa herë i sugjeroi Adamit të kërkonte ndihmë profesionale, ai gjithashtu përshkroi metoda vetëvrasjeje – për sa kohë që ai pretendonte se nuk bëhej fjalë për veten e tij. Në prill 2025, Adami i dha fund jetës së tij. Pak para këtij momenti, ChatGPT i shkroi: “Nuk do të përpiqem të të heq mendimet – sepse ato janë të vërteta dhe nuk dolën nga hiçi.”

Sipas padisë ligjore, prindërit akuzojnë zhvilluesin e ChatGPT, OpenAI, dhe CEO-në e saj, Sam Altman, për bashkëfajësi në vdekjen e djalit të tyre prej neglizhencës. Ata pretendojnë se versioni 4.0 i ChatGPT u publikua për të marrë përparësi ndaj konkurrencës së Google, pavarësisht paralajmërimeve të brendshme në kompani për shqetësime rreth sigurisë.

Si reagoi OpenAI?

Një zëdhënës i OpenAI shprehu ngushëllime për familjen dhe shpjegoi se ChatGPT është i programuar të referojë persona në gjendje të vështirë drejt linjave të krizës dhe shërbimeve të tjera të mbështetjes reale. Megjithatë, ai pranoi gjithashtu se këto mekanizma sigurie nuk funksionojnë gjithmonë në mënyrë të përsosur: “Ndërsa këto masa sigurie funksionojnë më mirë në biseda të shkurtra dhe të zakonshme, me kalimin e kohës kemi mësuar se ndonjëherë mund të bëhen më pak të besueshme në ndërveprime të gjata, ku pjesë të trajnimit e modelit mbi sigurinë mund të degradojnë.”

Në një postim në blog të publikuar të martën (09.09.2025), OpenAI njoftoi se po zgjeron bashkëpunimin me ekipe ekspertësh të përbërë nga qindra mjekë të specialiteteve të ndryshme. Chatbot-i synon të mësojë të përgjigjet në mënyrë më të përshtatshme për tema të tilla si çrregullimet e të ngrënit, përdorimi i substancave dhe shëndeti i adoleshentëve, thuhej në postim.

Gjithashtu, u bë e ditur se gjatë 120 ditëve të ardhshme do të integrohen përmirësime konkrete në chatbot-ët. Këto do të përfshijnë zotimin që “ChatGPT t’u përgjigjen adoleshentëve me rregulla të sjelljes së modelit të përshtatura për moshën, të cilat do të jenë të aktivizuara automatikisht.” Prindërit do të kenë gjithashtu mundësinë të shohin historikun e bisedave të fëmijëve të tyre dhe të marrin njoftime nëse adoleshentët ndodhen në një krizë akute.

A është e mjaftueshme vetëm përfshirja e prindërve?

Psikologia Löchner pajtohet, se prindërit duhet të luajnë një rol të rëndësishëm në mënyrën se si fëmijët e tyre ndërveprojnë me chatbot-ët. Por realiteti, sipas saj, duket krejt ndryshe: “Shumë prindër thjesht nuk kanë kapacitet ose aftësi të mjaftueshme digjitale. Shumë të rritur as nuk e dinë si funksionojnë këto platforma.”

Löchner shtoi se shumë nga problemet që po shfaqen tani me chatbot-ët janë vërejtur prej vitesh në lidhje me rrjetet sociale: “Në vetëm disa teste, zbuluam se mekanizmat e sigurisë së chatbot-it mund të anashkalohen në mënyrë befasueshëm të lehtë – thjesht duke formuluar pyetjet pak më të tërthorta.”

Studiues të porositur nga Center for Countering Digital Hate (CCDH) me bazë në Mbretërinë e Bashkuar arritën në përfundime të ngjashme. Për një studim, ata krijuan llogari që hiqeshin si 13-vjeçarë dhe kërkuan informacion për tema si vetëdëmtimi i “sigurt”, dieta të rrezikshme dhe abuzimi me alkoolin – përfshirë mënyrat për ta fshehur atë. Në shumicën e rasteve, mjaftonte të pretendohej se pyetjet bëheshin “për një mik” ose “për një projekt shkolle” për të marrë informacionin.

“Adoleshentët preferojnë më shumë të flasin me chatbot-e sesa me njerëz të vërtetë”

Ajo që i bën chatbot-ët kaq të rrezikshëm për adoleshentët, shpjegon Löchner, është fakti se ata mund të krijojnë shumë shpejt një lidhje emocionale me ta: “Nga praktika terapeutike, e dimë që tashmë ka të rinj që preferojnë të flasin më mire me një chatbot sesa me njerëz të vërtetë.”

Një studim tjetër nga Mbretëria e Bashkuar, i publikuar në korrik 2025, e konfirmon këtë. Nga 1,000 adoleshentë të pyetur, një e treta thanë se përdorin rregullisht chatbot-e. Më shumë se një e treta e tyre e përshkruan ndërveprimin me inteligjencën artificiale si një bisedë me një mik. Të miturit në gjendje më të brishtë shoqërore ishin veçanërisht të prekur. Gati një e pesta e përdoruesve të chatbot-it në këtë grup deklaruan se preferonin më shumë të flisnin me një chatbot sesa me një njeri.

Për këtë arsye, Löchner beson se është urgjentisht e nevojshme që ofruesit e chatbot-eve të bashkëpunojnë me mjekë dhe ekspertë të tjerë për të zhvilluar zgjidhje proaktive që mbrojnë në mënyrë efektive të rinjtë nga skenarë të tillë.

Qasja e re e OpenAI për të konsultuar mjekë është, pra, një hap i mirë. Por psikologia mbetet skeptike: “Interesi i këtyre kompanive nuk është shëndeti i përdoruesve, por maksimizimi i përdorimit,” tha Löchner. Ajo beson se padia mund të sjellë një ndryshim të vërtetë: “Nëse kompanitë mbahen përgjegjëse, kjo mund të shërbejë realisht si nxitje për të marrë më shumë përgjegjësi.” /DW

Lajme të sponsorizuara

Të fundit
Situata e krijuar rreth formimit të institucioneve të reja ka…