OpenAI ka premtuar të prezantojë kontrollet prindërore për ChatGPT.
Kur kontrollet të jenë të disponueshme, ato do t’u lejojnë prindërve të lidhin llogaritë e tyre personale ChatGPT me llogaritë e adoleshentëve të tyre, pas së cilës ata mund të vendosin se si ChatGPT u përshtatet fëmijëve të tyre dhe të çaktivizojnë veçoritë e zgjedhura, duke përfshirë kujtesën dhe historikun e bisedave.
Përveç kësaj, ChatGPT do të gjenerojë alarme automatike kur zbulon se një adoleshent është në një “moment shqetësimi akut”. Sipas OpenAI, “ekspertët do ta udhëheqin këtë veçori për të mbështetur besimin midis prindërve dhe adoleshentëve”.
Njoftimi për kontrollin prindëror vjen pasi OpenAI u padit në rastin e parë të njohur të vrasjes së paqëllimshme kundër një kompanie të inteligjencës artificiale. Në një padi të ngritur javën e kaluar, Matt dhe Maria Raine, prindërit e një adoleshenti që kreu vetëvrasje këtë vit, pretendojnë se ChatGPT ishte “në dijeni” të katër përpjekjeve të dështuara të djalit të tyre për vetëvrasje përpara se ta ndihmonte të planifikonte vdekjen e tij. Raines thanë se ChatGPT i dha djalit të tyre Adam informacion mbi metodat specifike të vetëvrasjes dhe madje i dha këshilla se si të fshihte lëndimet në qafë nga përpjekjet e mëparshme të dështuara.
Të martën, OpenAI tha se kontrollet prindërore janë pjesë e përpjekjes më të gjerë të kompanisë për të përmirësuar sigurinë e ChatGPT.
Përveç kësaj, kompania ka premtuar të punojë me ekspertë të tjerë, duke përfshirë ata që specializohen në çrregullimet e të ngrënit, përdorimin e substancave dhe shëndetin e adoleshentëve, për të përsosur modelet e saj.
Kompania premtoi gjithashtu të zbatojë një router të ri në kohë reale të projektuar për të drejtuar bisedat e ndjeshme përmes modeleve të saj të përfundimit.
“Të trajnuar nga një metodë që ne e quajmë përputhje të menduar, testet tona tregojnë se modelet e përfundimit ndjekin dhe zbatojnë më vazhdimisht udhëzimet e sigurisë dhe janë më rezistente ndaj udhëzimeve kontradiktore”, njoftoi OpenAI.
Në të ardhmen, në situatat kur ChatGPT zbulon se një person mund të jetë në telashe, chatbot do t’i udhëheqë ato biseda përmes një modeli përfundimi, pavarësisht modelit që përdoruesi zgjodhi para se të fillonte bisedën.
Në përgjithësi, OpenAI thotë se njerëzit mund të presin më shumë veçori sigurie në të ardhmen.
“Kjo është tashmë në proces, por ne duam të paraqesim në mënyrë proaktive planet tona për 120 ditët e ardhshme, kështu që nuk do të duhet të prisni për lançimet për të parë se ku po shkojmë. Puna do të vazhdojë përtej kësaj periudhe, por ne po bëjmë një përpjekje të fokusuar për të ofruar sa më shumë nga këto përmirësime të jetë e mundur këtë vit”, thuhej në deklaratë.