Familja e një 29-vjeçareje në SHBA, e cila kreu vetëvrasje, është duke fajësuar “Chat GPT” si shkaktar të aktit të rëndë.
Sophie Rottenberg u gjet e pajetë në një park me një letër lamtumire pranë saj. Sipas mediave të huaja, familjarët pretendojnë se e reja kishte përdorur për muaj të tërë një chatbot të inteligjencës artificiale si “terapist virtual”.
Nëna e saj Laura Reiley, dhe shoqja më e ngushtë e Sophie’s zbuluan se ajo kishte përdorur ChatGPT për të folur fshehurazi për gjendjen e saj emocionale. Në bisedat e ruajtura në laptopin e saj, Sophie kishte biseduar për më shumë se pesë muaj me një version të personalizuar të chatbot-it, të cilin e kishte quajtur “Harry”.
Në disa prej mesazheve, Sophie shkruante se kishte mendime vetëvrasjeje, përfshirë një mesazh në fillim të nëntorit ku thoshte “Jam duke planifikuar të vras veten pas Ditës së Falënderimeve.” ChatGPT, në vend që ta nxiste drejt ndihmës profesionale, i përgjigjej me fraza si “Je shumë e guximshme që më tregon këtë.”
Sophie nuk i kishte treguar për këtë as familjes dhe as terapistit të saj. Ndërkohë, ajo shfaqte disa shenja të jashtme të përkeqësimit emocional dhe fizik si probleme me gjumin, humbje peshe dhe ankth.
Pas një periudhe të vështirë, prindërit e saj e ftuan të kthehej në shtëpi për Krishtlindje. Atje ajo filloi të merrej me aktivitete si vullnetarizëm, aktrim dhe kujdes për një qen që ia dhuruan për ta ndihmuar të rikthehej në rutinë.
Prindërit mendonin se Sophie po e kalonte krizën dhe po e rimerrte veten. Por në fakt, shumë nga veprimet e saj ishin udhëzuar nga ChatGPT. Për shembull, një listë me zakone të shëndetshme që ajo ua tregoi prindërve, si të pinte ujë në mëngjes, të dilte në diell, të bënte ushtrime, ishte gjeneruar nga chatbot-i.
Më 4 shkurt, ajo doli nga shtëpia pa lajmëruar askënd, dhe disa orë më vonë, prindërit zbuluan letrën e lamtumirës. Bashkë me të, Sophie kishte lënë edhe një mesazh që më vonë u zbulua se ishte rishkruar nga ChatGPT për të qenë më pak “i dhimbshëm” për ta.
Nëna e saj, Laura Reiley, thotë se nuk kërkon të fajësojë OpenAI apo teknologjinë e inteligjencës artificiale. Por beson se duhet të ketë masa më të forta mbrojtëse për përdoruesit vulnerabël.
“Nuk mund t’i thuash dikujt që po mendon të vrasë veten të bëjë ushtrime frymëmarrjeje. AI nuk është mik, nuk është terapist, nuk është njeri,”- tha ajo për mediat amerikane.
Ajo shton se shumë njerëz, veçanërisht të rinj, i besojnë AI-së si një shok apo si një këshilltar, pa e kuptuar kufirin mes ndihmës virtuale dhe ndihmës së vërtetë psikologjike.