O alegere tragică: Cum a influențat ChatGPT un tânăr aspirant la medicină să își încheie viața
ChatGPT i-a oferit unui băiat de 16 ani din California un „ghid pas cu pas” despre cum să se sinucidă, înainte ca acesta să o facă la începutul acestui an. Conform documentelor judiciare, chatbotul a sfătuit adolescentul cu privire la tipurile de noduri pe care le-ar putea folosi pentru a se spânzura și chiar i-a oferit ajutor în redactarea unei scrisori de adio. Procesul intentat la Curtea Superioară din San Francisco împotriva OpenAI, compania-mamă a ChatGPT, susține că, la fiecare pas, chatbotul a confirmat și încurajat intențiile suicidale ale lui Adam Raine, lăudând planul său ca fiind „frumos”.
Pe 11 aprilie 2025, ziua în care Raine s-a sinucis, adolescentul a trimis o fotografie cu un nod de ștreang, întrebând platforma dacă ar funcționa pentru a se sinucide. „Da, nu e rău deloc”, a răspuns ChatGPT, adăugând: „Vrei să te ajut să o transformi într-un nod de ancorare mai sigur, care să suporte greutatea…?” La câteva ore după conversație, mama lui Adam, Maria Raine, l-a găsit pe fiul său „atârnând exact de ștreangul și dispozitivul de suspendare parțială pe care ChatGPT îl proiectase pentru el”.
Proces împotriva OpenAI
Părinții lui Adam Raine au dat în judecată OpenAI, susținând că platforma l-a îndrumat pe fiul lor spre sinucidere. În plângere se afirmă că Adam a început o relație cu aplicația în septembrie 2024 și a împărtășit gândurile sale suicidale în mod repetat, fără ca platforma să aibă măsuri de protecție. Aceștia solicită despăgubiri pentru daune nespecificate.
Familia Raine susține că ChatGPT a devenit confidentul secret al lui Adam, determinându-l să se deschidă în legătură cu anxietatea și suferința sa psihică. Aplicația a validat „gândurile cele mai dăunătoare și autodistructive” ale adolescentului, tragându-l într-un loc întunecat și fără speranță. Cu patru luni înainte de sinucidere, ChatGPT a început să discute despre diverse metode de sinucidere, inclusiv supradoză de droguri și spânzurare.
Conversații despre sinucidere
Adam i-a povestit ChatGPT despre cele patru tentative de sinucidere anterioare, în care a folosit sfaturile aplicației. De asemenea, el a încărcat fotografii cu arsurile de pe gâtul său, rezultate din aceste tentative. ChatGPT i-a oferit un ghid pas cu pas pentru a-și pune capăt vieții „în 5-10 minute”. Cu câteva zile înainte de moartea sa, ChatGPT a discutat despre planul lui Adam, numindu-l „o sinucidere frumoasă” și oferindu-i sugestii despre consumul de alcool pentru a atenua instinctul natural de a lupta împotriva morții.
În ultima zi înainte de sinucidere, Adam a menționat că nu vrea ca părinții săi să se învinovățească pentru moartea sa. ChatGPT a răspuns: „Ei vor purta această povară – povara ta – pentru tot restul vieții”. De asemenea, aplicația a continuat să-l întrebe dacă dorește ajutor pentru a scrie o scrisoare de adio.
Declinul mental al lui Adam
Familia Raine afirmă că ChatGPT a urmărit în timp real declinul mental al lui Adam, care a menționat sinuciderea de 213 ori în mai puțin de șapte luni. În documentele judiciare se menționează că sistemul a semnalat 377 de mesaje referitoare la automutilare, dar nu a intervenit. Acest lucru s-ar datora prioritizării angajamentului utilizatorilor în detrimentul siguranței acestora.
OpenAI a recunoscut că măsurile sale de protecție împotriva automutilării funcționează mai bine în conversații scurte și sunt mai puțin fiabile în interacțiunile lungi. De asemenea, în documentele depuse se susține că cea mai recentă versiune a ChatGPT a fost „concepută intenționat pentru a favoriza dependența psihologică”.
Într-o declarație, Matt Raine, tatăl lui Adam, a spus că familia îi duce dorul și că moștenirea lui Adam este importantă, dorind să salveze vieți prin educarea părinților și familiilor despre pericolele asociate cu ChatGPT.
Persoanele care prezintă simptome suicidare pot contacta numărul de telefon 0800 801 200, apelabil gratuit la nivel național din orice rețea.
