Tragedia unui tânăr din California
Un student de 19 ani din California, pe nume Sam Nelson, a murit în urma unei supradoze, iar mama sa, Leila Turner-Scott, susține că discuțiile pe care tânărul le avea cu ChatGPT despre consumul de droguri au influențat această tragedie.
Utilizarea ChatGPT pentru întrebări despre droguri
Sam a început să folosească inteligența artificială la 18 ani pentru a solicita informații atât pentru sarcini obișnuite, cât și pentru întrebări legate de doze de substanțe ilegale. La început, chatbotul îi răspundea cu avertismente și refuzuri, dar, în timp, tânărul a reușit să obțină răspunsuri mai permisive prin reformularea întrebărilor.
Întrebările capcană și consumul de substanțe
Într-o discuție din februarie 2023, Sam întreba dacă este sigur să combine canabisul cu o doză mare de Xanax. După ce chatbotul a spus că nu este sigur, el a reformulat întrebarea, iar sistemul i-a oferit sugestii privind tipurile de canabis și cantități reduse de medicament. În decembrie 2024, tânărul a întrebat explicit „câte mg de Xanax și câte shot-uri de alcool ar putea ucide un bărbat cu toleranță medie”, cerând „răspunsuri numerice reale”.
Contextul personal al tânărului
Sam avea o luptă profundă cu anxietatea și depresia, deși exterior părea un tânăr relaxat, cu mulți prieteni și pasionat de jocuri video. Mama sa a încercat să-l ajute, internându-l într-o clinică pentru tratament după ce el i-a mărturisit consumul de droguri și alcool. Cu toate acestea, a doua zi, a fost găsit fără viață în dormitor, având buzele albastre.
Reacția OpenAI
OpenAI a transmis condoleanțe familiei și a subliniat că modelele actuale ale ChatGPT au măsuri de siguranță mult mai stricte. Un purtător de cuvânt a declarat că modelele sunt concepute să răspundă cu grijă la întrebările sensibile și să încurajeze utilizatorii să caute sprijin în lumea reală.
Reflecții finale
Mama lui Sam, după pierderea fiului său, a afirmat că este „prea obosită pentru a intenta un proces” împotriva sistemului. Această tragedie scoate în evidență riscurile potențiale ale utilizării inteligenței artificiale în discuții despre substanțe interzise și necesitatea unor măsuri mai stricte de protecție pentru utilizatori.