Părinţii unui bărbat care a murit anul trecut în urma unei supradoze accidentale de droguri au dat în judecată OpenAI şi pe fondatorul şi CEO-ul său, Sam Altman, într-un tribunal din California, marţi, susţinând că tânărul a fost îndrumat de ChatGPT să consume o combinaţie periculoasă de substanţe, relatează Reuters.
Conform sursei citate, Leila Turner-Scott şi Angus Scott afirmă că fiul lor, Sam Nelson, în vârstă de 19 ani, folosea chatbotul pentru recomandări privind combinarea diferitelor droguri. Ei susţin că acesta l-a încurajat să ia medicamentul pe bază de prescripţie Xanax pentru a trata greaţa provocată de kratom, un produs pe bază de plante cu efecte similare opioidelor.
Potrivit informaţiilor publicate din proces, combinaţia dintre aceste droguri şi alcool a dus la moartea lui Nelson, în mai 2025. Acţiunea a fost depusă la tribunalul de stat din San Francisco.
Procesul solicită despăgubiri financiare şi cere instanţei să suspende lansarea ChatGPT Health, o platformă anunţată de OpenAI în ianuarie, care permite utilizatorilor să încarce dosare medicale şi să primească sfaturi medicale personalizate.
În prezent, utilizatorii ChatGPT se pot înscrie pe o listă de aşteptare pentru a accesa ChatGPT Health. Un raport publicat de OpenAI în ianuarie arăta că, în total, 40 de milioane de utilizatori adresează zilnic ChatGPT întrebări legate de sănătate.
Drew Pusateri, purtător de cuvânt al OpenAI, a descris situaţia drept tragică şi a precizat că interacţiunile au avut loc pe o versiune mai veche a ChatGPT, care nu mai este disponibilă. El a spus că firma lucrează constant pentru îmbunătăţirea siguranţei chatbotului.
„ChatGPT nu este un substitut pentru îngrijirea medicală sau sănătatea mintală şi am continuat să îmbunătăţim modul în care răspunde în situaţii sensibile şi acute, cu ajutorul experţilor în sănătate mintală”, a declarat Pusateri. „Măsurile de siguranţă din ChatGPT sunt concepute pentru a identifica stările de suferinţă, pentru a gestiona în siguranţă solicitările periculoase şi pentru a îndruma utilizatorii către ajutor real.”
Procesul reprezintă cea mai recentă acţiune pentru moarte din culpă intentată împotriva unei companii de inteligenţă artificială şi vine la puţin peste o zi după ce familia unui bărbat ucis într-un atac armat în masă la Florida State University a dat în judecată OpenAI, susţinând că ChatGPT l-a ajutat pe atacator să planifice atacul, relatează Reuters.
Potrivit dosarului de proces, chatbotul i-a spus lui Nelson cum să obţină substanţe ilegale, l-a sfătuit ce drog să consume în continuare şi a făcut recomandări pe baza experienţelor pe care acesta spunea că le caută. De asemenea, chatbotul ar fi păstrat în memorie detalii despre consumul de substanţe al lui Nelson, ceea ce i-ar fi permis să ofere recomandări mai personalizate.
Acţiunea acuză OpenAI că a lansat în grabă modelul ChatGPT-4o pentru a ţine pasul cu rivali precum Google, fără testările de siguranţă necesare. Compania este acuzată că a proiectat un produs defectuos şi că nu şi-a avertizat utilizatorii cu privire la riscuri. Procesul invocă şi o lege din California care interzice companiilor AI să folosească drept apărare faptul că un chatbot a provocat autonom prejudicii unei persoane.
„În California, dacă reclamanţii demonstrează că au fost prejudiciaţi de produsul bazat pe inteligenţă artificială al pârâţilor, atunci aceştia vor fi răspunzători pentru acel prejudiciu, indiferent cât de inteligentă, independentă, răuvoitoare, necontrolată, rebelă, libertină, stochastică sau autonomă ar fi bestia pe care au creat-o”, se arată în proces.
• ChatGPT nu este la prima acuzaţie de „sfaturi criminale”
Familia uneia dintre victimele atacului armat mortal de anul trecut de la Florida State University, din data de 17 aprilie, a acuzat dezvoltatorul ChatGPT, OpenAI, că l-a ajutat pe suspect înaintea atacului, potrivit CBS News.
Suspectul, Phoenix Ikner, în vârstă de 21 de ani, a pledat nevinovat la acuzaţiile de crimă şi tentativă de crimă în cazul atacului din 2025, procesul urmând să înceapă mai târziu în acest an. Procurorul general al statului Florida a deschis, de asemenea, o investigaţie penală împotriva OpenAI în legătură cu atacul.
Două persoane, Tiru Chabba şi Robert Morales, au fost ucise, iar alte cinci au fost grav rănite în atacul armat produs în campusul principal al universităţii din Tallahassee. Familia lui Chabba a depus duminică procesul împotriva OpenAI şi a suspectului la o instanţă federală.
Potrivit dosarului de proces, ChatGPT l-ar fi ajutat pe suspect să planifice atacul pe parcursul mai multor luni, inclusiv prin sugestii privind armele pe care să le folosească, locurile din campus unde să meargă şi momentele în care cât mai multe persoane ar fi fost expuse riscului.
„Ikner a avut mai multe conversaţii lungi cu ChatGPT despre interesul său pentru Hitler, nazişti, fascism, naţional-socialism, naţionalism creştin şi chiar mai rău. Au discutat despre mai multe atacuri armate în masă şi au planificat împreună acest atac”, a declarat avocatul Bakari Sellers, care o reprezintă pe văduva lui Chabba, Vandana Joshi. „Nimeni nu a semnalat vreodată aceste lucruri drept îngrijorătoare. Nimeni nu a sunat la poliţie, la un psihiatru sau măcar la familia lui Ikner, deoarece acest lucru ar fi încălcat modelul de afaceri al OpenAI.”
Purtătorul de cuvânt al OpenAI, Drew Pusateri, a declarat luni pentru CBS News că firma cooperează cu autorităţile după atac.
„Atacul armat de anul trecut de la Florida State University a fost o tragedie, însă ChatGPT nu este responsabil pentru această crimă îngrozitoare”, a spus Pusateri. El a adăugat că, „în acest caz, ChatGPT a oferit răspunsuri factuale la întrebări, folosind informaţii care puteau fi găsite pe scară largă în surse publice de pe internet şi nu a încurajat sau promovat activităţi ilegale ori periculoase.”















































Opinia Cititorului