Peste un milion de persoane vorbesc săptămânal despre gânduri suicidare în conversaţiile cu ChatGPT, potrivit unui anunţ publicat de compania OpenAI pe blogul său oficial, citat de The Guardian. Datele ridică semne de întrebare privind efectele pe care inteligenţa artificială le poate avea asupra sănătăţii mintale a utilizatorilor.
Conform analizei interne realizate de OpenAI, mesajele primite de chatbot conţin „indicatori expliciţi ai unor potenţiale planuri sau intenţii suicidare”. Compania a precizat, de asemenea, că aproximativ 0,07% dintre utilizatorii activi săptămânal - adică circa 560.000 de persoane din totalul de 800 de milioane - prezintă „posibile semne de urgenţe de sănătate mintală legate de psihoză sau manie”. OpenAI avertizează însă că aceste conversaţii sunt dificil de detectat şi că analiza este una preliminară.
Publicaţia britanică notează că anunţul vine într-un context tensionat pentru compania condusă de Sam Altman, aflată deja sub investigaţia Comisiei Federale pentru Comerţ din SUA, care analizează impactul chatboţilor asupra copiilor şi adolescenţilor. În plus, familia unui adolescent de 16 ani a intentat un proces împotriva OpenAI, acuzând că fiul lor s-a sinucis după conversaţii prelungite cu ChatGPT.
OpenAI susţine că recenta actualizare a modelului GPT-5 a redus comportamentele nedorite şi a îmbunătăţit siguranţa utilizatorilor, în urma unei evaluări bazate pe peste 1.000 de conversaţii privind autovătămarea şi suicidul. Compania a extins accesul la linii de urgenţă pentru situaţii de criză şi recomandă utilizatorilor să ia pauze în timpul sesiunilor lungi.
Pentru îmbunătăţirea acurateţei şi siguranţei răspunsurilor, OpenAI a angajat peste 170 de medici şi experţi în sănătate mintală. Aceştia contribuie la dezvoltarea modului în care ChatGPT răspunde întrebărilor sensibile şi la evaluarea riscurilor psihologice asociate utilizării modelului.
Atât cercetătorii în inteligenţă artificială, cât şi specialiştii în sănătate mintală avertizează că utilizatorii vulnerabili pot apela la chatboţi pentru sprijin emoţional, ceea ce poate accentua tulburările existente. Totodată, aceştia semnalează tendinţa chatboţilor de a confirma deciziile sau iluziile utilizatorilor, indiferent dacă acestea sunt dăunătoare.
Într-un context separat, Sam Altman a anunţat recent intenţia OpenAI de a permite o gamă mai largă de conţinut, inclusiv erotic, în versiunile viitoare ale ChatGPT, „pentru a-i trata pe utilizatorii adulţi ca pe adulţi”. El a subliniat însă că produsul rămâne „restrictiv” în privinţa subiectelor sensibile, inclusiv cele legate de sănătatea mintală.
În caz de gânduri suicidare sau de autovătămare, în România pot fi apelate următoarele linii de sprijin: TelVerde Antisuicid - 0800.801.200 (vinerea, sâmbăta şi duminica, între orele 7:00-19:00), DepreHUB Helpline - 0374.456.420 (non-stop) şi 112, numărul unic de urgenţă.




















































1. fără titlu
(mesaj trimis de anonim în data de 28.10.2025, 13:42)
sel ectie naturala care e problema? Cu 8 miliarde de prostovani si Pamantului ii trec prin cap ganduri de sinucidere:-)