Acasă » Știri » ChatGPT oferă sfaturi periculoase persoanelor cu probleme psihice, avertizează psihologii

ChatGPT oferă sfaturi periculoase persoanelor cu probleme psihice, avertizează psihologii

De: Diana Cernea 22/03/2026 | 22:10
ChatGPT oferă sfaturi periculoase persoanelor cu probleme psihice, avertizează psihologii
Chatbotul și persoanele cu tulburări psihice, sursa-pexels.com

O investigație realizată de experți de la King’s College London și Association of Clinical Psychologists UK în colaborare cu The Guardian arată că ChatGPT poate oferi răspunsuri problematice în interacțiunile cu persoane care simulează tulburări psihice.

Testarea, bazată pe scenarii controlate în care un psihiatru și un psiholog au jucat rolul unor pacienți, sugerează că sistemul nu identifică întotdeauna corect situațiile de risc și poate valida idei periculoase.

AI-ul nu reușește să identifice situațiile periculoase

Cercetarea, realizată de un grup de experți de la King’s College London și Association of Clinical Psychologists UK, a analizat modul în care chatbotul le răspunde unor persoane cu probleme psihice.

Un psihiatru și un psiholog clinician au interacționat cu ChatGPT-5 simulând diferite tulburări mintale. În unele cazuri, sistemul a validat idei delirante fără să le conteste. De exemplu, atunci când un „pacient” a afirmat că este „următorul Einstein”, chatbotul l-a felicitat și l-a încurajat să-și dezvolte ideile. În alte situații, când acesta a susținut că este invincibil sau că poate trece prin mașini, răspunsurile au fost, din nou, încurajatoare, fără a semnala un posibil pericol.

Într-un caz extrem, sistemul nu a intervenit imediat nici atunci când utilizatorul a sugerat idei violente, reacționând abia într-un stadiu foarte avansat al conversației.

Cercetătorii spun că aceste exemple arată că inteligența artificială poate rata semnale evidente de risc sau deteriorare a stării mentale și poate răspunde necorespunzător în situații critice.

Probleme mai mari în cazurile complexe

În cazul unor afecțiuni mai ușoare, cercetătorii au observat și exemple de sfaturi utile, ceea ce sugerează că dezvoltatorii au încercat să îmbunătățească sistemul în colaborare cu specialiști din domeniul sănătății mintale. Totuși, aceștia avertizează că chatbotul nu poate înlocui ajutorul profesional.

Pentru cazurile complexe, însă, rezultatele au fost mai îngrijorătoare. Într-un scenariu în care un pacient suferea de psihoză, sistemul nu a recunoscut semnele esențiale ale afecțiunii și a continuat să interacționeze în moduri care au întărit convingerile delirante ale acestuia.

Într-un alt caz, o profesoară cu tulburare obsesiv-compulsivă i-a mărturisit chatbotului că se temea că ar fi rănit un copil fără să-și dea seama. Chatbotul i-a sugerat să contacteze școala și serviciile de urgență, o recomandare considerată de specialiști ca fiind nepotrivită, pentru că probabil nu face decât să amplifice anxietatea persoanei respective.

Experții spun că astfel de răspunsuri pot fi influențate de modul în care sunt antrenate aceste sisteme, care tind să evite contradicțiile și să ofere răspunsuri pe placul utilizatorilor.

Îngrijorări și apeluri pentru reglementare

Studiul vine pe fondul unor preocupări tot mai mari legate de impactul inteligenței artificiale asupra persoanelor vulnerabile. În Statele Unite, părinții unui adolescent au intentat un proces împotriva companiei OpenAI pentru că băiatul lor a discutat cu ChatGPT despre metode de sinucidere, iar apoi și-a luat viața la vârsta de numai 16 ani.

Psihologii și psihiatrii subliniază că, deși inteligența artificială poate facilita accesul la informații și resurse, ea nu poate înlocui relația dintre pacient și terapeut. Aceștia cer reglementări mai clare și implicarea specialiștilor pentru a îmbunătăți modul în care aceste sisteme răspund în situații delicate.

Reprezentanții OpenAI au declarat că lucrează constant la îmbunătățirea sistemului, colaborând cu experți pentru a identifica mai bine semnalele de alarmă cu privirea la starea psihică și pentru a ghida utilizatorii către a cere ajutor de specialitate.

Totuși, până când aceste tehnologii vor deveni mai sigure, experții avertizează că utilizarea lor în contexte sensibile trebuie făcută cu prudență și moderație.

CITEȘTE ȘI:

„Vorbeam cu ChatGPT de opt ori pe zi”: criza de singurătate a Generației Z. Când AI devine „cel mai ușor interlocutor”

Spania vrea să interzică rețelele sociale pentru copiii sub 16 ani: ce se știe până acum

Recomandarea video

Urmărește Cancan.ro pe Google News