Cercetarea, realizată de un grup de experți de la King’s College London și Association of Clinical Psychologists UK, a analizat modul în care chatbotul le răspunde unor persoane cu probleme psihice.
Un psihiatru și un psiholog clinician au interacționat cu ChatGPT-5 simulând diferite tulburări mintale. În unele cazuri, sistemul a validat idei delirante fără să le conteste. De exemplu, atunci când un „pacient” a afirmat că este „următorul Einstein”, chatbotul l-a felicitat și l-a încurajat să-și dezvolte ideile. În alte situații, când acesta a susținut că este invincibil sau că poate trece prin mașini, răspunsurile au fost, din nou, încurajatoare, fără a semnala un posibil pericol.
Într-un caz extrem, sistemul nu a intervenit imediat nici atunci când utilizatorul a sugerat idei violente, reacționând abia într-un stadiu foarte avansat al conversației.
Cercetătorii spun că aceste exemple arată că inteligența artificială poate rata semnale evidente de risc sau deteriorare a stării mentale și poate răspunde necorespunzător în situații critice.
În cazul unor afecțiuni mai ușoare, cercetătorii au observat și exemple de sfaturi utile, ceea ce sugerează că dezvoltatorii au încercat să îmbunătățească sistemul în colaborare cu specialiști din domeniul sănătății mintale. Totuși, aceștia avertizează că chatbotul nu poate înlocui ajutorul profesional.
Pentru cazurile complexe, însă, rezultatele au fost mai îngrijorătoare. Într-un scenariu în care un pacient suferea de psihoză, sistemul nu a recunoscut semnele esențiale ale afecțiunii și a continuat să interacționeze în moduri care au întărit convingerile delirante ale acestuia.
Într-un alt caz, o profesoară cu tulburare obsesiv-compulsivă i-a mărturisit chatbotului că se temea că ar fi rănit un copil fără să-și dea seama. Chatbotul i-a sugerat să contacteze școala și serviciile de urgență, o recomandare considerată de specialiști ca fiind nepotrivită, pentru că probabil nu face decât să amplifice anxietatea persoanei respective.
Experții spun că astfel de răspunsuri pot fi influențate de modul în care sunt antrenate aceste sisteme, care tind să evite contradicțiile și să ofere răspunsuri pe placul utilizatorilor.
Studiul vine pe fondul unor preocupări tot mai mari legate de impactul inteligenței artificiale asupra persoanelor vulnerabile. În Statele Unite, părinții unui adolescent au intentat un proces împotriva companiei OpenAI pentru că băiatul lor a discutat cu ChatGPT despre metode de sinucidere, iar apoi și-a luat viața la vârsta de numai 16 ani.
Psihologii și psihiatrii subliniază că, deși inteligența artificială poate facilita accesul la informații și resurse, ea nu poate înlocui relația dintre pacient și terapeut. Aceștia cer reglementări mai clare și implicarea specialiștilor pentru a îmbunătăți modul în care aceste sisteme răspund în situații delicate.
Reprezentanții OpenAI au declarat că lucrează constant la îmbunătățirea sistemului, colaborând cu experți pentru a identifica mai bine semnalele de alarmă cu privirea la starea psihică și pentru a ghida utilizatorii către a cere ajutor de specialitate.
Totuși, până când aceste tehnologii vor deveni mai sigure, experții avertizează că utilizarea lor în contexte sensibile trebuie făcută cu prudență și moderație.
CITEȘTE ȘI:
Spania vrea să interzică rețelele sociale pentru copiii sub 16 ani: ce se știe până acum