Inteligența artificială, la proba consilierii psihologice: chatbot-urile nu respectă standardele etice
Modelele lingvistice de mari dimensiuni (LLM), precum ChatGPT, utilizate pe scară largă pentru diverse servicii, inclusiv în domeniul sănătății mintale, nu sunt pregătite pentru a oferi sfaturi psihologice adecvate. Un studiu recent, publicat de ScienceDaily, arată că aceste chatbot-uri nu reușesc să respecte standardele de etică profesională stabilite de organizații precum American Psychological Association, gestionând greșit situațiile de criză și oferind răspunsuri care pot întări convingeri dăunătoare.
Incidente etice multiple, de la lipsa adaptării la empatie falsă
Cercetătorii au identificat 15 riscuri etice distincte, grupate în cinci categorii principale. Printre acestea se numără lipsa adaptării contextuale, adică ignorarea situației specifice a unei persoane și oferirea de sfaturi generice. De asemenea, au fost observate cazuri de colaborare terapeutică deficitară, unde chatbot-urile domină conversația și, uneori, întăresc convingeri eronate. Un alt aspect îngrijorător este empatia înșelătoare, unde sistemele folosesc expresii precum „Te înțeleg” fără a manifesta o înțelegere reală.
Studiul a scos la iveală și probleme legate de discriminare, cu manifestări de prejudecăți legate de gen, cultură sau religie. De asemenea, a fost semnalată lipsa de siguranță și de gestionare a crizelor, chatbot-urile refuzând să abordeze probleme sensibile, eșuând în a îndruma utilizatorii către ajutorul adecvat sau răspunzând inadecvat la crize, inclusiv gânduri suicidare. Cercetătorii au subliniat că, spre deosebire de terapeuții umani, consilierii LLM nu beneficiază de cadre de reglementare stabilite pentru a gestiona încălcările etice.
Prompturile, o soluție limitată
Zainab Iftikhar, doctorand în informatică la Brown, care a condus studiul, a analizat posibilitatea ca prompturile formulate cu atenție să ghideze sistemele de inteligență artificială să se comporte mai etic. Prompturile sunt instrucțiuni scrise pentru a direcționa rezultatul unui model, fără a-l reantrena sau a adăuga date noi. „Prompturile sunt instrucțiuni date modelului pentru a-i ghida comportamentul în vederea realizării unei sarcini specifice”, a explicat Iftikhar. Cu toate acestea, studiul a relevat limitele acestei abordări.
Pentru evaluare, cercetătorii au utilizat simulări de chat bazate pe conversații reale de consiliere umană, analizate de psihologi clinici autorizați. Modelele testate au inclus versiuni ale seriei GPT de la OpenAI, Claude de la Anthropic și Llama de la Meta. Rezultatele au arătat că, în ciuda eforturilor de a îmbunătăți comportamentul etic prin prompturi, sistemele nu au reușit să ofere o consiliere sigură și adecvată.
În contextul acestui studiu, experții subliniază necesitatea unor standarde etice, educaționale și juridice clare pentru consilierii LLM. Aceste standarde ar trebui să reflecte calitatea și rigoarea îngrijirii necesare pentru psihoterapia facilitată de oameni.
