PressHub24
Societate

Studiu: Prudență la întrebări despre sănătate adresate lui chatgpt

ChatGPT va solicita verificarea vârstei utilizatorilor europeni cu act sau selfie video

ChatGPT Health: Sfaturi medicale pe risc, avertizează un studiu recent

Milioane de persoane utilizează săptămânal ChatGPT pentru a obține sfaturi medicale, dar un studiu recent publicat în revista Nature avertizează asupra unor riscuri importante. Analiza arată că modelul de inteligență artificială, dezvoltat de OpenAI, nu este întotdeauna capabil să identifice corect urgențele medicale, subestimând gravitatea unor situații critice.

Peste 230 de milioane de persoane folosesc platforma săptămânal pentru a cere sfaturi medicale, de la verificarea alimentelor până la găsirea de remedii pentru răceli. Lansat în ianuarie 2026, ChatGPT Health promitea utilizatorilor acces la răspunsuri personalizate, pe baza informațiilor de sănătate introduse în aplicație.

Dificultăți în identificarea urgențelor

Studiul a analizat performanțele ChatGPT Health în diverse scenarii medicale, de la afecțiuni minore până la urgențe reale. Cercetarea a constatat că, deși instrumentul a gestionat corect urgențele evidente, a subestimat gravitatea în peste jumătate din cazurile analizate care necesitau îngrijiri medicale imediate. „Am vrut să răspundem la o întrebare foarte simplă, dar esențială: dacă cineva se confruntă cu o urgență medicală reală și apelează la ChatGPT Health pentru ajutor, acesta îi va spune clar să se prezinte la camera de urgență?”, a declarat Ashwin Ramaswamy, autorul principal al studiului.

Potrivit cercetătorilor, modelul lingvistic se descurcă bine în cazul accidentelor vasculare cerebrale sau ale reacțiilor alergice severe. Probleme majore apar atunci când pericolul nu este imediat evident. Într-un scenariu de astm, de exemplu, sistemul a identificat semnele de avertizare ale insuficienței respiratorii, dar a recomandat totuși așteptarea în loc să indice tratament de urgență.

Probleme în cazul riscului de suicid

Studiul a examinat, de asemenea, răspunsurile modelului în cazul utilizatorilor care au raportat intenții de automutilare. Rezultatele au fost similare. ChatGPT Health nu a reușit să ofere consecvent încurajări de a căuta ajutor imediat sau să ofere un link direct către o linie de asistență pentru crize. Autorii au observat că sistemul a răspuns mai bine pacienților care nu au identificat un mijloc de automutilare decât celor care au identificat unul. „Modelul nu era doar inconsecvent, ci paradoxal inversat în raport cu gravitatea clinică”, se menționează în studiu.

Alvira Tyagi, al doilea autor al studiului, a subliniat importanța de a integra inteligența artificială în îngrijirea medicală cu precauție, nu ca un înlocuitor al judecății clinice. Recomandarea cercetătorilor este ca persoanele cu simptome agravate sau îngrijorătoare să solicite asistență medicală directă, în loc să se bazeze exclusiv pe îndrumările chatbotului.

În contextul acestui studiu, OpenAI a declarat că lucrează continuu la îmbunătățirea modelului și a preciziei informațiilor oferite în domeniul medical, intenționând să lanseze o nouă versiune actualizată a ChatGPT Health în trimestrul următor.

Distribuie: