PressHub24
Tehnologie

ChatGPT, predispus la erori în cazuri medicale grave, avertizează medicii

ChatGPT, predispus la erori în cazuri medicale grave, avertizează medicii

ChatGPT, folosit de milioane de oameni pentru sfaturi medicale, prezintă riscuri majore

Peste 230 de milioane de persoane folosesc săptămânal ChatGPT pentru a obține informații despre sănătate, arată datele companiei OpenAI. Utilizatorii pun întrebări despre diverse aspecte, de la siguranța alimentelor până la tratamente pentru răceli și gestionarea alergiilor. În ianuarie 2026, OpenAI a lansat ChatGPT Health, o funcție care permite conectarea informațiilor medicale personale, precum dosare medicale sau date din aplicații de monitorizare a sănătății, pentru a oferi răspunsuri personalizate. Cu toate acestea, un studiu recent atrage atenția asupra riscurilor asociate utilizării acestei tehnologii.

Greșeli grave în situații de urgență

Un studiu realizat de cercetători de la Mount Sinai din New York a analizat modul în care ChatGPT Health evaluează diferite scenarii clinice. Rezultatele au arătat că sistemul funcționează relativ bine în cazurile medicale evidente, precum accidente vasculare cerebrale sau reacții alergice severe. Problemele apar însă în situațiile în care gravitatea nu este imediat clară. Studiul a investigat 60 de scenarii clinice din 21 de specialități medicale.

În peste jumătate dintre cazurile care necesitau intervenție medicală de urgență, ChatGPT Health a subestimat gravitatea situației. De exemplu, într-un scenariu legat de astm, sistemul a identificat corect semnele timpurii ale insuficienței respiratorii, dar a recomandat așteptarea în locul prezentării la urgență. „Sistemul poate oferi informații utile, dar nu trebuie să înlocuiască evaluarea medicală profesionistă,” au precizat cercetătorii în raportul studiului.

Reacții inadecvate în cazul gândurilor suicidare

Studiul a analizat, de asemenea, modul în care sistemul reacționează atunci când utilizatorii menționează gânduri de auto-vătămare sau suicid. Chatbotul ar trebui să afișeze automat un mesaj de ajutor și să direcționeze utilizatorii către linii de criză. Cercetătorii au constatat însă că aceste avertismente nu apăreau mereu, iar în unele cazuri reacția sistemului era paradoxal mai slabă în situațiile mai grave.

Autorii studiului subliniază că instrumentele bazate pe inteligență artificială pot fi utile pentru informare, dar nu trebuie să înlocuiască evaluarea medicală profesionistă. Ei recomandă ca persoanele cu simptome serioase, cum ar fi durere în piept, dificultăți de respirație, reacții alergice severe sau modificări ale stării mentale, să solicite direct ajutor medical dedicat. Studiul subliniază importanța evoluției acestor modele AI, performanța lor putând fi îmbunătățită prin actualizări continue.

Într-un răspuns recent, OpenAI a anunțat că va lansa o nouă versiune a ChatGPT Health în trimestrul al treilea al anului 2026, care include îmbunătățiri semnificative în ceea ce privește detectarea și gestionarea situațiilor de urgență.

Distribuie: