Aproape jumătate dintre răspunsurile oferite de asistenții virtuali bazați pe inteligența artificială (IA) în legătură cu tratamentul cancerului conțin erori sau informații incomplete. Un studiu recent, publicat într-o revistă științifică de prestigiu, a scos la iveală deficiențe semnificative în modul în care aceste sisteme procesează și răspund la întrebări legate de sănătate. Rezultatele sunt îngrijorătoare, având în vedere creșterea utilizării acestor instrumente de către pacienți.
Erori și informații incomplete despre tratamentele oncologice
Studiul a fost realizat de cercetători de la Lundquist Institute for Biomedical Innovation, din cadrul Harbor-UCLA Medical Center, și a analizat unele dintre cele mai utilizate platforme de inteligență artificială la nivel global. Printre acestea se numără Grok (xAI), ChatGPT (OpenAI), Gemini (Google), Meta AI și DeepSeek. Cercetătorii au constatat că un procent semnificativ din răspunsurile generate de aceste sisteme au fost considerate problematice.
Aproximativ 30% dintre răspunsuri au fost etichetate ca „parțial problematice”, fiind în mare parte corecte, dar incomplete. Mai grav, aproape 20% dintre răspunsuri au fost catalogate drept „foarte problematice”, conținând erori semnificative și lăsând loc interpretărilor subiective. Această lipsă de acuratețe este deosebit de îngrijorătoare în domeniul medical, unde informațiile eronate pot avea consecințe grave.
Capcanele algoritmilor și „echilibrul fals”
Cercetătorii au testat sistemele cu întrebări care vizau teme frecvent abordate în spațiul public, precum legătura dintre tehnologia 5G sau utilizarea antiperspirantelor și cancer. De asemenea, au investigat răspunsurile la întrebări despre siguranța steroizilor anabolizanți sau riscurile vaccinurilor. Rezultatele au relevat o tendință îngrijorătoare a platformelor de a prezenta un „echilibru fals”.
Aceasta înseamnă că sistemele acordă o importanță similară atât surselor științifice validate, cât și surselor nevalidate, cum ar fi bloguri, forumuri sau postări din social media. Această abordare, aparent neutră, poate induce în eroare pacienții și îi poate îndepărta de tratamentele medicale aprobate. Chatboturile au prezentat în unele cazuri și terapii alternative, cum ar fi acupunctura sau medicina pe bază de plante, chiar dacă au avertizat inițial că astfel de opțiuni nu sunt susținute de dovezi științifice.
Impactul utilizării IA în domeniul medical
Miza acestor constatări este cu atât mai mare cu cât utilizarea inteligenței artificiale pentru informații medicale este în creștere rapidă. Un sondaj Gallup arată că aproximativ unul din patru adulți din Statele Unite apelează la astfel de instrumente pentru sfaturi legate de sănătate. Această tendință este alimentată parțial de dificultatea de acces la servicii medicale.
În prezent, nivelul de încredere în răspunsurile IA rămâne limitat, doar o treime dintre utilizatori declarând că au încredere în informațiile primite. Specialiștii avertizează că informațiile eronate despre terapii alternative și suplimente sunt deja răspândite în mediul online și pot avea efecte adverse grave, inclusiv întârzierea accesului la tratamentele standard. Studiul subliniază importanța educației publice și a supravegherii adecvate pentru a preveni răspândirea informațiilor eronate.
