Inteligența artificială, un pericol pentru sănătatea publică: peste jumătate din sfaturile medicale oferite de roboții conversaționali sunt problematice
Noi cercetări arată că roboții conversaționali (chatboții) cu inteligență artificială utilizați pe scară largă oferă răspunsuri adesea incorecte sau înșelătoare la întrebările legate de sănătate. Studiul, publicat recent, scoate în evidență potențialul de dezinformare pe care aceste instrumente îl pot răspândi, cu consecințe grave pentru pacienți.
Specialiști au testat roboți conversaționali precum Gemini (de la Google), DeepSeek, Meta AI, ChatGPT (de la OpenAI) și Grok (de la xAI), în încercarea de a evalua acuratețea informațiilor medicale pe care le generează. Rezultatele sunt alarmante: aproape jumătate din răspunsurile furnizate au fost evaluate ca fiind problematice. Aceste constatări ridică semne de întrebare serioase cu privire la utilizarea acestor tehnologii în domeniul medical.
Răspunsuri înșelătoare și citări deficitare
Studiul a fost concentrat pe cinci domenii medicale vulnerabile la dezinformare: cancer, vaccinuri, celule stem, nutriție și performanță atletică. Cercetătorii au adresat 50 de întrebări fiecărui chatbot, concepute pentru a testa limitele acestora în furnizarea de informații corecte. Din totalul de 250 de răspunsuri, aproape 50% au fost considerate problematice.
În plus, calitatea citărilor a fost una dintre problemele majore. Chiar dacă roboții au reușit să ofere referințe, acuratețea acestora a lăsat de dorit. Niciun chatbot nu a generat o listă de referințe completă și precisă, accentuând dificultatea de a verifica informațiile furnizate. Răspunsurile au fost, de asemenea, greu de înțeles pentru persoanele fără studii superioare.
Grok, cel mai problematic chatbot
Deși nu s-au identificat diferențe semnificative de performanță între roboții testați, Grok s-a remarcat prin furnizarea celei mai mari proporții de răspunsuri problematice. Cele mai corecte răspunsuri au fost obținute la întrebările despre vaccinuri și cancer, în timp ce celulele stem, nutriția și performanța atletică au generat cele mai multe erori.
Aceste rezultate subliniază necesitatea unei abordări prudente în ceea ce privește implementarea inteligenței artificiale în domeniul medical, fără o supraveghere atentă, existând riscul amplificării dezinformării.
Autorii studiului avertizează asupra riscurilor asociate cu implementarea rapidă a acestor tehnologii în unitățile de sănătate, fără o supraveghere adecvată.
