PressHub24
Tehnologie

Chatboți AI: 95% din simulări indică escaladare nucleară în război

Chatboți AI: 95% din simulări indică escaladare nucleară în război

IA, la un pas de Apocalipsă: Modelele de inteligență artificială simulează escaladarea nucleară

Un studiu recent, realizat de un cercetător de la King’s College London, aruncă o umbră grea asupra viitorului deciziilor strategice. Concluziile cercetării arată că modele sofisticate de inteligență artificială, precum ChatGPT, Claude și Gemini, manifestă o înclinație alarmantă spre escaladarea nucleară în simulări de crize geopolitice. În fiecare scenariu testat, cel puțin un sistem AI a recurs la amenințări cu arme atomice, generând îngrijorări profunde cu privire la influența pe care o va avea tehnologia IA asupra deciziilor strategice viitoare. Rezultatele analizei, publicate recent într-o versiune preliminară, subliniază necesitatea unei analize aprofundate a modului în care aceste sisteme procesează informațiile și iau decizii în situații de criză.

Metodologia: Superputerile nucleare în mâinile IA

Cercetarea a comparat comportamentul a trei platforme lingvistice majore: ChatGPT de la OpenAI, Claude de la Anthropic și Gemini Flash de la Google. Fiecare algoritm a fost plasat în rolul conducătorului unei superputeri nucleare, simulând un context inspirat din Războiul Rece. Algoritmii trebuiau să reacționeze la manevrele adversarului și să elaboreze strategii diplomatice și militare. Kenneth Payne, autorul studiului, a remarcat că „toate cele trei modele au tratat armele nucleare tactice drept o simplă treaptă în lanțul escaladării”. Exercițiul a dezvăluit o tendință îngrijorătoare a IA de a vedea armele nucleare ca pe un instrument acceptabil în cadrul unui conflict, ignorând potențialul devastator al acestora.

În fiecare simulare, sistemele de inteligență artificială au fost confruntate cu opțiuni variate: de la compromisuri diplomatice minore până la diverse tactici militare. Cu toate acestea, opțiunile de detensionare, de la compromisuri diplomatice minore până la reluarea jocului de la zero, au fost practic ignorate. Doar în 7% din cazuri s-a revenit la situația inițială, subliniind o reticență marcată față de retragere, percepută probabil ca un semn de slăbiciune.

Reacții diverse, rezultate similare: Tendința spre escaladare

Deși au manifestat comportamente distincte, toate platformele au evidențiat aceeași tendință periculoasă. Claude, de exemplu, a sugerat utilizarea armelor atomice în 64% din situații, deși a evitat în mod constant un război nuclear total. ChatGPT, în schimb, a ezitat inițial să escaladeze conflictul, dar a recurs frecvent la amenințări nucleare sub presiunea timpului. Gemini s-a dovedit cel mai imprevizibil, optând uneori pentru victorie prin mijloace convenționale, alteori propunând imediat un atac strategic masiv. Într-o situație, Gemini a emis chiar un ultimatum explicit, cerând oprirea imediată a operațiunilor adverse, cu amenințarea „unei lansări strategice nucleare complete”.

Aceste rezultate ridică întrebări critice privind modul în care IA „raționează” în situații de criză. Se pare că, lipsite de experiența emoțională și istorică specifică oamenilor, aceste sisteme procesează conflictul în termeni abstracți, fără a înțelege pe deplin consecințele reale ale unui război atomic.

Așadar, având în vedere expansiunea rapidă a IA în sectoare cheie, înțelegerea mecanismelor de „raționament” ale acestora devine esențială. Studiul subliniază necesitatea unei abordări prudente în integrarea IA în procesele decizionale globale, în special în domenii cu impact potențial devastator. În timp ce cercetătorii subliniază că nu se intenționează încredințarea codurilor nucleare inteligenței artificiale, implicarea tot mai mare a acestor sisteme în analiza strategică și asistarea decizională impune o analiză aprofundată a comportamentului lor în situații critice.

Distribuie: