Un model de inteligență artificială (AI) dezvoltat pentru securitate cibernetică, denumit Mythos AI, a fost accesat de utilizatori neautorizați, în ciuda faptului că se afla într-un program restrâns de testare. Modelul, creat de compania Anthropic, este conceput pentru aplicații la nivel enterprise și este testat în prezent de un grup select de companii. Incidentul ridică semne de întrebare cu privire la securitatea tehnologiilor AI în dezvoltare și la riscurile asociate accesului neautorizat.
Acces neautorizat la Mythos AI
Potrivit informațiilor apărute, accesul la modelul Mythos AI a fost facilitat printr-un furnizor terț implicat în testare. Utilizatorii neautorizați ar fi reușit să pătrundă în sistem prin intermediul unui forum online privat, unde se discută despre tehnologii AI nelansate public. Se pare că aceștia nu doar că au reușit să acceseze modelul, dar l-ar fi și folosit în mod repetat după obținerea accesului. Acest lucru subliniază vulnerabilitățile potențiale ale tehnologiilor aflate în stadii incipiente de dezvoltare și necesitatea unor măsuri de securitate riguroase.
Reacția companiei Anthropic
Un purtător de cuvânt al Anthropic a confirmat că firma analizează situația. Acesta a precizat însă că, momentan, nu există dovezi că infrastructura internă a companiei ar fi fost compromisă. „Investigăm informațiile apărute și, până acum, nu avem indicii că sistemele noastre au fost afectate”, a transmis compania. Mythos AI nu a fost lansat public tocmai din cauza capacităților sale avansate în domeniul securității cibernetice. Compania a avertizat anterior că tehnologia „poate genera riscuri fără precedent”, dacă ajunge în mâini nepotrivite. Modelul este testat în cadrul unui program intern, cunoscut drept Project Glasswing, care implică doar un număr limitat de parteneri din tehnologie și sectorul financiar.
Implicații pentru companii și securitate
Printre companiile care testează modelul se numără giganți precum Amazon, Apple și JPMorgan Chase. De asemenea, instituții financiare precum Goldman Sachs, Citigroup, Bank of America și Morgan Stanley ar fi implicate în testarea tehnologiei. Modelul este utilizat în principal pentru identificarea vulnerabilităților informatice și consolidarea sistemelor de securitate. Incidentul pune sub semnul întrebării modul în care companiile gestionează datele sensibile și infrastructura de securitate în contextul dezvoltării rapide a tehnologiilor AI. Investigația Anthropic asupra accesului neautorizat la modelul Mythos AI este în curs de desfășurare.
