Imagine:
Microsoft, criticată pentru avertismentul legat de Copilot, promite modificări
București – Gigantul tehnologic american Microsoft se confruntă cu critici, după ce termenii de utilizare ai instrumentului său de inteligență artificială, Copilot, au fost actualizați. Platforma este destinată „exclusiv divertismentului”, cu avertismente explicite cu privire la posibilele erori și fiabilitatea limitată. Compania a promis că va actualiza termenii, considerând că limbajul folosit este „învechit”.
Criticile au apărut pe rețelele de socializare, semnalând discrepanțele dintre intenția de a convinge clienții corporativi să plătească pentru Copilot și avertismentele cu privire la riscurile utilizării. TechCrunch a raportat că termenii au fost actualizați ultima oară la data de 24 octombrie 2025. În prezent, Microsoft se concentrează pe atragerea clienților corporativi pentru serviciile Copilot.
Ambiguitate și atenționări
Termenii de utilizare ai Copilot avertizează utilizatorii că platforma „poate face greșeli și s-ar putea să nu funcționeze așa cum este prevăzut”. De asemenea, utilizatorii sunt sfătuiți să nu se bazeze pe Copilot pentru sfaturi importante și să-l folosească pe propria răspundere. Aceste precauții ridică semne de întrebare cu privire la credibilitatea instrumentului, mai ales în contextul în care Microsoft încearcă să-și monetizeze serviciile de inteligență artificială către clienții corporativi.
Un purtător de cuvânt al Microsoft a declarat pentru PCMag că compania va actualiza „limbajul învechit”. „Pe măsură ce produsul a evoluat, acel limbaj nu mai reflectă modul în care Copilot este utilizat astăzi și va fi modificat odată cu următoarea noastră actualizare”, a precizat acesta. Declarația sugerează că Microsoft este conștientă de necesitatea de a alinia tonul și avertismentele cu obiectivele sale comerciale.
Tendințe în industria IA
Publicația Tom’s Hardware a subliniat că Microsoft nu este singura companie care adoptă astfel de avertismente. OpenAI și xAI, de asemenea, informează utilizatorii că rezultatele obținute nu trebuie considerate „adevărul” sau „singurul serviciu de adevăr sau informații factuale”. Această abordare reflectă o tendință mai largă în industria inteligenței artificiale, unde companiile încearcă să gestioneze așteptările și riscurile asociate cu utilizarea tehnologiilor IA.
Companiile recunosc limitările acestor instrumente și intenționează să construiască o relație de încredere cu utilizatorii. Recunoașterea erorilor și a limitărilor este esențială pentru a evita acuzațiile de promovare falsă sau de inducere în eroare a consumatorilor. Acesta este un pas important în dezvoltarea responsabilă a inteligenței artificiale.
Se așteaptă ca Microsoft să lanseze o versiune actualizată a termenilor de utilizare ai Copilot odată cu următoarea actualizare a platformei.
