Microsoft a introdus avertismente sau termeni de utilizare care limitează utilizarea AI-ului Copilot la divertisment, fiind criticate pe rețelele sociale pentru formularea acestora. Potrivit unor informații din surse precum TechCrunch, termenii au fost actualizați ultima dată pe 24 octombrie 2025. În aceste condiții, compania recomandă utilizatorilor să nu se bazeze pe rezultatele generate de Copilot pentru decizii importante.
Microsoft afirmă că „Copilot este destinat exclusiv divertismentului”, iar utilizatorii sunt avertizați că această tehnologie poate face greșeli și s-ar putea să nu funcționeze conform așteptărilor. În plus, compania precizează: „Poate face greșeli și s-ar putea să nu funcționeze așa cum este prevăzut. Nu vă bazați pe Copilot pentru sfaturi importante. Utilizați Copilot pe propria răspundere.”
Astfel de avertismente nu sunt exclusiv ale Microsoft. Alte companii, precum OpenAI și xAI, adoptă și ele mesaje care limitează încrederea în rezultatele oferite de inteligența artificială. De exemplu, atât OpenAI, cât și xAI recomandă utilizatorilor să nu considere rezultatele ca fiind „adevărul” absolut sau ca singura sursă de informații factuale.
Dezvoltarea și utilizarea limbajului de avertizare evidențiază o tendință mai largă în industria AI, menită să limiteze responsabilitatea companiilor în cazul în care tehnologia produce rezultate incorecte sau înșelătoare. În cazul Microsoft, această abordare ar putea fi interpretată și ca o încercare de a proteja compania de eventuale litigii sau reclamații legale legate de utilizarea iresponsabilă a AI-ului.
Specialiști în domeniu subliniază că aceste mesaje de avertizare pot genera confuzie în rândul utilizatorilor, mai ales în cazul celor care folosesc aceste tehnologii pentru activități profesionale, decizii critice sau în contexte în care acuratețea informațiilor contează foarte mult. În ultimele luni, tot mai multe companii s-au concentrat pe clarificarea limitselor AI-ului, pentru a evita riscurile unui utilizare necriticată sau a unor dezastre legale.
Microsoft a declarat pentru PCMag că va actualiza formularea limbajului de avertizare, deoarece „pe măsură ce produsul a evoluat, acel limbaj nu mai reflectă modul în care Copilot este utilizat astăzi și va fi modificat odată cu următoarea noastră actualizare”. Nu au fost specificate detalii precise despre momentul în care va avea loc această schimbare sau forma exactă pe care o va avea noile termeni de utilizare.
Instalarea unor caiete de sarcini mai restrictive pare să fie o strategie de a menține controlul asupra percepției publice în contextul în care tehnologia AI devine tot mai răspândită și mai integrată în activități diverse. În același timp, oriunde această tehnologie ajunge, apar și discuții despre responsabilitate și riscuri.
Pentru moment, aceste avertismente, inclusiv cele ale Microsoft, rămân în vigoare și trebuie tratate ca fiind avertizări de bază pentru orice utilizare a AI-ului. Într-o piață unde mulți investitori, utilizatori și dezvoltatori rămân interesați, însă, de profitabilitatea și inovarea continuă, aceste mesaje de limitare a așteptărilor vor fi probabil o componentă temporară sau un element de prudență pentru companii.
Microsoft a anunțat că în cursul acestui an va lansa o nouă actualizare pentru Copilot, iar acest proces va include și ajustarea formulării acestor avertismente pentru a fi cât mai clare și conforme cu modul actual de utilizare a produsului. În urma acestei modificări, utilizatorii vor putea beneficia de un limbaj de avertizare mai adaptat și mai precis în privința limitărilor AI-ului Microsoft.
