OpenAI pășește cu hotărâre în terenul riscurilor și responsabilităților generate de inteligența artificială, angajând un director pentru anticiparea și gestionarea acestor pericole, într-un moment în care controversele și problemele legate de modelele sale de AI devin din ce în ce mai evidente. Pentru această poziție extrem de critică, compania oferă un salariu anual de peste jumătate de milion de dolari, semnalând clar gravitatea și complexitatea misiunii. Ian Altman, CEO-ul OpenAI, a anunțat pe rețelele sociale că noul responsabil va trebui să „extindă, consolideze și coordoneze” programul de pregătire a riscurilor, o divizie esențială pentru asigurarea unui comportament sigur și controlabil al tehnologiilor dezvoltate.
Provocări majore ale AI și răspunsul OpenAI
Experiența recentă a companiei a scos la iveală probleme grave legate de utilizarea și controlul modelelor de inteligență artificială. În ultimele luni, ChatGPT a devenit subiectul unor critici și anchete pentru halucinații frecvente în documente importante, inclusiv jurisdicționale, dar și pentru acțiuni mai grave, precum generarea de conținut deepfake sau manipularea de imagini sensibile. Mai mult, în instanțe s-au adus acuzații ferme legate de modul în care aceste tehnologii pot afecta sănătatea mintală a utilizatorilor sau pot fi folosite abuziv pentru a manipula și distrage publicul.
Un caz șocant a fost cel al unui adolescent de 16 ani, care și-a pierdut viața după ce a consultat un chatbot pentru sfaturi de sinucidere, iar reprezentanții OpenAI au admis că modelele sale pot avea un impact nedorit asupra sănătății mentale și asupra securității cibernetice. În fața acestor evenimente, compania și-a dat seama că trebuie să-și reconfigureze abordarea și să pună un accent mai mare pe prevenție și control, iar noul post de „șef al pregătitului” are ca scop exact acest lucru.
Un rol extrem de delicat și de dificultate sporită
Căutarea unei persoane capabile să gestioneze aceste riscuri nu este o sarcină simplă. Potrivit anunțului, candidatul ideal va trebui să dezvolte și să adapteze continuu cadrul de pregătire, apllyând criterii de evaluare pentru capabilități nedorite ale modelelor și proiectând soluții pentru limitarea impactului lor negativ. Într-un mediu atât de dinamic, și de presant, acesta trebuie să anticipate și să răspundă rapid noilor riscuri și vulnerabilități apărute odată cu apariția de noi capabilități ale AI.
Realitatea cruntă rămâne însă: toate aceste eforturi și programe de pregătire se află încă sub semnul incertitudinii și potențialelor efecte adverse. Nu de puține ori, modelele de AI de la OpenAI au fost acuzate de provocarea unor crize de sănătate mintală sau de generarea în mod eronat a unor informații, situații care ridică serios întrebări cu privire la responsabilitatea și controlul asupra acestor tehnologii avansate. În plus, riscul legislativ și juridic pare în continuare să crească: cazul adolescentului sinucis după ce a apelat la chatbot pentru sfaturi este doar unul dintre exemplele care evidențiază lacunele actuale.
Perspective și provocări în fața tehnologiei de ultimă generație
OpenAI nu doar că trebuie să sigileze și să controleze riscurile existente, ci și să pregătească compania pentru un viitor în care resursele financiare trebuie să crească semnificativ pentru a susține dezvoltarea unor produse mai avansate, dar și mai periculoase. CEO-ul Altman a indicat recent intenția de a duce veniturile formidabile, care în prezent se cifrează în jurul a 13 miliarde de dolari anual, către 100 de miliarde în cel mult doi ani.
Aceasta implică nu doar o creștere frenetică a ofertelor tehnologice, ci și o responsabilitate sporită în gestionarea riscurilor. În același timp, vocea șefului OpenAI sugerează că viitorul va aduce tot mai multă automatizare, inclusiv în domeniul științei, dar și o nevoie stringentă de reglementare și supraveghere pentru a evita ca aceste tehnologii spectaculoase să devină arme și surse de instabilitate socială.
Dezvoltările din domeniul AI și ambițiile celor mai mari jucători din industrie indică clar faptul că, în următorii ani, vom asista la o cursă acerbă pentru stabilirea codurilor etice și a măsurilor de protecție, într-un context în care tehnologia avansează cu pași repezi, iar responsabilitatea rămâne în mâinile celor care o dezvoltă. Întrebarea nu mai este dacă vom ajunge să vedem consecințele acestor progrese, ci când și cum le vom putea controla, pentru a nu depăși limitele unei societăți încă fragile, în fața unei superinteligențe din ce în ce mai sofisticate.