Sam Altman poate controla viitorul nostru, dar poate fi de încredere

OpenAI, în centrul unui scandal legat de transparență și etică

Un nou scandal zguduie compania de tehnologie OpenAI, după dezvăluiri despre lipsa de transparență și contradicții legate de planurile sale pentru siguranța inteligenței artificiale avansate. În timp ce directorii susțineau public că se concentrează pe siguranța AI-ului, interiorul companiei trădează o serie de diferențe majore între promisiuni și realitate, privind alocarea resurselor și progresul în programul de superaliniere.

Promisiuni încălcate privind resursele pentru siguranță

În 2022, OpenAI anunța intenția de a dedica 20% din resursele sale de calcul pentru un „superaliniament” al inteligenței artificiale. Acest pas era văzut ca o măsură esențială pentru prevenirea scenariilor catastrofale, precum autonomia completă a AI-ului sau chiar dispariția umanității. La acea vreme, oficialii vorbiseră despre un potențial valoric de peste un miliard de dolari pentru aceste inițiative.

Însă, investigațiile au arătat că resursele de calcul dedicate acestor programe nu depășeau, în realitate, 1-2%. Mai mult, cele mai puse la dispoziție pentru eforturi de siguranță se afla pe cele mai vechi și mai slabe clustere de hardware. În pofida protestelor interne, oficialii au negat orice discrepanță, susținând că promisiunea a fost doar un ideal, nu o angajare concretă.

Conflict între declarații și acțiuni

Modul în care OpenAI a gestionat informațiile legate de produsul GPT-4 ridică întrebări serioase despre transparență. CEO-ul Sam Altman și echipa sa au prezentat o imagine optimistă în fața consiliului, asigurând că toate funcțiile critice au fost aprobate de un panel de specialiști în siguranta. Însă, mai apoi s-a dovedit că unele dintre cele mai controversate caracteristici – precum personalizarea avansată sau utilizarea ca asistent personal – nu erau, de fapt, semnalate pentru aprobare și nici nu au fost evaluate în detaliu.

De asemenea, compania a omis să informeze complet despre un incident semnificativ: o versiune preliminară a ChatGPT a fost lansată în India fără o verificare de siguranță cerută. Aceasta a fost o încălcare explicită a procedurilor și a atras critici interne, mai ales după ce membrii Consiliului au aflat din mass-media despre situație.

Schimbări în focusul companiei și impactul asupra siguranței

De la începuturile sale, OpenAI a fost motivată de preocupările legate de riscurile AI-ului, însă mai recent, aceste preocupări s-au intensificat cu privire la evoluția rapidă a tehnologiilor. În timpul unui eveniment intern, Ilya Sutskever, unul dintre cofondatorii companiei, a avertizat despre necesitatea unei tranziții masive către programe dedicate siguranței, dacă nu vor vrea ca AI-ul să scape de sub control.

Cu toate acestea, majoritatea eforturilor în domeniul superaliniamentului au fost anulate în 2023, odată cu dizolvarea echipei speciale, care nu a reușit să își atingă obiectivele. În același timp, există indicii ferme conform cărora, dincolo de grija pentru siguranță, resursele hardware pentru proiecte profitabile sunt prioritatea numărul unu pentru conducerea companiei.

Un fost angajat susține că, în anumite momente, oficialii au manifestat o reticență tot mai mare față de transparență și reguli stricte. De exemplu, în decembrie 2022, membri ai consiliului au aflat accidental despre nereguli în modul în care au fost gestionate deciziile legate de GPT-4 și despre faptul că anumite caracteristici nu au fost supuse verificărilor oficiale.

OpenAI se află acum în fața unor presiuni sporite, atât din partea publicului, cât și din partea comunității globale de experți în AI. În timp ce publicul așteaptă explicații clare și măsuri concrete pentru asigurarea siguranței, compania continuă să se confrunte cu dilema între profit și responsabilitate. În data de 15 aprilie 2023, a fost anunțat un nou program de audit independent pentru unele dintre cele mai controversate funcții ale GPT-4, dar până în prezent, accesul la date exacte rămâne restricționat.

Raluca Florea

Autor

Lasa un comentariu