OpenAI recunoaște riscurile atacurilor informatice generate de modelele AI și intensifică măsurile de apărare
Compania OpenAI a făcut recent un pas important în domeniul securității cibernetice, recunoscând oficial că tehnologia pe care o dezvoltă poate fi exploatată pentru creare de atacuri informatice tot mai sofisticate. Într-o postare pe blog, însărcinată cu dezvăluirea acestor vulnerabilități, reprezentanții companiei avertizează că astfel de atacuri „nu vor fi probabil niciodată rezolvate în totalitate”, semnalând dificultățile uriașe de a combate și preveni în întregime fraudele și ingineria socială bazate pe inteligența artificială.
Dezvoltarea unui „agent hacker” bazat pe modele lingvistice mari
Un element central în această discuție îl reprezintă funcția „agent mode” a noului browser AI, ChatGPT Atlas, lansat în octombrie. La scurt timp după apariție, cercetătorii în securitate au demonstrat că pot influența comportamentul acestui agent, folosindu-se de instrucțiuni ascunse în documente sau pagini aparent inofensive, pentru a induce în eroare sistemul. Aceasta extinde, conform experților, „suprafața de atac” din ce în ce mai mult — un indicator clar că tehnologia, deși inovatoare, implică riscuri majore.
Pentru a contracara aceste amenințări, OpenAI a început să investească în testarea continuă și în dezvoltarea unui sistem inovator. Astfel, compania a creat un „atacator automatizat”, bazat pe modele lingvistice mari, antrenat prin învățare prin recompensă pentru a juca rolul unui hacker. Scopul acestei inițiative este să identifice și să corecteze vulnerabilitățile înainte ca acestea să fie exploatate de răufăcători în lumea reală. În practică, acest atacator simulatează scenarii de inginerie socială și atacuri cibernetice, devenind un instrument esențial al strategiei de apărare a companiei.
Amenințarea persistă, iar răspunsurile tehnice nu sunt încă suficiente
Un exemplu concret al acestei vulnerabilități a fost relatat de către cercetători, care au ilustrat modul în care un e-mail malițios a putut determina agentul AI să trimită accidental un mesaj de demisie, în ciuda măsurilor de securitate implementate. În urma unor actualizări, însă, sistemul a devenit capabil să identifice și să semnaleze posibile atacuri, oferind astfel un plus de protecție utilizatorilor. Totuși, specialiștii în securitate avertizează că aceste riscuri continuă să fie ridicate, mai ales în contextul în care răufăcătorii devin tot mai inventivi și adaptabili în metodele de infiltrare.
Recomandările OpenAI pentru utilizatori subliniază importanța limitării accesului agenților AI și solicitarea confirmărilor pentru acțiuni sensibile, cum ar fi trimiterea de mesaje sau efectuarea plăților online. În ciuda progreselor tehnologice, especialista în domeniul securității contend că vor exista întotdeauna vulnerabilități untilate și că eforturile trebuie să fie continue pentru a supraveghea și a adapta soluțiile de apărare.
Privind în perspectivă, răspunsul la aceste amenințări devine tot mai complex, iar compania refraină la metode deseori inedite pentru a testa și întări sistemele de apărare AI. În timp ce tehnologia evoluează rapid, specialiștii previzionează o cursă continuă între dezvoltatorii de soluții și cei care încearcă să le exploateze. În final, aceasta este o bătălie pentru controlul și siguranța digitală, unde transparența, responsabilitatea și inovația vor fi cheile succesului.