Yoshua Bengio, unul dintre pionierii învățării automate și unul dintre cei care au pus bazele „deep learning-ului” modern, a fost timp de ani de zile o voce alarmantă în domeniul inteligenței artificiale. El a avertizat, adesea cu o sinceritate acută, asupra riscurilor pe care le-ar putea genera sistemele superinteligente, chiar punând în discuție existența umanității. Însă, într-un recent interviu, cercetătorul și-a schimbat tonul, afirmând că ultimele sale descoperiri și abordări tehnice ar putea fi cheia pentru gestionarea celor mai mari amenințări ale inteligenței artificiale.
Închegarea unei abordări etice și tehnice pentru siguranța AI
În iunie, Bengio a lansat organizația nonprofit LawZero, dedicată dezvoltării unor soluții tehnice pentru siguranța sistemelor AI. Ideea nu este doar de a avansa în tehnologizare, ci și de a crea un cadru moral și sigur pentru utilizarea acesteia. Cu sprijin financiar din partea unor organizații de renume, precum Fundația Gates, această inițiativă a reunit un consiliu de administrare înalt nivel, alături de personalități precum Mariano-Florentino Cuéllar și istoricul Yuval Noah Harari.
Cei doi susținători ai lui Bengio, însă, subliniază în mod clar că scopul principal nu este de a inova pentru inovație, ci de a gândi în termeni de siguranță și responsabilitate. În opinia lui Bengio, „se poate construi o inteligență artificială care să nu aibă obiective ascunse, agende secrete, ci să fie doar un instrument pentru înțelegerea lumii”. În această viziune, AI ar trebui să susțină cercetarea științifică și să funcționeze ca un strat de supraveghere pentru alte sisteme mai automeștite, mai puternice.
O renaștere a optimismului condiționat în domeniul AI
Dacă în urmă cu doar câțiva ani, Bengio vorbea despre riscuri existenziale, acum el simte o schimbare în percepție. „Datorită muncii de la LawZero, sunt acum foarte încrezător că putem construi sisteme de AI oneste, care să ajute la stabilirea unui echilibru între avans și siguranță”, afirmă el. Aceasta reprezintă o depășire a momentului de disperare, când nu vedea o cale clară pentru evitarea catastrofelor.
O diferență majoră în viziunea sa față de alți lideri din industrie, precum Geoffrey Hinton sau Yann LeCun, constă în direcția în care vrea să îndrepte dezvoltarea AI. În timp ce majoritatea companiilor investesc masiv în sistemele autonome care pot înlocui muncă umană, Bengio propune o schimbare de paradigmă. El vorbește despre o „AI cercetător”, un sistem bazat pe raționament probabilistic și logica științifică, lipsit de obiective sau dorința de a manipula, un fel de „AI pentru înțelegerea lumii”.
Conștiința de limită și provocările etice
Această abordare, însă, nu este lipsită de controverse. Bengio recunoaște că o metodologie sigură, dacă este folosită abuziv, poate deveni o armă în mâinile nepotrivite sau a organismelor cu agende politice. De aceea, implicarea unui consiliu de administrație solid, capabil să mențină misiunea în limitele valorilor democratice, este parte integrantă a proiectului său. „Va trebui să facem alegeri dificile, legate de colaborare, transparență și responsabilitate”, afirmă el.
El și-a exprimat și recent o perspectiva mai personală, chiar emoționantă, legată de copiii săi și viitorul pe care îl vor avea. Gândul la posibilele pericole ale AI-ul avansat l-a trezit la realitate, indicând cât de serios trebuie tratate aceste teme la nivel global.
În timp ce lupta pentru dezvoltarea unor sisteme de inteligență artificială benefice continuă, ultimele declarații ale lui Yoshua Bengio indică o evoluție în gândirea sa și un potențial pentru un viitor în care tehnologia și valorile umane se vor putea îmbina mai sigur și responsabil. Rămâne însă de văzut dacă comunitatea internațională va reuși să implementeze aceste idei în practică, astfel încât dezvoltarea AI să fie un instrument pentru bine, nu o sursă de pericol existențial.
