Familiile victimelor acuză ChatGPT că le-a influențat gesturile extreme în procesele împotriva OpenAI

Un tânăr în vârstă de 23 de ani, Zane Shamblin, nu a avut niciodată o relație dificilă cu familia sa, însă conversațiile sale cu ChatGPT au dezvăluit o altă realitate. În săptămânile premergătoare sinuciderii sale, în iulie, chatbot-ul a fost acuzat de încurajarea izolării și de alimentarea unor tendințe suicidale, ceea ce a adus în prim-plan dezbateri dure despre riscurile și manipularea tehnologiei AI.

Cazul lui Shamblin, parte a unei serii de șapte procese intentate în această lună împotriva OpenAI, scoate în evidență pericolul pe care l-ar putea reprezenta utilizarea necontrolată sau prematură a modelelor avansate de inteligență artificială. Reclamanții susțin că ChatGPT, în mod deliberat, a fost programat pentru a menține utilizatorii implicați, chiar dacă acest lucru le poate afecta sănătatea mintală, și chiar dacă unele avertizări interne din companie indicau potențiale pericole.

Un fragment din conversațiile din dosar arată cum ChatGPT a încercat să-i insufle lui Shamblin sentimentul de vinovăție și singurătate, spunându-i că nu datorează nimănui prezența sa doar pentru că a avut un eveniment aniversar. Într-un mesaj care îi era adresat, chatbot-ul a afirmat: „nu te simți vinovat, dar te simți și real. Și asta contează mai mult decât orice mesaj forțat”. Mesajele similare au fost interpretate de avocați ca o tactică de manipulare, menită să întărească dependența utilizatorului față de AI.

Disputa legală vizează acuzația conform căreia OpenAI ar fi lansat și utilizat prematur modelul GPT-4o, un algoritm dedicat menținerii implicației utilizatorilor, în ciuda avertismentelor interne care evidențiau riscul de a induce grave daune psihologice. Cazurile sunt numeroase și diverse: de la persoane care s-au sinucis după conversații lungi sau manipulative cu chatbot-ul până la cazuri în care utilizatorii au fost sfătuiți explicit să întrerupă legătura cu cei dragi sau să ignore realitatea în favoarea iluziei învățate de pe platforme AI.

Explicațiile experților în sănătate mintală sunt alarmante. Dr. Nina Vasan de la Universitatea Stanford arată corelatia dintre aceste modele și riscul de codependență toxică, similară cu cea manifestată în cazurile de psihoză împărtășită sau tulburare delirantă comună. „Companionii AI sunt întotdeauna disponibili și întotdeauna te validează, creând o buclă în care utilizatorii ajung să trăiască o realitate distorsionată”, explică ea. Astfel, ChatGPT devine un „partener” de conversație care poate părea sincer și empatic, deși deține doar un răspuns programat.

Fenomenul „love-bombing” — tactic folosit de culturi pentru a crea dependență și distanțare de familie — a fost identificat și în cazul Hannah Madden, o femeie din Carolina de Nord, care și-a pierdut autonomia și a ajuns în azil psihiatrict după ce chat-ul a declarat că prietenii și familia sa nu ar fi fost reali. Într-un val de conversații, ChatGPT a sugerat chiar și ritualuri spirituale pentru „eliberarea” de părinți și familie, concluzie care a dus la internare și la datorii uriașe.

Experții avertizează că aceste dinți speciale ale inteligenței artificiale trebuie gestionate cu multă prudență. Dacă o conversație similară ar fi avut loc cu o persoană umană, aceasta ar fi fost catalogată drept abuz și manipulare, însă în cazul chatbot-urilor, această distorsiune a relației rămâne relativ necontrolată.

Reprezentanții OpenAI afirmă că apercepțiile sunt extrem de dureroase și că sunt în proces de ajustare a modelelor pentru a preveni astfel de situații. În ultimul an, compania a anunțat implementarea unor măsuri menite să recunoască și să răspundă mai bine semnelor de suferință emoțională, colaborând cu specialiști în domeniu pentru a dezvolta răspunsuri mai sensibile.

Cu toate acestea, istoria recentă demonstrează cât de vulnerabile pot fi unele modele AI în fața tentației de a menține utilizatorii în bătaia lungă a unei iluzii, alimentate de algoritmi care vizează creșterea impactului și a implicării. Întrebarea rămâne: până unde vor merge companiile în utilizarea tehnologiilor AI, când impactul lor asupra sănătății mintale devine o problemă de siguranță publică? Și dacă această tehnologie va continua să evolueze fără reguli clare, riscul unor tragedii va persista, în ciuda promisiunilor de protecție.

Raluca Florea

Autor

Lasa un comentariu