Angajați ai CFR, acuzați de fraudă și implicați în utilizarea ilegală a asistenței AI pentru a-și diminua pedepsele
Ouită la început de autoritățile române, ancheta dezvăluie un scenariu halucinant în care 33 de angajați ai Companiei Naționale de Căi Ferate București urmează să fie trimiși în judecată pentru acuzații de fraudă în dosare legate de manipularea unor situații financiare și erori administrativ-legale. Pe lângă acuzațiile de fals și delapidare, oamenii legii au descoperit un aspect inedit: pentru a evita sancțiuni sau pentru a minimizeze răspunderea, aceștia ar fi apelat la inteligența artificială ChatGPT pentru a obține răspunsuri menite să influențeze ancheta.
Frauda și escrocherii în sectorul feroviar: un caz surprinzător de utilizare a AI
Procurorii spun că, în încercarea de a eluda verificările și de a influența rezultatul anchetelor penale, acești angajați au folosit aplicația ChatGPT pentru a obține sugestii despre modul în care să răspundă întrebărilor autorităților. Surse din anchetă indică faptul că aceștia au pus întrebări privind modul în care ar putea să-și mascheze anumite acțiuni ilegale sau să dea răspunsuri care să îi pună într-o lumină favorabilă.
„Aceștia au solicitat aplicației sfaturi pentru a diminua responsabilitatea în fața anchetatorilor, iar răspunsurile primite au fost utilizate pentru a modifica declarațiile și a evita astfel consecințele legale severe”, a declarat o sursă din cadrul anchetei. În ciuda faptului că utilizarea AI în astfel de cercetări este un fenomen relativ nou, cazul nostru este unul dintre primele în care tehnologia ajută direct la manipularea probelor în dosare penale.
Contextul problemei în sectorul feroviar românesc
CFR, societatea de stat care gestionează transportul feroviar din România, s-a confruntat în ultimii ani cu o serie de probleme legate de corupție și gestionare defectuoasă. Investigațiile recente au scos la lumină suspiciuni de manipulare a situațiilor financiare, alocări nejustificate de fonduri și alte acțiuni de tip fraudulos, menite să ascundă deficiențe în administrare și să acopere decizii greșite din conducere.
Implicarea angajaților în acest tip de activitate nu reprezintă o surpriză pentru experți, având în vedere cultura de management și nivelul de corupție în anumite segmente ale companiei. În cazul actual, însă, folosirea unui asistent virtual pentru a sprijini aceste acțiuni aduce în discuție teme noi referitoare la riscurile și implicațiile etice ale utilizării inteligenței artificiale în procesul de anchetă penală.
Reacții și perspective pentru viitor
Autoritățile române se află acum în fața unui dosar complex, în care tehnologia este folosită atât ca instrument de crimă, cât și ca posibilă cheie de înțelegere sau de prevenție. Anchetatorii susțin că această metodă de manipulare a răspunsurilor, dacă va fi confirmată, va reprezenta un precedent periculos în lupta contra fraudelor și corupției din sectorul public.
„Este un caz care ne obligă să reconsiderăm modul în care tehnologia poate fi integrată în anchete și monitorizarea activităților suspecte, dar și măsurile de protecție împotriva utilizării abuzive”, afirmă surse apropiate de anchetă.
Până în prezent, angajații au negat orice implicare directă în activități de influențare a anchetei, dar pe măsură ce probele și conversațiile citate de procurori vor fi analizate în detaliu, posibilitatea ca aceștia să fie trimiși în judecată devine tot mai clară. În același timp, la nivelul autorităților se discută deja despre nevoia unor reguli mai stricte privind utilizarea inteligenței artificiale în contextul legal și al anchetelor penale pentru a preveni laminarea instrumentelor democratice și a proteja integritatea sistemului judiciar.
