Un incident cu o Tesla Cybertruck operată aparent în modul autonom a atras atenția publicului și a autorităților. În Houston, o mamă și fiul ei au fost aventurați în pericolul de a se arunca în prăpastie după ce vehiculul a fost implicat într-un accident grav. Conform imaginilor surprinse de camera de bord, mașina aproape a fost trimisă pe pod, iar incidentul s-a soldat cu vătămări pentru șofer și pasager.
Tesla și Elon Musk au reamintește frecvent că sistemul FSD (Full Self-Driving) funcționează strict ca asistent, lăsând responsabilitatea în mâinile șoferului. Totuși, cazul recentei accidente scoate în evidență o diferență esențială între comunicarea publică și situația reală. În momentul impactului, sistemul pare să fi fost dezactivat cu doar câteva secunde înainte, dar raportul oficial nu explică dacă acesta a fost cauza reală sau dacă mașina fusese într-o altă fază de funcționare.
Problema cheie: când sistemele automate nu sunt suficient de sigure
În discuțiile despre tehnologia autonomă, specialiștii atrag atenția asupra unei probleme fundamentale. Chiar dacă un sistem tehnologic poate fi operat corect în mare măsură, greșelile sau neglijențele apar în momentele critice. În cazul Cybertruck, mașina s-a încadrat fără semne clare că face ajustări sau încetinește, astfel încât șoferul, în ciuda intervenției, nu a putut preveni impactul.
Aceasta duce la întrebarea: dacă mașina a fost într-adevăr în modul autonom, de ce nu a reușit să prevină accidentul? Criticii argumentează faptul că tehnologia avansează chiar dacă nu poate asigura încă un nivel de siguranță total și, cel mai important, nu elimină complet necesitatea intervenției umane.
Un fost responsabil de program de mașini autonome la Uber a povestit recent într-o publicație americană cum și-a distrus propria Tesla folosind FSD din cauza unei înțelegeri greșite a limitei de siguranță a sistemului. El susține că oamenii au dificultăți în a menține o vigilență continuă, chiar dacă sistemele sunt performante în mod aparent.
Se pare că această problemă nu vizează doar cazul Tesla, ci și alte incidente în care utilizatorii au avut aşteptări nerealiste despre capacitatea mașinilor autonome de a gestiona situații complexe, mai ales în condiții dificile sau neașteptate.
Reacția Tesla și presiunea autorităților
Tesla și Elon Musk continuă să promoveze FSD ca fiind compatibil cu responsabilitatea șoferului, în linie cu o poziție legală de nivel 2 de autonomie. În mod oficial, responsabilitatea rămâne în mâinile conducătorului auto, dar în practică, promisiunea este de a oferi o tehnologie avansată ce se apropie de autonomizarea completă.
De altfel, autoritățile din Statele Unite încep să ceară explicații. Autoritatea pentru siguranța pe drumuri a ridicat recent o investigație asupra conducerii sistemului FSD, acoperind peste 3,2 milioane de vehicule Tesla. La audit sunt evaluate modul în care sistemul gestionează condițiile dificile de vizibilitate și modul în care avertizează șoferul în situații potențial periculoase.
Pe lângă investigațiile oficiale, instanțele din SUA au început să impună sancțiuni. În august 2025, Tesla a fost obligată să plătească peste 243 de milioane de dolari într-un proces legat de un accident mortal, în condițiile în care sistemul Autopilot fusese activ la momentul respectiv. Cazurile legale și investigațiile asupra sistemului FSD arată o dificilă și tot mai mare presiune asupra companiei.
Elon Musk a repetat că sistemul FSD era dezactivat cu doar patru secunde înainte de impactul din Houston, dar în contextul anchetelor și criticilor, această afirmație pare insuficientă pentru a liniști preocupările legate de siguranță și responsabilitate.
O faptă concretă: Autoritatea pentru siguranța pe drumuri din SUA a anunțat oficial, pe 20 martie 2026, continuarea investigației asupra funcționării FSD, inclusiv modul în care sistemul avertizează șoferii și gestionează situațiile complexe în condiții de mare dificultate, precum cea în care s-a produs accidentul din Houston.
