O Tesla, care rula aparent cu Autopilot, a ajuns să meargă pe calea ferată, interpretând-o greşit drept un drum

O Tesla Model Y a rămas blocată pe şinele de tren în statul California, SUA, după ce sistemul său Autopilot a interpretat greşit calea ferată drept un drum şi a pornit pe acolo. Incidentul a fost confirmat de departamentul de poliţie din Woodland, un orăşel situat în apropiere de Sacramento şi San Francisco. o tesla care rula aparent cu autopilot a ajuns sa mearga pe calea ferata interpretand o greshit drept un drum 9424547 Poliţia a menţionat că aparent maşina ar fi interpretat greşit calea ferată şi, intrând pe şine a creat un risc enorm pentru o coliziune cu un eventual tren. Din fericire, maşina a putut fi îndepărtată de pe şinele de calea ferată, înainte de producerea oricărui accident grav. Totuşi, poliţia a emis o atenţionare de securitate pentru toţi şoferii de Tesla, pentru ca aceştia să fie precauţi în zonele de cale ferată, pentru a exclude situaţii similare. Totodată, poliţia a amintit, bineînţeles, şi despre faptul că Autopilot e un sistem de asistenţă, care nu înlocuieşte misiunea şoferului de a fi atent la drum şi de a monitoriza tot ce se întâmplă în faţa maşinii, fiind gata să intervină, or, responsabilitatea legală îi aparţine şoferului, nu maşinii. Poliţia din Woodland pare destul de convinsă că sistemul Autopilot a fost activat când maşina a luat-o pe calea ferată, menţionând acest fapt ca o certitudine. Totuşi, în multe alte incidente neobişnuite s-a întâmplat de multe ori ca şoferii să dea vina pe Autopilot pentru propriile greşeli, iar apoi analiza datelor înregistrate de maşină a scos la la iveală că sistemul nici măcar nu era activat, iar vina completă era a şoferului, de fapt. În acest caz, cel mai probabil o analiză completă încă n-a avut loc, deci mai rămâne spaţiu pentru o confirmare sau o infirmare a ipotezei că maşina era condusă pe Autopilot, dar e cert că şoferul din ea fie a fost iresponsabil să pornească pe acolo, fie a fost la fel de deconectat de ceea ce se întâmplă în faţa sa încât să lase maşina să facă acest lucru. Teoretic vorbind, însă, softul Autopilot ar trebui să urmeze un traseu definit în sistemul de navigare drept drum, nu unul identificat vizual de maşină, deci e foarte probabil ca aici să nu fie vorba de o eroare de soft, ci de una umană, cu o încercare ulterioară de a blama softul. Însă e la fel de adevărat că acum o lună o altă Tesla a eşuat în a identifica în condiţii de ceaţă bariera coborâtă la o cale ferată, iar şoferul a intervenit în ultima clipă, alegându-se cu un accident uşor. Autorităţile spun că desfăşoară o anchetă minuţioasă în cazul din Woodland pentru a afla circumstanţele exacte, iar dacă se va dovedit că eroare a fost pe partea de soft, Tesla va trebui să adopte corecţii urgente în sistemul său.

O sursă: piataauto.md

0 raspunsuri

Lasă un răspuns

Want to join the discussion?
Feel free to contribute!

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *