Narodowa Administracja Bezpieczeństwa Ruchu Drogowego (NHTSA) poinformowała w piątek, że oceni, czy system Tesli, znany również jako FSD (Full Self-Driving), jest w stanie wykrywać mgłę i inne warunki ograniczonej widoczności oraz odpowiednio na nie reagować.

Agencja poinformowała, że zgłoszono cztery wypadki, w których zastosowano FSD w takich właśnie warunkach. Według NHTSA, w jednym z tych wypadków pojazd Tesli śmiertelnie potrącił pieszego. W innych przypadkach piesi zgłosili obrażenia ciała. Przedstawiciele Tesli nie odpowiedzieli na prośbę Bloomberga o komentarz przesłaną e-mailem.

Dochodzenia to plama na wizerunku Tesli

Dochodzenie oznacza poważny krok wstecz w staraniach dyrektora generalnego Elona Muska o pozycjonowanie Tesli jako lidera w dziedzinie autonomicznej jazdy. Musk powiedział, że zdolność Tesli do rozwijania technologii pojazdów autonomicznych ostatecznie zadecyduje, czy firma jest warta dużo pieniędzy, czy „w zasadzie zero”.

Zaledwie w zeszłym tygodniu firma zorganizowała wydarzenie w studiu filmowym w Los Angeles, prezentując koncepcje pojazdów autonomicznych. Podczas prezentacji autonomicznej taksówki Cybercab,Tesla nie zdradziła szczegółów na temat tego, w jaki sposób firma zrealizuje ambicje swojego dyrektora generalnego w zakresie w pełni autonomicznej jazdy.

Tesla od lat pobiera od klientów tysiące dolarów za system FSD, którego nazwa „Full Self-Driving” sugeruje, że jest w pełni autonomiczny. Niestety nie do końca jest to prawda, bo używanie FSD wymaga stałego nadzoru kierowcy. Zainstalowanie FSD w kosztuje 8000 dolarów.

Dochodzenie w sprawie wadliwego działania FSD

Dochodzenie w sprawie wad jest następstwem wcześniejszego działań, które NHTSA podjęła w kwietniu. Poprzednie dochodzeni miało na celu sprawdzenie, czy Tesla zrobiła wystarczająco dużo, aby powstrzymać kierowców przed niewłaściwym korzystaniem z zestawu funkcji wspomagających kierowcę sprzedawanych jako autopilot.

Agencja bada, czy aktualizacja oprogramowania wdrożona przez Teslę pod koniec ubiegłego roku zapewnia, że kierowcy pozostają zaangażowani podczas korzystania z systemu.

W ocenie NHTSA istnieje „krytyczna luka bezpieczeństwa” między tym, co kierowcy sądzą, że autopilot może zrobić, a jego rzeczywistymi możliwościami. Według agencji ta luka doprowadziła do niewłaściwego użycia systemu i wypadków, których przy właściwym korzystaniu z FSD można było uniknąć.

W kwietniu NHTSA poinformowała, że ​​znalazła 211 incydentów, w których Tesle rozbiły się jadąc na autopilocie, mimo że kierowcy mieli wystarczająco dużo czasu, aby uniknąć kolizji lub złagodzić ich skutki. W 111 przypadkach kierowcy zjechali z drogi po przypadkowym wyłączeniu systemu.