Zhakowane komputery Tesli FSD ujawniają alarmujące surowe dane dotyczące śmiertelnych wypadków Autopilota
Podczas gdy najnowsza Tesla FSD 12.5 dwie główne publikacje biznesowe opublikowały negatywne historie na temat systemów wspomagania kierowcy Tesli.
Bloomberg przytacza anegdotyczne dowody od analityka zajmującego się sprzedażą, który szczegółowo opisał swoje doświadczenia podczas jazd demonstracyjnych Tesli FSD w notatce dla klientów. Musiał interweniować kilka razy w osobliwych sytuacjach, takich jak przestrzeganie sygnałów ręcznych od funkcjonariusza ruchu drogowego, ale także w bardziej przyziemnych scenariuszach.
Na przykład Tesla Model Y wielokrotnie przekraczała nieprzerwane oznaczenia pasów ruchu lub wjeżdżała na skrzyżowanie, ponieważ komputer źle odczytał sytuację, w której inny samochód był dopiero w połowie skrętu w prawo. Model Y jeździł jednak na FSD 12.3.6, a analityk zauważył pewne wyraźne ulepszenia w stosunku do poprzedniej wersji, którą testowali na początku tego roku.
Drugi negatywny artykuł na temat ambicji Tesli dotyczących autonomicznych pojazdów zawiera jednak znacznie poważniejsze oskarżenia i jest wypełniony ekskluzywnymi dowodami. Śledczy Wall Street Journal pozyskali komputery FSD z odzyskanych Tesli i wysłali je do hakerów w celu wyodrębnienia surowych danych Autopilota.
Tesla utrzymuje tego rodzaju dane w tajemnicy handlowej, ponieważ pokazują one, jak jej algorytmy wspomagające kierowcę myślą i reagują w locie, ponieważ polegają wyłącznie na interpretacji danych wejściowych kilku Tesla Vision kamer.
Wnioski z surowych danych dotyczących podejmowania decyzji przez Autopilota zostały następnie połączone z nagraniami wypadków z kamer samochodów Tesla. WSJ dopasował również poszczególne raporty stanowe do federalnej bazy danych wypadków, którą NHTSA utrzymuje na potrzeby własnych dochodzeń w sprawie wypadków dochodzeniei udało się odtworzyć 222 wypadki Tesli.
W 44 z nich wypadki miały miejsce, gdy samochody Tesli na Autopilocie "nagle skręciły", podczas gdy 31 miało miejsce, gdy pojazdy "nie zatrzymały się lub nie ustąpiły" Dochodzenie wykazało, że to ostatnie doprowadziło do najpoważniejszych wypadków z udziałem Tesli jadących na Autopilocie.
Eksperci, którzy widzieli nagrania z takich wypadków i sposób, w jaki system Autopilot działa algorytmicznie, powiedzieli, że potrzeba czasu, aby wyszkolić go we wszystkim, co dzieje się na drogach. Na przykład jeden ze śmiertelnych wypadków był spowodowany nierozpoznaniem przewróconej podwójnej przyczepy blokującej autostradę.
System nie wiedział, co to jest, więc z pełną prędkością uderzył w przyczepę. Istnieje wiele przykładów, w których Autopilot zostaje oszukany przez światła pojazdów ratunkowych i również w nie uderza.
Ogólnie rzecz biorąc, wyniki wskazują, że samojezdne Tesle ulegają awariom zarówno z powodów sprzętowych, jak i programowych. Wspomniane kwestie obejmują powolne aktualizacje algorytmów i niewystarczającą kalibrację kamery. Jednak zanim wyciek danych Autopilota zdoła podważyć główne założenie Elona Muska, że funkcja autonomicznej jazdy Tesli jest ostatecznie bezpieczniejsza niż ludzcy kierowcy, mogą być potrzebne bardziej dogłębne relacje z niezależnych źródeł.
Proszę kupić złącze ścienne 80A Tesla Gen 2 z kablem 24' na Amazon