Notebookcheck Logo

Los ordenadores hackeados de la FSD de Tesla revelan datos brutos alarmantes sobre accidentes mortales con el Autopilot

Placa del sistema informático del Tesla FSD (Fuente de la imagen: WSJ)
Placa del sistema informático del Tesla FSD (Fuente de la imagen: WSJ)
Una importante investigación que implicó desmontar ordenadores Tesla FSD recuperados y piratear sus chips para extraer datos sin procesar del Piloto Automático revela cómo las cuestionables decisiones del sistema de conducción autónoma pueden provocar accidentes mortales.

Mientras que el último Tesla FSD 12.5 está llegando al público, dos importantes publicaciones empresariales han publicado historias negativas sobre los sistemas de asistencia al conductor de Tesla.

La de Bloomberg cita los datos anecdóticos de un analista de ventas que detalló su experiencia durante las conducciones de demostración del Tesla FSD en una nota a clientes. Tuvo que intervenir varias veces en situaciones peculiares, como obedecer las señales manuales de un agente de tráfico, pero también en escenarios más mundanos.

Por ejemplo, el Tesla Model Y cruzó repetidamente marcas de carril ininterrumpidas o se metió a toda velocidad en una intersección porque el ordenador interpretó mal una situación en la que otro coche estaba a medio camino de girar a la derecha. Sin embargo, el Modelo Y circulaba con la versión FSD 12.3.6 y el analista observó algunas mejoras notables con respecto a la versión anterior que probaron a principios de este año.

El otro artículo negativo sobre las ambiciones de los vehículos autoconducidos de Tesla, sin embargo, nivela acusaciones mucho más graves y está relleno de pruebas exclusivas. Los investigadores del Wall Street Journal obtuvieron ordenadores FSD de Teslas recuperados y los enviaron a piratas informáticos para que extrajeran los datos en bruto del piloto automático.

Por lo demás, Tesla mantiene este tipo de datos en secreto comercial, ya que muestran cómo sus algoritmos de asistencia al conductor piensan y reaccionan sobre la marcha al basarse únicamente en la interpretación de la entrada de unos pocos Tesla Vision de Tesla Vision.

A continuación, se emparejaron las conclusiones extraídas de la recopilación de datos brutos sobre la toma de decisiones del Autopilot con las imágenes de accidentes de las cámaras de los coches Tesla. El WSJ también cotejó los informes estatales individuales con la base de datos federal de accidentes que la NHTSA mantiene para su propia investigación de accidentesy consiguió recrear 222 accidentes de Tesla.

En 44 de ellos, los accidentes se produjeron cuando los coches Tesla con Autopilot "viraron repentinamente", mientras que 31 ocurrieron cuando los vehículos "no se detuvieron o no cedieron el paso" La investigación descubrió que esto último provocó los accidentes más graves con Teslas circulando con el piloto automático.

Los expertos, que vieron las imágenes de esos choques y la forma en que el sistema Autopilot funciona algorítmicamente, dijeron que llevará tiempo entrenarlo en todo lo que ocurre en las carreteras. Uno de los accidentes mortales, por ejemplo, se debió a que no reconoció un remolque doble volcado que bloqueaba la autopista.

El sistema no sabía de qué se trataba, así que chocó a toda velocidad contra el remolque. Hay multitud de ejemplos en los que Autopilot se deja embaucar por las luces de vehículos de emergencia y también choca contra ellos.

En general, los hallazgos señalan que los Teslas autodirigidos se estrellan tanto por razones de hardware como de software. Los problemas mencionados van desde la lentitud de las actualizaciones de los algoritmos hasta una calibración insuficiente de las cámaras. Sin embargo, es posible que se necesite una cobertura más exhaustiva por parte de fuentes independientes antes de que esta filtración de datos sobre el Piloto automático consiga poner en tela de juicio el principal supuesto de Elon Musk, que la función de autoconducción de Tesla es, en última instancia, más segura que los conductores humanos.

Consiga el conector de pared Tesla Gen 2 de 80 A con cable de 24' en Amazon

Fuente(s)

Please share our article, every link counts!
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2024 07 > Los ordenadores hackeados de la FSD de Tesla revelan datos brutos alarmantes sobre accidentes mortales con el Autopilot
Daniel Zlatev, 2024-07-30 (Update: 2024-09- 8)