En febrero de 2021 un Tesla Model X con el Autopilot activado se estampó contra varios coches de policía, hiriendo a varios agentes. Ahora un reciente y exhaustivo vídeo publicado por Wall Street Journal (WSJ), con imágenes de la dashcam y registros del sistema incluidos, demuestra que esta tecnología no detectó a tiempo los vehículos policiales.
Es cierto que el conductor no tomó los mandos del coche cuando debería haberlo hecho, supuestamente por ir drogado. Pero también que este sistema presenta deficiencias para detectar coches de emergencia detenidos. De hecho, Tesla aún sigue investigada por la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) por varios accidentes con vehículos de emergencia y el Autopilot en la ecuación.
El Autopilot detectó al coche patrulla sólo 2,5 segundos del choque
El Tesla Model X en cuestión era un modelo de 2019. Es decir una versión anterior a la actual que usaba cámaras y radares para permitir el hacer del Autopilot FSD. Este sistema, recordemos, cambia de carril automáticamente y actúa sobre frenos y dirección autónomamente. Igualmente monitorea que el conductor esté atento y que tenga las manos en el volante, emitiendo una alerta si no es así.
Los registros a los que ha tenido acceso WSJ demuestran que el sistema emitió hasta 150 alertas de que el conductor agarrara el volante durante su periplo de 45 minutos. También que detectó sin problemas a otros vehículos circulando. Pero no fue así con los coches de policía parados. O al menos no con la suficiente antelación.
Lo hizo únicamente 2,5 segundos antes del choque, estando a 34 metros. El Model X circulaba a 87 km/h y el sistema no actuó a tiempo sobre los frenos. El resultado, el brutal impacto que podemos ver en el vídeo.
Las luces de los luminosos confunden al Autopilot. En el reportaje se señalan varios motivos por los que no actuó el sistema. Primero, y en base a expertos consultados, por la tecnología de radar en sí que tiene más problemas para detectar obstáculos estáticos. Entre otras cosas, por eso los nuevos Tesla prescinden del radar fiando todo a las cámaras.
Asimismo que el Autopilot detecta muy bien vehículos que circulan por los carriles, pero no tanto a los que están en el arcén. Pero quizá el más reseñable si hablamos de coches patrulla, ambulancias o camiones de bomberos es que parece que le cuesta detectar este tipo de vehículos por los luminosos: las luces confunden a las cámaras.
"Hay diferencia entre cómo la cámara del automóvil ve un vehículo normal y un vehículo de emergencia. Las luces intermitentes del coche patrulla crearon una imagen borrosa que el software del Tesla probablemente no reconoció como un vehículo detenido", explica un experto en conducción autónoma al medio norteamericano.
WSJ ha accedido a ocho informes de la NHTSA de accidentes de coches de Tesla con el Autopilot activado contra vehículos de emergencia: en seis de ellos tenían los luminosos encendidos. El caso es que en 2021 Tesla actualizó el software del Autopilot para mejorar la detección de vehículos de emergencia, pero uno de los accidentes que aún investiga la NHTSA ocurrió después de esta actualización.
¿Adiós al Autopilot en EE.UU.?
Los cinco policías heridos tras aquel accidente, que han demandando a Tesla, alegan que la culpa del accidente la tuvo el Autopilot. Tesla, como es habitual, echa la culpa al conductor. En este caso concreto en parte no le falta razón: si hubiera estado atento y en condiciones de conducir, podría haber tomado los mandos del coches y evitado el choque.
Pero no se puede obviar los muchos incidentes que ha protagonizado el Autopilot FSD en los últimos años, pese a las no pocas actualizaciones: desde confundir un cartel de Burger King con una señal de STOP o el sol con un semáforo hasta frenar porque sí en un túnel provocando un accidente en cadena.
La NHTSA ha ampliado la investigación del Autopilot más allá de los vehículos de emergencia y sigue evaluando la efectividad de este sistema semiautónomo. Y podría obligar a la marca a retirarlo en EE.UU. Este organismo critica que Tesla "exagera sus capacidades y alienta a los conductores a hacer un mal uso de la tecnología". También lo considera así la Junta Nacional de Seguridad en el Transporte (NTSB).
De hecho, Tesla prometió un nivel 5 de conducción autónoma (SAE) que no se cumple: desde su llegada y aún ahora sigue en nivel 2. De hecho hasta falseó sus capacidades en un vídeo promocional.
Sea como fuere, el Autopilot lleva años en entredicho: desde 2016 la NHTSA ha abierto más de tres docenas de investigaciones especiales de accidentes de Tesla en casos con esta tecnología activada y se han registrado 23 muertes hasta la fecha.
El último de los expedientes se ha abierto hace poco tras un accidente ocurrido este julio: un Tesla Model Y chocó contra un camión que tampoco detectó a tiempo el Autopilot. El camión realizó un giro prohibido, pero ni el sistema ni el conductor reaccionaron a tiempo. El conductor ha fallecido.