Un Tesla se encuentra a un ciervo, lo atropella y sigue sin frenar siquiera. Este es el mismo sistema de conducción autónoma que Elon Musk quiere usar en sus robotaxis sin conductor

Un Tesla se encuentra a un ciervo, lo atropella y sigue sin frenar siquiera. Este es el mismo sistema de conducción autónoma que Elon Musk quiere usar en sus robotaxis sin conductor
10 comentarios

"Hemos dejado muy claro que el futuro es autónomo y creo que es obvio que será así". Así de lapidario fue Elon Musk hablando del futuro de Tesla ante sus inversores en la última presentación de resultados de la marca.

Su tecnología de conducción autónoma, cuyos detalles técnicos no se detallaron en la presentación del robotaxi Tesla Cybercab, se basará en el actual Autopilot FSD. Sistema que aún tiene lagunas, como ha demostrado este nuevo capítulo: este Tesla Model 3 que circulaba con este avanzado control de crucero activado no frenó ante un ciervo, que se llevó por delante.

El Tesla siguió su camino como si nada tras el atropello

Un usuario de Twitter (ahora X) ha publicado una foto y un vídeo detallando el accidente. Primero muestra los daños en su Tesla Model 3 tras el atropello. A continuación publica el vídeo grabado por las cámaras del coche eléctrico.

En este vemos como el coche circula por una carretera, de noche. No hay mucho tráfico y los carriles están perfectamente demarcados. Tras unos segundos, aparece un ciervo pequeño. "El video se corta justo antes de que aparezcan elementos sensibles en la pantalla. Es seguro verlo", indica, refiriéndose a que se evitan las imágenes sensibles para que se pueda ver en la plataforma social de Musk.

Sea como fuere, el atropello existió como admite el conductor y como demuestran los daños, que no fueron excesivos: el capó algo levantado y el parachoques rajado. El Tesla Model 3 no activó los frenos ni esquivó al animal. Es más, siguió adelante como puede verse en el siguiente corte del vídeo. Cabe preguntarse si reaccionaría igual si se tratara de un peatón.

Un sistema semiautónomo con muchas lagunas aún. El sistema de conducción semiautónoma de Tesla es de momento de nivel SAE 2 y obliga a llevar las manos en el volante. Además, en el manual de usuario se detalla que puede no funcionar correctamente cuando la visibilidad es deficiente, lo que incluye "carreteras mal iluminadas por la noche".

Dado que era precisamente el escenario de este incidente, se deduce que las cámaras del coche no detectaron el animal, o más correctamente, que el sistema no lo identificó como obstáculo. Y al seguir activo, también se entiende que no indicó al conductor que debía tomar el control del coche cuando la visibilidad era limitada. Este nuevo incidente da argumentos a usuarios y expertos que dudan de las capacidades del sistema.

Un ejemplo es Dan O'Dowd y su The Dawn Project, embarcado en una cruzada para prohibir este sistema, pues considera que tiene evidentes fallas de seguridad. Ha publicado varias pruebas y test para demostrarlo, especialmente con simulaciones de niños como peatones. "El ciervo tiene el mismo tamaño que un niño pequeño. El FSD no frenó ni se detuvo después de la colisión", critica citando el tuit del atropello.

Tesla eliminó radares y sensores de su sistema en sus coches hace un par de años: ahora el Autopilot se basa únicamente en cámaras, una tecnología que denomina Tesla Vision. Tesla defendió en su momento que lo importante es un software lo suficientemente avanzado que pueda interpretar correctamente todo lo que registran los "ojos" del coche. Pero este accidente y el propio manual del sistema, demuestra que tiene limitaciones.

También estas pruebas independientes, realizadas poco después de que los Tesla pasaran solo a usar cámaras: el coche de la firma californiana, con el Autopilot activado, se lleva por delante el maniquí de un niño destrozándolo.

Es más, pese a la última actualización, la NHTSA (National Highway Traffic Safety Administration) ha vuelto a abrir una investigación al sistema de Tesla a consecuencia de una veintena de nuevos incidentes. En nueve de ellos, los Tesla chocaron contra otros vehículos o personas que se encontraban en su camino. Accidentes “frontales”, según clasifica el organismo.

En opinión de la NHTSA uno de los principales problemas que detectan en el sistema es que es demasiado permisivo con la atención del conductor. Según el informe de esta nueva investigación, el Autopilot "ha dado lugar a un mal uso previsible y a accidentes evitables". Este último caso es buena prueba. Pero en general, el sistema debe pulirse bastante si se pretende que los Tesla sin volante ni pedales circulen por las calles de las ciudades.

Temas