A medida que se van llevando a cabo más y más entregas de vehículos Tesla, las estadísticas hacen su trabajo y se reportan más accidentes. Se tiene constancia de varios accidentes en Estados Unidos; en uno de ellos un empleado de Tesla se salió de la carretera en su Model 3, supuestamente para evitar colisionar contra un ciervo y sin aludir al piloto automático.
Pero el accidente más reciente tiene los tintes de aquel que resultó mortal en 2016. Un hombre terminó empotrado ayer en su Model S contra un camión de bomberos en California cuando circulaba a 104 km/h; según él, mientras el Autopilot estaba en funcionamiento.
#distracteddriving
A excepción del Model S, nadie resultó herido y el propio conductor ha podido relatar algunos de los detalles del accidente, del que se ha hecho eco el departamento de bomberos que lo sacó de allí. El coche circulaba a unos 104 km/h antes de chocar, sin conocerse a qué velocidad se produjo el impacto y si realmente el vehículo tenía activado el modo de conducción semiautónoma.
En un tuit en su cuenta, el departamento de bomberos involucrado ha dejado caer un ""¡Por favor, mantente alerta mientras conduces!".
While working a freeway accident this morning, Engine 42 was struck by a #Tesla traveling at 65 mph. The driver reports the vehicle was on autopilot. Amazingly there were no injuries! Please stay alert while driving! #abc7eyewitness #ktla #CulverCity #distracteddriving pic.twitter.com/RgEmd43tNe
— Culver City Firefighters (@CC_Firefighters) 22 de enero de 2018
Al parecer, el vehículo chocó contra la parte trasera del camión, que estaba a su vez bloqueando el escenario de un accidente previo en una isleta. El resistente frontal del Model S y la ausencia de baterías en esta parte del vehículo absorbieron el impacto de manera que no alcanzó la cabina, aunque quedó muy dañado.
Saltar al nivel 4 para borrar la conducción humana de la ecuación

La cuestión no es que un Tesla haya sufrido un accidente (hay accidentes todos los días con otros vehículos implicados), sino el hecho de que, realmente, haya ocurrido con el piloto automático conectado. Esto vuelve a evidenciar la excesiva dependencia tecnológica de los conductores y probablemente, también las mejoras necesarias en la tecnología autónoma.
Después del accidente, Tesla se ha limitado a recordar que el Autopilot solo debe usarse manteniendo una atención completa en la conducción. Recordemos que el Model S viene equipado con un nivel 3 de autonomía: las manos deben de estar en el volante y se debe permanecer atento a la conducción en caso de tener que tomar el control. El vehículo asume todas las funciones pero se puede requerir la intervención del conductor después de periodos de tiempo determinados o al cambiar las circunstancias del tráfico.
Leer el periódico durante el trayecto queda descartado, por lo que se trata de una automatización condicionada de la conducción. Así lo describe Tesla:
Su Tesla tomará una velocidad acorde a las condiciones del tráfico, se mantendrá dentro de un carril, cambiará automáticamente de carriles sin que el conductor tenga que dar la instrucción, pasará de una autopista a otra, saldrá de la autopista cuando su destino esté cerca, se estacionará de forma autónoma cuando se encuentre cerca de un lugar libre para hacerlo y se desplazará hacia y desde su garaje con la función de convocar.
El software Autopilot mejorado de Tesla ha empezado a implantarse, y se continuarán introduciendo nuevas funciones según se vayan validando, si así lo permite la legislación vigente.
Hace unos meses, un grupo de propietarios californianos de Tesla inició una demanda contra la compañía por considerar que el software de conducción semiautónoma "no es funcional y crea problemas de seguridad". Tesla por su parte se defendió afirmando que siempre han sido "transparentes" sobre el hecho de que el software del Autopilot es un producto que se lanzará gradualmente con el tiempo, a medida que se vayan introduciendo más características.

En el caso de la primera muerte a bordo de un Model S, la Junta Nacional de Seguridad en el Transporte de los Estados Unidos determinó que las limitaciones operativas del Model S desempeñaron un "papel importante" en el accidente. Sin embargo, aludía a una "excesiva dependencia en la automatización" y a la incapacidad de reacción del conductor fallecido.
¿Será cierto que hasta que no alcancemos el máximo nivel de autonomía en la conducción, o al menos un nivel 4 no dejará de haber accidentes?
Ver 33 comentarios
33 comentarios
farenin599
yo lo siento pero el tema este del autopilot, coches autonomos ect ect, me parece la mayor chorrada que se pueda disponer en el coche, lo siento, pero es lo que pienso, si alguien no sabe conducir es su problema, por que dejar el tema de la seguridad de terceros usuarios de la via en manos de unas camaras, sensores ect, los cuales no estan exentos de errores de sistema, pues, no me parece lo correcto, o almenos aqui en españa, yo soy mecanico, me gustan los coche puramente como lo que son y en el que dependa totalmente de mi, aparte que no seria capaz de ir ahi sentado y dejar mi vida y mi dinero en manos de unos sensores.
me viene a la cabeza la sensacion de cuando vas rapido y de acompañante, pisa uno el freno aunque no lo tenga jajajajja ,si voi a ir atento a la carretera igual, pues , para eso ya conduzco yo.
guipozjim
Un título mas adecuado para el artículo sería "El conductor de un Tesla Model S choca contra un camión de bomberos, según el conductor en modo Autopilot" a lo que podríamos además añadir "por hacer un uso inadecuado del mismo", ya que el conductor destaca el uso del autopilot.
"El que falla o acierta a la diana, es el arquero, no la flecha!"
Un vehículo, con mas o menos sistemas de ayuda a la conducción, no deja de ser nunca una máquina, un instrumento, y es responsabilidad del usuario utilizar esos instrumentos adecuadamente. Incluso el día que alcancemos un nivel 4 de conducción autónoma en los automóviles, la persona que los use, porque no quiera o porque no pueda conducir, debería disponer de un sistema de parada de emergencia porque como máquinas que son, pueden fallar.
farenin599
el problema de tesla es haberle llamado "autopilot". lleva a engaño. en algun momento caeran de la burra y le cambiaran el nombre.
farenin599
Si los coches actuasen como una mente colmena creo que los accidentes desaparecerían, o se minimizarían mucho los daños de aquellos que sucediesen por culpa de animales o el mal tiempo.
cesarsu
Otra caso que el conductor es un idiota y no presta atencion al camino o no esta atento al uso del autopilot.
farenin599
Eliminar el posible error humano hará bajar los accidentes y heridos, de eso no hay duda. Dentro del "error" humano entran muchas circunstancias inherentes al ser humano: despistes, negligencias, errores de cálculo, mala percepción......Posiblemente aparezcan otras problemáticas nuevas, como los hackers....Pero dado que la mayoría de personas usan el coche para ir de A a B, si además es más seguro, ya os digo yo que se va a expandir rápido. ¿Sabéis que los ascensores tenían piloto? ¿Y qué tenían más accidentes que ahora estando automatizados?. Creo que conducir por placer quedara restringido a circuito y espero que a ciertas carreteras donde los que nos gusta tendremos que pelear su uso "en manual"
farenin599
Para mi el problema es q la conduccion autonoma esta aun en pruebas, en el momento en el q la mayoria de los coches la usen ya estas cosas no pasaran , pero hay q ser pacientes y durante algunos anos seguro q accidentes como este habra.
farenin599
Ayudas a la conducción, AYUDAS, no puede uno fiar el 100% de la situación a estos sistemas, En el caso de Tesla son sistemas muy completos y constituyen una conducción semiautonoma de nivel 3, hasta nivel 5 no puede llamarse autónoma, pero los sistemas que se venden en otras marcas generalistas (detector de angulo muerto, cambio involuntario de carril, etc) tienen el mismo problema, el usuario se fía de ellos al 100% y no debería, porque fallan, ayudan pero no sustituyen al conductor.
farenin599
Por lo que se suele leer en foros de Tesla, cuando se dió el salto al Autopilot 2.0 la fiabilidad del piloto automático se ha ido al traste. El Autopilot 1.0 era mucho mejor, y eso que utilizaba peor hardware, pero estaba desarrollado por una empresa externa que tenía el software mucho más avanzado que Tesla. Esta empresa tuvo sus tiranteces con Tesla porque el marketing y los usuarios de Tesla ponían el sistema al límite de su capacidad, creando escenarios muy peligrosos para los que no estaba diseñado.
Ahora mismo Tesla se ha quedado un poco a la cola en lo referente a conducción autónoma, y tienen que empezar de cero con el salto al 2.0, especialmente si quieren alcanzar el nivel 4 sin utilizar los caros radares LIDAR, algo nada fácil.
farenin599
Esta tarde he ido a casa en un vehículo totalmente electrificado, rápido y ecológico. Además, he podido escribir por el móvil y leer algo. Empieza por T....T de tren.
Esto es Motorpasion, si no te gusta conducir, Internet es muy grande para estar aquí. Estoy totalmente a favor de las ayudas, y es verdad que hay mucho loco en carretera, pero el supermegahiper Tesla no lo va a evitar.
Si necesitas un Auto Pilot para que lleve tú coche, cogete un Auto.......Bus.