Están siendo unas semanas movidas para Tesla. Tras la muerte de Joshua Brown a bordo de un Model S que no pudo detectar un camión cruzando su trayectoria y un vuelvo sin consecuencias personales de un Model X mientras ambos circulaban con el Autopilot conectado, ahora llegan noticias sobre un tercer accidente con uno de los populares eléctricos americanos y su sistema de conducción autónoma.
En incidente ocurrió la noche del sábado pasado mientras el conductor de otro Model X circulaba por una carretera convencional a unos 90 km/h con el Autopilot activado. De pronto, según el conductor, el vehículo se fue a la derecha hasta chocar contra un quitamiedos de madera y destrozar el lateral del coche, lo que demuestra dos cosas: que de momento estamos ante una conducción asistida (no autónoma) en la que la atención del conductor es fundamental y que el conductor no iba precisamente atento.
Poca atención y muchos daños (materiales)

Para poner en situación el caso, hay que mencionar que el Autopilot estaba conectado en una carretera, no en una autovía donde el sistema funciona de manera correcta. Y para rizar el rizo, según declaraciones de un conocido, la vía no contaba una delimitación central bien visible.
No prestar la atención necesaria a la carretera mientras usaba el Autopilot en un entorno inapropiado unos daños materiales considerables y un buen susto
Muy probablemente, al no tener unas marcas viales bien visibles con las que recibir la información necesaria, el Autopilot se desconectase emitiendo previamente un aviso para que el conductor retomase el control del volante. Ese hubiera sido el momento en el que el alguien debería haberse dado cuenta de que el coche estaba pidiendo la intervención de un humano o que el vehículo no seguía la trayectoria que debía.
Pues ni una cosa ni la otra, porque nadie reaccionó (ni conductor ni pasajero) hasta que el coche no impactó contra las protecciones y destrozó el lateral derecho, el frontal, la rueda trasera derecha y la rueda delantera simplemente ya no forma parte del vehículo.
Los daños materiales van a ser cuantiosos porque ambos ejes están seriamente dañados y además de una aleta arrancada, parece que hay algunos daños estructurales. Por suerte, los dos ocupantes salieron ilesos y por su propio pie tras el choque.
El Autopilot y su fase Beta pública

El propio Elon Musk ha reiterado que el Autopilot se encuentra en una fase Beta pública a través de la que buscan recopilar mil millones de kilómetros de experiencia para mejorar los sistemas vía actualizaciones como la más importante hasta la fecha que se va a realizar de forma inminente.
Estar fase Beta significa que es más importante aún que el conductor mantenga la atención sobre el vehículo y el tráfico que le rodea y tratar de utilizar estos sistemas en los entornos apropiados. Sólo cuando esos mil millones de kilómetros de experiencia permitan pulir el rendimiento del Autopilot será cuando se salga de la fase Beta.
@nicatronTg @SwiftOnSecurity Thanks. Point of calling it "beta" was to emphasize to those who chose to use it that it wasn't perfect.
— Elon Musk (@elonmusk) 10 de julio de 2016
Mientras tanto, disfrutemos de cómo poco a poco nos encaminamos hacia el futuro de la automoción. Ya habrá tiempo de no conducir y procrastinar detrás de un volante, pero de momento no hay que querer ir más rápido de lo que avanza la tecnología.
Ver 27 comentarios
27 comentarios
fauket
Yo creo que el problema principal es que desde el principio se le empezó a llamar "sistema de conducción autónoma" tal y como dice al principio del artículo. Y claro, la gente se lo cree.
Los Model S y X equipados con Autopilot NO son vehículos autónomos y están muy lejos de serlo. Pero a la gente no le entra en la cabeza.
Recuerdo perfectamente el titular que escupió el presentador del telenoticias de Antena 3 cuando murió Joshua Brown; "primer accidente mortal de un coche autónomo". Si hubiese tenido delante el que decidió escribir eso le dejo el cogote incandescente.
Por otro lado también decir que Tesla la ha cagado un poco haciendo pública una versión Beta del Autopilot, por mucho que se arte de decir que es Beta, el grueso de gente que lo va a usar o va a hablar de ello, que en este caso al ser bastante mediático es un grueso muy grande, es demasiado estúpido para entenderlo.
allfreedo
¿Es cosa mía o los accidentes estupidos son más habituales en EEUU?
Zarco Dono
Ojalá todos y cada uno de los accidentes ocurridos bajo la conducción de un humano fueran noticia también como lo son los que ocurren cuando conduce una máquina. Desgraciadamente, son tan numerosos que se reducen sólo a eso, a números.
Usuario desactivado
Las manos al volante y la vista en la carretera. Todo lo demás gilipolleces, marketing de la marca para estúpidos y desfasados. En La mayoría de las ocasiones el avance de la ciencia en manos de charlatanes vendedores hace evidente la imbecilidad humana.
falker355
El abuelo de los coches autónomos se llama TREN, sentado y sin hacer nada, dicho esto: La reacción humana es precisamente eso, una reacción a imprevistos, los cientos de miles de cálculos que hace una máquina por segundo determinando que pueda pasar están basados en datos que previamente se han cargado por un humano, de lo contrario estaríamos hablando de la I.A... que de momento está lejos.. VALGA LA REDUNDANCIA, POR EL MOMENTO.. las manos al volante amigos...
Un saludo!
Ariasdelhoyo
La conducción autónoma, por mucho que lo estén vendiendo y aparezcan tropecientas entradas al día en esta web, NO está cerca. Se pongan como se pongan. Conducir es una actividad compleja, no por el mero hecho de la conducción, si no por que hay que interactuar con miles de circunstancias externas, casi todas ellas absolutamente imprevisibles. Poner a un coche a moverse por un circuito cerrado y todo bien señalizado, ya no es tarea fácil. Así que si a eso le ponemos en un circuito abierto, con trayectos cambiantes, por obras, o por la meteorología, el día, la noche, otros coches, peatones, animales, ...
Uno de estos coches tiene ventajas sobre nosotros los humanos, porque puede ver hacia todos los lados al mismo tiempo, pero será, por ahora incapaz de anticipar situaciones que nosotros hacemos casi de manera involuntaria. ¿Cuántas veces os habéis puesto en alerta porque un niño iba en bicicleta por la acera y prevéis que puede bajar a la calzada en cualquier momento? ¿Cuántos, al ver que un coche es conducido por una persona muy mayor, no habéis puesto mayor atención? ¿Cuántas veces habéis tenido más cuidado al pasar cerca de niños que estaban jugando a la pelota? Y así montones de casos, que no se pueden medir, pero que probablemente nos han hecho evitar accidentes.
Dudo mucho que veamos, en un futuro próximo, los coches autónomos realmente fiables, de la misma manera que a día de hoy y decenas de años de decir que habría traductores de idiomas fiables, y a día de hoy, no los hay.
Usuario desactivado
Todo éste asunto está haciendo más daño a Tesla que a cualquier otro (excepto a las víctimas, obviamente). Lo más fácil sería que con el pastón que te gastas en un Tesla, incluya un curso de un par de horitas en el que te expliquen que y que no hace el coche.
maximilianop
Imagino que no es lo mismo ser un beta-tester de una app o un SO nuevo, que muy a malas, te deja sin dispositivo u ordenador, creo que los de Tesla deberían hacer firmar un documento a la gente donde se los informa de las falencias del sistema para que después nadie se queje.
La idea del Autopilot es muy seductora, y seguramente los de Tesla lo han aprovechado como tirón comercial, el ejemplo es Google que viene trabajando en un coche autónomo hace muchos muchos años, y los beta-testers son personas capacitadas que están perfectamente al tanto de la responsabilidad que conlleva un vehículo de este estilo...ahora la gente de Elon Musk van a tener que atenerse a las consecuencias de no haber sido previsores, sobre todo con algo que pone en serio peligro a la gente, tanto a los que van dentro del vehículo, como los que van fuera.
Usuario desactivado
Supongo que los datos del Tesla accidentado se utilizaran para intentar responder muchas preguntas, otras quedaran sin respuesta:
1. Porque el conductor del Tesla activó el Autopiloto en un calle de dos sentidos y dos vías cuando Tesla no lo recomienda? Se puede considerar eso conducción temeraria?
2. A que velocidad se desplazaba el Tesla antes del impacto, era una velocidad ilegal en esa calle?
3. Pudo el Tesla detectar el camión en algún momento, cuando este estaba parado antes de hacer la maniobra?
4. El Tesla encendió en algún momento la advertencia de toma de control del conductor antes del accidente? si fue así: Cuanto tardó el conductor en tomar el control si lo hizo?
5. Si la cámara del Tesla no detectó el obstáculo, lo hizo el radar?
Usuario desactivado
¿Y entonces para qué sirve? Un piloto automático que no conduce solo no es un piloto automático...
ERDORO
Creía que los compradores de Tesla eran más inteligentes y responsables
lake
Está claro que la culpa de esos accidentes es por la dejadez del conductor, más de uno le echa la culpa a tesla cuando el coche recoge datos de todo y saben el uso que le das
Seguramente que no han leído o se han informado del funcionamiento
Estos días estoy viendo un model s por un pueblo de Alicante nunca lo había visto
Usuario desactivado
En mi opinión, si algo puede salir mal... saldrá mal. No le quito responsabilidad al piloto, pero creo que Tesla también tiene su parte de culpa.
No será el último accidente de este tipo que veamos. Tesla está vendiendo un producto inacabado. Es verdad que avisa de ello, de que está en fase beta... que no es perfecto... Pero ¿no es mejor esperar a que avance la tecnología y desarrolar mejor la función del autopilot, a ser los primeros en ofrecer algo, que saben que no es infalible, que pone en juego la vida de personas y que puede estropear la imagen de Tesla?