Compartir
Publicidad

Consiguen conducir un Tesla Model S con el mando de una videoconsola y engañar al Autopilot con pegatinas

Consiguen conducir un Tesla Model S con el mando de una videoconsola y engañar al Autopilot con pegatinas
4 Comentarios
Publicidad
Publicidad

El mismo grupo de investigadores que en 2016 hackeó de forma remota un Tesla Model S ha vuelto a poner a prueba el sistema de conducción semiautónoma de estos coches eléctricos.

Tencent Keen Security Lab trabaja desde hace años codo con codo con la firma de Elon Musk para detectar fallos, y la última batería de ataques ha mostrado vulnerabilidades en el Autopilot gracias a unos adhesivos "de interferencia" colocados en el asfalto, y además han podido hackear el sistema.

Engañar a los sistemas para hacerlos más seguros

Tesla Model S

Con música apocalíptica de fondo, este equipo de investigadores ha jugado con la versión 2018.6.1 del Autopilot del Tesla Model S para sacar a relucir tres fallos. Uno en el sistema de reconocimiento de los limpiaparabrisas automáticos, los cuales se llegan a activar aunque no detecte agua a través de unas imágenes que el equipo reproduce en una pantalla.

El segundo es quizá el más significativo, pues consiste en una serie de pegatinas con forma redonda que, al ser colocadas sobre el asfalto, consiguen que el sistema las detecte como las líneas del carril, y hacen que el coche llegue a invadir el sentido contrario.

Durante su último experimento, Keen Security Lab también es capaz de conducir el Tesla Model S con el mando de una consola de videojuegos.

¿Qué opina Tesla de esto?

Tesla ha querido dejar claro que "nunca" han visto a un solo cliente afectado por alguna de las investigaciones que ha llevado a cabo este equipo.

Ante el problema de las pegatinas, Tesla ha querido tranquilizar a los consumidores:

"En esta demostración, los investigadores ajustaron el entorno físico (por ejemplo, colocar una cinta en la carretera o alterar las líneas de los carriles) alrededor del vehículo para hacer que el automóvil se comporte de manera diferente cuando el piloto automático está en uso. Esto no es un problema en el mundo real, dado que un conductor puede anular fácilmente el piloto automático en cualquier momento usando el volante o los frenos y debe estar preparado para hacerlo en todo momento".

En cuanto a controlar el sistema a través del mando de una videoconsola, la firma de Palo Alto dice que:

"La vulnerabilidad principal abordada en este informe fue corregida por Tesla a través de una actualización de seguridad sólida en 2017, seguida de otra actualización de seguridad integral en 2018, las cuales publicamos antes de que este grupo nos informara sobre esta investigación".

Pero el experimento de las pegatinas no desvela novedad alguna. Ya en 2017 un estudio, basado en 'Criptografía y Seguridad' demostró que se pueden obtener sistemas de visión por ordenador para identificar erróneamente las señales de tráfico usando nada más que pegatinas hechas en una impresora doméstica.

¿De qué forma engañaron al sistema? En uno de los ataques, las pequeñas pegatinas adheridas a una señal de Stop estándar provocaron que un sistema de visión lo identificara erróneamente como un letrero de límite de velocidad 45 en el 100 % de las condiciones de prueba. Lo mismo pasó con una señal de giro a la derecha: fue clasificada erróneamente como un letrero Stop o de carril añadido.

El algoritmo de ataque utilizaba imágenes impresas pegadas en las señales de tráfico, y dichas imágenes confundían a las cámaras y los sensores de los sistemas autónomos puesto a prueba.

A continuación puedes ver cómo el equipo de Keen Security Lab consiguió acceder de forma remota a un Model S en 2016, conducirlo e incluso hacerlo frenar desde sus oficinas:

Temas
Publicidad
Publicidad
Publicidad
Inicio