Engañan al 'autopilot' de Tesla para que vaya a más del doble de la velocidad permitida

Una simple modificación en una señal de tráfico lo ha hecho pasar de 35 millas por hora a 85 millas por hora.

Tesla Model x 2016
Tesla

El piloto automático de Tesla puede ser menos fiable de lo que asegura la compañía fabricante de coches eléctricos. Con una pequeña marca realizada con un trozo de cinta un grupo de investigadores ha conseguido engañar al autopilot de primera generación de la compañía para que varíe su velocidad considerablemente.

Los hackers han hecho una modificación en una señal de tráfico de limitación de velocidad. Se suponía que el automóvil debía circular por debajo de las 35 millas por hora (es decir, unos 56 kilómetros por hora), sin embargo, han añadido una pequeña pegatina para hacer que el 3 se asemejara a un 8.

El Tesla ha sucumbido al engaño. El sistema de inteligencia artificial del coche eléctrico ha interpretado que la señal de limitación de velocidad marcaba en su lugar 85 millas por hora (casi 137 kilómetros por hora). Este sutil cambio ha ocasionado que el vehículo se pusiera a más del doble de la velocidad permitida en dicha vía, suponiendo un gran peligro para otros usuarios de la misma.

A los ojos de cualquier conductor humano, puede identificarse claramente que, pese al trozo de cinta, continúa siendo un 3 con algún tipo de añadido, sin embargo, la IA de Tesla no lo ha tenido tan claro.

En realidad, no ha ‘picado’ un solo Tesla, sino dos. Los modelos que se han puesto a prueba han sido un Tesla Model X y un Model S, ambos del año 2016. Los dos incorporan el sistema de cámaras Mobileye EyeQ3, capaz de leer señales y mandar la información al asistente de velocidad del automóvil. Tesla lanzó su Speed Assist en 2014 y lo ha ido mejorando con el paso del tiempo y las pruebas realizadas.

 

Un ‘troleo’ a Tesla por una buena causa

La prueba por la que se ha ‘tomado el pelo’ al coche de Elon Musk ha partido de una iniciativa de un grupo de hackers de la compañía de seguridad McAfee, en concreto del laboratorio McAfee Advanced Threat Research.

En un post aclaran cuál era su intención y cuáles son sus metas: “Nuestro objetivo específico en McAfee Advanced Threat Research es identificar y aportar luz a un amplio espectro de amenazas en el complejo panorama actual. Con el hackeo de modelos estudiamos cómo los enemigos pueden atacar y evadir la inteligencia artificial. Así tenemos una oportunidad increíble de influir en la conciencia, la comprensión y el desarrollo de tecnologías más seguras antes de que se implementen de una manera que tenga un valor real para el enemigo”, cuentan.

El laboratorio de la compañía se seguridad advirtió tanto a Tesla como Mobileye de lo ocurrido para que mejoren sus tecnologías. Afirma que han agradecido la investigación, aunque por el momento “no han compartido ningún plan actual para abordar el problema en la plataforma existente”. Desde Mobileye tienen la certeza de que el problema ya se evitaría con las versiones más recientes que se han introducido en su sistema de cámaras.

Lo que dicen desde McAfee no es ninguna tontería. El experimento ha puesto de manifiesto lo que podría ocurrir si personas malintencionadas y con ciertos conocimientos técnicos deciden actuar para provocar uno o varios accidentes de tráfico y la facilidad con la que es posible engañar a la IA -aunque sea del pasado- de algunos coches con automatismos.

Alberto Payo

Alberto Payo

Colaborador de Muy Interesante y MuyInteresante.es

Continúa leyendo