Especialistas en ciberseguridad hallaron forma para engañar coches autónomos de Tesla
ENTER

Especialistas en ciberseguridad hallaron forma para engañar coches autónomos de Tesla

La falla que podría ocasionar que los autos rebasen el límite de velocidad impuesto por las señales de tránsito ya fue comunicada a la compañía de Elon Musk.

Los coches semiautónomos de Tesla son susceptibles a fallas a partir de “hackeos”, los cuales podrían ocasionar errores en su funcionamiento. Recientemente, la empresa de seguridad cibertnética McAffe dio a conocer un informe en el que se señala que es posible engañar al sistema de cámaras Mobileye Eye Q3 que tienen algunos vehículos de la marca con el fin de que vaya a una velocidad mayor.
Los investigadores se basaron en un sencillo truco que impactó directamente en estas cámaras para alterar la forma en que veían una señal de límite de velocidad sobre una carretera, permitiendo así que el vehículo aumentara la rapidez con la que se movía sobre la autopista.
El funcionamiento de los sistemas de cámaras Mobileye Eye Q3 se basa en leer las señales de límite de velocidad. A partir de esa información, el automóvil de conducción autónoma pone en función el crucero automática Tesla, por lo que una falla en este mecanismo presenta un desafío de seguridad para aquellos que esperan comercializar la tecnología, explicaron Steve Povolny y Shivangee Trivedi, parte del equipo de Investigación Avanzada de Amenazas de McAfee.
Para “hackear” al sistema, los investigadores pegaron una pequeña y casi imperceptible calcomanía en una señal de límite de velocidad. Debido a esto, el sistema del vehículo leyó 85 en lugar de 35 durante la prueba. De esta forma, tanto el Model X 2016 como el Model S más reciente aceleraron hasta los 80 kilómetros por hora.
Esta es una más de las investigaciones que se han realizado en torno a las fallas de los sistemas de conducción autónoma, que podrían ser aprovechadas en situaciones de peligro. Cabe mencionar que los investigadores de McAfee replicaron una serie de ataques hacia los sistemas de aprendizaje automático de los coches durante 18 meses.
Uno de los estudios que volvieron a poner a prueba fue el propuesto por la profesora de la Universidad de Berkeley, Dawn Song, quien usaba pegatinas para engañar al sistema de conducción automática para que hacer creer que una señal de alto era una de límite de velocidad.
En el 2019, estos mismos investigadores llevaron a cabo pruebas en los autos de Tesla para desviarlos hacia un carril equivocado en medio del tránsito a partir del mismo método: pegatinas, las cuales tenían el fin de manipular los algoritmos de aprendizaje automático del carro.
De acuerdo con Povonly, “estamos estudiando esto por adelantado porque los sistemas inteligentes en algún momento del futuro van a hacer tareas manejadas por humanos. Si no somos precavidos sobre los ataques y cuidadosos de cómo están diseñados los sistemas, entonces habrá una flota de ordenadores interconectados que son una de las superficies de ataques más impactantes y tentadoras que existen".
Cabe mencionar que McAffe dio a conocer los resultados de su investigación tanto a Tesla como a los responsables del sistema Mobileye Eye Q3 desde el año pasado. La respuesta por parte de la compañía de Elon Musk ante esto es que el problema no se solucionaría en esta generación del hardware.

COMENTARIOS