En lo que probablemente será otra espina clavada en el costado de Elon Musk, Tesla y Autopilot, se reveló en un informe la semana pasada que muchas funciones de conducción autónoma en los vehículos se pueden «alterar» con láser.

Un nuevo estudio que se elaboró ​​y cargó a fines de octubre, llamado «No puedes verme: Ataques de eliminación física en marcos de conducción de vehículos autónomos basados ​​​​en LiDAR» hizo la revelación, que también fue informada por la revista Cosmos.

Investigadores en EEUU y Japón descubrieron que se podía engañar a los vehículos para que no vieran a los peatones (u otros objetos en su camino) usando láseres. Estos autos, que usan LiDAR para detectar objetos a su alrededor, envían luces láser y luego usan el reflejo para juzgar qué tan lejos están los objetos.

El estudio reveló que un láser perfectamente sincronizado que brilla en un sistema LiDAR puede crear «un punto ciego lo suficientemente grande como para ocultar un objeto como un peatón», según Cosmos.

El resumen del estudio dice: «Si bien los ataques existentes a las arquitecturas de conducción autónoma basadas en LiDAR se centran en reducir la puntuación de confianza de los modelos de detección de objetos AV para inducir la detección errónea de obstáculos, nuestra investigación descubre cómo aprovechar las técnicas de suplantación de identidad basadas en láser para eliminar selectivamente la nube de puntos LiDAR». datos de obstáculos genuinos a nivel del sensor antes de ser utilizados como entrada para la percepción de AV. La ablación de esta información LiDAR crítica hace que los detectores de obstáculos de conducción autónoma no identifiquen ni localicen obstáculos y, en consecuencia, induce a los AV a tomar decisiones de conducción automáticas peligrosas».

La profesora investigadora de seguridad cibernética de la Universidad de Florida, Sara Rampazzi, comentó: «Imitamos los reflejos LIDAR con nuestro láser para hacer que el sensor descarte otros reflejos que provienen de obstáculos genuinos».

«El LIDAR aún recibe datos genuinos del obstáculo, pero los datos se descartan automáticamente porque nuestros reflejos falsos son los únicos que percibe el sensor», continuó.

Cualquier láser utilizado de esta manera no solo tendría que estar perfectamente sincronizado, sino que tendría que moverse con el vehículo, dice el informe.

El científico informático de la Universidad de Michigan, Yulong Cao, coautor del informe, dijo: “Revelar esta responsabilidad nos permite construir un sistema más confiable. En nuestro artículo, demostramos que las estrategias de defensa anteriores no son suficientes y proponemos modificaciones que deberían abordar esta debilidad”.

La investigación se presentará en el Simposio de Seguridad USENIX 2023, dice el informe

Print Friendly, PDF & Email