Un vehículo autónomo puede navegar por las calles de la ciudad y otros entornos menos concurridos mediante el reconocimiento de peatones, otros vehículos y posibles obstáculos a través de la Inteligencia Artificial. Esto se logra con la ayuda de redes neuronales artificiales, que están entrenadas para “ver” los alrededores del automóvil, imitando el sistema de percepción visual humano.
Los coches autónomos no recuerdan
Pero a diferencia de los humanos, los autos que usan redes neuronales artificiales no recuerdan el pasado y están en un estado constante de ver el mundo por primera vez, sin importar cuántas veces hayan conducido antes por un camino en particular.
Esto es particularmente problemático en condiciones climáticas adversas, cuando el automóvil no puede confiar de manera segura en sus sensores.
Coches que crean recuerdos de sus viajes para los siguientes
Investigadores de la Facultad de Informática y Ciencias de la Información y la Facultad de Ingeniería de Cornell Ann S. Bowers han producido tres trabajos de investigación simultáneos con el objetivo de superar esta limitación al proporcionar al automóvil la capacidad de crear «recuerdos» de experiencias previas y utilizarlos. en futuras navegaciones.
Las «representaciones de aprendizaje» incluyen el aprendizaje profundo, una especie de aprendizaje automático.
“La pregunta fundamental es, ¿podemos aprender de recorridos repetidos?” dijo el autor principal Kilian Weinberger, profesor de informática en Cornell Bowers CIS. “Por ejemplo, un automóvil puede confundir un árbol de forma extraña con un peatón la primera vez que su escáner láser lo percibe desde la distancia, pero una vez que está lo suficientemente cerca, la categoría del objeto se vuelve clara. Así que la segunda vez que pasas por delante del mismo árbol, incluso con niebla o nieve, esperas que el coche haya aprendido a reconocerlo correctamente”.
“En realidad, rara vez conduces una ruta por primera vez”, dijo la coautora Katie Luo, estudiante de doctorado en el grupo de investigación. «Tú mismo o alguien más lo ha conducido recientemente, por lo que parece natural recopilar esa experiencia y utilizarla».
Repetir la ruta para que el coche aprenda
Encabezado por el estudiante de doctorado Carlos Díaz-Ruiz, el grupo compiló un conjunto de datos conduciendo un automóvil equipado con sensores LiDAR (detección de luz y alcance) repetidamente a lo largo de un circuito de 15 kilómetros en Ítaca y sus alrededores, 40 veces durante un período de 18 meses. Los recorridos capturan diferentes entornos (carretera, urbano, campus), condiciones climáticas (soleado, lluvioso, con nieve) y horas del día.
Este conjunto de datos resultante, al que el grupo se refiere como Ithaca365, y que es el tema de uno de los otros dos artículos, tiene más de 600.000 escenas.
“Expone deliberadamente uno de los desafíos clave en los autos sin conductor: las malas condiciones climáticas”, dijo Díaz-Ruiz, coautor del artículo Ithaca365. «Si la calle está cubierta de nieve, los humanos pueden confiar en los recuerdos, pero sin recuerdos, una red neuronal está en gran desventaja».
HINDSIGHT («retrospectiva») es un enfoque que utiliza redes neuronales para calcular descriptores de objetos a medida que el automóvil los pasa. Luego comprime estas descripciones, que el grupo ha denominado características SQuaSH (Historia Escasa Cuantificada Espacialmente), y las almacena en un mapa virtual, similar a una «memoria» almacenada en un cerebro humano.
La próxima vez que el automóvil autónomo atraviese la misma ubicación, puede consultar la base de datos SQuaSH local de cada punto LiDAR a lo largo de la ruta y «recordar» lo que aprendió la última vez.
La base de datos se actualiza continuamente y se comparte entre vehículos, enriqueciendo así la información disponible para realizar el reconocimiento.
“Esta información se puede agregar como características a cualquier detector de objetos 3D basado en LiDAR. Tanto el detector como la representación SQuaSH se pueden entrenar de forma conjunta sin ninguna supervisión adicional o anotación humana, lo que requiere mucho tiempo y mano de obra».
Si bien HINDSIGHT aún asume que la red neuronal artificial ya está entrenada para detectar objetos y la aumenta con la capacidad de crear recuerdos, MODEST (Mobile Object Detection with Ephemerality and Self-Training), el tema de la tercera publicación, va aún más allá.
Dejar que el coche autónomo aprenda desde cero
Aquí, los autores dejan que el automóvil aprenda todo el proceso de percepción desde cero. Inicialmente, la red neuronal artificial del vehículo nunca ha estado expuesta a ningún objeto o calle. A través de múltiples recorridos de la misma ruta, puede aprender qué partes del entorno son estacionarias y cuáles son objetos en movimiento.
Lentamente aprende por sí mismo lo que constituye a otros participantes del tráfico y lo que es seguro ignorar.
Luego, el algoritmo puede detectar estos objetos de manera confiable, incluso en caminos que no formaron parte de los recorridos repetidos iniciales.
Los investigadores esperan que ambos enfoques puedan reducir drásticamente el costo de desarrollo de los vehículos autónomos (que actualmente todavía dependen en gran medida de los costosos datos anotados por humanos) y hacer que dichos vehículos sean más eficientes al aprender a navegar en los lugares en los que se usan más.
Tanto Ithaca365 como MODEST se presentaron en las Actas de la Conferencia IEEE sobre visión por computadora y reconocimiento de patrones (CVPR 2022), que se llevó a cabo del 19 al 24 de junio en Nueva Orleans.
Otros colaboradores incluyen a Mark Campbell , el profesor John A. Mellowes ’60 en Ingeniería Mecánica en la Escuela de Ingeniería Mecánica y Aeroespacial de Sibley, los profesores asistentes Bharath Hariharan y Wen Sun , de informática en Bowers CIS; el ex investigador postdoctoral Wei-Lun Chao, ahora profesor asistente de informática e ingeniería en el estado de Ohio; y los estudiantes de doctorado Cheng Perng Phoo, Xiangyu Chen y Junan Chen.
La investigación de los tres artículos fue apoyada por subvenciones de la Fundación Nacional de Ciencias; la Oficina de Investigaciones Navales; y la Corporación de Investigación de Semiconductores.
El estudiante de doctorado Yurong You es el autor principal de «HINDSIGHT is 20/20: Leveraging Past Traversals to Aid 3D Perception«, que presentó virtualmente en abril en ICLR 2022, la Conferencia internacional sobre representaciones de aprendizaje.
Fuente: Tom Fleischman, Crónica de Cornell
Otros artículos sobre vehículos autónomos que te pueden interesar:
- Ciberseguridad en vehículos autónomos frente a hackers
- Vehículos autónomos con visión de Rayos X
- Test virtual para vehículos autónomos
- Digitalización del automóvil más allá de los vehículos autónomos
- Acelerando las pruebas de seguridad de vehículos autónomos
- Vehículos autónomos y navegadores conectados machine to machine
- Pruebas de seguridad para vehículos altamente automatizados
- La colaboración entre coches autónomos acelera el tráfico
- Realidad Virtual y Coches Autónomos en el Retail
- Semáforos autónomos para la Smart City
- La red 4G podría evitar accidentes en tráfico
- Nuevo sistema de navegación basado en LTE y WiFi