Los científicos del Proyecto Cerebro Humano han logrando que robots combinen la vista con el tacto conectado el aprendizaje profundo inspirado en el cerebro con robots biomiméticos. De esta forma, los modelos cerebrales están ayudando a descubrir mejores métodos de navegación de robots.
La forma en que el cerebro nos permite percibir y navegar por el mundo es uno de los aspectos más fascinantes de la cognición. Al orientarnos, combinamos constantemente información de los seis sentidos de una manera aparentemente sin esfuerzo, una característica que incluso los sistemas de inteligencia artificial más avanzados luchan por replicar.
En la nueva infraestructura de investigación de EBRAINS, neurocientíficos cognitivos, modeladores computacionales y roboticistas están trabajando ahora juntos para arrojar nueva luz sobre los mecanismos neuronales detrás de esto, creando robots cuyo funcionamiento interno imita al cerebro.
“Creemos que los robots pueden mejorarse mediante el uso de conocimientos sobre el cerebro. Pero al mismo tiempo, esto también puede ayudarnos a comprender mejor el cerebro ”, dice Cyriel Pennartz, profesor de Cognición y Neurociencias de Sistemas en la Universidad de Amsterdam.
Modelos computacionales para robots basados en el cerebro
En el Human Brain Project, Pennartz ha colaborado con los modeladores computacionales Shirin Dora, Sander Bohte y Jorge F. Mejias para crear arquitecturas de redes neuronales complejas para la percepción basada en datos de la vida real de ratas. Su modelo, denominado “MultiPrednet”, consta de módulos para entrada visual y táctil, y un tercero que los fusiona.
“Lo que pudimos replicar por primera vez es que el cerebro hace predicciones a través de diferentes sentidos”, explica Pennartz. “Entonces puedes predecir cómo se sentirá algo mirándolo, y viceversa”.
La forma en que estas redes se «entrenan» se asemeja a cómo los científicos piensan que nuestro cerebro aprende: generando constantemente predicciones sobre el mundo, comparándolas con las entradas sensoriales reales y luego adaptando la red para evitar futuras señales de error.
Para probar cómo funciona MultiPrednet en un cuerpo, los investigadores se asociaron con Martin Pearson en el Laboratorio de Robótica de Bristol. Juntos lo integraron en Whiskeye , un robot parecido a un roedor que explora de forma autónoma su entorno, utilizando cámaras montadas en la cabeza para los ojos y 24 bigotes artificiales para recopilar información táctil.

The Whiskeye Robot Imagen: ©HBP
Los investigadores observaron los primeros indicios de que el modelo basado en el cerebro tiene una ventaja sobre los sistemas tradicionales de aprendizaje profundo: especialmente cuando se trata de navegación y reconocimiento de escenas familiares, MultiPredNet parece funcionar mejor, un descubrimiento que el equipo ahora investiga más a fondo.
Para acelerar esta investigación, el robot se ha recreado como una simulación en la plataforma Neurorobotics de la infraestructura de investigación EBRAINS. “Esto nos permite hacer experimentos de larga duración o incluso en paralelo en condiciones controladas”, dice Pearson. «También planeamos utilizar las Plataformas de Computación Neuromórfica y de Alto Rendimiento para modelos mucho más detallados de control y percepción en el futuro».

El Whiskeye-Robot (derecha) y su contraparte virtual en la plataforma EBRAINS Neurorobotics
Todas las herramientas de código y análisis del trabajo están abiertas en EBRAINS, para que los investigadores puedan ejecutar sus propios experimentos. “Es una situación única”, dice Pennartz: “Pudimos decir, aquí hay un modelo interesante de percepción basado en la neurobiología, y sería genial probarlo a mayor escala con supercomputadoras y encarnado en un robot. Hacer esto normalmente es muy complicado, pero EBRAINS lo hace posible «.
Katrin Amunts, directora de investigación científica del HBP dice: “Para comprender la cognición, necesitaremos explorar cómo actúa el cerebro como parte del cuerpo en un entorno. La neurociencia cognitiva y la robótica tienen mucho que ganar mutuamente a este respecto. Human Brain Project unió a estas comunidades y ahora, con nuestra infraestructura permanente, es más fácil que nunca colaborar «.
Pawel Swieboda, CEO de EBRAINS y director general de HBP, comenta: “Los robots del futuro se beneficiarán de las innovaciones que conectan los conocimientos de la ciencia del cerebro con la inteligencia artificial y la robótica. Con EBRAINS, Europa puede estar en el centro de este cambio hacia una IA y una tecnología más bioinspiradas ”.
Video: Percepción y reconocimiento de objetos y escenas
Aprenda cómo los científicos del Proyecto Cerebro Humano usan EBRAINS para enseñar a los robots la visión y el tacto. Los científicos del Proyecto Cerebro Humano han construido una red de aprendizaje profundo similar a un cerebro que permite una navegación robótica más eficiente. Las llamadas redes de codificación predictiva fusionan información de sensores visuales y táctiles de un robot. Usando EBRAINS, la red basada en el cerebro está conectada a una plataforma robótica virtual para pruebas rápidas y experimentos paralelos.
Acceso al Experimento a través del Gráfico de conocimiento de EBRAINS: Multimodal Predictive Coding Network with WhiskEye and the NRP (SGA-3 Showcase)
Fuente y fotos: Human Brain Proyect