Un nuevo sistema de interfaz cerebro-máquina (BMI) portátil podría mejorar la calidad de vida de las personas con disfunción motora o parálisis, incluso aquellas que luchan contra el síndrome de enclaustramiento, cuando una persona está completamente consciente pero no puede moverse o comunicarse. Los investigadores combinaron electrónica inalámbrica y realidad virtual en un sistema Brain Machine Interface que permite al usuario imaginar una acción y controlar de forma inalámbrica una silla de ruedas o brazo robótico.
Un equipo investigador diverso y multidisciplinar
El equipo internacional multiinstitucional de investigadores dirigido por el laboratorio de Woon-Hong Yeo en el Instituto de Tecnología de Georgia, que incluyó a investigadores de la Universidad de Kent (Reino Unido) y la Universidad de Yonsei (República de Corea), describe este mes el nuevo sistema de IMC basado en imágenes motoras en la revista Advanced Science .
«La principal ventaja de este sistema para el usuario, en comparación con lo que existe actualmente, es que es suave y cómodo de usar, y no tiene cables», dijo Yeo, profesor asociado de la Escuela de Mecánica George W. Woodruff de Ingeniería.
Los sistemas BMI son una tecnología de rehabilitación que analiza las señales cerebrales de una persona y traduce esa actividad neuronal en comandos, convirtiendo las intenciones en acciones. El método no invasivo más común para adquirir esas señales es Electro Encephalo Graphy (EEG), que generalmente requiere un casco de electrodo engorroso y una red enredada de cables.
Estos dispositivos generalmente dependen en gran medida de geles y pastas para ayudar a mantener el contacto con la piel, requieren tiempos de preparación extensos, son generalmente inconvenientes e incómodos de usar. Los dispositivos también sufren a menudo de una mala adquisición de la señal debido a la degradación del material o artefactos de movimiento, el «ruido» auxiliar que puede ser causado por algo como rechinar los dientes o parpadear los ojos. Este ruido aparece en los datos cerebrales y debe filtrarse.
El sistema EEG portátil diseñado por Yeo, que integra electrodos imperceptibles de microagujas con circuitos inalámbricos suaves, ofrece una mejor adquisición de la señal. Medir con precisión esas señales cerebrales es fundamental para determinar qué acciones quiere realizar un usuario, por lo que el equipo integró un potente algoritmo de aprendizaje automático y un componente de realidad virtual para abordar ese desafío.

Descripción general del sistema de cuero cabelludo inalámbrico para la detección de señales cerebrales de imágenes motoras, con componentes electrónicos totalmente portátiles, interconectores extensibles y matrices de microagujas flexibles. A) Una ilustración de un sujeto que lleva un visor de realidad virtual y dispositivos electrónicos en el cuero cabelludo con un primer plano de interconectores extensibles (foto superior derecha) y un electrodo de microaguja flexible (foto inferior derecha). B) Una foto ampliada de una serie de microagujas junto con una imagen SEM ampliada de las agujas (recuadro). C) Una imagen de un circuito inalámbrico flexible con chips integrados, que muestra la conformidad mecánica del circuito de membrana. D) Ubicaciones (vista superior) de los electrodos de microagujas para la clasificación de señales cerebrales de imágenes motoras, incluidos seis canales de grabación, una referencia (REF) y una tierra (GND).
El nuevo sistema BMI se probó con cuatro sujetos humanos, pero aún no se ha estudiado con personas discapacitadas
«Esta es solo una primera demostración, pero estamos encantados con lo que hemos visto», señaló Yeo, director del Centro de Ingeniería y Interfaces Centradas en el Hombre de Georgia Tech del Instituto de Electrónica y Nanotecnología, y miembro del Petit Institute. para Bioingeniería y Biociencias.
El equipo de Yeo introdujo originalmente una interfaz cerebro-máquina EEG suave y portátil en un estudio de 2019 publicado en Nature Machine Intelligence . El autor principal de ese trabajo, Musa Mahmood, también fue el autor principal del nuevo artículo de investigación del equipo.
«Esta nueva interfaz cerebro-máquina utiliza un paradigma completamente diferente, que involucra acciones motoras imaginadas, como agarrar con cualquier mano, lo que libera al sujeto de tener que mirar demasiados estímulos», dijo Mahmood, estudiante de doctorado en Yeo’s laboratorio.
En el estudio de 2021, los usuarios demostraron un control preciso de los ejercicios de realidad virtual utilizando sus pensamientos: sus imágenes motoras. Las señales visuales mejoran el proceso tanto para el usuario como para los investigadores que recopilan información.
«Las indicaciones virtuales han demostrado ser muy útiles», dijo Yeo. «Aceleran y mejoran la participación del usuario y la precisión. Y pudimos registrar la actividad de imágenes del motor de forma continua y de alta calidad».
Según Mahmood, el trabajo futuro en el sistema se centrará en optimizar la colocación de electrodos y una integración más avanzada del electroencefalograma basado en estímulos, utilizando lo que han aprendido de los dos últimos estudios.
Más información en las publicaciones originales:
Musa Mahmood et al, Wireless Soft Scalp Electronics and Virtual Reality System for Motor Imagery‐Based Brain–Machine Interfaces, Advanced Science (2021) (Musa Mahmood et al, Sistema de realidad virtual y electrónica del cuero cabelludo blando inalámbrico para interfaces cerebro-máquina basadas en imágenes motoras). DOI: 10.1002/advs.202101129
Musa Mahmood et al, Fully portable and wireless universal brain–machine interfaces enabled by flexible scalp electronics and deep learning algorithm, Nature Machine Intelligence (2019).(Musa Mahmood et al, Interfaces cerebro-máquina universales totalmente portátiles e inalámbricas habilitadas por la electrónica flexible del cuero cabelludo y el algoritmo de aprendizaje profundo) DOI: 10.1038/s42256-019-0091-7
Fuente: Georgia Tech