Suscríbete al newsletter The NewNow

Y te mantendremos al tanto de los últimos artículos y noticias

Los campos marcados con * son obligatorios

Intefaces cerebrales y dispositivos controlados por la mente

Controlar un ordenador o cualquier otro dispositivo con sólo el pensamiento ya es posible, como nos explica Tan Le, cofundadora y CEO de la compañía Emotiv. La posibilidad de convertir los pensamientos en órdenes supone en nuestro entorno digital poder gestionar casi cualquier tipo de objeto que cuente con la tecnología y conectividad adecuada, pues de la misma manera que en Internet de las Cosas (IoT) las máquinas se comunican entre sí, la mente humana puede conectarse a ellas sin necesidad de contacto físico.

Durante años, se ha trabajado en desarrollar una tecnología de control semántico orientada a que los dispositivos electrónicos obedecieran órdenes escritas o habladas, sin embargo, el futuro parece estar mucho más cerca de interfaces cerebrales que entre otras cosas superan directamente las barreras de idiomas o, lo que es mucho más importante, de movilidad reducida del usuario.

La solución creada por Emotiv consta de una diadema encefalograma de cinco canales que recoge señales del los lóbulos central, y temporal. Los centrales son los responsables de la toma de decisiones ejecutivas, atención y planificación y los temporales sobre todo procesan la información auditiva, pero también la memoria y del procesado del lenguaje. Con los sensores de la parte trasera de la cabeza se detectan las señales de los lóbulos parietal y occipital que se ocupan del procesado sensorial y la visión. Todos juntos cubren las áreas del cerebro importantes y registran sus señales eléctricas naturales.

emotiv_ticanddo

Mediante algoritmos, la máquina aprende a distinguir las distintas señales y asociar los patrones con diferentes pensamientos o ideas. Cuando realizamos un determinado movimiento, nuestro cerebro está enviando esas órdenes a nuestro cuerpo y al ser detectadas por el dispositivo, el algoritmo aprende de nuestras señales y sabe cómo convertirlas directamente en órdenes para un determinado mecanismo la siguiente vez sin necesidad de que hagamos el movimiento real.

Más allá de las decisiones, los sentimientos.
La capacidad de medir el funcionamiento cerebral en nuestros comportamientos permite también reconocer emociones. Esto, que normalmente se asocia a su utilización como técnicas de neuromarketing, tiene una vertiente mucho más amable con su aplicación a los videojuegos y la realidad virtual. Sabiendo cómo te sientes ante determinadas situaciones o estímulos, el entretenimiento puede interactuar según tus gustos y sensaciones, cambiando el contenido personalizadamente.

Las aplicaciones médicas también tienen su oportunidad gracias a esta tecnología para solucionar problemas de sueño, seguimientos de estados de coma y prevención de diversas patologías con la ventaja de su precio asequible, muy inferior a los equipos clínicos y hospitalarios originales de donde parte esta tecnología. Complementados con sistemas M2M que conecten directamente con equipos remotos, el límite de este avance parece estar sólo en nuestra imaginación.

Con solo una mirada o menos.
Hasta ahora, la interface más extendida que permitía la comunicación entre máquinas y personas sin movilidad o posibilidades físicas, se basaba en un sistema de seguimiento visual muy empleado por enfermos de parálisis, como el empleado por el famoso físico Stephen Hawking formado por un sensor infrarrojo instalado en sus gafas que detecta los movimientos de la mejilla que le permite seleccionar los caracteres de una pantalla. Un software predictivo similar al de los teléfonos móviles completa las frases aprendiendo de su forma de expresarse y un sintetizador de voz lo convierte en sonidos. Curiosamente, el físico ha renunciado expresamente a cambiar el característico tono metálico propio de la ciencia ficción primitiva al considerarlo su seña de identidad. Recientemente, anunció que gracias a la colaboración de Intel, habían logrado una versión mejorada que ofrecería en código abierto para que sea distribuido gratuitamente.

El software usado hasta ahora, llamado EX Keys, permitía también a Hawking controlar el ratón windows y manejar otras aplicaciones en su ordenador.

Stephen_Hawking_in_Cambridge

«Stephen Hawking in Cambridge» de Doug Wheller (CC)

La posibilidad de convertir nuestras ondas cerebrales en órdenes complejas que puedan ser ejecutadas por máquinas no tiene límites en sus aplicaciones. Eduardo Miranda, un compositor que quedó impactado al conocer a un músico que había perdido la movilidad, a un sorprendió al mundo con un ingenio capaz de hacer música gracias a un casco con sensores conectados a un ordenador.

Aunque lo que diferencia su proyecto de otros, es el factor humano. Probando uno de los prototipos, el personal sanitario le explicó que los pacientes lo que de verdad querían era interactuar con otras personas, no con máquinas. Gracias a eso, evolucionó hacia un sistema en el que mientras un músico genera su composición, otro es capaz de interpretarla, como él mismo puso en practica: “Mi última composición es para un cuarteto de cuerda en el que interactúan ocho personas. Cuatro de ellas generan la música y las otras la interpretan según va siendo generada siguiendo la partitura en un monitor” afirma para CNN.

El inconveniente o limitación en estas soluciones era que incluso para manejar esas interfaces, hace falta un mínimo de movilidad y sobre todo, visión. Gracias a la tecnología liderada por Tan Le, se elimina un nuevo obstáculo.

Puedes saber más sobre estas interfaces en la entrevista realizada para Vodafone One publicada en El País.

[youtube]https://youtu.be/O9nxjS2ypcE[/youtube]