Investigadores de la Universidad de California fabricaron un guante que decodifica el alfabeto de la lengua de signos americana (ASL) y luego transmite el texto a dispositivos electrónicos de forma inalámbrica. El guante tiene nueve sensores de deformación flexibles, dos en cada dedo y uno en el pulgar, que detectan la articulación de los nudillos. Un microprocesador calcula la letra ASL para cada gesto, y una radio Bluetooth transmite el texto para su visualización. El sistema cuesta menos de 100 dólares y tiene bajos requerimientos de energía.
Detectores de movimiento de las manos
En la actualidad, los métodos primarios para el seguimiento de las posiciones del cuerpo humano son a través de sistemas ópticos, utilizando un campo electromagnético, o mediante el uso de matrices de sensores portátiles. Los sistemas ópticos que comprenden emisores y receptores infrarrojos, han sido desarrollados con éxito en sistemas para la realidad virtual y el análisis biomecánico. Aunque estos sistemas tienen baja latencia y alta resolución espacial, requieren una infraestructura costosa e inamovible. Las cámaras de los sistemas para el seguimiento móvil en los regímenes de infrarrojos o visibles también se han aplicado con éxito, pero estos sistemas deben estar lejos del cuerpo humano y a veces no es posible mantener la línea de visión. Además tienen grandes requerimientos de energía para adquisición de imágenes sofisticadas y procesamiento de hardware. Un sistema portable no tiene estas restricciones. Los investigadores eligieron un guante como sistema de banco de pruebas porque es el factor de forma arquetípico para las interfaces hombre-máquina intuitivas. Es decir, a diferencia de otros controles remotos (por ejemplo, un ratón, un controlador de juego, un teclado y un joystick), los guantes interactúan directamente con las manos humanas.
La clave: los sensores de deformación
Los componentes clave del dispositivo son sensores de deformación que comprenden un compuesto piezorresistivo de partículas de carbono incrustado en un fluoroelastómero. Estos sensores están integrados con un módulo electrónico portátil que consta de digitalizadores, un microcontrolador y una radio Bluetooth. El análisis de elementos finitos predice una tensión de pico en los sensores del 5% cuando los nudillos están completamente doblados. Los estudios de fatiga sugieren que los sensores detectan con éxito la articulación de los nudillos incluso cuando se doblan a su grado máximo 1.000 veces.
En conjunción con un acelerómetro y sensores de presión, el guante es capaz de traducir las 26 letras del alfabeto ASL.
Finalmente, Los datos tomados del guante se utilizan para controlar una mano virtual; Esta aplicación sugiere nuevas formas en que la electrónica estirable y portátil puede permitir a los seres humanos interactuar con los entornos virtuales. Es importante destacar que este sistema fue construido con componentes que cuestan menos de 100 dólares y no requiere síntesis química o acceso a una sala limpia. Por lo tanto, puede utilizarse como un banco de pruebas por los científicos de materiales para evaluar el rendimiento de los nuevos materiales flexibles y la elásticidad de la electrónica híbrida.
Fig. 1. Descripción general del guante de decodificación de gestos.
(A) Fotografía del guante. (B) Fotografía que detalla las tarjetas de desmontaje para la MCU, acelerómetro y Bluetooth en la PCB. (C) Un diagrama de circuito de un divisor de voltaje. D) Dibujo esquemático del sistema inalámbrico de reconocimiento de gestos y el flujo de información. Paso 1: se hizo un gesto y los sensores de deformación transdujeron las posiciones de los nudillos en valores de resistencia variable. Paso 2: los valores variables de resistencia se convirtieron en voltajes por los divisores de voltaje. Paso 3: la MCU midió los nueve voltajes y, a través de un proceso de comparación binario, los usó para generar una clave de nueve bits. Paso 4: la clave binaria se utilizó para determinar qué letra se iba a transmitir de forma inalámbrica.
Una mano virtual con arduino
El sensor de guante fue interconectado con una mano virtual utilizando un código Python personalizado y orientado a objetos. En primer lugar, se construyó un modelo manual de veinticuatro nodos en coordenadas cartesianas. Cada nódulo proximal y metacarpiano se asoció con tres nodos para formar un objeto común. Cada objeto de unión tenía un estado de flexión asociado con él, así como un método para ajustar el estado de flexión usando una transformación geométrica estándar.
Un algoritmo simple fue diseñado para captar las señales de voltaje del Arduino (ya sea a través de un puerto serie o un archivo de texto) y hacer coincidir el estado de flexión de cada nudillo en la mano virtual con el de la mano real.
La trayectoria de la mano se guardó en un archivo para su posterior visualización con la herramienta de visualización abierta OVITO. El código está disponible en abierto en este repositorio github. Un video del sistema que reconoce el gesto para controlar una mano virtual está disponible para su descarga como archivo S4, aquí.
Fig. 4. Descifrar los gestos de las manos en las letras del alfabeto ASL.
(A) Valores de tensión asociados con cada nudillo mientras que la mano firma las letras del alfabeto ASL en orden. Cada signo se dio ~ 30 s para formar y mantener la letra y, con el uso de un sensor de presión y acelerómetro, las 26 letras fueron transcritas con éxito. Las líneas de puntos representan el valor de umbral para determinar el estado de encendido / apagado del sensor. (B) Fotografías de la mano en configuraciones correspondientes a los gestos ASL para las letras ‘U’ ‘C’ ‘S’ y ‘D’. (C) Capturas de pantalla de un teléfono inteligente cuando las cartas fueron recibidas para construir una palabra. (D) Imágenes de una mano virtual en la que el estado de flexión de cada dedo corresponde a los valores de resistencia de los sensores.
FUENTE: PLOS ONE