Durante la última presentación de la compañía Samsung la foto de todo el público asistente conectado a las gafas de VR se viralizó inmediatamente gracias a la presencia de Mark Zuckerberg en ella. Esa imagen representa la tecnología de consumo de mayor actualidad gracias a la cual, muchos esperan poder ver el mundo virtual como si fuera real. Mientras tanto, aproximadamente 285 millones de personas en todo el mundo (datos OMS) esperan que la tecnología les proporcione unas gafas, o cualquier otro dispositivo, que les permita ver el mundo real de forma virtual. Se trata de personas con distintos niveles de discapacidad visual, desde baja visión a ceguera, y que gracias a los nuevos desarrollos basados en apps o wereables están obteniendo niveles de seguridad e independencia que les permite desenvolverse casi con total normalidad, al igual que ocurre con los deficientes auditivos.
Dos de los mayores desafíos para la independencia de las personas invidentes son las dificultades para acceder a material impreso y los factores de estrés asociados a la propia movilidad y desplazamiento. El acceso a los documentos impresos se ha mejorado en gran medida por el desarrollo y la proliferación de las tecnologías de adaptación, tales como programas de lectura de pantalla, software de reconocimiento óptico de caracteres, motores de texto a voz, pantallas electrónicas y braille. Por contraste con, dificultades para acceder a los números de habitación, letreros de las calles, nombres de las tiendas, las líneas de autobús, mapas y otra información impresa relacionada con la navegación sigue siendo un reto importante para el recorrido a ciegas. Por ejemplo, un navegante ciego caminando en un centro comercial es incapaz de acceder al directorio de tiendas o en un aeropuerto de las pantallas electrónicas de los horarios de salida y de llegada. Aunque los sistemas basados en GPS habilitados para el habla se pueden utilizar para obtener acceso a los nombres de las calles y las tiendas cercanas y las señales de tráfico audible puede dar pistas acerca de cuándo es seguro para cruzar la calle, estas tecnologías no están ampliamente disponibles para los navegadores. Por otra parte, la mayoría de las tecnologías de navegación cuestan cientos o miles de euros. Esto hace que sea prohibitivo para la mayoría comprar estos dispositivos sin ayudas.
A la hora de diseñar sistemas de asistencia a la navegación, como peatón, de las personas invidentes, hay que tener en cuenta que salvo en aquellas en las que su discapacidad sea sobrevenido por causa de un accidente, glaucoma, etc las indicaciones deben estar basadas en sus circunstancias. Quienes nunca a disfrutado de la visión deben aprender a detectar obstrucciones a su trayectoria de desplazamiento, encontrar bordillos y escaleras, interpretar los patrones de tráfico con el fin de saber cuando el semáforo está en rojo o verde, no virar al cruzar la calle, y un sinfín de tareas. También deben llevar un registro de dónde se encuentran en el entorno y cómo afecta su posición y orientación actual a donde quieren ir. Estas tareas son cognitivamente exigentes y con frecuencia requieren la resolución consciente de problemas a cada momento. En comparación, las personas videntes resolven estos problemas visualmente de una manera más automática, menos cognitivamente exigente. En otras palabras, la navegación basada en visión es más un proceso conceptual, mientras que la navegación a ciegas supone un esfuerzo que requiere el uso de los recursos cognitivos y de atención.
La mayoría de las personas videntes nunca han considerado cómo evitan obstáculos, caminar en línea recta, o reconocer puntos de referencia. No es algo conscientemente aprendido; es sólo algo que hacen. El dispositivo ideal sería emplear un mapeo intuitivo que requiera poca o ninguna formación.
Existen tres tipos de tecnología empleada en los dispositivos de asistencia a la navegación ciega.
- Los dispositivos basados en sonar pueden operar en la oscuridad, la lluvia y la nieve. Esta versatilidad ofrece una ventaja funcional de estos dispositivos para uso al aire libre. Sin embargo, no son ideales para su uso en lugares muy concurridos o confinados ya que los ecos de sonar se distorsionan, haciendo que la información recibida por el usuario no sea fiable.
- La tecnología basada en la cámara puede funcionar bien en una amplia gama de condiciones de funcionamiento tanto dentro como fuera, pero estos sistemas puede tener dificultad con la estabilización de imagen en movimiento cuando es utilizado por los peatones, y amplias variaciones en la luminosidad ambiente dentro y entre las escenas.
- Dispositivos basados en GPS que son bastante precisos en una amplia gama de condiciones atmosféricas, pero la señal es la línea de visión y por lo tanto pueden ser interrumpidos o totalmente oculta en determinados lugares como cuando no funciona en interiores.
WEREABLES Y APPS PARA UNA VISION CASI REAL
Antes de la aparición de las Google Glasses, el Dr. Stephen Hicks, ganador del Premio Brian Mercer 2013 de Innovación desarrolló una nueva tecnología que hace uso de la visión residual a las personas no totalmente invidentes mediante la presentación de los objetos cercanos en las lentes de las gafas especialmente diseñadas por su laboratorio.
Precisamente partiendo del aprovechamiento de la funcionalidad de las gafas de Google, la compañía española NeoSenTec ideó una aplicación que permitía una asistencia a la navegación de gran utilidad. Con su versión para smartphones, el proyecto asturiano Lazzus resultó galardonado en la categoría de “Aplicación Mobile for Good”, que premia la aplicación de smartphone que contribuya a la mejora de la calidad de vida, la autonomía personal o la promoción del envejecimiento activo otorgado por la Fundación Vodafone. “Lazzus” está disponible para Android e iOS, ayuda a las personas con discapacidad visual a descubrir lo que se encuentra a su alrededor, generando un campo de visión artificial que transmite información sonora sobre el entorno del usuario y ofrece geolocalización y búsqueda de puntos de interés.
[vimeo]https://vimeo.com/157273882[/vimeo]
Esta aplicación que ya es una realidad, es la primera de una serie de desarrollos que cambiarán la vida de millones de personas, tal y como nos cuenta Chieko Asakawa Inventora e IBM Fellow , que ha sido ciega desde los catorce años y también está trabajando en ello. En una demostración encantadora de TED, nos muestra la nueva tecnología que está ayudando a las personas ciegas a explorar el mundo cada vez más independiente … porque, ella explica, cuando diseñamos para una mayor accesibilidad, todos nos beneficiamos.
[youtube]https://youtu.be/f-mQIWnO3Ag[/youtube]
Imagen de cabecera: Lazzus.