Las ayudas tecnológicas para orientarse y navegar por las calles de las ciudades tienen una aplicación especialmente necesaria en el caso de las personas con discapacidad visual. Si para cualquiera de nosotros es útil disponer de un sistema que nos evite perdernos o perder el tiempo, en el caso de quien no puede ver el recorrido representa una mejora importante en su calidad de vida y su autonomía de movimientos. Ya hemos visto antes otros desarrollos tecnológicos en este sentido y ahora vamos a conocer tres de las últimas propuestas más prometedoras.
Ashirase, un sistema de navegación en zapatos para ayudar a las personas con discapacidad visual
La primera empresa comercial que se originó a partir de IGNITION, el nuevo programa de creación de empresas de Honda, está desarrollando actualmente un sistema de navegación dentro del calzado para ayudar a las personas con discapacidad visual a caminar y se esforzará por comenzar a vender el sistema, también llamado «Ashirase«, antes de que finalice el año fiscal que finaliza el 31 de marzo de 2023.
El Ashirase es un sistema de navegación que consta de una aplicación de teléfono inteligente y un dispositivo de vibración tridimensional que incluye un sensor de movimiento, que se adjunta dentro del zapato.
Según la ruta establecida con la aplicación, el dispositivo vibra para proporcionar navegación. Cuando el usuario debe ir derecho, el vibrador ubicado en la parte delantera del pie vibra, y cuando el usuario se acerca a un giro a la derecha o izquierda, el vibrador del lado derecho o izquierdo vibra para notificar al usuario.

Dispositivo de vibración Ashirase conectado a los zapatos y a la pantalla de la aplicación del teléfono inteligente Ashirase
La navegación proporcionada por Ashirase permite una comprensión intuitiva de la ruta, por lo que el usuario no tiene que estar constantemente atento a la dirección, lo que hace posible que el usuario camine de forma más segura y con un estado de ánimo más relajado.
- La información de orientación para el usuario con discapacidad visual se genera en función de la información de posicionamiento GNSS * 1 y los datos basados en el movimiento del pie del usuario gracias a un wearable.
- La navegación se realiza mediante vibración en el pie, para no interferir con la mano del usuario que sostiene un bastón blanco o con los oídos que se utilizan para escuchar los sonidos ambientales.
- Los vibradores están ubicados alineados con la capa nerviosa del pie, lo que facilita sentir la vibración.
- Para el dispositivo se utiliza un material blando que mantiene su forma original con el fin de limitar cualquier incomodidad para el usuario.
(* 1) GNSS son las siglas de Global Navigation Satellite System, un nombre colectivo para los sistemas de posicionamiento, navegación y cronometraje por satélite (PNT).
Fuente: Honda News
Algoritmo en el calzado como sistema de asistencia a invidentes
La empresa de Baja Austria Tec-Innovation ha desarrollado un zapato inteligente para detectar obstáculos. El zapato, conocido como InnoMake, se ha comercializado recientemente como un dispositivo médico aprobado y está destinado a hacer que la movilidad personal de las personas ciegas y con discapacidad visual sea más segura.
«Los sensores ultrasónicos en la punta del zapato detectan obstáculos a una distancia de hasta cuatro metros. El usuario es advertido por vibraciones y / o señales acústicas. Esto funciona muy bien y ya es una gran ayuda para mí personalmente», dice Markus Raffer, uno de los de los fundadores de Tec-Innovation y él mismo con discapacidad visual.

El zapato Innomake como ya está disponible en el mercado. El sensor ultrasónico está conectado a la punta del zapato. En el futuro, se integrarán allí una cámara y un procesador que ejecute el algoritmo. © Lunghammer – TU Graz
El equipo dirigido por Raffer y su socio fundador Kevin Pajestka determinó al principio de la fase de desarrollo que dos piezas de información avanzada son extremadamente importantes para la usabilidad: la naturaleza de un obstáculo y su trayectoria direccional, especialmente si está mirando hacia abajo, como agujeros o escalera.
«No solo es relevante la advertencia de que estoy enfrentando un obstáculo, sino también la información sobre el tipo de obstáculo que estoy enfrentando. Porque hace una gran diferencia si se trata de una pared, un automóvil o una escalera», dice Raffer.

Una toma de cámara desde la perspectiva del calzado: la zona por la que se puede caminar sin peligro está delimitada por el color, reconocida e interpretada por el algoritmo de reconocimiento de imágenes de TU Graz. © TU Graz
Inteligencia Artificial en los zapatos para invidentes capaz de reconocer áreas transitables
Después de una búsqueda activa, Tec-Innovation pudo ganarse a la Universidad Tecnológica de Graz (TU Graz) como socio de cooperación en 2016. Desde entonces, el Instituto de Gráficos por Computadora y Visión de la Universidad Tecnológica de Graz (TU Graz) ha estado trabajando en una adición basada en cámaras para la primera versión del producto, como explica el científico informático Friedrich Fraundorfer: «Hemos desarrollado algoritmos de aprendizaje profundo de última generación modelados en redes neuronales que pueden hacer dos cosas principales después de detectar e interpretar el contenido de la imagen. imágenes desde la perspectiva del pie para determinar un área libre de obstáculos y, por lo tanto, segura para caminar. Y pueden reconocer y distinguir objetos «. Los algoritmos entrenados mediante el aprendizaje automático ya se pueden operar en un sistema móvil especialmente diseñado. Gracias a los últimos procesadores especiales potentes, El uso móvil de los complejos algoritmos de IA ahora también es posible. «Esto se puede atribuir al enorme desarrollo del procesador de los últimos años», añade David Schinagl, colega de Fraundorfer. El algoritmo TU Graz está patentado y se ha transferido a Tec-Innovation.
Tec-Innovation ahora está trabajando en la integración del sistema en un prototipo; la cámara y el procesador deben estar integrados de forma robusta y cómoda en el zapato. Friedrich Fraundorfer y su equipo en TU Graz, a su vez, ya han pasado a la siguiente etapa como la continuación lógica del proyecto. Quieren combinar la información recopilada mientras usan el zapato en términos de conocimiento del enjambre en una especie de mapa de navegación de Street View para personas con discapacidad visual.
«Tal como está actualmente, solo el usuario se beneficia en cada caso de los datos que el zapato recopila mientras camina. Sería mucho más sostenible si estos datos también pudieran estar disponibles para otras personas como una ayuda para la navegación», dice Fraundorfer. .
Para la concepción y la implementación prototípica de un mapa de Street View para personas ciegas y con discapacidad visual, se está presentando una solicitud de financiación a la Agencia Austriaca de Promoción de la Investigación FFG. Debido a los enormes desafíos que enfrenta, este tipo de soporte de navegación aún está en un futuro lejano. Según Fraundorfer, los mayores puntos conflictivos son la actualización y expansión del mapa que se necesitan continuamente, vinculándolo con datos anteriores y la conexión de TI del sistema de calzado. Para el investigador de TU Graz, sin embargo, una cosa es segura: «Definitivamente continuaremos en el tema. Después de todo, en nuestro mundo altamente innovador, una alternativa al bastón de más de 70 años para ciegos debe también sea posible «.
Fuente: TU Graz
Sistema de soporte para ayudar a las personas con discapacidad visual a navegar por el pavimento táctil
La vista es, con mucho, el sentido que más utilizamos los seres humanos cuando navegamos por un entorno. Cuando los ciegos o las personas con discapacidad visual caminan solos, corren un gran riesgo de caerse o chocar con obstáculos, especialmente al atravesar nuevos lugares. Desafortunadamente, es probable que el número de personas con discapacidad visual en todo el mundo aumente en un futuro próximo debido al rápido envejecimiento de la población. Por lo tanto, existe una necesidad urgente de soluciones innovadoras y rentables para ayudar a las personas con discapacidad visual a navegar de forma segura.
Una estrategia prometedora que se implementó por primera vez en Japón y luego se replicó en todo el mundo se llama pavimentación táctil.
Inspirado en el Braille, el sistema de lectura del pavimento táctil ciego consiste fundamentalmente en colocar baldosas texturizadas para formar un camino guía que se pueda sentir a través de la suela o con un bastón. Con el advenimiento de la tecnología digital moderna, los investigadores de todo el mundo están tratando de implementar sistemas de soporte basados en cámaras para ayudar a las personas ciegas o con deficiencias visuales a encontrar y permanecer en caminos de pavimentación táctiles, así como para advertir al usuario de los obstáculos inminentes.
Sin embargo, quedan muchos desafíos sin resolver en las opciones disponibles actualmente, lo que resulta en una aplicabilidad limitada. «Muchos enfoques existentes basados en cámaras para detectar pavimentos táctiles dependen del filtrado de la información de color con umbrales fijos, aunque esta estrategia no es confiable en contextos con condiciones de iluminación variables que pueden causar grandes cambios de color», explica el profesor asociado Chinthaka Premachandra del Instituto Shibaura de Tecnología (SIT), Japón. «Este problema se agrava por el hecho de que diferentes lugares utilizan diferentes esquemas de color para su pavimento táctil», agrega.

Descripción general del sistema propuesto, que comprende una cámara de profundidad, una placa de circuito pequeña y auriculares para emitir advertencias auditivas cuando hay obstáculos. El nuevo algoritmo de procesamiento de imágenes puede generar umbrales dinámicamente para detectar mejor el pavimento táctil.
Crédito: Instituto de Tecnología de Shibaura (SIT)
En un esfuerzo por abordar estos problemas de manera eficiente, el Dr. Premachandra y su equipo han desarrollado un nuevo algoritmo de procesamiento de imágenes que puede detectar con mayor precisión el pavimento táctil. Como se describe en su último estudio publicado en IEEE Access , su sistema de soporte propuesto consiste en una cámara de profundidad orientada hacia adelante que se coloca alrededor del pecho y que está conectada a una pequeña placa de microcomputadora aproximadamente del tamaño de una tarjeta de crédito.
La placa ejecuta continuamente el algoritmo de procesamiento de imágenes sobre los datos capturados por la cámara y detecta el pavimento táctil. Si se detecta un obstáculo en el pavimento táctil, el sistema advierte al usuario a través de auriculares.
La parte más importante del sistema, el algoritmo de procesamiento de imágenes, fue el foco del estudio. El objetivo del equipo era hacer que la detección del pavimento táctil fuera independiente de los umbrales de color predefinidos. Con este fin, primero emplearon una técnica ampliamente estudiada llamada transformada de línea de Hough. Con él, se pueden encontrar líneas rectas en cualquier imagen, por lo que es relativamente fácil encontrar los bordes del pavimento táctil.
Una vez que se encuentran los bordes tentativos del pavimento táctil, el algoritmo observa la distribución de colores en un área pequeña cerca del centro del camino. A través de análisis estadísticos, determina un umbral apropiado para que el marco actual genere una ‘máscara de imagen’ apropiada que marque el pavimento táctil. Finalmente, tras realizar unos ajustes finales para reducir el ruido, el resultado es una imagen en la que se identifica claramente el pavimento táctil.
Los científicos probaron su sistema de forma experimental utilizando casi mil imágenes de pavimentos táctiles de todo el mundo. Emocionado por los resultados prometedores, el Dr. Premachandra comenta: «El sistema propuesto detectó correctamente el pavimento táctil el 91,65% del tiempo en ambientes interiores y exteriores bajo diferentes condiciones de iluminación, lo que es una precisión notablemente mayor que los métodos anteriores basados en cámaras con umbrales fijos».
Otra ventaja notable del sistema es que se puede implementar en pequeños circuitos basados en microprocesadores, a diferencia de otras estrategias que requerían que el usuario llevara una computadora portátil.
Con los ojos puestos en el futuro, el Dr. Premachandra y su equipo están trabajando para aumentar la velocidad de procesamiento del sistema y mejorar aún más su precisión, especialmente en condiciones de iluminación extremas como las de la noche y cuando hay luces muy brillantes. Con suerte, el progreso futuro en sistemas de apoyo prácticos y rentables hará que sea más seguro para las personas con discapacidad visual caminar solas, dándoles más libertad y confianza para ir a nuevos lugares.
Fuente: Shibaura