Los futuros usuarios de audífonos podrán mejorar su escucha con mayor precisión gracias a una nueva tecnología danesa de Inteligencia Artificial. Un investigador de la Universidad de Aalborg utiliza el Aprendizaje Automático para enseñar a un programa informático cómo eliminar el ruido no deseado y mejorar el habla.
Uno de los principales desafíos para las personas con pérdida auditiva es comprender el habla en entornos ruidosos. El problema se conoce como el efecto de cóctel porque las situaciones en las que muchas personas están hablando al mismo tiempo a menudo hacen que sea muy difícil distinguir lo que está diciendo la persona con la que está hablando.
Aunque la mayoría de los audífonos modernos incorporan varias formas de tecnología de mejora del habla, los ingenieros todavía están luchando por desarrollar un sistema que mejore significativamente.
El estudiante de doctorado Mathew Kavalekalam del Audio Lab Analysis en Aalborg University está utilizando el Machine Learning para desarrollar un algoritmo que permita a una computadora distinguir entre palabras habladas y ruido de fondo. El proyecto se lleva a cabo junto con los investigadores de audífonos de GN Advanced Science y cuenta con el respaldo de Innovation Fund Denmark.
El audífono escucha y aprende
«El centro auditivo dentro de nuestro cerebro generalmente realiza una serie de cálculos tremendamente complicados que nos permiten enfocarnos en una sola voz, incluso si hay muchas otras personas hablando en segundo plano —explica Mathew Kavalekalam, de la Universidad de Aalborg—, pero esa capacidad es muy difícil de recrear en una máquina».
Mathew Kavalekalam comenzó con un modelo digital que describe cómo se produce el habla en un cuerpo humano, desde los pulmones a través de la garganta y la laringe, la boca y las cavidades nasales, los dientes, los labios, etc. Usó el modelo para describir el tipo de señal que una computadora debería ‘escuchar’ cuando trata de identificar una voz que habla. Luego le dijo a la computadora que comenzara a escuchar y aprender.
El ruido no es solo ruido
Mathew Kavalekalam explica que el ruido de fondo difiere según el entorno, desde el ruido de la calle o del tráfico si estás afuera, al ruido de las personas que hablan en un pub o en una cafetería . Esa es una de las muchas razones por las que es tan difícil construir un modelo para la mejora del habla que filtre el discurso que desea escuchar del balbuceo que no le interesa.
En la Universidad de Aalborg, Mathew Kavalekalam reprodujo varias grabaciones de voces hablando con la computadora y gradualmente agregó diferentes tipos de ruido de fondo a un nivel cada vez mayor. Al aplicar este aprendizaje automático, el software de la computadora desarrolló una forma de reconocer los patrones de sonido y calcular cómo mejorar el sonido particular de las voces parlantes y no el ruido de fondo.
El resultado del trabajo de Kavalekalam es una pieza de software que puede ayudar a las personas con pérdida auditiva a comprender mejor el habla. Es capaz de identificar y mejorar las palabras habladas incluso en entornos muy ruidosos.
Hasta ahora, el modelo ha sido probado en diez personas que han estado comparando el habla y el ruido de fondo con y sin el uso del algoritmo de Kavalekalam. A los sujetos de prueba se les pidió que realizaran tareas sencillas relacionadas con el color, los números y las letras que se les describieron en entornos ruidosos. Los resultados indican que Kavalekalam bien pudo haber desarrollado una solución prometedora. La percepción del habla de los sujetos de prueba mejoró un quince por ciento en entornos muy ruidosos.
Procesamiento de señal Snappy
Sin embargo, todavía queda algo de trabajo por hacer antes de que el software de Mathew Kavalekalam llegue a un nuevo audífono. La tecnología debe ajustarse y afinarse antes de que sea prácticamente aplicable.
El algoritmo necesita ser optimizado para tomar menos potencia de procesamiento. A pesar de que la tecnología se vuelve cada vez más rápida y potente, existen limitaciones de hardware en un audífono pequeño y moderno.
«Cuando se trata de mejorar el habla, el procesamiento de la señal necesita ser realmente rápido. Si el audífono retrasa el sonido, se desincroniza con los movimientos de la boca y eso lo confundirá aún más», explica Mathew Kavalekalam. .
Fuente: aau.dk