Suscríbete al newsletter The NewNow

Y te mantendremos al tanto de los últimos artículos y noticias

Los campos marcados con * son obligatorios

Algoritmo que mejora la compresión de imágenes y vídeo

Un nuevo algoritmo puede ayudar a las personas a almacenar más fotos, compartir videos más rápido. La técnica de aprendizaje automático basada en el cerebro humano reduce el tamaño de los archivos multimedia, los restaura sin perder mucha calidad o información.

Usando inteligencia artificial, un equipo dirigido por IST de Penn State diseñó un sistema que podía comprimir y restaurar archivos, como imágenes. A menudo hay una pérdida de calidad cuando las imágenes se restauran. Sin embargo, cuando el algoritmo del equipo restauró las imágenes de muestra, la calidad de la imagen fue mejor que los puntos de referencia, incluido el propio sistema de compresión de Google.

El mundo produce aproximadamente 2,5 quintillones de bytes de datos cada día. Almacenar y transferir toda esta enorme cantidad de imágenes, videos, tweets y otras formas de datos, y en constante crecimiento, se está convirtiendo en un desafío importante, que amenaza con socavar el crecimiento de Internet y frustra la introducción de nuevas tecnologías, como Como  Internet de las Cosas. Ahora, un equipo de investigadores informa que un algoritmo que utiliza una técnica de aprendizaje automático basada en el cerebro humano podría aliviar esa obstrucción de datos al reducir el tamaño de los archivos multimedia, como videos e imágenes, y restaurarlos sin perder mucha calidad o información. El aprendizaje automático es un tipo de inteligencia artificial.

En un estudio, los investigadores desarrollaron un algoritmo que presenta una red neuronal recurrente para comprimir y restaurar datos, de acuerdo con C. Lee Giles, profesor de Ciencias y Tecnología de la Información David Reese, Penn State, y un asociado del Instituto para la Ciencia Cibernética. En este caso, el algoritmo, al que llamaron algoritmo de refinamiento iterativo, que se centra en el paso de decodificación o restauración, pudo producir imágenes restauradas que tenían mejor calidad que los puntos de referencia seleccionados para el estudio, incluido un sistema de compresión diseñado por Google. Lo que los investigadores consideraron el mejor en el momento.

El éxito del sistema en la compresión de archivos se debe al uso de un decodificador de red neuronal recurrente, en lugar de una red de avance o un decodificador convencional (lineal).

Una red neuronal recurrente utiliza una memoria con estado, lo que le permite almacenar datos a medida que realiza cálculos. Sin embargo, una red neuronal regular (o red neuronal de avance) no puede almacenar datos y solo puede procesar la información de forma secuencial. Con la capacidad de memoria adicional, las redes neuronales recurrentes pueden tener un mejor desempeño en tareas, como el reconocimiento de imágenes. «Un sistema recurrente tiene retroalimentación, mientras que un perceptrón de varias capas, o una red convolucional, u otro tipo de red neuronal similar, suelen ser avanzados, en otras palabras, los datos simplemente pasan, no se almacenan como memoria», dijo Giles.

David Miller, profesor de ingeniería eléctrica y ciencias de la computación, quien trabajó con Giles, dijo que «la ventaja clave de la recurrencia en este contexto de decodificación de imágenes es que explota las correlaciones en regiones espaciales largas de la imagen que un decodificador de imágenes convencional».

Otra ventaja del algoritmo, en comparación con los sistemas de la competencia, fue la simplicidad del diseño del mismo, dijeron los investigadores, quienes informaron sus hallazgos recientemente en la Conferencia de Compresión de Datos (DCC).

«Realmente solo tenemos la red neuronal recurrente al final del proceso, en comparación con la de Google, que incluye redes neuronales recurrentes, pero están ubicadas en muchas capas diferentes, lo que se agrega a la complejidad», dijo Giles.

Uno de los problemas con la compresión es que cuando se restaura una imagen o un video comprimidos, el archivo puede perder algunos bits de información, lo que puede hacer que la imagen o el video se vean borrosos o distorsionados. Los investigadores probaron el algoritmo en varias imágenes y fue capaz de almacenar y reconstruir las imágenes con mayor calidad que el algoritmo de Google y otros sistemas de referencia.

Las redes neuronales organizan sus «neuronas» electrónicas de manera muy similar a la forma en que el cerebro está compuesto por redes de neuronas; sin embargo, Alexander G. Ororbia, profesor asistente en el Instituto de Tecnología de Rochester, cuya investigación se centra en el desarrollo de sistemas neuronales con motivación biológica y los algoritmos de aprendizaje que lideran esta investigación, dijo que los cerebros electrónicos son mucho más simples.

«Lo importante a recordar es que estas redes neuronales se basan libremente en el cerebro», dijo Ororbia. «Las neuronas que forman una red neuronal electrónica son mucho, mucho más simples.

Las neuronas biológicas reales son extremadamente complejas. Algunas personas dicen que la red neuronal electrónica es casi una caricatura de la red neuronal del cerebro».

Giles dijo que la idea de utilizar redes neuronales recurrentes para la compresión surgió de una revisión de la investigación de redes neuronales antiguas sobre el problema de la compresión. «Notamos que no había mucho en el uso de la red neuronal para la compresión, y nos preguntamos por qué», dijo Giles. «Siempre es bueno volver a visitar el trabajo anterior para ver algo que podría aplicarse hoy».

Algoritmo que mejora la compresión de imágenes y vídeo
Algoritmo que mejora la compresión de imágenes y vídeo. Imagen Wikimedia Commons/Penn State

Los investigadores probaron la capacidad de su algoritmo para comprimir y restaurar una imagen en comparación con el sistema de Google utilizando tres métricas independientes que evalúan la calidad de la imagen: la relación de ruido de la señal de pico, el índice de imagen de similitud estructural y el índice de imagen de similitud estructural de escala múltiple, que evalúan la calidad de la imagen. «Los resultados de todos los puntos de referencia y conjuntos de pruebas independientes y de todas las métricas muestran que el algoritmo de refinamiento iterativo propuesto produjo imágenes con menor distorsión y mayor calidad perceptiva», dijo Ankur Mali, estudiante de doctorado en Penn State. quien trabajó extensamente en la implementación técnica del sistema. En el futuro, los investigadores también pueden explorar si el sistema es más fácil de entrenar que los algoritmos de la competencia.

Si bien todas las redes neuronales de compresión requieren capacitación, al ingresar datos en el sistema para enseñarle cómo actuar, Giles cree que el diseño del equipo puede ser más fácil de entrenar.
«Supongo que también es mucho, mucho más rápido, en términos de entrenamiento», dijo Giles.
El equipo también incluyó a Jian Wu, profesor asistente de ciencias de la computación, Old Dominion University; y William Dreese, estudiante de pregrado en ciencias de la computación, y Scott O’Connell, un estudiante de pregrado recién graduado en matemáticas, ambos en Penn State.

Fuente: Penn State News