Suscríbete al newsletter The NewNow

Y te mantendremos al tanto de los últimos artículos y noticias

Los campos marcados con * son obligatorios

Robot autónomo interactúa con lenguaje natural y visión

La Universidad Purdue prepara un robot autónomo que interactúa con humanos utilizando el lenguaje natural y el procesamiento de la visión. La Escuela de Ingeniería Eléctrica e Informática están desarrollando un software integrador de lenguaje y visión que puede permitir que un robot autónomo interactúe con personas en diferentes entornos y logre objetivos de navegación.

Los candidatos a doctorado Thomas Ilyevsky y Jared Johansen están trabajando con Siskind para desarrollar un robot llamado Hosh que puede integrar datos gráficos y de lenguaje en su proceso de navegación para localizar un lugar o persona específica. El equipo está desarrollando el robot a través de una subvención financiada por la National Robotics Initiative de la National Science Foundation.”El objetivo general del proyecto es decirle al robot que busque una persona, una habitación o un edificio en particular y haga que el robot interactúe con personas comunes y sin capacitación para que pregunten en lenguaje natural las direcciones hacia un lugar en particular”, dijo Jeffrey Mark Siskind, profesor asociado liderando el equipo de investigación.

“Para realizar esta tarea, el robot debe operar de manera segura en presencia de la gente, alentarlos a proporcionar instrucciones y utilizar su información para encontrar el objetivo”.

Coches autónomos que hablen con pasajeros y peatones en lenguaje natural

Este robot podría ayudar a que los autos que conducen a sí mismos se comuniquen con los pasajeros y peatones o podría completar tareas a pequeña escala en un lugar comercial como el envío de correo. El robot contribuiría al crecimiento esperado de  14 mil millones de dólares de la industria de robótica del consumidor para el año 2025, según lo proyectado por Boston Consulting Group .

Los investigadores Jared Johansen (izquierda) y Thomas Ilyevsky (derecha) evalúan el robot autónomo, Hosh, revisando los sistemas operativos en el medio ambiente. El robot ubicará de manera autónoma una habitación, edificio o individuo a través de su software integrador de visión y lenguaje. (Imagen de Hope Sale / Purdue Research Foundation)

El robot recibirá una tarea para ubicar una habitación, edificio o persona específica en una ubicación conocida o desconocida. Luego, el robot unirá el lenguaje y el procesamiento visual para navegar por el entorno, solicitará direcciones, solicitará que se abran las puertas o que se presionen los botones del elevador para alcanzar su objetivo.

Los investigadores están desarrollando software de alto nivel para dar al robot “conocimiento del sentido común”, la capacidad de comprender objetos y entornos con intuición humana, lo que le permite reconocer las convenciones de navegación. Por ejemplo, el robot incorporará declaraciones habladas y gestos físicos en su proceso de navegación. “El robot necesita intuición a nivel humano para comprender las convenciones de navegación”, dijo Ilyevsky. “Aquí es donde entra en juego el conocimiento del sentido común. El robot debe saber que las habitaciones con números pares e impares se encuentran una frente a la otra en un pasillo o que la Habitación 317 debe estar en el tercer piso del edificio”.

Para desarrollar el conocimiento del sentido común del robot, las investigaciones desarrollarán un software integrador de procesamiento de lenguaje natural y visión computacional.

Normalmente, el procesamiento del lenguaje natural permitirá que el robot se comunique con las personas, mientras que el software de visión por computadora permitirá que el robot navegue por su entorno. Sin embargo, los investigadores están avanzando el software para informarse unos a otros a medida que el robot se mueve. “El robot necesita entender el lenguaje en un contexto visual y la visión en un contexto de lenguaje”, dijo Siskind. “Por ejemplo, al ubicar a una persona específica, el robot puede recibir información en un comentario o gesto físico y debe comprender ambos dentro del contexto de sus objetivos de navegación”. Por ejemplo, si la respuesta es “Verifique a esa persona en la sala 300”, el robot deberá procesar la declaración en un contexto visual e identificar en qué sala se encuentra actualmente, así como la mejor ruta para llegar a la sala 300.

robot navegando con visión y lenguaje natural
El robot autónomo, llamado Hosh, navegará por los entornos e interactuará con las personas. En la foto superior se muestra la pantalla de la computadora del robot, que incluye un mapa, una vista de la cámara y un software operativo adicional. La parte inferior muestra a los investigadores Jeffrey Mark Siskind (izquierda), Thomas Ilyevsky (centro) y Jared Johansen (derecha) a través de la visión computarizada del robot. (Imagen de Hope Sale / Purdue Research Foundation)

Si la respuesta es “Esa persona está allí” con una señal física, el robot deberá integrar la señal visual con el significado de la declaración para identificar a la Persona A.

“Interactuar con los humanos es un problema no resuelto en la inteligencia artificial”, dijo Johansen. “Para este proyecto, estamos tratando de ayudar al robot a comprender ciertas convenciones con las que se puede encontrar o anticipar que una docena de respuestas diferentes podrían tener el mismo significado. Esperamos que esta tecnología sea realmente grande, porque la industria de los robots autónomos y los autos autosuficientes se está volviendo muy grande”, dijo Siskind. “La tecnología podría adaptarse a los autos que conducen por sí mismos, lo que permite que los automóviles soliciten indicaciones o que los pasajeros soliciten un destino específico, al igual que los conductores humanos”.

Los investigadores esperan enviar el robot en misiones autónomas con una complejidad creciente a medida que la tecnología progresa.

Primero, el robot aprenderá a navegar adentro en un solo piso. Luego, para trasladarse a otros pisos y edificios, le pedirá a la gente que opere el elevador o que le abra las puertas. Los investigadores esperan progresar a misiones al aire libre en la primavera.

La Oficina de comercialización de tecnología de Purdue  ha presentado una patente provisional para el robot autónomo, y la tecnología está disponible para otorgar licencias a una empresa o empresa nueva a través de esta oficina.
La tecnología se alinea con los logros gigantes de Purdue en la celebración de los avances globales de la universidad en salud, espacio, inteligencia artificial y aspectos destacados de sostenibilidad como parte del 150 aniversario de Purdue. Esos son los cuatro temas del Festival de Ideas de la celebración de un año , diseñado para mostrar a Purdue como un centro intelectual que resuelve problemas del mundo real.