Suscríbete al newsletter The NewNow

Y te mantendremos al tanto de los últimos artículos y noticias

Los campos marcados con * son obligatorios

Enseñar a los robots a entender nuestro mundo

Aunque los primeros robots que aprenden por si mismos con tecnología machine learning gracias a su Inteligencia Artificial ya son una realidad, en la actualidad los desarrolladores investigan cómo enseñar a las máquinas inteligentes habilidades básicas como seguir instrucciones habladas o reconocer objetos 3D.

Robots que entienden expresiones complejas

Un nuevo sistema creado por científicos de la Universidad de Brown mejora la comprensión en las instrucciones habladas sin importar cómo de abstractas o específicas puedan ser. El desarrollo, que fue presentado en la conferencia Robotics: Science and Systems 2017 en Boston, es un paso adelante hacia los robots capaces de comunicarse de manera más transparente con los colaboradores humanos.

“La cuestión que estamos tratando es la base del lenguaje, lo que significa tener un robot capaz de entender comandos de lenguaje natural y generar comportamientos que completan con éxito una tarea”, dijo Dilip Arumugam, uno de los investigadores “El problema es que los comandos pueden tener diferentes niveles de abstracción, y eso puede hacer que un robot planee sus acciones de manera ineficiente o no complete la tarea”.

©Tellex Lab / Brown University

Por ejemplo, imagine a alguien en un almacén trabajando junto con una carretilla elevadora robótica. La persona podría decirle al compañero robótico: “Agarra ese palé”. Ese es un comando altamente abstracto que implica una serie de sub-pasos más pequeños: alinear el elevador, colocar las horquillas debajo y elevar. Normalmente, los comandos comunes son más detallados, involucrando solo una acción: “Inclinar las horquillas hacia atrás un poco”, por ejemplo.

La mayoría de los modelos intentan identificar las señales de las palabras en el comando, así como la estructura de la oración y luego inferir una acción deseada de ese idioma.

Los resultados de inferencia desencadenan entonces un algoritmo de planificación que intenta resolver la tarea. Sin embargo, sin tener en cuenta la especificidad de las instrucciones, el robot podría planificar en exceso instrucciones sencillas o planificar instrucciones más abstractas que incluyan más sub-pasos. Esto puede dar como resultado acciones incorrectas o un retraso de planificación demasiado largo antes de que el robot tome acción.

Este nuevo sistema añade un nivel adicional de sofisticación a los modelos existentes. Además de simplemente convertir el lenguaje en una tarea deseada, el nuevo sistema también analiza el lenguaje para inferir un nivel distinto de abstracción.

Para desarrollar su nuevo modelo, los investigadores utilizaron Mechanical Turk, del mercado de crowdsourcing de Amazon y un dominio de tareas virtuales llamado Cleanup World. El dominio en línea consiste en unas pocas habitaciones con códigos de colores, un agente robótico y un objeto que puede ser manipulado, en este caso, una silla que se puede mover de una habitación a otra.

©Brown University

Observaron a un robot de limoieza realizar una tarea común como mover la silla de una habitación roja a una habitación azul adyacente. Luego se les pidió a los voluntarios que dijeran qué instrucciones habrían dado al robot. Los voluntarios recibieron orientación sobre el nivel de especificidad que deberían tener sus instrucciones. Las instrucciones iban desde el nivel alto: “Lleva la silla a la habitación azul” hasta el nivel escalonado: “Da cinco pasos hacia el norte, gira a la derecha, dos pasos más, toma la silla, gira a la izquierda, gira a la izquierda, toma cinco Pasos hacia el sur “.

Fuente: Brown University. El trabajo está descrito en un paper disponible en PDF.

Entender también los objetos que ven

La operatividad de los robots completamente autónomos depende de su capacidad para analizar y comprende el entorno que les rodea y que para una persona es fácilemente reconocible.

Se trata de la capacidad de dar sentido a los objetos tridimensionales, más allá de verlos con sus cámaras o sensores.

Ben Burchfiel, estudiante de la Universidad de Duke y su consejero de tesis George Konidaris, ahora profesor asistente de ciencias de la computación en la Universidad de Brown, han desarrollado una nueva tecnología que permite a las máquinas darle sentido de los objetos tridimensionales de una manera más completa y más humana.

Un robot que limpia platos de una mesa, por ejemplo, debe ser capaz de adaptarse a una enorme variedad de tazones y platos de diferentes tamaños y formas, dejados en desorden en una superficie también desordenada. Los seres humanos pueden mirar a un nuevo objeto e intuitivamente saben lo que es, si está del derecho, si está hacia arriba, al revés o de lado, a plena vista o parcialmente oscurecido por otros objetos. Incluso cuando un objeto está parcialmente oculto, llenamos mentalmente las partes que no podemos ver.

El nuevo algoritmo de percepción del robot puede adivinar qué es un nuevo objeto y cómo está orientado, sin examinarlo desde múltiples ángulos primero. También puede “imaginar” cualquier parte que esté fuera de la vista.

Los investigadores formaron su algoritmo en un conjunto de datos de aproximadamente 4.000 escaneos 3D completos de objetos domésticos comunes: un surtido de bañeras, camas, sillas, escritorios, aparadores, monitores, mesitas de noche, sofás, mesas y aseos.Cada escaneo en 3-D se convirtió en decenas de miles de pequeños cubos, o voxels, apilados uno encima del otro como bloques de LEGO para hacerlos más fáciles de procesar.

El algoritmo aprendió las categorías de objetos mediante el peinado a través de ejemplos de cada uno y averiguar cómo varían y cómo se mantienen iguales, utilizando una versión de una técnica llamada análisis de componentes principales probabilísticos .

Fuente: Byesian Eigenobjetcs: A Unified Framework for 3D Robot Perception (Descargable en PDF)