Es importante que los robots de asistencia social puedan reconocer cuándo un usuario necesita y quiere ayuda. Estos robots deben poder reconocer las necesidades humanas en tiempo real para que puedan la brindar asistencia oportuna. Los autores de la investigación Enabling a Social Robot to Process Social Cues to Detect when to Help a User proponen una arquitectura que utiliza señales sociales para determinar cuándo un robot debe brindar asistencia. Sus robots serían capaces de entender cuándo una persona necesita ayuda aunque no lo diga expresamente, interpretando esas señales sociales y otras más instintivas como la mirada.
Comunicación humano máquina basada en la mirada y el lenguaje
Basada en un enfoque de fusión multimodal sobre la mirada y las modalidades del lenguaje, su arquitectura se entrena y evalúa sobre la base de datos recopilados en una tarea de construcción de Lego asistida por robot. Al centrarse en las señales sociales, la arquitectura tiene dependencias mínimas de los aspectos específicos de una tarea determinada, lo que permite su aplicación en muchos contextos diferentes.
Permite que un robot social reconozca las necesidades de un usuario a través de señales sociales puede ayudarlo a adaptarse a los comportamientos y preferencias del usuario, lo que a su vez conducirá a una mejor experiencia del usuario.
Robots que ayudan cuando es realmente necesario
En el caso de los robots de asistencia social, existe un equilibrio entre ayudar demasiado y muy poco, ayudar demasiado pronto o demasiado tarde. Ayudar muy poco puede hacer que el robot parezca ineficaz o poco confiable, lo que lleva a una disminución de la confianza en el robot (Langer et al. 2019). Ayudar demasiado puede ser molesto, interrumpir el flujo y dañar la autonomía del usuario (Greczek 2015; Wilson et al. 2018). Simplemente esperar cuando el usuario pide ayuda explícitamente o comete un error puede ser insuficiente y no habilita al agente para proporcionar asistencia proactiva o no solicitada.
El desafío radica en reconocer cuándo el usuario necesita y quiere ayuda, a menudo a través de señales implícitas (Go ̈ru ̈r et al. 2017).
Un usuario puede emplear una variedad de comportamientos no verbales y otras señales sociales que indican que puede necesitar ayuda. Por ejemplo, los patrones de mirada se pueden usar para cuando un usuario se desconecta (Sidner et al. 2005; Bohus, Saw y Horvitz 2014) o predecir los ingredientes que un usuario seleccionará en una tarea de elaboración de sándwiches (Huang et al. 2015) . Sin embargo, los patrones de la mirada por sí solos no son suficientes (por ejemplo, un usuario puede hacer una pregunta sin mover la mirada) y se requieren múltiples modalidades para comprender de manera integral cuándo un usuario necesita ayuda.
Reconocer cuándo necesitamos ayuda por la mirada y el lenguaje no verbal
Se ha demostrado que la combinación de señales sociales (es decir, patrones de mirada y lenguaje) con el desempeño de la tarea es eficaz para reconocer cuándo un usuario necesita ayuda (Reneau y Wilson 2020), pero el enfoque anterior procesó todos los vídeos sin conexión y aprovechó las anotaciones manuales en los vídeos. Ahora los autores del estudio buscan verificar que se puedan hacer inferencias similares en tiempo real y sin anotaciones humanas. Además, el trabajo anterior se basó en gran medida en un modelo de tarea, pero se centraron en un enfoque que tiene dependencias mínimas en los aspectos específicos de la tarea.
En su artículo Habilitación de un robot social para procesar señales sociales para detectar cuándo ayudar a un usuario, presentan una arquitectura en tiempo real que reconoce cuando un usuario necesita ayuda. Su enfoque analiza automáticamente la mirada y el habla de un usuario y luego fusiona los resultados de los modelos de mirada y lenguaje para detectar si el usuario necesita ayuda o no.
«Nuestra principal contribución en este artículo es el desarrollo y la validación de una arquitectura que utiliza señales sociales para detectar cuándo un robot social debería ayudar a un usuario».
Los investigadores proceden primero discutiendo el trabajo relacionado en el procesamiento de señales sociales y detectando cuando un usuario necesita ayuda. Luego proporcionan una descripción detallada de la arquitectura. A continuación, describen la evaluación, incluido un experimento de recopilación de datos en el que los usuarios construyen una estructura de Lego. «Presentamos y discutimos los resultados del entrenamiento y la prueba de los modelos en la arquitectura y luego proporcionamos una pequeña demostración de la arquitectura que se está aplicando en un escenario de cocina. Finalmente, concluimos con limitaciones y trabajo futuro».
El estudio está disponible en PDF CC 4.0 (de donde se han tomado los extractos del presente artículo): Enabling a Social Robot to Process Social Cues to Detect when to Help a User https://arxiv.org/abs/2110.11075
Jason R. Wilson, Phyo Thuta Aung, Isabelle Boucher
Robot Emocional ARI (Asistente Robótico Inteligente) con 5G
Los robots de asistencia ya se están utilizando en el mundo real. Un pequeño robot personal capaz de moverse e interactuar con el usuario está siendo probado en Barcelona dentro su programa piloto 5GBarcelona en colaboración con MWCapital, Grup Saltó, Vodafone Business y el Ayuntamiento de Barcelona. Está dotado de cámara, micrófono, sensores, dos procesadores y un sistema operativo Android que recrea una plataforma de atención, soporte y supervisión para personas mayores en forma de robot sensible. También puede enviar información para ayudar a analizar la condición cognitiva de la persona en función de la interacción a través del lenguaje.
El uso de tecnología 5G posibilita al robot realizar diferentes acciones con el objetivo de controlar y mejorar el estado de salud de la persona que acompaña. Así, el robot dispone de datos para llevar a cabo una evaluación y puede conectar con agentes externos en los casos necesarios.