El siguiente paso en los sistemas de CRM basados en Inteligencia Artificial son los ChatBots que realizan llamadas. Microsoft ya los ha probado con éxito y aseguran que generan el efecto de una conversación natural.
Ocurrió el 3 de abril de 2018, según desvela en el blog de Microsoft su redactora Allison Linn: La compañía recientemente incorporó estos avances en XiaoIce, un chatbot social que tiene más de 200 millones de usuarios en Asia, y está trabajando para aplicar los mismos avances a otros chatbots sociales, incluido Zo de Microsoft en los Estados Unidos.
En el lenguaje de las telecomunicaciones, el avance permite a XiaoIce operar en «dúplex completo», es un término que se refiere a la capacidad de comunicarse en ambas direcciones simultáneamente, como una llamada telefónica.
Difiere de «half duplex», que se parece más a la experiencia de walkie-talkie en la que solo una persona puede hablar a la vez. Zhou dijo que la nueva actualización, que Microsoft llama «sentido de voz dúplex completo», también amplía la capacidad de XiaoIce de predecir qué dirá la persona con la que está hablando. Eso la ayuda a tomar decisiones sobre cómo y cuándo responder a alguien que está chateando con ella, un conjunto de habilidades que es muy natural para las personas pero que aún no es común en los chatbots.
El ChatBot que ejecuta el arte de conversación que la gente usa en su vida diaria
Como explica Linn, Cuando las personas interactúan hoy con la mayoría de los asistentes digitales personales o chatbots, la experiencia es muy similar a hablar en un walkie-talkie o enviar mensajes de texto: la primera parte dice o escribe algo, y luego la otra parte digiere esa información y responde. «La gente realmente no habla de esa manera», dijo Zhou, ingeniero principal de XiaoIce, el popular chatbot social de inteligencia artificial de Microsoft en China.
Ahora, Microsoft cree que ha creado el primer avance tecnológico que puede permitir a las personas conversar con un robot de chat alimentado con inteligencia artificial que se parece más a la experiencia natural que una persona puede tener cuando habla por teléfono con un amigo.
A diferencia de los asistentes centrados en la productividad como Cortana, los chatbots sociales de Microsoft están diseñados para tener sesiones más largas y más conversacionales con los usuarios. Tienen sentido del humor, pueden charlar, jugar juegos, recordar detalles personales y participar en charlas interesantes con la gente, al igual que lo haría con un amigo.
¿Deberían los ChatBot decir que estás hablando con Inteligencia Artificial?
El perfeccionamiento en la forma de hablar y relacionarse de los Chatbot suscita una nueva pregunta ética: ¿Debemos saber que hablamos con un robot?
Para Google, sí. Al menos, tras dar a conocer que su asistente puede hacer llamadas para programar citas mientras habla con una voz humana casi perfecta, repleta de «um» y «ah» , según relata David Pierson de Los Angeles Times: “En ningún momento durante la presentación, el software de Google reveló que no es humano, lo que desencadenó un debate sobre la ética y el consentimiento.”
Días después, Google revirtió el rumbo diciendo explícitamente que el servicio, conocido como Google Duplex, incluiría una revelación de que no es una persona. «Entendemos y valoramos la discusión sobre Google Duplex, como dijimos desde el principio, la transparencia en la tecnología es importante», dijo un portavoz de la compañía. «Estamos diseñando esta característica con la revelación incorporada, y nos aseguraremos de que el sistema esté identificado apropiadamente».
https://youtu.be/bd1mEm2Fy08
La preocupación de que las personas sean engañadas por la nueva función de Google subraya la urgencia de que la sociedad determine qué tipo de relación quiere con sus ayudas artificiales a medida que las compañías de tecnología se acercan a recorrer el llamado «valle misterioso». Ese es un término usado para describir el abismo entre un robot o software que tiene las imperfecciones suficientes para elevar el escepticismo y otro que es indistinguible de un ser humano.
¿Exigiremos saber cuándo estamos hablando con un bot? ¿O aceptaremos que terminemos conversando inconscientemente con algoritmos? ¿Los otorgaremos con la misma amabilidad y empatía que demandamos el uno del otro? ¿O los vemos simplemente como herramientas, indignos de los valores que unen a la sociedad civil? Estas son preguntas que a los expertos en ética, desarrolladores y diseñadores están desconcertando. Cómo respondemos podría tener implicaciones de largo alcance sobre cómo los humanos finalmente se tratan entre sí.