En TheNewNow hemos visto muchos ejemplos de cómo los robots toman decisiones que van más allá de elegir la siguiente canción a escuchar en una lista de reproducción aleatoria basada en nuestros gustos, o qué anuncio veremos tras una búsqueda en internet. Desde seleccionar las noticas que influyen en nuestra decisión de voto, conducir por nosotros, ser operados por médicos robóticos o incluso juzgados para ir o no a la cárcel, pronto los robots tendrán un gran poder sobre nuestra vida, literalmente, y muchos se hacen la misma pregunta: ¿Podemos confiar en los robots?
Desconfianza en la Inteligencia Artificial y los robots
Los humanos aún tenemos que aprender a delegar determinadas tareas a las máquinas, pero a pesar de que confiemos en su precisión, nos cuesta dejarles todo el control. Paradójicamente, y según David Wgnaer en un artículo publicado en Information Week , Mientras que casi una cuarta parte de los consumidores estadounidenses (24%) piensan que los autos sin conductor mejoran la seguridad porque eliminan el error humano, causante del 90% de lo accidentes, se muestra receloso a la Inteligencia Artificial.
El problema en cuestión se llama «aversión al algoritmo» o «evitación de algoritmos». Por lo general, solo se necesita un error, o la percepción de un error, para que un humano deje de confiar en un robot.
Wagner cita un estudio de 2014 publicado por Harvard , en el que las personas fueron recompensadas por hacer buenas predicciones. Se les permitió usar sus propias predicciones, o las de una IA. Se demostró repetidamente que los algoritmos son mejores que las predicciones humanas. A pesar de eso, los humanos verían errores individuales y perderían la fe en los robots, a pesar de los múltiples fallos propios. Se han mostrado estudios similares con robots que sirven vino, consejos médicos y selecciones de acciones . Repetidamente, los humanos perderían la fe en el robot, sin importar cuán pobremente se desempeñaran sus selecciones en comparación con las del robot.
Para la revista Wired, el truco para aprender a confiar en los robots sería “programar un poco de humildad en el sistema, diseñando máquinas que reconozcan sus propias debilidades.»
Aunque el artículo citado de Harvard Business Review también apuesta por lo contrario: “Nos enorgullecemos de nuestra capacidad de aprendizaje, pero una de las cosas que parece que no podemos comprender es que lo mejor es simplemente confiar en que el algoritmo lo sepa mejor.”
Algoritmos y humanos entrenando robots
Investigadores del Laboratorio de Investigación del Ejército de los EE. UU. Y la Universidad de Texas en Austin han desarrollado nuevas técnicas para robots o programas informáticos para aprender a realizar tareas interactuando con un instructor humano.
Los investigadores de ARL y UT consideraron un caso específico en el que un ser humano proporciona retroalimentación en tiempo real en forma de crítica. El equipo ha desarrollado un nuevo algoritmo llamado Deep TAMER, que utiliza Deep Learning: una clase de algoritmos de aprendizaje automático inspirados en el cerebro para proporcionar a un robot la capacidad de aprender a realizar tareas viendo secuencias de video en un corto período de tiempo con un entrenador humano.
Según el Dr. Garrett Warnell, investigador del ejército, el equipo consideró situaciones en las que un humano enseña a un agente cómo comportarse observándolo y ofreciendo una crítica, por ejemplo, «buen trabajo» o «mal trabajo», similar a la forma en que una persona puede entrenar un perro para hacer un truco. Warnell dijo que los investigadores ampliaron el trabajo anterior en este campo para permitir este tipo de entrenamiento para robots o programas de computadoras que actualmente ven el mundo a través de imágenes, que es un primer paso importante en el diseño de agentes de aprendizaje que pueden operar en el mundo real .
Muchas técnicas actuales en inteligencia artificial requieren que los robots interactúen con su entorno durante largos períodos de tiempo para aprender a realizar una tarea de manera óptima. Durante este proceso, el agente puede realizar acciones que no solo pueden ser incorrectas, como por ejemplo un robot que se precipita contra una pared, incluso algo catastrófico, como un robot que corre por un acantilado.
Warnell dijo que la ayuda de humanos acelerará las cosas para los agentes y los ayudará a evitar peligros potenciales.
Como primer paso, los investigadores demostraron el éxito de Deep TAMER al usarlo con 15 minutos de retroalimentación proporcionada por los humanos para entrenar a un agente para que se desenvuelva mejor que los humanos en el juego de bolos Atari, una tarea que ha resultado difícil incluso para el estado de los métodos del arte en inteligencia artificial. Los agentes entrenados en Deep Tamro exhibieron un rendimiento sobrehumano, superando tanto a sus entrenadores aficionados como, en promedio, a un experto jugador humano de Atari.