Investigadores de la Universidad de Tokio han llegado a la conclusión de que la confianza en la inteligencia artificial depende de la aplicación y de para qué la estemos usando. Impulsados por la creciente importancia de la AI en la sociedad, investigaron las actitudes públicas hacia la ética. Sus hallazgos cuantifican cómo los diferentes escenarios demográficos y éticos afectan estas actitudes. Como parte de este estudio, el equipo desarrolló una métrica visual octogonal (ver más abajo la imagen), análoga a un sistema de calificación, que podría ser útil para los investigadores de IA que deseen saber cómo el público puede percibir su trabajo.
Muchas personas sienten que el rápido desarrollo de la tecnología a menudo supera al de las estructuras sociales que la guían y regulan implícitamente, como la ley o la ética.
La IA en particular ejemplifica esto, ya que se ha vuelto tan omnipresente en la vida cotidiana de muchos, aparentemente de la noche a la mañana. Esta proliferación, junto con la relativa complejidad de la IA en comparación con la tecnología más familiar, puede generar miedo y desconfianza hacia este componente clave de la vida moderna. Quién desconfía de la IA y de qué manera son cuestiones que sería útil saber para los desarrolladores y reguladores de la tecnología de IA, pero este tipo de preguntas no son fáciles de cuantificar.
Investigadores de la Universidad de Tokio, dirigidos por la profesora Hiromi Yokoyama del Instituto Kavli de Física y Matemáticas del Universo, se propusieron cuantificar las actitudes públicas hacia las cuestiones éticas en torno a la IA. Hubo dos preguntas en particular que el equipo, a través del análisis de las encuestas, buscó responder:
- cómo cambian las actitudes según el escenario presentado a un encuestado,
- y cómo la demografía del encuestado mismo cambió las actitudes.
La ética realmente no se puede cuantificar, por lo que para medir las actitudes hacia la ética de la IA, el equipo empleó ocho temas comunes a muchas aplicaciones de IA que plantearon cuestiones éticas: privacidad, responsabilidad, seguridad y protección, transparencia y explicabilidad, equidad y no discriminación, derechos humanos. control de la tecnología, responsabilidad profesional y promoción de los valores humanos. Estos, que el grupo ha denominado «medidas octagonales», se inspiraron en un artículo de 2020 de la investigadora de la Universidad de Harvard Jessica Fjeld y su equipo.

Gráfico octágono. Un gráfico de ejemplo que muestra las calificaciones de un encuestado de los ocho temas para cada uno de los cuatro escenarios éticos en una aplicación diferente de IA. © 2021 Yokoyama et al.
A los encuestados se les dio una serie de cuatro escenarios para juzgar de acuerdo con estos ocho criterios. Cada escenario analizó una aplicación diferente de IA. Eran: arte generado por IA, IA de servicio al cliente, armas autónomas y predicción de delitos.
Los encuestados también dieron a los investigadores información sobre sí mismos, como edad, sexo, ocupación y nivel de educación, así como una medida de su nivel de interés en la ciencia y la tecnología a través de un conjunto adicional de preguntas. Esta información fue fundamental para que los investigadores vieran qué características de las personas corresponderían a determinadas actitudes.
“Estudios anteriores han demostrado que el riesgo es percibido de manera más negativa por las mujeres, las personas mayores y las personas con más conocimiento del tema. Esperaba ver algo diferente en esta encuesta dado lo común que se ha vuelto la IA, pero sorprendentemente vimos tendencias similares aquí”, dijo Yokoyama. “Algo que vimos que se esperaba, sin embargo, fue cómo se percibieron los diferentes escenarios, con la idea de que las armas de IA se encontraron con mucho más escepticismo que los otros tres escenarios”.
El equipo espera que los resultados puedan conducir a la creación de una especie de escala universal para medir y comparar los problemas éticos en torno a la IA. Esta encuesta se limitó a Japón, pero el equipo ya comenzó a recopilar datos en varios otros países.
“Con una escala universal, los investigadores, desarrolladores y reguladores podrían medir mejor la aceptación de aplicaciones o impactos específicos de IA y actuar en consecuencia”, dijo el profesor asistente Tilman Hartwig. “Una cosa que descubrí mientras desarrollaba los escenarios y el cuestionario es que muchos temas dentro de la IA requieren una explicación significativa, más de lo que creíamos. Esto demuestra que existe una gran brecha entre la percepción y la realidad cuando se trata de IA”.
Fuente: The University of Tokio. Puedes leer el documento original aquí:
Yuko Ikkatai, Tilman Hartwig, Naohiro Takanashi y Hiromi M Yokoyama, «Medición del octágono: actitudes públicas hacia la ética de la IA«, International Journal of Human-Computer Interaction : 10 de enero de 2022, doi:10.1080/10447318.2021.2009669.
Enlace
¿Confiarías en un robot para cuidar a tu hijo?
Un ejemplo claro de confianza en una Inteligencia Artificial es la pregunta que te plantea la Universidad Cranfield en una encuesta en la que puedes participar aquí.
Con una previsión de 39,5 millones de robots domésticos que se espera que estén en nuestros hogares para 2021 ( IFR, 2018 ), la Universidad de Cranfield hace un llamado a los miembros del público para que comenten sobre una encuesta lanzada para identificar las opiniones de las personas sobre la ética de los robots.
La Dra. Sarah Fletcher, jefa del grupo de investigación de Psicología Industrial y Factores Humanos de la Universidad de Cranfield que está administrando la encuesta, dijo:
«Con las formas en que los robots y los sistemas robóticos tienen un impacto cada vez mayor en nuestra vida cotidiana, es importante que tengamos estándares éticos que son informados por la opinión pública».
La doctora Fletcher cree que «Si bien algunos de los escenarios de la encuesta pueden parecer futuristas e inverosímiles, potencialmente están a la vuelta de la esquina, ya que hemos visto un rápido aumento en la tecnología robótica en entornos domésticos. ¿Quién hubiera pensado hace 10 años que un robot podría estar aspirando el suelo o cortando el césped?»
La encuesta explora cuán cómodas se sentirían las personas con varios roles y responsabilidades de robots en seis escenarios diferentes para permitir que los diseñadores, desarrolladores y fabricantes comprendan cómo se sienten las personas acerca de aceptar robots e IA en su vida cotidiana.
Los encuestados hasta ahora han revelado que las personas siguen siendo escépticas sobre los roles que se sentirían cómodos entregando a los robots domésticos, y más del 60% cree que debería haber un límite para lo que se le debe permitir hacer a un robot doméstico.
M. Osman Tokhi, profesor de la London South Bank University y presidente del subcomité de Ética de Robots y Sistemas Autónomos, dijo: “La tecnología robótica avanza a un ritmo acelerado y los robots seguirán compartiendo el mismo entorno con nosotros en diversos sectores de la vida, se espera que surjan nuevos desafíos y cuestiones éticas.
“Seguimos abordando estos problemas y desafíos dentro del trabajo de estandarización de robots para informar a los diseñadores, desarrolladores y usuarios de robots, y los resultados de la encuesta constituirán un aporte valioso para nuestro trabajo”.
Los escenarios de la encuesta cubren:
- Robots utilizados para el cuidado de los niños en el hogar
- Robots quirúrgicos en un hospital
- Robots domésticos en una residencia de mayores
- Robots asistentes en el lugar de trabajo en una fábrica
- Robots en una zona de guerra/conflicto
- Robots acompañantes
Los hallazgos ayudarán a informar al Subcomité de Ética de Robots y Sistemas Autónomos de BSI, cuando revisen el primer estándar del mundo para el diseño y la aplicación éticos de robots y sistemas robóticos; BS 8611:2016.
Nick Fleming, Jefe de Fabricación en BS I , dijo: “Los robots y la IA ya no están confinados a las páginas de ciencia ficción y, a medida que se vuelven realidad, es necesario definir los límites éticos de cómo interactuamos con ellos. Es por eso que publicamos el primer estándar mundial sobre ética de robots, BS 8611, hace tres años.
“Sin embargo, a medida que nuestras vidas con los robots se entrelazan más y la tecnología avanza, nuestros estándares deben evolucionar. Los aportes de esta encuesta proporcionarán información invaluable sobre cómo se siente el público actualmente acerca de la robótica y la IA a medida que revisamos este estándar”.
Se invita a los miembros del público a completar la encuesta para dar su opinión.
También te puede interesar:
- Evaluar la confianza en sistemas de inteligencia artificial
- Robots en el quirófano y trabajo del equipo de operaciones
- Robots Socialmente Asistidos para terapias de rehabilitación
- Realidad Virtual e Inteligencia Artificial, Retos de la tecnología médica
- Robots de asistencia social que saben cuándo ayudar mirando a los ojos
- Impacto de la Inteligencia Artificial en el empleo