Suscríbete al newsletter The NewNow

Y te mantendremos al tanto de los últimos artículos y noticias

Los campos marcados con * son obligatorios

Algoritmos contra el odio en redes sociales

El odio en redes sociales podría se detectado por la Inteligencia Artificial incluso antes de que se propague. La Fundación Wikimedia y la Universidad de Cornell trabajan juntas en la creación de un marco digital capaz de identificar conversaciones en línea y detectar cuándo éstas son tendentes a generar conflictos y ataques personales.

Los investigadores han comprobado cómo en entornos que implican críticas, tales como la Wikipedia, en los que se alienta a los editores a realizar esas críticas, muchas personas no responden de forma objetiva o positiva. Aunque el fin de esas críticas sea mejorar la calidad de los contenidos, los corregidos a menudo se defienden de lo que consideran un ataque mediante comentarios desagradables.

El equipo de la Fundación Wikimedia desea frenar esas conversaciones, porque además de fomentar los malos sentimientos, también le da mala reputación al sitio.

Para abordar el problema, el equipo trabajó con el grupo en Cornell, que ha estado investigando el mismo problema tratando de construir un sistema informático que sea capaz de reconocer cuándo una conversación humana es probable que degenere en maldad, para frenarlo, o cancelar la conversación con las personas involucradas.

los investigadores analizaron más de 1.200 conversaciones en línea en las páginas de Wikipedia Talk en busca de pistas lingüísticas.

En este contexto, las señales fueron palabras que sugirieron comportamiento y nivel de cortesía. Al hacerlo, descubrieron que cuando las personas usaban señales como “por favor” y “gracias”, había menos posibilidades de que las cosas se pusieran feas. También hubo frases positivas, como “Creo” o “Creo” que sugirieron un intento de mantener las cosas en orden, lo que tendía a mantener las cosas en equilibrio. Por otro lado, también encontraron señales menos útiles, como cuando las conversaciones comenzaron con preguntas directas o la palabra “usted”. Tales señales tendieron a llevar a la degradación del civismo en algún momento y, según sugieren los investigadores, a menudo el lector las considera hostiles y polémicas.

Finalmente, el equipo desarrolló un algoritmo que aceptaba pistas como datos aprendidos y luego analizaba oraciones en busca de tales señales y les aplicaba una intuición similar a la humana.

El resultado era un marco computerizado que podía reconocer de forma temprana cuándo una conversación podía degenerar en un feo juego de ida y vuelta. Descubrieron que el sistema tenía una precisión del 61.6 por ciento. Los humanos que hacen la misma prueba, sin embargo, obtuvieron un 72 por ciento.

Fuente: Conversations Gone Awry: Detecting Early Signs of Conversational Failure, arXiv:1805.05345 [cs.CL] arxiv.org/abs/1805.05345

Monitorizar disturbios con Twitter

De la misma manera que la Inteligencia Artificial puede detectar cuándo una conversación en línea está a punto de derivar en discusiones o ataques, los algoritmos aplicados a Twitter podrían detectar altercados callejeros incluso antes de que lo hiciera la policía,  según ha demostrado una nueva investigación de la Universidad de Cardiff.

Un análisis de los datos tomados de los disturbios de Londres en 2011 mostró que los sistemas informáticos podrían escanear automáticamente a través de Twitter y detectar incidentes graves, como tiendas interrumpidas y coches encendidos, antes de que fueran informados al Servicio de Policía Metropolitana.

El sistema informático también podría discernir dónde se rumoreaban los disturbios y dónde se estaban congregando grupos de jóvenes.

La investigación, publicada en la revista ACM Transactions on Internet Technology, mostró que, en promedio, los sistemas informáticos podrían detectar eventos disruptivos varios minutos antes de los funcionarios y más de una hora en algunos casos.

Los investigadores creen que su trabajo podría permitirles a los oficiales de policía administrar mejor y prepararse para eventos disruptivos tanto a pequeña como a gran escala.

Anteriormente utilizaron el aprendizaje automático y el procesamiento del lenguaje natural en Twitter para comprender mejor la desviación en línea, como la difusión de narrativas antagónicas y ciber odio, afirmó el coautor del estudio, el Dr. Pete Burnap, de la Facultad de Informática e Informática de la Universidad de Cardiff. En su investigación mostraron que las redes sociales se están convirtiendo en el lugar de referencia para informar de los sucesos cotidianos, incluidos los desórdenes sociales y la actividad delictiva. Los investigadores creen que nunca reemplazarán los recursos policiales tradicionales en el terreno, pero han demostrado que esta investigación podría aumentar la recopilación de inteligencia existente y aprovechar las nuevas tecnologías para respaldar métodos policiales más establecidos.

Los científicos buscan continuamente la cantidad de datos producidos por Twitter, Facebook y YouTube para ayudarles a detectar eventos en tiempo real.

En su estudio, el equipo de investigación analizó 1.6 millones de tweets relacionados con los disturbios de 2011 en Inglaterra, que comenzaron como un incidente aislado en Tottenham el 6 de agosto pero se extendieron rápidamente por Londres y otras ciudades de Inglaterra, dando lugar a saqueos, destrucción de propiedades y niveles de violencia no vistos en Inglaterra durante más de 30 años.

Los investigadores utilizaron una serie de algoritmos de aprendizaje automático para analizar cada uno de los tweets del conjunto de datos, teniendo en cuenta una serie de características clave, como la hora en que se publicaron, la ubicación donde se publicaron y el contenido del tweet en sí.

Los resultados mostraron que los algoritmos de aprendizaje automático fueron más rápidos que las fuentes policiales en todos los eventos perturbadores, excepto dos.

Fuente: Nasser Alsaedi et al. Can We Predict a Riot? Disruptive Event Detection Using Twitter, ACM Transactions on Internet Technology(2017). DOI: 10.1145/2996183