El equipo de la Universidad de Notre Dame realizó un proyecto de investigación en el campo de las redes sociales y descubrió que el público en general enfrenta muchas dificultades para distinguir la inteligencia humana de la artificial durante los debates políticos en diferentes plataformas en línea.
La investigación, dividida en tres rondas con una plataforma Mastodon personalizada como plataforma de distribución, indica que los participantes confunden los bots de IA con humanos el 58% del tiempo.
Los robots de inteligencia artificial difuminan los límites humanos en el discurso político, según un estudio
El equipo de investigación, bajo la dirección del Dr. Paul Brenner del Centro de Computación de Investigación de la Universidad de Notre Dame, adoptó bots de IA basados en redes generativas que incluyen GPT4, Llama-2-Chat y Claude 2.
Esta generación de chatbots fue diseñada con diversas personalidades para ser utilizados como actores políticos en el campo de los asuntos mundiales y, cada vez más a menudo, asumiendo rasgos humanos y participando en diferentes discusiones políticas.
Lo bueno de esto fue que cada bot tenía un personaje (surgimiento de una personalidad con un perfil detallado) al que se le encomendó establecer una relación entre sus experiencias personales y los acontecimientos del mundo más amplio.
En cuanto a la manipulación de datos, a pesar de que el panel comprendió que estaba interactuando con humanos y bots, aproximadamente la mitad de este grupo de muestra no fue capaz de diferenciar entre la inteligencia artificial y los humanos reales.
Esta evidencia demuestra que los AIbots pueden imitar muy de cerca a los humanos en lo que respecta a sus patrones de conversación, lo que aumenta sus posibilidades de ser utilizados para promover desinformación.
El papel de la IA en la desinformación
El Sr. Paul Brenner planteó cuestiones como la adopción de estos bots de IA y su probable efecto cascada, una oportunidad para que los bots impulsados por IA influyan en la opinión pública y posiblemente difundan información errónea.
Explicó que la IA en las simulaciones es tan efectiva que cada ser humano en Internet puede ser fácilmente engañado en cuanto a la fuente original de información.
Otro aspecto importante destacado en este estudio fue la evaluación de diferentes modelos de IA durante el proceso, demostrando que los índices de precisión variaban poco entre los distintos LLM. En este sentido, comprendemos que este hecho demuestra que incluso modelos menos sofisticados podrían ser suficientemente convincentes para crear conversaciones similares a las humanas en entornos de interacción en redes sociales.
Por ello, entre otras cosas, en la primera línea Brenner destacó su postura sobre un enfoque multidimensional para prevenir la difusión de información falsa con la ayuda de la IA.
Estas iniciativas, como campañas educativas, medidas legislativas y una validación más estricta de las cuentas en redes sociales, contribuirán mutuamente a erradicar este problema por completo. Además, se considerarán las dimensiones de la salud psicológica de la influencia de la IA en adolescentes y se desarrollarán estrategias para contrarrestar este impacto.
Este proyecto de investigación acentúa el desequilibrio entre la IA y la integridad de la información en línea en las redes sociales, lo que requiere el desarrollo de estrategias integradas para abordar la situación.

