Expertos advierten sobre la 'amenaza disruptiva' de la desinformación impulsada por IA
Una coalición de destacados investigadores en inteligencia artificial ha emitido una grave advertencia en la prestigiosa revista Science. Las nuevas tecnologías de desinformación impulsadas por IA pueden desplegarse a una escala que va mucho más allá de las capacidades actuales, lo que representa una amenaza significativa para los procesos democráticos en todo el mundo. Los investigadores describen una 'amenaza disruptiva' emergente que consiste en 'enjambres de IA' difíciles de detectar que pueden atacar plataformas de redes sociales y canales de mensajería con un refinamiento sin precedentes.
El auge de las campañas de influencia autónomas de IA
El equipo internacional, que incluye a la ganadora del Premio Nobel de la Paz, Maria Ressa de Filipinas, advierte que los enjambres de bots de IA que pueden imitar el comportamiento humano pueden desplegarse para influir en la opinión política y perturbar las elecciones. 'Estos sistemas son capaces de coordinar ataques de forma autónoma, infiltrarse en comunidades y fabricar consenso de manera eficiente,' escriben los investigadores en su artículo publicado en Science. 'Al imitar de manera adaptativa la dinámica social humana, representan una amenaza para la democracia.'
Según The Guardian, los investigadores explican que la IA se está volviendo cada vez mejor en la replicación de la dinámica humana al utilizar jerga apropiada y publicar de manera irregular para evitar la detección. Un autor le dijo al periódico: 'Es simplemente aterrador lo fácil que es 'codificar la vibra' de este tipo de cosas y crear pequeños ejércitos de bots que pueden usar plataformas de redes sociales en línea y correo electrónico y desplegar estas herramientas.'
Cómo operan los enjambres de IA
A diferencia de las campañas de desinformación tradicionales que requerían operadores humanos, estos enjambres de IA pueden operar de forma autónoma. Pueden crear miles de cuentas únicas en redes sociales que generan publicaciones individualizadas indistinguibles del contenido humano, evolucionar de forma independiente en tiempo real y coordinarse para lograr objetivos compartidos. Los agentes de IA mantienen identidades persistentes con memoria, se adaptan a las señales de la plataforma y se dirigen a comunidades específicas con mensajes personalizados.
Las primeras versiones de esta tecnología ya se han desplegado en recientes elecciones en Taiwán, India e Indonesia, según la investigación. El artículo, coescrito por 22 investigadores, incluidos expertos de Oxford, Cambridge, Harvard y Yale, predice que estos sistemas podrían usarse para perturbar las elecciones presidenciales estadounidenses de 2028, posiblemente convenciendo a poblaciones para que acepten elecciones canceladas o anulen resultados.
La perspectiva de la ganadora del Nobel
Maria Ressa, quien ganó el Premio Nobel de la Paz en 2021 por su trabajo en defensa de la libertad de prensa en Filipinas, aporta experiencia de primera mano con campañas de desinformación al equipo de investigación. Ella ha advertido durante mucho tiempo sobre cómo las plataformas de redes sociales pueden ser utilizadas como arma por regímenes autoritarios. 'Sin hechos no puede haber verdad; sin verdad no hay confianza; y sin confianza, la democracia colapsa,' ha declarado Ressa en entrevistas anteriores sobre la integridad de la información.
La organización de Ressa, Rappler, ha documentado cómo las redes sociales difunden noticias falsas, acosan a opositores y manipulan el discurso público en Filipinas. Su participación en este equipo de investigación añade un peso considerable a las advertencias sobre el potencial de la IA para acelerar la propaganda y la desinformación.
Capacidades técnicas y desafíos de detección
Los investigadores explican que las herramientas de IA generativa pueden ampliar la producción de propaganda sin sacrificar la credibilidad y crear mentiras electorales baratas que se califican como más humanas que las escritas por personas. Las técnicas destinadas a refinar el razonamiento de la IA, como el 'chain-of-thought prompting', pueden desplegarse como arma para generar mentiras más convincentes.
La detección es particularmente difícil porque estos enjambres de IA aprenden dinámicas comunitarias de forma adaptativa, utilizan jerga apropiada y publican de manera irregular para evitar algoritmos de detección. Las plataformas de redes sociales tienen pocos incentivos para identificarlos porque aumentan las métricas de compromiso que generan ingresos publicitarios.
Llamados a la acción y soluciones
Los investigadores piden una acción global coordinada para contrarrestar esta amenaza emergente. Proponen varias soluciones, incluidos 'escáneres de enjambres' que puedan detectar actividad coordinada de IA, marcas de agua en el contenido para identificar material generado por IA y el establecimiento de un 'Observatorio de Influencia de IA' para monitorear y combatir estas amenazas.
Como informa Wired, los expertos advierten que estos sistemas podrían causar cambios de opinión en toda la sociedad, influir en las elecciones y posiblemente significar el fin de la democracia si se dejan sin control. La tecnología ya es técnicamente posible, y la ventana para la acción preventiva se está cerrando rápidamente.
La investigación representa una de las advertencias más completas hasta la fecha sobre cómo la fusión de la IA agencial y los grandes modelos de lenguaje podría socavar fundamentalmente las instituciones democráticas. A medida que se acercan las elecciones en numerosos países en los próximos años, ha comenzado la carrera para desarrollar contramedidas antes de que los enjambres de IA se conviertan en la nueva norma en la manipulación política.
Nederlands
English
Deutsch
Français
Español
Português