La inteligencia artificial (IA), que permite generar millones de mensajes en pocas horas y discusiones falsas en foros, multiplica a un coste menor el impacto de la desinformación y de las operaciones de injerencia extranjera, advierten expertos.
En plenas elecciones en la Unión Europea, «hay una masificación general» de contenidos procedentes del extranjero y la IA «es una nueva etapa en la cadena de automatización de esas publiaciones [que] permite masificar la producción», explica a AFP Valentin Chatelet, del laboratorio de análisis digital de Atlantic Council (DFRLab).
![La inteligencia artificial potencia la guerra de la información 2 Diario El Salvador 000 34BB4MA](https://diarioelsalvador.com/wp-content/uploads/2024/06/000_34BB4MA.jpg)
Según los datos –analizados por AFP– del colectivo Antibot4Navalny, que rastrea las operaciones de influencia digital vinculadas a Rusia, miles de bots (cuentas automáticas) se utilizan diariamente para propaganda prorrusa en la red social X.
Tras la masacre del Crocus City Hall, cerca de Moscú el 22 de marzo, el grupo contabilizó más de 2 millones de mensajes en X en menos de 24 horas que acusaban a Ucrania y a las potencias occidentales de haber facilitado el atentado y la huida de los asaltantes.
![La inteligencia artificial potencia la guerra de la información 3 Diario El Salvador 000 34K99UB](https://diarioelsalvador.com/wp-content/uploads/2024/06/000_34K99UB.jpg)
Esa hipótesis fue desarrollada inicialmente por las propias autoridades rusas, pese a que el atentado había sido reivindicado por la organización Estado Islámico (EI).
«Durante la duración de cada episodio [acontecimiento de importancia mundial], se interrumpe el funcionamiento diario regular: todos los bots (…) se dedican completamente al episodio en cuestión», observó Antibot4Navalny.
ChatGPT
OpenAI, creadora de ChatGPT, indicó a finales de mayo que grupos de influencia rusos, chinos, iraníes y una «empresa comercial de Israel» utilizaron sus programas para intentar manipular la opinión pública en otros países.
Los contenidos producidos abarcaban una «amplia gama de temas, entre ellos la invasión de Ucrania, el conflicto de Gaza (o) las elecciones indias» e incluían «principalmente texto y a veces imágenes, como dibujos» satíricos, según OpenAI.
La IA puede, por ejemplo, traducir un artículo falso a numerosos idiomas y publicarlo automáticamente en multitud de cuentas y páginas.
Según Antibot4Navalny, la IA también permite que los bots no sean detectados por las instancias de moderación de las redes sociales, gracias a la multiplicación de mensajes de contenido similar pero no idénticos.
Otra de las tácticas consiste en retransmitir masivamente artículos de prensa reales, pero acompañarlos de mensajes políticos.
«Como usuario, puedes tener la impresión de que estos puntos de vista son apoyados mayoritariamente por personas radicadas» en su país, «cuando no es necesariamente así», desvela Alexandre Alaphilippe, director ejecutivo de la oenegé europea EU DisinfoLab.
«Puedes entrar en un foro, ver a gente hablado entre sí, pero en realidad toda esa conversación fue generada por IA», añade.
Expertos, servicios de inteligencia y gobiernos occidentales consideran que Rusia es el país más activo en cuanto a injerencias en el extranjero a través de Internet, aunque también señalan a países como Azerbaiyán o Irán.
En los últimos meses salieron a la luz varias operaciones, como Doppelgänger (imitación de medios de comunicación occidentales para difundir bulos) u Olympiya, dirigida contra los Juegos Olímpicos de París 2024.
Meta recibe denuncias en 11 países europeos por uso de datos para la IA