IA y propaganda: la nueva era de la desinformación

¿Noticias reales o mentiras generadas por máquinas? La inteligencia artificial ha abierto la caja de Pandora de la desinformación. Un nuevo estudio alerta de cómo los propagandistas usan la IA para manipular la opinión pública a escala masiva.

Por Enrique Coperías

La IA ha transformado la propaganda en un arma de precisión. Ahora es posible generar noticias falsas a gran escala y mantener su persuasión. Un estudio reciente revela las alarmantes consecuencias de este fenómeno.

La IA ha transformado la propaganda en un arma de precisión. Ahora es posible generar noticias falsas a gran escala y mantener su persuasión. Un estudio reciente revela las alarmantes consecuencias de este fenómeno. Imagen generada con Gemini

En los últimos años, la inteligencia artificial (IA) ha dejado de ser una promesa futurista para convertirse en una herramienta cotidiana, tanto en entornos productivos como en el ámbito de la comunicación digital. Sin embargo, este desarrollo tecnológico también ha abierto la puerta a usos más oscuros, como su incorporación en campañas de desinformación respaldadas por los Estados.

Un estudio publicado en la revista PNAS Nexus y liderado por investigadores de la Universidad de Clemson, en Estados Unidos, y la Universidad de Zúrich, en Suiza, demuestra que la IA generativa, y en particular los modelos de lenguaje como GPT-3, ya están siendo utilizados activamente para producir y amplificar propaganda política, con efectos medibles en la cantidad, la diversidad y la persuasión de los mensajes difundidos.

Antes de nada, hay que decir que la inteligencia artificial generativa es un tipo de tecnología capaz de crear contenido nuevo y original a partir de datos existentes. Utiliza modelos entrenados con grandes volúmenes de información —como textos, imágenes, audio y vídeo— para generar resultados que imitan el estilo, estructura o contenido de esos datos.

A diferencia de otras formas de IA que se limitan a clasificar, predecir o analizar información, la IA generativa, como Gemini, Rytr, el citado ChatGPT, AIVA y Midjourney, puede escribir artículos, componer música, diseñar imágenes, programar código o incluso mantener conversaciones.

Un sitio falso con apariencia real

El caso analizado en el estudio, que está liderado por Morgan Wack, del Departamento de Comunicación e Investigación de Medios de la Universidad de Zúrich, gira en torno a DCWeekly.org, una página web que simulaba ser un medio de comunicación estadounidense, pero que en realidad formaba parte de una operación de influencia coordinada por actores afines al Kremlin.

Este sitio, según investigaciones de la BBC y el Media Forensics Hub de Clemson publicadas en diciembre de 2023, no solo replicaba artículos de otros medios, sino que usaba inteligencia artificial para reescribir contenidos con un sesgo ideológico concreto: antidemócrata, prorruso y contrario a la ayuda a Ucrania. Algunos de sus artículos falsos llegaron a tener amplio eco en redes sociales e incluso entre congresistas estadounidenses.

DC Weekly formaba parte de una red más amplia que difundía narrativas proKremlin y antiucranianas, con una estrategia especialmente dirigida al público estadounidense. A diferencia de otras páginas similares, este sitio se presentaba como un medio local profesional, con una plantilla de periodistas ficticios y una actualización constante de contenidos.

El punto de inflexión: la llegada de la IA generativa

Hasta el 20 de septiembre de 2023, el modus operandi de DC Weekly consistía en copiar artículos de medios como The Gateway Pundit y RT con mínimos cambios. Pero a partir de esa fecha, los investigadores detectaron un cambio radical: los textos dejaron de ser duplicados directos y comenzaron a mostrar lenguaje original, aunque claramente derivados de fuentes específicas.

La prueba clave fue la filtración de fragmentos de prompts (instrucciones de texto) utilizados con modelos como GPT-3, que a veces se colaban en los artículos publicados, revelando así cómo la IA era empleada para ajustar el tono y el contenido al gusto de los operadores de propaganda.

La adopción de la IA permitió al sitio usar una gama más amplia de fuentes, como medios rusos y estadounidenses convencionales, pero reescribiendo el contenido con un tono ideológico ajustado a los objetivos de los propagandistas, como un enfoque crítico hacia el Gobierno estadounidense, la OTAN y el presidente Biden, y una clara simpatía por figuras conservadoras y por Rusia.

La capacidad de producir grandes volúmenes de contenido creíble y persuasivo, adaptado a distintos públicos y con bajo coste, convierte a la IA en un arma poderosa en la guerra de la información.

La capacidad de producir grandes volúmenes de contenido creíble y persuasivo, adaptado a distintos públicos y con bajo coste, convierte a la IA en un arma poderosa en la guerra de la información. Imagen generada con DALL-E

Más artículos, en menos tiempo y con mayor nivel de variedad

Una de las primeras consecuencias visibles de este cambio fue el aumento significativo en la cantidad de artículos publicados, según . Tras la adopción de la IA, la producción de contenidos casi se duplicó, llegando a multiplicarse por 2,4 en comparación con los niveles anteriores más activos. Este salto responde al potencial de la IA para generar textos de forma rápida y automática, reduciendo tiempos y costes para los responsables de la campaña. En total, los investigadores analizaron 22.889 artículos publicados entre abril y noviembre de 2023, justo antes de que se revelaran públicamente los verdaderos motivos del sitio.

Pero no solo aumentó la cantidad. También se amplió la diversidad temática. Anteriormente, los artículos se centraban en un puñado de temas hiperespecializados; tras la incorporación de la IA, se empezó a abordar una gama mucho más amplia de asuntos: política internacional, armas, crimen, conflictos como los de Ucrania e Israel, y también temas polarizantes para el público estadounidense, como el control de armas o la violencia policial.

Gracias a técnicas de análisis computacional, los investigadores demostraron que la entropía —una medida de diversidad temática— casi se duplicó, confirmando que la IA había permitido a los operadores abordar más temas sin sacrificar el control ideológico del contenido.

¿Más propaganda significa peor calidad? No necesariamente

Una de las preocupaciones habituales sobre el uso masivo de IA para crear contenidos es que la cantidad pueda ir en detrimento de la calidad, según cuentan Wack y sus colegas en PNAS Nexus. Sin embargo, el estudio demuestra que este no fue el caso de DC Weekly.

Para medir la persuasión y credibilidad de los artículos, los investigadores realizaron un experimento con 880 adultos estadounidenses reclutados a través de la plataforma Prolific. Se les mostraron textos sobre la guerra en Ucrania, tanto del periodo previo como posterior al uso de la IA. Sorprendentemente, no hubo diferencias significativas en el grado de acuerdo con las ideas expuestas ni en la credibilidad percibida del sitio.

Esto sugiere que, al menos en este caso, la inteligencia artificial no solo ayudó a generar una mayor variedad de contenidos, sino que mantuvo —e incluso mejoró— su capacidad para convencer y parecer legítimos. Y esto es especialmente preocupante: si los lectores no pueden diferenciar entre propaganda generada por humanos y por IA, los riesgos para la democracia y la opinión pública son considerables, según Carl Ehrett, del Media Forensics Hub, en la Universidad de Clemson.

Implicaciones y desafíos futuros

Sin miedo a equívocos, el estudio pone en evidencia que el uso de IA generativa en campañas de desinformación no es un escenario hipotético, sino una realidad actual. Esta tecnología está facilitando que actores malintencionados creen plataformas aparentemente fiables, con gran volumen de contenidos, variedad temática y alto potencial persuasivo.

Además, como señala el artículo, después de ser desenmascarada, la red que operaba DC Weekly replicó su estrategia en otros sitios con igual apariencia profesional.

Frente a esta amenaza, los autores del estudio subrayan la urgencia de diseñar políticas públicas y estrategias de prevención que regulen el uso de modelos de lenguaje y detecten su uso en contextos engañosos. También llaman a reforzar la alfabetización digital de los ciudadanos, para que puedan identificar señales de desinformación, aunque estas sean generadas por una máquina.

Una nueva era para la propaganda

La combinación entre propaganda y tecnología no es nueva, pero la incorporación de IA generativa representa un salto cualitativo. Gracias a este estudio, tenemos por primera vez evidencia empírica del impacto real de estas herramientas en una campaña estatal de desinformación.

La capacidad de producir grandes volúmenes de contenido creíble y persuasivo, adaptado a distintos públicos y con bajo coste, convierte a la IA en un arma poderosa en la guerra de la información.

En un mundo cada vez más conectado, la vigilancia, la regulación y la educación digital serán fundamentales para enfrentar estos desafíos. ▪️

Anterior
Anterior

Científicos fusionan dos materiales «imposibles» en un sándwich artificial

Siguiente
Siguiente

¿Convivencia o conquista? Así fue el choque entre los últimos cazadores y los primeros agricultores