La IA entra en el campo de batalla de la desinformación sobre la guerra de Ucrania
Jorge Ocaña
Madrid, 21 feb (EFE).- La inteligencia artificial se ha erigido en un motor de desinformación sobre la guerra de Ucrania, especialmente por la creación de imágenes falsas o la manipulación de los ‘chatbots’ como ChatGPT con falsedades que buscan moldear el devenir de este conflicto que ahora cumple cuatro años.
La guerra de Ucrania ha sido, desde su estallido, uno de los eventos que más desinformación ha generado en la era de las redes sociales, con bulos y narrativas falsas que han traspasado fronteras, pero la inteligencia artificial ha marcado un punto de inflexión en la forma y difusión de la propaganda prorrusa, señala Olga Petriv, abogada especializada en IA para el Centro por la Democracia y el Estado de Derecho, con sede en Ucrania.
«La desinformación ha pasado de la creación manual de ‘noticias falsas’ a una etapa de operaciones totalmente automatizadas a escala industrial», apunta sobre la irrupción de esta tecnología.
Estas campañas de desinformación tienen entre sus objetivos manipular las respuestas de los ‘chatbots’ conversacionales.
La técnica, conocida como LLM Grooming (manipulación de los Grandes Modelos de Lenguaje), consiste en inundar internet de desinformación para que esta sea detectada e incorporada por los bots conversacionales y en sus respuestas.
«Al inundar la web con millones de artículos generados por IA, las redes de propaganda ‘envenenan’ eficazmente el entorno informativo. Esto obliga a los sistemas de IA generativa a reproducir inadvertidamente estas mentiras como hechos objetivos», explica la citada analista.
Es el caso de la red Pravda, un conjunto de páginas webs presentes en medio centenar de países, que publica decenas de miles de artículos cada mes alineados con narrativas prorrusas.
Según varias investigaciones, medios de comunicación convencionales y blogs enlazan en sus informaciones artículos de esta red, lo que acrecenta su credibilidad y posicionamiento en los motores de búsqueda y los ‘chatbots’.
No es un soldado lo que ves en tu pantalla
Por otro lado, el avance sin precedentes de la generación de imágenes con inteligencia artificial también ha servido a los desinformadores para generar contenidos casi indistinguibles de la realidad.
Hace unos meses, se viralizó en redes sociales el vídeo de un supuesto soldado ucraniano de 23 años que lloraba a cámara al relatar que había sido obligado a ir al frente.
El vídeo había sido generado con inteligencia artificial a partir del rostro de un creador de contenidos ruso que se ha posicionado en contra del régimen de Vladímir Putin.
Estas imágenes, como otras de falsos soldados que aseguran haber sido forzados a luchar, carecen de los típicos fallos asociados a los contenidos generados con esta tecnología, y solo pequeñas inexactitudes en el uniforme o el escudo ucraniano pueden advertir ante los ojos del espectador que hay una imagen falsa.
Su realismo contrasta con otros contenidos alterados digitalmente que circulaban al inicio de la guerra, como un «deepfake» del mandatario ucraniano, Volodímir Zelenski, bailando con varios errores perceptibles a simple vista.
«Las tecnologías generativas modernas han alcanzado un nivel de realismo tal que identificar la manipulación requiere algo más que vigilancia: se necesitan herramientas analíticas especializadas, ya que estos ataques se dirigen a los desencadenantes subconscientes del público», argumenta Petriv.
Esta experta advierte de que la proliferación de imágenes artificiales puede servir de «coartada» para negar hechos que son reales: «Ahora pueden negar incluso las pruebas irrefutables de sus crímenes (por ejemplo, imágenes auténticas del frente) simplemente etiquetándolas como ‘generadas por IA'».
Esto crea una peligrosa ‘presunción de falsedad’, en la que, por defecto, la información que llega se percibe a menudo como potencialmente falsa, dejando los hechos reales indefensos ante una negación cínica.
Algunas de estas imágenes generadas con IA se han difundido en varios idiomas, como el alemán, español, francés, inglés, italiano o portugués, lo que deja entrever la existencia de una campaña organizada.
Fuera del campo de la IA, también se han detectado en los últimos meses falsedades que tratan de disuadir a los combatientes extranjeros, sobre todo colombianos, de que luchen en favor de Ucrania o incluso torpedear las negociaciones de paz. EFE
jop/mgr