Fake news y la guerra en medio Oriente: imágenes y videos falsos generados con IA inundan las redes



La circulación masiva de videos y material visual generados con inteligencia artificial ya alteró el ecosistema informativo en torno al conflicto militar entre Estados Unidos, Israel e Irán. 


Una investigación publicada el 6 de marzo por la BBC detectó que piezas audiovisuales falsas relacionadas con la guerra acumularon cientos de millones de visualizaciones en distintas plataformas sociales desde el inicio de las hostilidades el 28 de febrero.


El análisis, realizado por el equipo de verificación BBC Verify, identificó una avalancha de contenido fabricado que incluye videos generados con IA, imágenes satelitales manipuladas y escenas de videojuegos presentadas como material real de combate. El fenómeno involucra desde medios estatales hasta cuentas oportunistas que buscan capitalizar la viralidad en redes.


Según los investigadores, el volumen de contenido falso asociado a este conflicto no tiene precedentes recientes en guerras contemporáneas.


La expansión del contenido visual fabricado

Entre los ejemplos detectados aparece un video generado con inteligencia artificial que muestra misiles impactando en Tel Aviv. El clip circuló en más de 300 publicaciones distintas y acumuló decenas de millones de visualizaciones.

Otro caso ampliamente compartido mostraba el Burj Khalifa, en Dubái, aparentemente envuelto en llamas durante un supuesto ataque con drones o misiles. El material comenzó a difundirse en redes sociales mientras crecían los temores de que el conflicto pudiera expandirse a otros países de la región.


La investigación también identificó un fenómeno emergente: imágenes satelitales creadas con IA que simulan daños en instalaciones militares.


Un ejemplo citado por el informe provino del Tehran Times, medio afiliado al Estado iraní. La publicación difundió una imagen que supuestamente mostraba daños en una instalación de radar estadounidense en Qatar. Sin embargo, el análisis reveló que la escena se basaba en imágenes satelitales reales de una base naval estadounidense en Baréin tomadas en febrero de 2025 y posteriormente manipuladas.


La herramienta de detección de marcas de agua SynthID, desarrollada por Google, confirmó que el archivo había sido generado o alterado utilizando tecnología de inteligencia artificial.


A este conjunto de piezas falsas se suman fragmentos de videojuegos que circulan como si fueran registros de combate. En uno de los casos detectados, el gobernador de Texas, Greg Abbott, republicó un clip del videojuego War Thunder acompañado del mensaje “Bye bye”. La publicación fue posteriormente corregida mediante el sistema de Notas de la Comunidad.


Shayan Sardarizadeh, periodista senior de BBC Verify, señaló al comienzo del conflicto que esta guerra podría haber establecido un récord en la cantidad de imágenes y videos generados con inteligencia artificial que se vuelven virales durante un enfrentamiento armado.


Cuando la IA falla al verificar contenido

La investigación también detectó problemas en herramientas de inteligencia artificial utilizadas para verificar información.


El chatbot Grok, integrado en la red social X, fue consultado por usuarios que buscaban confirmar la autenticidad de un video generado con IA que mostraba ataques con misiles en Tel Aviv. En varios casos analizados por BBC Verify, el sistema respondió que las imágenes eran reales.


En una de esas respuestas, el chatbot citó informes de medios como Newsweek y Reuters para respaldar su evaluación, a pesar de que el video era falso.


Nuevas medidas contra el contenido engañoso

En paralelo al crecimiento de este tipo de material, la plataforma X anunció medidas destinadas a limitar su monetización.


El 4 de marzo, el director de producto de la compañía, Nikita Bier, comunicó que los creadores que publiquen videos generados con inteligencia artificial sobre conflictos armados sin aclarar que se trata de contenido sintético quedarán suspendidos durante 90 días del programa de reparto de ingresos para creadores.


En caso de reincidencia, las cuentas podrían ser expulsadas de manera permanente del sistema.


Según explicó el ejecutivo, las tecnologías actuales permiten producir material visual altamente convincente con relativa facilidad, lo que incrementa el riesgo de engaño para los usuarios.


El modelo de monetización de la plataforma, que recompensa a los creadores según el nivel de interacción que generan sus publicaciones, ha sido cuestionado por investigadores y especialistas que sostienen que puede incentivar la producción de contenido sensacionalista o engañoso.


Rumeysa Alimardani, experta citada por la investigación, advirtió que la circulación masiva de videos fabricados tiene consecuencias que van más allá de la desinformación inmediata. Según señaló, este tipo de material debilita la confianza pública en la información verificada disponible en internet y complica la documentación de evidencia real durante conflictos armados.

Artículo Anterior Artículo Siguiente