X se llena de videos falsos tras los ataques de EE. UU. e Israel contra Irán



Minutos después de que el presidente de Estados Unidos, Donald Trump, anunciara el 28 de febrero que su país e Israel habían iniciado “operaciones de combate importantes” contra Irán, la red social X se llenó de videos y publicaciones que afirmaban mostrar bombardeos y ataques en tiempo real.


Buena parte de ese material, sin embargo, era falso, reciclado o directamente generado con inteligencia artificial.


Reciclaje de guerras, IA y videojuegos

Un relevamiento realizado por WIRED detectó cientos de posteos que exageraban la magnitud y las ubicaciones de los ataques. Entre los contenidos más virales aparecieron videos de conflictos anteriores reutilizados como si fueran actuales, imágenes creadas con IA y clips extraídos de videojuegos y simuladores de vuelo que se presentaban como escenas reales de combate.


El periodista David Gilbert informó que casi todas las cuentas que difundían estos videos falsos contaban con la palomita azul de verificación. En el modelo actual de X, esa insignia puede obtenerse mediante el pago de una suscripción mensual, lo que además otorga mayor visibilidad algorítmica y acceso a esquemas de monetización, independientemente de la precisión del contenido publicado.


El incentivo económico no es menor: las publicaciones con mayor interacción pueden generar ingresos compartidos, lo que en contextos de crisis y alta demanda informativa multiplica el alcance de piezas engañosas.


Un patrón documentado en conflictos previos

La dinámica ya había sido señalada en episodios anteriores. El Institute for Strategic Dialogue analizó la desinformación durante los ataques con drones y misiles de Irán contra Israel en abril de 2024 y encontró que el 77 % de las cuentas que difundían contenido falso o engañoso eran verificadas de pago. En ese caso, 34 publicaciones acumularon más de 37 millones de visualizaciones en siete horas.


Un estudio de NewsGuard sobre la guerra entre Israel y Hamás en 2023 concluyó que el 74% de las publicaciones desinformativas más virales provenían de cuentas verificadas en X.


El patrón se repitió tras ataques estadounidenses contra instalaciones nucleares iraníes en junio de 2025. PolitiFact documentó entonces la circulación de videos generados con IA, imágenes tomadas de la guerra entre Rusia y Ucrania y fragmentos de gameplay de Microsoft Flight Simulator que eran subtitulados como grabaciones de bombarderos reales.


Por su parte, CBS News reportó que investigadores del Media Forensics Hub de la Universidad de Clemson identificaron redes coordinadas de cuentas falsas que utilizaban inteligencia artificial para amplificar narrativas engañosas durante esa ronda previa de ataques.


Community Notes, bajo presión

La principal herramienta de moderación contextual de X, Community Notes, depende de voluntarios que agregan aclaraciones a publicaciones potencialmente engañosas. En la práctica, distintos monitoreos señalaron que las correcciones suelen llegar tarde o no alcanzan a frenar la viralización inicial.


PolitiFact observó que cuentas impostoras que difundían imágenes fabricadas permanecían sin advertencias durante lapsos prolongados, incluso cuando acumulaban millones de visualizaciones.


Con el intercambio de ataques aún en desarrollo entre Irán, Israel y Estados Unidos en distintos puntos de la región, el flujo de contenido no verificado en X mantiene un ritmo elevado. El escenario vuelve a exponer una tensión estructural: la combinación entre monetización por engagement, verificación paga y algoritmos de amplificación puede convertir a la desinformación en un negocio rentable en medio de conflictos armados.

Artículo Anterior Artículo Siguiente