Un informe de la Internet Watch Foundation (IWF) identificó más de 8000 piezas de material de abuso sexual infantil generadas con IA durante 2025, un crecimiento interanual de 14% que no solo confirma la expansión del fenómeno, sino también un cambio en su gravedad.
El dato más crítico no está únicamente en el volumen, sino en la naturaleza del contenido: el 65% de los videos analizados fue clasificado dentro de la categoría más severa según la legislación británica, lo que marca una diferencia significativa respecto del material no generado con IA, donde ese nivel representa el 43%. La conclusión es directa: la tecnología no solo amplifica la producción, sino que también intensifica la violencia del contenido.
La propia IWF advirtió que el salto más abrupto se registró en los videos, con un incremento superior a 260 veces respecto del período anterior. Esto refleja una evolución técnica clara: las herramientas generativas están alcanzando niveles de realismo cada vez más altos, incluyendo la posibilidad de incorporar audio y manipular imágenes basadas en personas reales.
La evolución técnica detrás del problema
El crecimiento de este tipo de contenido está directamente vinculado con la mejora y mayor disponibilidad de los modelos generativos. Este ecosistema tecnológico incluye herramientas de texto, imagen y video que, si bien tienen usos legítimos, también pueden ser explotadas en contextos ilegales.
Según analistas de la IWF, conversaciones detectadas en foros de la dark web muestran que los usuarios que consumen este tipo de material siguen de cerca cada avance tecnológico. En esos espacios se discute activamente la mejora en la calidad de las imágenes, la generación de video con sonido y la capacidad de manipular material existente para crear contenido sintético cada vez más difícil de distinguir de casos reales.
A esto se suma el interés en sistemas “agénticos”, es decir, modelos capaces de ejecutar tareas de forma autónoma, lo que reduce las barreras técnicas para producir este tipo de contenido a escala.
Regulación, presión social y respuestas del sector
Un ejemplo de regulación es el que se está dando en Reino Unido, donde se avanzó en medidas específicas para intentar contener el problema antes de que escale todavía más. El gobierno habilitó a empresas tecnológicas y organizaciones de protección infantil a testear modelos de inteligencia artificial con el objetivo de detectar si pueden generar este tipo de contenido y, en ese caso, exigir la implementación de salvaguardas.
Además, ya se estableció la prohibición de crear, poseer o distribuir modelos diseñados específicamente para producir material de abuso sexual infantil generado con IA. La medida apunta no solo al contenido final, sino a la infraestructura tecnológica que lo hace posible.
El debate también se traslada al plano social. Según datos relevados por la IWF, ocho de cada diez adultos en el Reino Unido consideran necesario que la legislación obligue a que los sistemas de inteligencia artificial sean diseñados con la seguridad como prioridad desde su origen.
Desde la organización, su directora ejecutiva, Kerry Smith, planteó que el desarrollo tecnológico no puede avanzar sin límites cuando hay riesgos directos para menores. La advertencia no es abstracta: el aumento en la cantidad y sofisticación del material sugiere que el problema se expande a medida que crecen las capacidades de estas herramientas.
Un problema que crece con la tecnología
El informe muestra que la cantidad de material detectado por la IWF aumenta en paralelo a la expansión y mejora de los sistemas generativos, con un crecimiento particularmente marcado en los videos.
La mayor disponibilidad de herramientas capaces de generar imágenes y contenido audiovisual, incluso sin conocimientos técnicos avanzados, modifica el escenario para reguladores y organizaciones que trabajan en la detección y prevención de estos delitos.
En ese contexto, el desafío se centra en cómo establecer controles efectivos sobre tecnologías que evolucionan de forma constante, sin perder de vista que su desarrollo también impulsa aplicaciones legítimas en múltiples sectores.
