Cloudflare: "Los bots de IA podrían superar a los humanos en tráfico web antes de 2027"



Según el CEO de Cloudflare, Matthew Prince, la actividad generada por bots de inteligencia artificial crece a tal ritmo que podría superar a la de los usuarios humanos en un horizonte cercano, entre 2026 y 2027.


El planteo responde a una tendencia observable en la infraestructura de la web: los sistemas automatizados ya incrementaron su participación de forma sostenida en los últimos años. Antes del auge de la IA generativa, los bots representaban cerca de un 20% del tráfico global, con un peso importante de rastreadores de buscadores y actividad maliciosa. Ese porcentaje ahora escala con mayor velocidad.


Por qué los bots de IA multiplican el tráfico

El cambio se explica, además de por el crecimiento de la automatización, por la forma en que operan los nuevos sistemas. Mientras una persona consulta algunos sitios para resolver una necesidad puntual, un agente de IA puede interactuar con miles de páginas en cuestión de segundos para completar la misma tarea.


Ese comportamiento genera un volumen de solicitudes significativamente mayor. Los modelos necesitan recolectar, contrastar y procesar información de manera continua, lo que incrementa la carga sobre servidores, redes y plataformas digitales.


En la práctica, esto implica que la web deja de ser un espacio diseñado exclusivamente para la navegación humana y empieza a responder a patrones de consumo automatizados, mucho más intensivos y constantes.


Nuevas arquitecturas para una web dominada por IA

Desde Cloudflare ya plantearon la necesidad de repensar la infraestructura de Internet. Una de las alternativas que surge es la implementación de entornos aislados o “sandboxes”, donde los agentes de IA puedan ejecutar tareas específicas de forma temporal.


El concepto apunta a crear espacios dedicados en los que una IA pueda, por ejemplo, planificar un viaje, analizar opciones o recolectar datos, y luego desaparecer una vez finalizada la tarea. Este enfoque permitiría reducir el impacto directo sobre los sitios web tradicionales y evitar una sobrecarga constante.


Sin embargo, la escala del fenómeno plantea desafíos técnicos relevantes. La posibilidad de que millones de estos entornos se activen de manera simultánea implica una demanda creciente de centros de datos, capacidad de cómputo y recursos energéticos.


Un cambio de plataforma en la forma de usar Internet

La advertencia de Matthew Prince tiene un trasfondo profundo, que no solo se limita al tráfico web: la inteligencia artificial se perfila como un cambio de plataforma comparable al paso de la computadora de escritorio al celular.


Así, también se transforma la manera en que se accede a la información. En lugar de navegar directamente por sitios web, los usuarios delegan cada vez más tareas en sistemas de IA que actúan como intermediarios. Esa mediación modifica la lógica de consumo, la visibilidad de los contenidos y el rol de los propios sitios dentro del ecosistema digital.

Artículo Anterior Artículo Siguiente