La web ya no es solo humana: los bots de IA ganan terreno
Un informe de Akamai y TollBit muestra que los sistemas automatizados explican una porción creciente del tráfico global y obligan a los sitios a redefinir defensas, modelos de negocio y reglas de acceso.
El mapa del tráfico en internet atraviesa un giro acelerado. Los bots impulsados por inteligencia artificial -como OpenClaw, antes conocidos como Moltbot y Clawdbot- pasaron de ser actores secundarios a convertirse en protagonistas de la navegación digital. Su avance anticipa un escenario en el que, en muchos portales, las visitas automáticas podrían rivalizar o incluso superar a las de usuarios humanos.
Un reporte reciente elaborado por la firma de infraestructura Akamai, difundido por WIRED, junto con estadísticas de la compañía TollBit, confirma que estos agentes ya concentran una fracción relevante de la actividad online. Los datos reflejan una carrera tecnológica permanente: mientras los administradores de sitios desarrollan barreras para restringirlos, los bots afinan técnicas para esquivar bloqueos y acceder a los contenidos.
Explosión del scraping y mayor sofisticación
En el último trimestre de 2025, TollBit detectó que una de cada 50 visitas en los sitios de sus clientes provenía de bots de IA dedicados al scraping -la extracción automatizada de información-, cuando a comienzos del año la proporción era de apenas una cada 200.
En paralelo, la cantidad de bots que ignoraron las pautas establecidas en los archivos robots.txt se disparó un 400% en ese mismo período. A la vez, creció 336% el número de páginas que intentaron bloquear este tipo de tráfico.
Los desarrolladores de estos sistemas automatizados incorporaron métodos cada vez más complejos: simulan patrones de navegación humana, alteran la forma en que envían solicitudes y logran que su actividad pase desapercibida para los filtros tradicionales. Según el informe, en muchos casos resulta casi imposible distinguirlos de una persona real.
Frente a esta presión, los responsables de portales recurren a soluciones especializadas para controlar accesos y, en algunos casos, evalúan cobrar por el scraping. Ese posible "mercado entre máquinas", donde los bots pagan por datos, abre la puerta a un cambio profundo en la economía digital.
Las empresas detrás del scraping
Las firmas que ofrecen servicios de recolección automatizada de información defienden la legalidad de sus operaciones. Bright Data sostiene que sus herramientas no ingresan a áreas privadas ni a contenidos protegidos por contraseña. ScrapingBee argumenta que recorrer páginas públicas es parte del ADN abierto de la web. Oxylabs, por su lado, afirma exigir a sus clientes el respeto de los límites de acceso y remarca usos legítimos del scraping, como la investigación periodística o la ciberseguridad.
Sin embargo, las propias compañías reconocen que los sistemas anti-bot suelen bloquear tanto accesos dañinos como actividades automatizadas con fines lícitos, lo que genera tensiones y complica la administración de los sitios.
La competencia en este segmento se intensificó: ya existen más de 40 empresas que ofrecen scraping para entrenar modelos de IA u otros fines. Al mismo tiempo, varias organizaciones empezaron a explorar estrategias como la optimización generativa de motores (GEO), que apunta a adaptar los contenidos para que sean fácilmente interpretados por buscadores y herramientas de inteligencia artificial, en lugar de tratar de impedir su rastreo.
Un escenario que se redefine en 2026
Todo indica que durante 2026 el tráfico automatizado seguirá creciendo. La web podría entrar en una etapa estructural distinta, donde la interacción entre máquinas y la gestión algorítmica de los contenidos pasen al centro del ecosistema digital.
Para los administradores de sitios, el desafío será doble: proteger sus activos y, al mismo tiempo, adaptarse a un entorno en el que los bots autónomos cumplen un rol cada vez más decisivo. El avance de herramientas como OpenClaw y la demanda constante de datos para entrenar sistemas inteligentes delinean un futuro en el que cooperación y conflicto entre humanos y software marcarán el funcionamiento -y el negocio- de internet.