La industria editorial digital lleva años adaptándose a cambios profundos en la forma en la que los usuarios descubren, leen y comparten información. Pero el último golpe puede ser uno de los más delicados: el auge de los bots de Inteligencia Artificial que rastrean, copian, resumen y reutilizan contenidos sin que eso siempre se traduzca en visitas, suscripciones o ingresos para los medios.
Esa es la principal advertencia del nuevo informe de Akamai sobre el sector editorial, que dibuja un escenario preocupante para periódicos, revistas digitales y sitios de información. Según la compañía, la actividad de bots de IA que ha categorizado creció un 300 % en 2025, y el sector media —que agrupa vídeo, redes sociales y publishing— ya representa el 13 % de ese tráfico, solo por detrás del comercio electrónico. Dentro de ese bloque, los medios editoriales concentran el mayor peso.
El problema ya no es solo que te lean menos
El informe plantea una idea incómoda para cualquier medio digital: el contenido sigue teniendo valor, pero cada vez más usuarios lo consumen sin llegar realmente a la web que lo produce. En lugar de entrar desde Google, navegar por titulares y acabar leyendo una noticia completa, muchos usuarios se quedan con la respuesta generada por una IA, ya sea en un chatbot, en un buscador conversacional o en asistentes que recopilan información en tiempo real.
Akamai sostiene que esta dinámica está erosionando las bases económicas del publishing digital. No se trata solo de una caída de clics. También afecta a modelos de suscripción, ingresos publicitarios, visibilidad de marca y capacidad para monetizar contenidos propios. El informe cita datos de TollBit según los cuales los chatbots de IA generaron en el cuarto trimestre de 2024 aproximadamente un 96 % menos de tráfico de referencia que la búsqueda tradicional de Google. Además, recuerda un estudio de Pew Research Center de 2025 que concluyó que los usuarios solo hacen clic en torno al 1 % de las veces sobre las fuentes citadas en resúmenes generados por IA.
Ese cambio tiene implicaciones muy serias. Si el lector obtiene un resumen suficiente sin visitar el medio, el publisher pierde impresiones publicitarias, oportunidades de registro, conversión a suscripción y relación directa con su audiencia. En otras palabras, la IA no solo está cambiando cómo se distribuye la información: también está alterando quién captura el valor económico de esa información.
Publishing, en el centro del raspado automatizado
Uno de los datos más llamativos del estudio es que, dentro del sector media, los medios editoriales representan el 40,1 % de la actividad de bots de IA categorizada por Akamai. Es decir, son el principal objetivo de este tipo de tráfico automatizado dentro de la industria de contenidos. La lógica es evidente: los sitios periodísticos y editoriales publican información nueva, valiosa, actualizada y lista para alimentar modelos, respuestas instantáneas y motores de búsqueda con IA.
El informe también entra en el tipo de bots que están atacando más intensamente este ecosistema. Los llamados AI training crawlers siguen siendo los más frecuentes: son los que rastrean grandes volúmenes de datos para entrenar modelos. Pero Akamai advierte de que los AI fetchers pueden resultar todavía más dañinos para los medios, porque recogen contenido en tiempo real para responder preguntas concretas de usuarios. Y cuando el contenido pierde valor muy deprisa —como ocurre con una última hora o una noticia urgente— ese uso inmediato puede tener un impacto directo en tráfico e ingresos.
En la segunda mitad de 2025, los crawlers de entrenamiento representaron el 63 % de los bots de IA dirigidos a media, mientras que los fetchers supusieron el 24 %. Lo relevante es que, dentro de esa actividad de fetchers, el publishing concentró el 43 %. Traducido: la amenaza más inmediata no viene solo del entrenamiento de modelos, sino de sistemas que consultan y resumen contenido en vivo antes de que el usuario entre en la web original.
Akamai también señala que OpenAI fue el actor con más tráfico de bots de IA hacia compañías media en el periodo analizado, y que el 40 % de las peticiones de OpenAI dentro de ese segmento se dirigieron específicamente a publishers. Junto a OpenAI, Meta y ByteDance aparecen entre los propietarios de agentes de IA con mayor impacto sobre el sector.
Más costes, menos control y daño de marca
El informe no se queda en el debate del tráfico. También insiste en algo que muchos medios ya están notando: estos bots incrementan los costes de infraestructura. Si miles o millones de peticiones automatizadas golpean una web para extraer contenido, eso se traduce en más gasto en servidores, CDN, nube y protección del sitio. Es decir, la empresa periodística no solo pierde parte del ingreso potencial, sino que además paga más por servir contenido a sistemas que pueden reutilizarlo fuera de su entorno.
A eso se suma el problema reputacional. Akamai advierte de que artículos, titulares y reportajes pueden acabar replicados en sitios de agregación, páginas de apariencia dudosa o plataformas que diluyen el origen real del contenido. Cuando la atribución se debilita, también se erosiona la autoridad de la marca y la relación entre el medio y su lector.
Ni bloquearlo todo ni dejar vía libre
Una de las partes más útiles del informe es que no propone una solución simplista. Akamai recomienda no caer en el bloqueo indiscriminado de todos los bots de IA. La razón es práctica: algunos podrían acabar formando parte de acuerdos de licencia o de nuevas vías de monetización. Bloquear sin entender quién accede, para qué lo hace y con qué posibilidad de compensación puede ser un error estratégico.
En lugar de eso, la compañía plantea un enfoque más selectivo. Sus clientes suelen optar por tres grandes respuestas técnicas: deny, tarpit y delay. La primera rechaza directamente la petición; la segunda ralentiza o atasca al bot; la tercera introduce demoras deliberadas. Akamai indica que deny es hoy la opción más popular entre sus clientes, seguida de tarpit y delay, aunque antes de aplicar bloqueos muchos optan por observar y clasificar el tráfico. De hecho, uno de los casos citados en el informe logró controlar el 97 % de las peticiones de bots de IA usando tarpit en lugar de denegación total.
Además, el informe abre la puerta a modelos de pago y verificación para el acceso automatizado al contenido. Ahí encajan iniciativas como Skyfire y TollBit, que Akamai presenta como socios para convertir parte de ese scraping en acceso autenticado, trazable y monetizable. También menciona el avance de marcos como Really Simple Licensing (RSL), que buscan establecer reglas más claras para el uso responsable de contenidos digitales por parte de sistemas de IA.
El mensaje final es claro: el publishing todavía está a tiempo de defenderse, pero necesita pasar de la queja a la gestión activa. La batalla ya no consiste solo en producir buen contenido, sino en decidir quién puede usarlo, en qué condiciones y con qué compensación.
Preguntas frecuentes
¿Por qué los bots de IA perjudican tanto a los medios digitales?
Porque pueden leer, extraer y resumir contenidos sin enviar al usuario a la web original. Eso reduce tráfico, ingresos publicitarios, conversiones a suscripción y visibilidad de marca.
¿Qué diferencia hay entre un crawler de entrenamiento y un AI fetcher?
El crawler de entrenamiento recopila grandes volúmenes de datos para entrenar modelos. El AI fetcher recoge contenido en tiempo real para responder preguntas concretas en asistentes y buscadores conversacionales.
¿Qué porcentaje del tráfico de bots de IA en media recae sobre publishers?
Según Akamai, los publishers concentraron el 40,1 % de la actividad de bots de IA dentro del sector media en la segunda mitad de 2025.
¿Qué pueden hacer los medios para proteger su contenido frente a bots de IA?
Monitorizar y clasificar el tráfico, aplicar medidas selectivas como deny, tarpit o delay, verificar identidades de bots y estudiar acuerdos de licencia o monetización en lugar de bloquear sin análisis previo.
vía: Akamai