La carrera de la Inteligencia Artificial está entrando en una nueva fase. Después del auge de los chatbots y de los asistentes conversacionales, el foco empieza a desplazarse hacia agentes capaces de leer contexto, razonar, ejecutar código, conectarse a herramientas y completar tareas de varios pasos de forma más autónoma. En ese escenario, Cloudflare ha decidido reforzar su propuesta Agent Cloud con nuevas piezas de infraestructura, seguridad y desarrollo pensadas para llevar esos agentes desde las demos locales hasta cargas de trabajo de producción desplegadas sobre su red global. La compañía lo presentó el 13 de abril como una ampliación de plataforma, no como una sola función aislada.
Lo interesante del anuncio no está solo en los nombres comerciales, sino en la ambición de fondo. Cloudflare sostiene que la infraestructura tradicional, basada en contenedores o servidores virtuales siempre activos, no escala bien hacia un mundo en el que cada usuario o empleado pueda tener varios agentes funcionando a la vez. Su respuesta pasa por combinar entornos efímeros y baratos para ejecutar código generado por IA, espacios persistentes cuando el agente necesita un ordenador “de verdad”, almacenamiento pensado para el código que generan esos agentes y una capa de seguridad más integrada con su propia red. En otras palabras, Cloudflare quiere convertirse en la plataforma donde no solo se invoquen modelos, sino donde los agentes vivan, trabajen y se conecten a datos y servicios.
De los chatbots a los agentes con infraestructura propia
Cloudflare no llega tarde a esta conversación, pero sí la está elevando de nivel. En 2025 ya había lanzado su Agents SDK para construir agentes persistentes sobre Workers y Durable Objects, y ese movimiento ya apuntaba a una tesis clara: el problema de los agentes no es solo el modelo, sino también el entorno donde se ejecutan, su estado, sus herramientas y su conectividad. Con la ampliación de Agent Cloud, la empresa da un paso más y organiza varias piezas que hasta ahora estaban más dispersas dentro de su plataforma.
La pieza más llamativa en términos de escala es Dynamic Workers, un runtime aislado pensado para ejecutar código generado por IA bajo demanda. Cloudflare explica que estos entornos arrancan en milisegundos, consumen apenas unos megabytes de memoria y son aproximadamente 100 veces más rápidos y hasta 100 veces más eficientes en memoria que un contenedor convencional para este tipo de tareas. La idea es sencilla: si un agente necesita lanzar una llamada a una API, transformar datos o encadenar herramientas, no siempre hace falta encender una máquina completa; basta con un isolate efímero, seguro y barato. Para Cloudflare, ahí está la clave de la economía de los agentes a gran escala.
Ese planteamiento tiene una implicación importante para el mercado de IA. Durante los dos últimos años, muchas herramientas agénticas han funcionado bien en entornos de laboratorio o en productos premium donde el coste por usuario podía absorber infraestructuras pesadas. Pero si los agentes quieren convertirse en una capa habitual del software corporativo, el coste unitario por ejecución tiene que bajar mucho. Cloudflare intenta resolver ese cuello de botella con una arquitectura más parecida al serverless extremo que al modelo clásico de contenedor por agente. Y esa diferencia puede ser bastante más importante que cualquier mejora superficial de interfaz.
Cuando el agente necesita su propio ordenador
No todo puede resolverse con entornos efímeros. Hay agentes que necesitan clonar repositorios, instalar dependencias, ejecutar compilaciones, mantener procesos en segundo plano o iterar sobre un sistema de archivos persistente. Ahí entra Cloudflare Sandboxes, que la compañía acaba de llevar a disponibilidad general. Según la documentación oficial, cada sandbox funciona como un entorno Linux persistente y aislado con shell, sistema de archivos, procesos en segundo plano, terminal real, URLs de preview, snapshots y un sistema de inyección segura de credenciales para que el agente acceda a servicios privados sin recibir directamente las claves.
Esto es especialmente relevante para los agentes de desarrollo y para los llamados sistemas de “code mode”. Cloudflare los presenta como verdaderos ordenadores para agentes: espacios donde un modelo puede actuar más como un ingeniero que como un chatbot, ejecutando un bucle real de editar, probar, volver a ejecutar y revisar resultados. Ese enfoque no es menor, porque marca una separación cada vez más clara en el mercado: una cosa es servir modelos y otra muy distinta ofrecer la infraestructura donde esos modelos puedan trabajar de forma persistente y con contexto operativo.
A esa capa se suma Artifacts, una nueva primitiva de almacenamiento compatible con Git que Cloudflare define como pensada para la era de los agentes. La compañía afirma que permitirá crear decenas de millones de repositorios, bifurcar desde orígenes remotos y dar a los agentes un hogar permanente para código y datos accesible con clientes Git estándar. Es una idea interesante porque apunta a una realidad cada vez más visible: si los agentes van a generar más código, más ramas, más experimentos y más artefactos de forma automatizada, el almacenamiento y versionado también tendrá que adaptarse a ese patrón.
Seguridad, modelos y el intento de convertirse en plataforma completa
La otra capa crítica del anuncio es la seguridad. Cloudflare insiste en que no basta con ejecutar agentes rápido; hay que hacerlo con aislamiento, control de red y acceso más seguro a datos y APIs privadas. Durante esta misma Agents Week, la empresa ha presentado también Mesh, una forma de dar acceso privado y segmentado a usuarios, nodos, Workers y agentes mediante Workers VPC, y ha reforzado su discurso sobre autenticación y acceso interno para agentes. Todo esto encaja con una tesis muy clara: el futuro de los agentes empresariales no se jugará solo en los modelos, sino en la combinación de runtime, identidad, red privada y control de herramientas.
Además, Cloudflare quiere resolver otro problema creciente: el riesgo de quedar atado a un solo proveedor de modelos. La compañía recuerda que, tras integrar Replicate oficialmente en diciembre de 2025, está ampliando su catálogo para combinar modelos propietarios de última generación con modelos abiertos bajo una sola interfaz. En su comunicado, Cloudflare menciona expresamente a OpenAI y una cita de su equipo de producto sobre el despliegue de agentes listos para producción, mientras insiste en que cambiar de proveedor debería ser tan sencillo como modificar una línea de código. Es una promesa ambiciosa, pero coherente con el ritmo actual del mercado, donde los modelos cambian demasiado rápido como para casarse de forma irreversible con uno solo.
La lectura de fondo es bastante clara: Cloudflare no quiere ser solo una red o una capa de seguridad alrededor de aplicaciones de IA. Quiere ser la infraestructura donde se ejecuten los agentes, donde se conecten a recursos privados, donde guarden su código y donde puedan escalar a millones de ejecuciones sin la factura ni la complejidad de la infraestructura clásica. Si lo consigue o no dependerá de la adopción real, de la madurez de estas piezas y de cómo responda el mercado. Pero el movimiento es importante porque muestra hacia dónde se está desplazando la industria: de los modelos aislados a plataformas completas para agentes.
Preguntas frecuentes
¿Qué es Agent Cloud de Cloudflare y para qué sirve?
Es la propuesta de Cloudflare para crear, desplegar y escalar agentes de IA sobre su red global, combinando runtime, almacenamiento, seguridad y herramientas de desarrollo orientadas a producción.
¿Qué diferencia hay entre Dynamic Workers y Sandboxes en Cloudflare?
Dynamic Workers están pensados para ejecutar código generado por IA de forma efímera, rápida y barata en isolates. Sandboxes, en cambio, ofrecen un entorno Linux persistente con shell, sistema de archivos y procesos en segundo plano cuando el agente necesita un ordenador completo.
¿Qué aporta Artifacts a los agentes de IA?
Cloudflare lo plantea como un almacenamiento compatible con Git diseñado para la era de los agentes, capaz de alojar código y datos generados automáticamente a gran escala y de integrarse con clientes Git estándar.
¿Por qué es importante que Cloudflare haya integrado Replicate?
Porque le permite ampliar su catálogo de modelos y reforzar su estrategia de ofrecer una plataforma más unificada, con menor dependencia de un solo proveedor de IA. Cloudflare confirmó que Replicate pasó a formar parte de la compañía el 1 de diciembre de 2025.
vía: cloudflare