OpenAI ha publicado su primer State of Enterprise AI 2025, un informe que pone cifras reales a algo que muchos CTO, CIO y equipos de datos ya intuían: la Inteligencia Artificial está dejando de ser una “app más” para convertirse en una capa de infraestructura sobre la que se construyen productos, flujos de trabajo y hasta nuevos modelos de negocio.
La fotografía es especialmente relevante para un público tecnológico: habla de tokens, APIs, agentes, conectores, evaluaciones continuas y, sobre todo, de una diferencia creciente entre las organizaciones que están industrializando la IA y las que siguen en modo experimento.
De la prueba de concepto a la infraestructura: IA como nueva capa del stack
En solo tres años, más de 1 millón de clientes empresariales utilizan herramientas de OpenAI, con más de 7 millones de “seats” de ChatGPT en entornos de trabajo. En los últimos 12 meses, el volumen semanal de mensajes de clientes empresariales se ha multiplicado por 8, y el consumo de reasoning tokens por organización ha crecido en torno a 320 veces.
Traducido al lenguaje de infraestructura: los modelos de IA ya no se usan de forma puntual, sino como servicios centrales que se integran en productos, backends y herramientas internas. Más de 9.000 organizaciones han procesado más de 10.000 millones de tokens a través de la API de OpenAI, y cerca de 200 ya superan el umbral del billón de tokens consumidos.
Para el mundo tech esto implica algo claro: la IA se está consolidando como otro “tier” del stack (junto a bases de datos, colas de mensajes o sistemas de observabilidad), con sus propias métricas de consumo, rendimiento y gobernanza.
GPTs, Projects y API: donde realmente se integra la IA
Uno de los datos más reveladores del informe es el crecimiento explosivo de los Custom GPTs y Projects (interfaces configurables sobre ChatGPT con instrucciones, contexto y acciones personalizadas). El número de usuarios semanales de estas capacidades se ha multiplicado por 19 en lo que va de año, y ya suponen alrededor del 20 % de todos los mensajes de clientes Enterprise.
En la práctica, esto significa que muchas empresas ya no se limitan a “preguntar” a un modelo, sino que:
- Codifican conocimiento interno en asistentes reutilizables.
- Conectan GPTs con sistemas corporativos mediante APIs y tool calling.
- Automatizan flujos multi-paso (los llamados agentic workflows) dentro de sus aplicaciones.
La API, por su parte, se usa sobre todo para construir asistentes embebidos, búsqueda avanzada, automatización de flujos y herramientas para desarrolladores. La adopción ya no es exclusiva del sector tecnológico: el uso de la API por parte de empresas no tech ha crecido 5 veces interanual y casos como atención al cliente y generación de contenido representan ya cerca del 20 % de la actividad.
Productividad medible: de minutos ahorrados a nuevos tipos de trabajo
El informe también intenta contestar a la gran pregunta de negocio: ¿de verdad la IA ahorra tiempo y dinero?
Los datos internos de OpenAI indican que el 75 % de los trabajadores encuestados afirma que la IA ha mejorado la velocidad o la calidad de su trabajo. Los usuarios de ChatGPT Enterprise reportan un ahorro medio de entre 40 y 60 minutos por día activo, que sube a 60–80 minutos diarios en perfiles como data science, ingeniería o comunicación.
Pero lo más interesante para equipos técnicos es que la IA no solo acelera tareas conocidas, sino que amplía el abanico de lo que pueden hacer los usuarios:
- Un 75 % dice poder completar tareas que antes no estaban a su alcance: programación y code review, análisis y automatización en hojas de cálculo, desarrollo de herramientas técnicas, troubleshooting o diseño de agentes y GPTs personalizados.
- Los mensajes relacionados con código han aumentado en todos los departamentos; fuera de ingeniería, IT e I+D, estos mensajes han crecido de media un 36 % en los últimos seis meses.
En otras palabras: la IA está difuminando la frontera entre “técnicos” y “no técnicos”, y obliga a replantear quién tiene permiso —y capacidad— para tocar datos, automatizar procesos o prototipar herramientas internas.
La brecha que se abre: frontier workers vs el resto
El informe introduce un concepto que debería hacer reflexionar a muchos equipos de dirección tecnológica: el de frontier workers, el 5 % de usuarios que más intensamente usan la IA dentro de sus organizaciones.
Estos trabajadores:
- Envían 6 veces más mensajes que el usuario mediano.
- En tareas de análisis de datos llegan a usar la herramienta 16 veces más que sus compañeros.
- En coding, la brecha es aún mayor: los frontier workers envían 17 veces más mensajes relacionados con programación que la mediana.
Cuando se mira a nivel de empresa, el patrón se repite: las firmas en el percentil 95 generan el doble de mensajes por asiento que la empresa mediana y 7 veces más mensajes a GPTs, señal clara de una integración mucho más profunda en sus sistemas y procesos.
El informe también revela un dato incómodo: incluso entre usuarios activos de ChatGPT Enterprise, un 19 % nunca ha usado las herramientas de análisis de datos, un 14 % no ha tocado las funciones de razonamiento avanzado y un 12 % jamás ha usado la búsqueda integrada. Entre usuarios diarios estas cifras bajan, pero no desaparecen.
Conclusión para medios tecnológicos y responsables de producto: el problema ya no es la falta de modelos o de features, sino la falta de adopción profunda y sistemática.
Sectores, geografías y casos de uso: la IA sale del laboratorio
Por sectores, la tecnología sigue siendo el motor de adopción (crecimiento de clientes de 11× en un año), pero sanidad y manufactura ya aparecen como algunos de los ámbitos de mayor crecimiento (8× y 7× respectivamente). La mayoría de sectores han multiplicado por más de 6 su base de clientes, y hasta los más lentos duplican su adopción interanual.
Geográficamente, la expansión es global: Australia, Brasil, Países Bajos y Francia lideran el crecimiento en número de clientes de pago, con aumentos superiores al 143 % año sobre año, mientras que EE. UU., Alemania y Japón concentran el mayor volumen de mensajes.
El informe se apoya además en casos reales que muestran la diversidad de usos:
- Intercom construye Fin Voice sobre la Realtime API para soporte telefónico, reduciendo la latencia un 48 % y resolviendo en torno al 53 % de las llamadas de extremo a extremo con un agente de voz.
- BBVA automatiza más de 9.000 consultas legales anuales con un chatbot de bastanteos, liberando el equivalente a 3 FTE para trabajo de mayor valor.
- Moderna reduce de semanas a horas pasos clave en la elaboración de los Target Product Profiles, acelerando planificación de producto y decisiones clínicas.
Son ejemplos que interesan especialmente a perfiles técnicos porque combinan integración de datos, APIs internas, seguridad, cumplimiento y medición de impacto.
Qué están haciendo distinto los líderes de IA
Más allá de las cifras, el informe intenta destilar un “playbook” técnico-organizativo de las empresas que van delante:
- Integración profunda con sistemas y datos: conectores activos hacia herramientas core (CRM, sistemas internos, repositorios de conocimiento) para que los modelos trabajen con contexto real, no solo con prompts genéricos.
- Estandarización de flujos y reutilización: cultura de crear, compartir y versionar GPTs, agentes y plantillas internas en lugar de depender de prompts “ad hoc” en cada equipo.
- Evaluaciones continuas y MLOps para LLMs: baterías de evals ligadas a casos de negocio concretos (calidad de respuesta, tiempos, errores críticos) y bucles de mejora continua.
- Gobernanza y cambio organizativo: combinan un marco central de seguridad, cumplimiento y formación con “champions” distribuidos que empujan casos de uso en cada área.
El propio informe remata con un mensaje que muchos CIO/CTO empiezan a repetir: los modelos y las herramientas avanzan tan rápido que, a estas alturas, el cuello de botella ya no es técnico, sino organizativo.
Preguntas frecuentes para un lector tech
¿En qué se diferencia usar ChatGPT “a mano” de construir sobre la API o con GPTs/Projects?
ChatGPT es útil para tareas puntuales, pero la API, los Custom GPTs y los Projects permiten integrar IA directamente en aplicaciones, backend y herramientas internas, con control sobre datos, permisos, tool calling y métricas de uso.
¿Qué implicaciones tiene para el data stack corporativo?
La IA obliga a exponer datos de forma más estructurada (APIs, conectores, feature stores) y a pensar en gobierno, auditoría y evaluaciones continuas como parte del ciclo de vida del modelo, no solo del dato.
¿Cómo medir si la adopción de IA va por buen camino?
El informe sugiere mirar intensidad de uso (mensajes, tareas distintas, uso de herramientas avanzadas), tiempo ahorrado y resultados de negocio (conversiones, tiempos de resolución, ingresos), comparando siempre a los frontier workers con la media para entender la brecha interna.
¿Está todo decidido o aún hay margen para ponerse al día?
Pese a las diferencias ya visibles, OpenAI insiste en que la IA empresarial sigue en “early innings”: los modelos pueden hacer mucho más de lo que la mayoría de organizaciones está explotando hoy. Para muchas empresas tecnológicas, el partido está solo empezando.