La inteligencia artificial se ha vendido durante meses como una palanca para reducir costes, automatizar tareas y hacer más productivos a los equipos. La realidad que empieza a emerger dentro de algunas compañías tecnológicas es más incómoda: usar IA avanzada también puede salir muy caro. No solo por las suscripciones a modelos, sino por la computación, los tokens, la memoria, los centros de datos y toda la infraestructura necesaria para sostener agentes, copilotos y cargas de inferencia a gran escala.
La frase que mejor resume este cambio la pronunció Bryan Catanzaro, vicepresidente de aprendizaje profundo aplicado de NVIDIA, en declaraciones recogidas por Axios: “Para mi equipo, el coste de cómputo está muy por encima del coste de los empleados”. El matiz es importante. No significa que cada sistema de IA sea siempre más caro que cada trabajador, ni que la automatización sea económicamente inviable. Significa que, en equipos de frontera que usan intensivamente modelos, GPUs e infraestructura, la factura técnica empieza a superar partidas que antes parecían las más pesadas: los salarios.
La IA no es gratis: alguien paga los tokens, las GPUs y la energía
Durante la primera fase de adopción de la IA generativa, muchas empresas miraron sobre todo el ahorro potencial. Menos tiempo para escribir código, menos horas en documentación, más velocidad en atención al cliente, análisis de datos más rápido y automatización de tareas repetitivas. Pero cuando la IA pasa de experimento a proceso diario, aparecen costes que no siempre estaban previstos.
Los tokens cuestan. La inferencia cuesta. Los agentes que ejecutan varias llamadas, leen repositorios, invocan herramientas, generan planes y vuelven a intentarlo cuando fallan consumen mucho más que un chatbot ocasional. Si se añade razonamiento avanzado, contexto largo, modelos multimodales o despliegues privados, la cuenta crece todavía más.
Axios señala otros ejemplos del sector: el CTO de Uber habría agotado ya su presupuesto de IA para 2026 por los costes de tokens, según The Information, y otras compañías empiezan a presumir o preocuparse por facturas crecientes asociadas al uso intensivo de modelos. El mensaje de fondo es claro: la IA no elimina el coste del trabajo, lo desplaza parcialmente hacia infraestructura, proveedores de modelos y consumo computacional.
Esto no significa que la IA no aporte valor. Puede aportar mucho. Pero obliga a medirlo de otra forma. Una empresa ya no puede limitarse a decir que sus empleados usan IA. Tiene que demostrar si ese uso reduce tiempos reales, mejora calidad, genera ingresos o permite atender más trabajo sin aumentar plantilla. Si el gasto en cómputo crece más rápido que la productividad, la promesa se convierte en presión financiera.
Gartner dispara la previsión: los centros de datos lideran el gasto
Los datos de Gartner muestran la magnitud del fenómeno. La consultora prevé que el gasto mundial en TI alcance los 6,31 billones de dólares en 2026, un 13,5 % más que en 2025. La categoría que más crece no son los dispositivos ni los servicios de comunicaciones, sino los sistemas de centros de datos, impulsados por la infraestructura de IA, la memoria avanzada y la demanda de computación de alto rendimiento.
| Categoría | Gasto 2025 | Crecimiento 2025 | Gasto 2026 | Crecimiento 2026 |
|---|---|---|---|---|
| Sistemas de centros de datos | 505.634 M$ | 51,6 % | 787.990 M$ | 55,8 % |
| Dispositivos | 791.663 M$ | 9,7 % | 856.189 M$ | 8,2 % |
| Software | 1.254.449 M$ | 12,8 % | 1.443.621 M$ | 15,1 % |
| Servicios TI | 1.715.650 M$ | 6,2 % | 1.870.197 M$ | 9,0 % |
| Servicios de comunicaciones | 1.296.409 M$ | 3,3 % | 1.358.553 M$ | 4,8 % |
| Total TI | 5.563.805 M$ | 10,5 % | 6.316.550 M$ | 13,5 % |
La lectura es contundente. El gasto en sistemas de centros de datos pasaría de 505.634 millones de dólares en 2025 a 787.990 millones en 2026. Es una subida del 55,8 % en un solo año. Gartner atribuye este salto al impulso de la infraestructura de IA, al crecimiento de las cargas de trabajo y al encarecimiento de componentes como la memoria de alto ancho de banda.
El contraste con otros segmentos también es revelador. Los dispositivos crecerían un 8,2 %, los servicios de comunicaciones un 4,8 % y los servicios TI un 9,0 %. El software crecería más, un 15,1 %, impulsado también por IA generativa y nuevas plataformas empresariales. Pero nada se acerca al ritmo de los centros de datos.
NVIDIA gana, pero también paga la factura
NVIDIA es la gran beneficiada de este ciclo. Sus GPUs, redes, sistemas y software se han convertido en la base de buena parte de la infraestructura moderna de IA. La compañía ha pasado de ser identificada sobre todo con tarjetas gráficas para gaming y estaciones profesionales a ocupar una posición central en centros de datos, entrenamiento de modelos, inferencia, robótica, simulación y agentes.
Pero la declaración de Catanzaro muestra que incluso el líder del hardware de IA se enfrenta al otro lado de la ecuación. NVIDIA vende la infraestructura que todos quieren comprar, pero también usa IA de forma intensiva en sus propios equipos. Y cuando se trabaja en la frontera, la factura interna de cómputo puede superar con facilidad otros costes tradicionales.
La paradoja es interesante. La IA promete ahorrar trabajo humano, pero exige una maquinaria enorme para funcionar: GPUs, clusters, redes de alta velocidad, almacenamiento, energía, refrigeración, software, mantenimiento y personal especializado. En algunos casos, el coste no desaparece; cambia de columna en la cuenta de resultados.
Eso explica por qué la conversación empresarial empieza a moverse desde la adopción hacia el retorno. Ya no basta con preguntar cuántos empleados usan IA. La pregunta correcta es cuánto cuesta cada flujo automatizado, cuántas llamadas consume un agente, qué modelo se usa para cada tarea, qué parte puede ejecutarse con modelos más pequeños, qué contexto es realmente necesario y qué procesos generan valor medible.
La próxima batalla será la eficiencia
El entusiasmo por la IA no va a frenarse a corto plazo. Las grandes tecnológicas siguen invirtiendo en centros de datos, aceleradores, redes y energía. Los hiperescalares compiten por capacidad eléctrica, suelo, chips y acuerdos de suministro. Las empresas quieren desplegar asistentes internos, agentes de desarrollo, automatización documental, búsqueda semántica y sistemas de soporte más inteligentes.
Pero la fase de barra libre empieza a agotarse. Igual que ocurrió con el cloud, muchas compañías descubrirán que escalar rápido sin control puede generar facturas difíciles de justificar. En el cloud tradicional ya aparecieron prácticas como FinOps para vigilar gasto, asignar costes y evitar recursos infrautilizados. En IA hará falta algo parecido, pero más exigente: control de tokens, elección dinámica de modelos, cachés, cuantización, inferencia local o privada, límites de contexto, monitorización por caso de uso y evaluación continua del retorno.
La eficiencia dejará de ser un detalle técnico para convertirse en una ventaja competitiva. Las empresas que sepan usar IA con modelos adecuados, prompts compactos, agentes bien diseñados y arquitecturas razonables podrán obtener productividad sin disparar costes. Las que adopten IA como moda, sin medir consumo ni resultados, pueden encontrarse con un problema nuevo: automatizar procesos a un coste superior al ahorro prometido.
La frase de NVIDIA no mata el relato de la IA. Lo madura. La inteligencia artificial puede ser una de las tecnologías más importantes de esta década, pero no es magia barata. Detrás de cada respuesta hay infraestructura. Detrás de cada agente hay llamadas, memoria y cómputo. Y detrás de cada promesa de productividad habrá una pregunta cada vez más difícil de esquivar: cuánto cuesta realmente hacer que la IA trabaje.
Preguntas frecuentes
¿Ha dicho NVIDIA que la IA cuesta más que los empleados?
Bryan Catanzaro, vicepresidente de aprendizaje profundo aplicado de NVIDIA, dijo a Axios que, en su equipo, el coste de cómputo está muy por encima del coste de los empleados. No debe interpretarse como una regla universal para todas las empresas.
¿Por qué está subiendo tanto el gasto en centros de datos?
Por la demanda de infraestructura para IA, GPUs, memoria avanzada, redes de alto rendimiento, almacenamiento, energía y capacidad cloud para entrenar y ejecutar modelos.
¿Cuánto crecerá el gasto mundial en TI en 2026?
Gartner prevé que alcance los 6,31 billones de dólares en 2026, un 13,5 % más que en 2025.
¿La IA seguirá siendo rentable para las empresas?
Dependerá del caso de uso. Puede generar mucho valor, pero las compañías tendrán que medir costes de tokens, cómputo, licencias, infraestructura y productividad real para justificar la inversión.
vía: wccftech