La IA no es magia: el coste oculto de cada prompt ya cambia el mercado

Usar Inteligencia Artificial se ha vuelto extraordinariamente sencillo. Basta con abrir una aplicación, escribir una petición y esperar unos segundos. Desde fuera, parece casi un acto trivial: un prompt entra, una respuesta sale. Pero esa aparente ligereza oculta una realidad industrial mucho más pesada, cara y compleja. Detrás de cada consulta hay centros de datos, redes, electricidad, refrigeración, chips especializados y miles de millones de dólares en inversión que nadie está desplegando por puro romanticismo tecnológico.

La popularización de la IA generativa ha creado una ilusión peligrosa: que el acceso es barato porque el gesto del usuario también lo es. Pero el hecho de que un prompt sea cómodo no significa que su coste estructural sea irrelevante. La Agencia Internacional de la Energía calcula que la demanda eléctrica de los centros de datos pasó de unos 485 TWh en 2025 a una trayectoria que apunta a 950 TWh en 2030, y que el consumo de los centros de datos centrados en IA creció un 50 % solo en 2025. No es una anécdota tecnológica, sino una nueva capa industrial con impacto directo sobre redes eléctricas, inversión y márgenes.

El problema no es el prompt, sino la escala

Conviene matizar una idea que suele exagerarse en redes sociales. No cada consulta individual consume una barbaridad de energía por sí sola. Epoch AI estimó en 2025 que una consulta típica a ChatGPT con GPT-4o rondaba los 0,3 Wh, muy por debajo de algunas estimaciones antiguas que circularon durante meses. Otras revisiones académicas más recientes siguen situando el coste energético por consulta en una horquilla de unos pocos vatios-hora según el modelo, la longitud y la infraestructura utilizada. El problema real no está tanto en el gesto unitario como en la escala masiva y sostenida del uso.

Eso cambia por completo la perspectiva. Cuando una herramienta pasa de atender miles de consultas a atender cientos de millones o miles de millones, el coste por petición deja de ser una curiosidad académica y se convierte en una variable crítica de negocio. La propia IEA subraya que la IA es ya el principal motor del crecimiento del consumo eléctrico de los centros de datos, y que Estados Unidos y China concentrarán cerca del 80 % del aumento global hasta 2030, mientras Europa también seguirá creciendo con fuerza.

Por eso la carrera ya no se libra solo en los modelos, sino en la infraestructura capaz de sostenerlos. Andy Jassy, consejero delegado de Amazon, explicó en su carta a los accionistas de 2025 que la compañía prevé invertir en torno a 200.000 millones de dólares en capex en 2026, buena parte de ello ligada a AWS y a la demanda de IA. Microsoft declaró en enero de 2026 un gasto trimestral de capital de 37.500 millones de dólares, con aproximadamente dos tercios dedicados a activos de vida corta como GPU y CPU. Alphabet, por su parte, proyectó para 2026 un capex de entre 175.000 y 185.000 millones de dólares, impulsado por infraestructura técnica para IA.

Una industria gigante disfrazada de simplicidad

La popularización de la IA ha tenido mucho de espejismo visual. El usuario ve una interfaz limpia y una caja de texto. El operador ve otra cosa: disponibilidad de energía, redes de alta velocidad, cadenas de suministro de chips, refrigeración líquida, contratos a largo plazo y planificación de capacidad. La diferencia entre ambas miradas es justo la que explica por qué el mercado terminará ajustándose. Ninguna empresa invierte cientos de miles de millones para regalar capacidad indefinidamente.

Desde el sector de la infraestructura cloud, esa tensión se ve con bastante claridad. En un análisis reciente sobre IA y arquitectura, David Carrero, cofundador de Stackscale (Grupo Aire), lo resumía así: “La IA pone a prueba la arquitectura en su punto más frágil: coste por uso, latencia y control. Cuando la inferencia se vuelve diaria y crítica, necesitas previsibilidad y capacidad de gobierno, no solo velocidad para lanzar un piloto.”

La frase tiene más fondo del que parece. Durante la fase de entusiasmo inicial, muchas compañías han asumido que bastaba con conectar modelos, lanzar pruebas y crecer. Pero la inferencia diaria, los sistemas RAG, la trazabilidad, los bucles de realimentación y la integración con entornos críticos convierten la IA en una carga estructural, no en un juguete experimental. Y cuando eso ocurre, el coste deja de ser una línea abstracta de facturación y pasa a convertirse en una decisión de arquitectura.

Energía, GPU y centros de datos: el cuello de botella real

El otro gran límite es físico. Carrero advertía en otro análisis sobre centros de datos que los racks de IA ya pueden superar los 70-80 kW por rack, muy por encima de lo que era habitual en entornos tradicionales, y que esta densidad obliga a replantear distribución eléctrica, suministro y refrigeración. También apuntaba que, donde antes eran comunes densidades de 10-15 kW, ahora el mercado se mueve hacia más de 40 kW por rack en determinados despliegues. Eso no se resuelve con una simple capa de software.

La IEA refuerza esa lectura con cifras globales: en su escenario base, la electricidad necesaria para alimentar centros de datos pasará de 460 TWh en 2024 a más de 1.000 TWh en 2030, con renovables cubriendo casi la mitad de la demanda adicional, pero con gas, carbón y nuclear también jugando un papel relevante. Dicho sin rodeos: la IA está empujando una expansión industrial que no puede separarse del debate energético.

A eso se suma la batalla por la ubicación. Estados Unidos sigue liderando por volumen y China por velocidad de crecimiento, mientras Europa intenta reforzar capacidad sin perder de vista soberanía, costes y normativa. En esa lógica, la IA no se parece tanto a una app como a una industria intensiva en capital, parecida a otras revoluciones tecnológicas en las que primero se compite por construir y después por monetizar.

La monetización seria todavía no ha terminado de llegar

Ese es, probablemente, el punto más importante de fondo. Gran parte del mercado sigue invirtiendo por posicionamiento, por cuota futura y por efecto de escala. Pero ese ciclo no es infinito. La historia de la tecnología suele repetirse: primero llega la fase de expansión agresiva, después la presión por demostrar retorno. Y cuando toca monetizar de verdad, cambian los precios, cambian las prioridades y cambia la tolerancia a los usos poco rentables.

Eso no significa que la IA vaya a frenarse ni que el modelo actual sea inviable de forma inmediata. Significa algo más simple: el mercado tenderá a discriminar entre usos de alto valor y consumo trivial, entre pilotos vistosos y despliegues sostenibles. Lo que hoy parece magia barata probablemente terminará pareciéndose más a una utility digital cara, gobernada por costes energéticos, compromisos de capacidad y modelos de negocio mucho más estrictos.

En ese proceso, la IA no dejará de crecer. Pero sí dejará, poco a poco, de parecer gratuita.

Preguntas frecuentes

¿Cada prompt de IA consume mucha energía por sí solo?
No necesariamente. Algunas estimaciones recientes, como la de Epoch AI para GPT-4o, sitúan una consulta típica en torno a 0,3 Wh. El problema no es tanto el prompt individual como el volumen masivo de uso y la infraestructura necesaria para sostenerlo.

¿Por qué se dice que la IA no es magia, sino infraestructura?
Porque detrás de cada servicio de IA hay centros de datos, GPU, redes, electricidad, refrigeración y miles de millones en inversión de capital. Los grandes proveedores están gastando cifras récord para ampliar capacidad.

¿Cuánto está creciendo el consumo eléctrico ligado a la IA?
La IEA calcula que el consumo eléctrico total de los centros de datos creció un 17 % en 2025 y que el de los centros centrados en IA aumentó un 50 % ese mismo año. Además, proyecta que la demanda total de los centros de datos casi se duplicará hacia 2030.

¿Qué papel juega la infraestructura privada o híbrida en este escenario?
Según David Carrero, cofundador de Stackscale, cuando la inferencia se vuelve diaria y crítica, pesan cada vez más variables como el coste por uso, la latencia y el control, lo que está impulsando el interés por arquitecturas privadas e híbridas para determinadas cargas de IA.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×