La trampa de los 8 billones: la infraestructura de IA que nadie sabe todavía cómo pagar

Los últimos meses han dejado una sensación extraña en el ecosistema tecnológico: por un lado, un entusiasmo casi irracional por la inteligencia artificial; por otro, cifras de inversión que empiezan a parecer directamente incompatibles con cualquier lógica de negocio sostenible.

Si se conectan tres piezas —los números de IBM sobre centros de datos, las advertencias de Geoffrey Hinton y los datos fríos de McKinsey— el puzzle de los “8 billones” (trillions en nomenclatura anglosajona) dibuja un escenario incómodo: se está levantando una infraestructura colosal para la IA sin que haya, todavía, un modelo económico claro que la haga viable a largo plazo.


1. La factura de la IA: del hype a la aritmética básica

En una intervención reciente que ha circulado ampliamente en el sector, el CEO de IBM, Arvind Krishna, ponía números a lo que hasta ahora era solo una intuición: un único megacentro de datos de 1 gigavatio dedicado a IA podría costar del orden de 80.000 millones de dólares en CAPEX. Escalado a los ~100 centros que algunos analistas proyectan para la próxima década, la cifra se dispara a 8 billones de dólares en inversión acumulada.

Aunque los detalles concretos de ese cálculo pueden discutirse, el orden de magnitud es el importante:

  • Los data centers de IA no son “un poco más caros” que los actuales: juegan en otra liga de potencia, refrigeración, diseño eléctrico y redes internas.
  • El hardware crítico (GPUs, aceleradores, switches, almacenamiento rápido) tiene una vida útil económica de 3–5 años antes de quedar obsoleto frente a nuevas generaciones.
  • A tipos de interés actuales, financiar varios billones en CAPEX implica cientos de miles de millones al año solo en servicio de deuda.

Y todo esto ocurre mientras los grandes proveedores cloud anuncian CAPEX anuales de decenas de miles de millones ligados a IA y centros de datos avanzados. Este ritmo de gasto podría ser asumible… si la IA generara ya retornos masivos y medibles. Pero ahí llega el segundo golpe de realidad.


2. McKinsey enfría la fiesta: casi todos usan IA, pocos ganan dinero

Según el informe The State of AI in 2025 de McKinsey, alrededor del 88 % de las organizaciones ya declara usar IA de forma regular, pero solo un 39 % afirma ver un impacto económico significativo en sus resultados, medido en mejora de beneficios o EBIT.

Dicho de forma menos elegante: casi todo el mundo juega con IA, pero muy pocos están ganando dinero de verdad con ella.

El estudio también apunta a varios patrones relevantes para un medio tecnológico:

  • La mayoría de proyectos sigue atrapada en el “purgatorio del piloto”: POCs brillantes, demos internas espectaculares… y cero despliegue a escala.
  • Las empresas “top performers” —algo menos del 10 %— no se limitan a automatizar tareas: rediseñan procesos completos y modelos de negocio alrededor de la IA.
  • Los agentes de IA (capaces de ejecutar acciones sobre sistemas, no solo generar texto) aparecen como la siguiente ola, pero siguen siendo experimentales en la mayoría de organizaciones.

En paralelo, las inversiones en infraestructura se están haciendo como si todo el mundo fuese ya “top performer”. Y los números no cuadran.


3. La pieza que añade Hinton: el incentivo a sustituir, no a aumentar

Geoffrey Hinton, uno de los grandes pioneros del deep learning y premio Turing, lleva meses advirtiendo de un riesgo menos técnico y más económico: si la infraestructura de IA es tan cara como empiezan a sugerir los cálculos del sector, la tentación será enorme de justificarla a través de la sustitución masiva de trabajo humano, no mediante una mejora incremental de productividad.

Hinton no habla solo de escenarios de “apocalipsis de robots”, sino de algo mucho más prosaico: la presión de los mercados para que estas inversiones billonarias se traduzcan en recortes de costes laborales, aunque eso choque frontalmente con discursillos corporativos sobre “IA para empoderar empleados”.

Traducido al lenguaje de negocio:

  • Si gastas miles de millones en GPU y centros de datos, el “PowerPoint” de retorno no puede basarse en “ahorrar un 3 % en tiempo administrativo”.
  • El incentivo estructural apunta a automatizar funciones completas, no a asistirlas.
  • Y ese incentivo se refuerza cuando el coste energético y de refrigeración de los centros de datos se dispara y los reguladores empiezan a mirar el consumo eléctrico de la IA con lupa.

La combinación es conocida en otros sectores: CAPEX gigantesco + presión por márgenes = decisiones agresivas sobre empleo. La diferencia es que ahora ese patrón se aplica a infraestructuras capaces de automatizar tareas cognitivas, no solo físicas.


4. Tres puntos ciegos del discurso “IA = eficiencia”

Visto desde un medio tecnológico, el problema ya no es si el modelo funciona técnicamente. Sabemos que los LLM y los agentes son capaces de escribir código, generar contratos, resumir reuniones o monitorizar incidencias. El verdadero agujero está en cómo se están planteando los proyectos y la arquitectura:

  1. Eficiencia sin rediseño de procesos
    Muchas organizaciones están usando IA como un “motor más rápido” dentro de procesos que ya eran malos. Automatizan papeleo redundante, flujos absurdos o decisiones fragmentadas. El resultado: se cometen errores a mayor escala y velocidad, sin crear nuevas fuentes de ingreso ni ventaja competitiva.
  2. Liderazgo desconectado de la realidad técnica
    McKinsey constata que las empresas donde la alta dirección se implica personalmente en el uso de IA tienen hasta 3 veces más probabilidades de capturar valor.
    En demasiadas compañías, la IA sigue siendo “cosa de IT o de Innovación”, mientras el comité de dirección firma cheques gigantes de CAPEX sin entender el modelo operativo necesario para rentabilizarlos.
  3. Infraestructura sobredimensionada para pilotos eternos
    Se construyen plataformas, lagos de datos y clusters de GPU pensando en casos de uso masivos que nunca salen del laboratorio. El resultado: infraestructuras infrautilizadas que cargan la cuenta de resultados, justo cuando el coste de capital y la energía están al alza.

5. ¿Qué están haciendo distinto los que sí ganan dinero con IA?

Ese pequeño grupo de empresas que sí logra retornos sostenibles comparte varias decisiones estratégicas que interesan especialmente al público técnico:

  • Agentes antes que juguetes de chat
    No se quedan en “chatbots simpáticos”: conectan modelos a sistemas de negocio (ERP, CRM, ticketing, observabilidad, etc.) con controles claros, logging exhaustivo y límites de acción. Es IA que hace cosas, no solo genera texto.
  • Arquitectura pensada para el TCO, no solo para la demo
    Valoran de forma seria la mezcla entre:
    • GPU on-prem, hosting o colocation para cargas recurrentes y predecibles.
    • Nube pública para picos de demanda y experimentación.
    • Modelos especializados más pequeños y eficientes frente a LLM gigantes generalistas.
      El objetivo no es tener “el modelo más grande”, sino el mejor ratio valor / vatio / dólar.
  • Human-in-the-loop como principio de diseño
    Lejos de buscar autonomía total, diseñan workflows donde:
    • La IA hace el trabajo pesado (clasificar, redactar, proponer, planificar).
    • Personas expertas validan, corrigen, aprueban y alimentan de vuelta al sistema.
      Esto reduce el riesgo de alucinaciones, mejora la calidad y, paradójicamente, acelera la adopción porque los usuarios confían más en la herramienta.
  • KPI alineados con negocio, no con vanidad tecnológica
    El éxito no se mide en “número de prompts” ni en “horas ahorradas”, sino en:
    • Nuevos ingresos generados.
    • Mejora de margen en productos concretos.
    • Reducción de churn, tiempo de resolución, errores críticos, etc.

6. Cómo debería reaccionar el ecosistema tecnológico

Para un lector de un medio tecnológico —CIO, CTO, responsable de plataforma o arquitecto— el mensaje que dejan IBM, Hinton y McKinsey no es “paren las máquinas”, sino “ajusten el plan antes de que la ola les pase por encima”. Algunas ideas prácticas:

  • No sobredimensionar la capa de infraestructura
    Antes de pensar en clusters de cientos de GPU, tiene más sentido:
    • Empezar con modelos gestionados y medir uso real.
    • Identificar los pocos casos donde el on-prem o el bare-metal son claramente ventajosos (latencia, soberanía, coste a largo plazo).
    • Diseñar una arquitectura híbrida flexible, no casarse con una sola estrategia.
  • Rediseñar procesos con IA, no solo enchufar IA a procesos viejos
    Cada vez que aparezca un caso de uso, la pregunta clave es: “Si hubiéramos tenido esta capacidad hace 10 años, ¿habríamos diseñado este proceso igual?”
    Si la respuesta es no, estamos ante una oportunidad de reingeniería, no de simple automatización.
  • Blindar el factor humano como activo, no como coste residual
    El talento que sabe combinar criterio de negocio con comprensión de IA (ingenieros de plataforma, MLOps, product managers técnicos, analistas con background en datos) es la única garantía de que esas inversiones no acaben siendo elefantes blancos.
  • Prepararse para la regulación y el coste energético
    A medida que los centros de datos de IA tiran de la red eléctrica y de la huella de carbono, los reguladores van a endurecer condiciones. Quien ignore esa variable hoy puede encontrarse infraestructuras restringidas o penalizadas mañana.

Un futuro de IA… que tiene que cuadrar en Excel

La conclusión incómoda es que el sector está levantando una infraestructura de IA de escala histórica sin que exista, todavía, un modelo económico probado que justifique cifras del orden de 8 billones de dólares en CAPEX a escala global.

Entre el sueño de la superinteligencia y la pesadilla del recorte masivo de empleo hay un punto intermedio: usar la IA para rediseñar cómo trabajamos, no solo para abaratar nóminas. Eso exige menos eslóganes y más rigor técnico, menos “hype” de data center y más ingeniería de proceso.

Porque, al final, la verdadera frontera de la IA no está solo en los chips de última generación, sino en algo mucho menos glamuroso: en que los números cierren.

Fuente: Noticias inteligencia artificial

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×