El CEO de IBM avisa: la carrera por megacentros de datos de IA no saldrá rentable con los costes actuales

La fiebre inversora en inteligencia artificial está llenando el mundo de proyectos de megacentros de datos alimentados por GPUs, chips especializados y cientos de megavatios de potencia. Pero, según el consejero delegado de IBM, Arvind Krishna, las cuentas no salen. Y lo dice con una contundencia poco habitual en un sector acostumbrado a prometer retornos casi ilimitados.

En una conversación en el pódcast Decoder de The Verge, Krishna advirtió de que el actual despliegue de infraestructura para modelos de IA de frontera —los que aspiran a la llamada inteligencia artificial general (AGI)— podría acabar siendo sencillamente insostenible desde el punto de vista económico.

Su cálculo es directo: si la industria se embarca en un esfuerzo acumulado de unos 8 billones de dólares (8.000.000.000.000) en centros de datos de IA, harían falta del orden de 800.000 millones de dólares de beneficio anual solo para cubrir el coste de capital. “No hay manera de que eso tenga retorno”, viene a resumir el directivo.


80.000 millones para llenar un centro de datos de 1 GW

El punto de partida del CEO de IBM es el coste de equipar un centro de datos de nueva generación, pensado exclusivamente para cargas de IA a gran escala. Según sus estimaciones, llenar con hardware un campus de 1 gigavatio de potencia —el equivalente a una ciudad de tamaño medio— supone unos 80.000 millones de dólares en aceleradores, servidores, redes y sistemas de refrigeración.

El problema es que las grandes tecnológicas ya no hablan de un solo gigavatio. Krishna recuerda que algunos de los actores líderes en IA manejan internamente planes de entre 20 y 30 gigavatios para los próximos años. Solo eso, en una única empresa, dispararía la inversión hasta alrededor de 1,5 billones de dólares.

Si se suman los anuncios públicos y las cifras que circulan en el sector, el directivo sitúa el volumen total de capacidad planificada para cargas “AGI-class” en torno a los 100 gigavatios de potencia. Es una cifra que no solo tensiona las redes eléctricas, sino también cualquier lógica de retorno de inversión razonable.


Depreciación acelerada: cinco años para “tirar y volver a llenar”

Más allá del titular de los trillones, Krishna pone el foco en un elemento que, a su juicio, el mercado está infravalorando: la depreciación de los chips de IA.

En la práctica, los grandes aceleradores se amortizan en unos cinco años. Pero la rapidez con la que se suceden las generaciones —con saltos de rendimiento que multiplican varias veces la potencia por vatio— hace muy difícil estirar su vida útil más allá de ese periodo sin quedar fuera de juego frente a la competencia.

La conclusión del ejecutivo es tajante: cada ciclo obliga a “tirar” (a efectos contables y competitivos) buena parte del parque instalado y volver a llenarlo con hardware nuevo. En un escenario de inversiones de billones, ese ritmo de reposición implica un coste de capital anualizado que solo podría sostenerse con beneficios extraordinarios y muy estables durante años, algo lejos de estar garantizado en un mercado todavía inmaduro.


La apuesta por el AGI y la presión sobre los hiperescalares

Las advertencias del CEO de IBM llegan en un momento en el que grandes compañías de IA y plataformas en la nube compiten por demostrar quién será capaz de entrenar y servir los modelos más potentes del mercado.

En paralelo, gobiernos y fondos de inversión respaldan proyectos de “AI factories” de decenas de gigavatios, con la vista puesta en una posible AGI que, según sus defensores, generaría una explosión de productividad sin precedentes. Pero, de momento, buena parte de esos ingresos futuros son más una promesa que una realidad.

Krishna pone el acento en que muchos de estos planes asumen una combinación muy optimista de precios por token, demanda sostenida y costes energéticos relativamente controlados. Si cualquiera de esas variables se desvía —por saturación de oferta, regulación, límites físicos de la red eléctrica o rechazo social a las nuevas infraestructuras— el retorno de inversión se puede desplomar.

Su mensaje va dirigido, sobre todo, a los llamados hyperscalers, las grandes plataformas de nube y servicios digitales, a las que viene a decir que la carrera por el tamaño puede convertirse en una trampa si no va acompañada de un modelo de negocio realmente sólido.


¿Menos hormigón y más eficiencia?

El escepticismo del CEO de IBM no implica renegar de la IA, sino cuestionar el modelo actual de crecimiento basado en apilar racks sin descanso. Su intervención encaja con un debate que empieza a calar en el sector: hasta qué punto tiene sentido seguir escalando solo a base de más chips y más megavatios, en lugar de exprimir mejor la infraestructura existente.

Ahí entran en juego varios frentes: desde optimizaciones de software y arquitecturas más eficientes, hasta nuevas generaciones de chips especializados y estrategias más sofisticadas de uso compartido de recursos entre empresas y cargas de trabajo.

También se superpone con la preocupación creciente por la huella energética y de agua de los centros de datos de IA, y por la capacidad real de las redes eléctricas para absorber decenas de gigavatios adicionales dedicados a cálculos que, en muchos casos, todavía buscan su encaje económico y social.


Una llamada de atención al mercado

Las declaraciones de Krishna no suponen un diagnóstico definitivo —las previsiones a largo plazo sobre tecnología rara vez se cumplen al pie de la letra—, pero sí funcionan como una llamada de atención a inversores, reguladores y directivos.

Si las cifras que se manejan hoy se materializan sin cambios de fondo en eficiencia, modelos de negocio y regulación, la industria podría encontrarse en pocos años con una montaña de activos difíciles de rentabilizar, justo cuando la presión social y política sobre el impacto de la IA sea más alta.

En un entorno donde casi a diario se anuncian nuevos proyectos de megacentros de datos y acuerdos multimillonarios en chips, que el CEO de un gigante histórico como IBM ponga freno al entusiasmo y recuerde que los números deben cuadrar es, como mínimo, una señal de que el debate sobre la sostenibilidad —económica y energética— de la IA masiva ha llegado para quedarse.

vía: Noticias Inteligencia Artificial

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×