Meta crea “Meta Compute” y prepara una oleada de centros de datos de IA a escala de gigavatios

Meta ha decidido que su ambición en inteligencia artificial ya no se gestiona como “un proyecto más” dentro del área de infraestructura. La compañía ha creado una nueva división, Meta Compute, para dirigir su próxima fase de expansión en centros de datos: un plan que, en palabras atribuidas a Mark Zuckerberg, apunta a construir decenas de gigavatios durante esta década y aspirar a cientos de gigavatios o más en el horizonte. Si esa hoja de ruta se materializa, situaría a Meta entre los actores con mayor apetito energético y de capacidad de cómputo del planeta.

La nueva unidad nace con un objetivo claro: convertir la construcción de capacidad en una disciplina corporativa propia, con equipos dedicados a planificación de largo plazo, acuerdos con proveedores, modelos de financiación y coordinación con gobiernos. La infraestructura de IA —y no solo el modelo— se está convirtiendo en la ventaja competitiva.

Qué es Meta Compute y por qué importa

Meta Compute es la señal más evidente de que la empresa está separando dos mundos que antes vivían mezclados: por un lado, la carrera por modelos y talento; por otro, la carrera por suelo, energía, hormigón, redes y refrigeración.

La división estará codirigida por Santosh Janardhan, responsable de infraestructura global en Meta, y Daniel Gross, que asumirá un papel orientado a la planificación de capacidad, alianzas con proveedores y lógica económica de los despliegues. Además, la compañía ha incorporado a Dina Powell McCormick para trabajar en acuerdos con gobiernos y actores “soberanos” en torno a despliegues, inversión y financiación de infraestructura.

El movimiento llega en un momento en el que los grandes laboratorios y plataformas tecnológicas están descubriendo una realidad incómoda: no basta con comprar GPUs. La escalabilidad depende de permisos, potencia eléctrica disponible, tiempos de entrega, cadenas de suministro y, cada vez más, de la aceptación social de los centros de datos.

El contexto: más capacidad, más contratos y más dependencia energética

El anuncio coincide con un patrón que se repite en el sector: asegurar capacidad a cualquier precio y con cualquier fórmula. En los últimos meses se han multiplicado los contratos de “compute” y acuerdos de infraestructura con terceros, al mismo tiempo que las grandes tecnológicas aceleran proyectos propios de campus de datos.

En el caso de Meta, distintos informes han ido dibujando un mapa de acuerdos para blindar capacidad fuera de casa —desde proveedores especializados en GPU cloud hasta grandes plataformas—, además de negociaciones con otros actores del mercado para asegurar suministro y tiempos. En paralelo, la compañía también explora fórmulas de financiación para grandes complejos: proyectos donde el coste ya no se mide en decenas de millones, sino en miles de millones.

Tabla rápida: piezas clave del “plan de escala” de Meta (según información pública y reportes)

BloqueQué se está moviendoPor qué es relevante
OrganizaciónCreación de Meta Compute y nuevos responsablesLa infraestructura pasa a ser estrategia corporativa, no solo ejecución técnica
CapacidadObjetivo de decenas de GW esta décadaEscala comparable a grandes utilities, con impacto real en mercados eléctricos
FinanciaciónEstructuras de JV y capital externo en megaproyectosReduce presión de caja, pero introduce compromisos y dependencias
Compute externoContratos con proveedores cloud/GPUAcelera despliegues mientras los campus propios se construyen
EnergíaAcuerdos y exploración de fuentes firmes (incluida nuclear)La potencia eléctrica es el cuello de botella número uno

El gran riesgo: construir rápido sin romper la confianza del entorno

Esta expansión masiva tiene una contrapartida: los centros de datos ya no se perciben como “infraestructura invisible”. En muchos territorios, la conversación pública se ha endurecido por el consumo eléctrico, el uso de agua, el impacto urbanístico y la presión sobre redes locales. Y cuanto más crecen los proyectos —de cientos de megavatios a gigavatios—, más se politiza cada permiso.

Meta parece estar anticipando ese escenario al incorporar perfiles orientados a relación institucional, acuerdos con gobiernos y planificación a largo plazo. En otras palabras: para levantar centros de datos a escala de gigavatios no basta con ingeniería; hace falta diplomacia, financiación sofisticada y una narrativa de beneficios locales.

Lo que cambia con “tens of gigawatts”: la IA entra en lógica industrial

La cifra en gigavatios implica un cambio de categoría. Un centro de datos “grande” tradicional podía moverse en decenas de megavatios. La IA empuja a campus que se miden en cientos de megavatios y ahora se habla abiertamente de gigavatios.

Eso fuerza transformaciones de fondo:

  • Planificación eléctrica: subestaciones, líneas, contratos a largo plazo, y en ocasiones generación dedicada.
  • Cadena de suministro: desde transformadores hasta sistemas de refrigeración y equipamiento de red.
  • Modelo económico: más financiación estructurada, preventas de capacidad y acuerdos de largo plazo.
  • Gobernanza: permisos, cumplimiento ambiental, transparencia y gestión de oposición local.

Meta Compute, en ese sentido, parece menos una “reorganización interna” y más una respuesta a un hecho: la IA está empujando a las tecnológicas a operar como empresas industriales de infraestructura.


Preguntas frecuentes

¿Qué es Meta Compute y en qué se diferencia del equipo clásico de infraestructura de Meta?
Meta Compute es una división creada para coordinar la expansión de centros de datos de IA a gran escala, con foco explícito en planificación de capacidad, alianzas con proveedores, financiación y estrategia de despliegue.

¿Qué significa construir centros de datos “a escala de gigavatios”?
Significa pasar de proyectos típicos de decenas de MW a campus que requieren tanta potencia como una ciudad mediana. Esto afecta a permisos, red eléctrica, acuerdos energéticos y tiempos de construcción.

¿Por qué Meta está firmando acuerdos de energía (incluida nuclear) para centros de datos?
Porque el cuello de botella ya no es solo el hardware: es la disponibilidad de energía firme y estable para alimentar miles de GPUs, especialmente cuando se busca crecer rápido.

¿Qué riesgos trae esta expansión de data centers para las comunidades locales?
Los principales puntos de fricción suelen ser capacidad de red, consumo eléctrico, agua para refrigeración, impacto urbanístico y percepción de “beneficio local” frente al coste social del proyecto.

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

Las últimas novedades de tecnología y cloud

Suscríbete gratis al boletín de Revista Cloud. Cada semana la actualidad en tu buzón.

Suscripción boletín
×