Los centros de datos (CPD o data centers) son el sustrato físico de la “nube”: edificios industriales con salas técnicas, energía y refrigeración redundadas, redes de fibra, seguridad perimetral y procedimientos operativos que permiten que funcionen el correo, el e-commerce, la banca, las redes sociales, los videojuegos o la analítica de IA. Su diseño y explotación han cambiado a gran velocidad: la irrupción de la IA de gran escala, la escasez de potencia en red, la presión regulatoria y la necesidad de latencias cada vez menores han dado lugar a familias de CPD con misiones, tamaños y criterios de éxito muy distintos.
Tabla de contenidos
A continuación, un mapa de la infraestructura en 2025, con rangos de potencia, objetivos de disponibilidad (Tier), eficiencia (PUE) y lo que hoy piden los operadores en cualquier RFP seria.
1) Campus Hyperscale (Hiperescalares)
Para quién y para qué. Grandes nubes públicas (IaaS/PaaS/SaaS) y plataformas de IA que consumen decenas o cientos de megavatios por emplazamiento. Alojan regions con múltiples availability zones y, cada vez más, granjas de GPU con refrigeración líquida directa al chip y densidades por rack muy superiores a las de hace cinco años.
Claves técnicas.
- Potencia: 20–100+ MW por fase; campus de 100–500+ MW.
- Densidades: de 20–60 kW/rack en TI “clásica” a 80–200 kW/rack (e incluso >300 kW) en clústeres de IA con direct-to-chip o inmersión.
- Disponibilidad: diseños Tier III o equivalentes con múltiples niveles de redundancia eléctrica (N+1/2N) y anillos de distribución.
- Eficiencia: PUE objetivo ≤ 1,2 (campus de última generación con free-cooling, contención térmica, UPS de alta eficiencia, BMS/DCIM avanzados).
- Operación: construcción design-build industrializada, pods modulares, micro-redes y BESS (baterías) para peak-shaving y soporte a eventos de red.
Ejemplos: Regiones de AWS, Microsoft Azure, Google Cloud, Oracle, y campus de Meta para IA.
2) Campus Colocation (Colo)
Venden espacio, energía y conectividad a terceros. Son la “plaza pública” de Internet y de la economía digital: desde retail (decenas de kW por cliente) hasta wholesale (salas completas de varios MW para uno o pocos inquilinos). Ofrecen meet-me rooms, interconnection fabrics, acceso a IXP, carriers y nubes públicas.
Subtipos.
- Wholesale: 5–40 MW por fase; contratos a 7–15 años; entrega shell & core o powered shell y fit-out del cliente.
- Retail: sites de 5–20 MW; clientes desde 1–500 kW con servicios gestionados, remote hands, bare-metal, cage y cross-connects.
Claves técnicas.
- Disponibilidad: objetivo habitual Tier III (mantenibilidad concurrente, N+1).
- PUE: nueva generación 1,2–1,35; retrofit de sites históricos 1,4–1,6; on-prem tradicionales todavía en 1,8–2,0.
- Densidades: cliente TI general 5–15 kW/rack; pods de 30–60 kW/rack para HPC/IA con pasillos confinados o DLC.
Ejemplos: Digital Realty (Interxion), Equinix, DATA4, Global Switch, Nabiax, Vantage, CyrusOne, STACK Infrastructure, NTT GDC, Colt DCS, Iron Mountain.
3) Edge / Micro-DC
Instalaciones pequeñas y distribuidas cerca del usuario o de nodos de red para latencias muy bajas y tráfico local (CDN, 5G, IoT, broadcast, comercio electrónico con last-mile). Pueden ser módulos prefabricados en parques empresariales, telco hotels de barrio o mini-hubs en torres y PoPs.
- Potencia: 10–500 kW por site (edge metropolitano 1–2 MW).
- Disponibilidad: desde N/N+1 hasta Tier III en nodos críticos.
- Casos: caching, game streaming, analítica de vídeo, MEC 5G, control industrial.
Ejemplos: AtlasEdge, EdgeConneX, Cellnex (infraestructura telco y edge).
4) Enterprise On-Prem
Centros de datos propiedad de la empresa en su campus o polígono (banca, seguros, administraciones, defensa, trading, I+D, IP sensible). Conviven con la nube en modelos híbridos (datos y cargas sensibles on-prem, escalado y servicios gestionados en cloud).
- Potencia: 0,5–10 MW (hay outliers mayores en banca/Estado).
- Objetivos: Tier II–III; DR/BCP con site secundario.
- Retos: modernización de PUE (1,6–2,0 heredado), densidad limitada (5–10 kW/rack), ciclos de inversión largos.
5) Data Centers de Telecomunicaciones
Infraestructura nativa de operadores para su red: core móvil, BSS/OSS, plataformas de voz y televisión, cachés, peering. Suelen ser sites distribuidos y de tamaño contenido, con fuertes condicionantes de ubicación, energía y resiliencia por misión crítica 24×7.
- Potencia: variable; normalmente ≤ 5 MW por site.
- Diseño: énfasis en redundancia eléctrica/óptica y operación remota.
Nota: Un mismo grupo puede operar varias tipologías a la vez (hiperescala para nube propia, colo para terceros, edge para 5G, on-prem para back-office, etc.).
Disponibilidad: Tier y redundancias (Uptime Institute)
- Tier I–II: básica/redundante.
- Tier III: mantenibilidad concurrente (N+1) sin impacto en carga.
- Tier IV: tolerante a fallos (2N / 2(N+1)), compartimentación y doble independencia de rutas.
Objetivo más habitual en nuevos desarrollos comerciales y corporativos: diseño Tier III (o equivalente) con pruebas integrales y enfoque de operación orientado a TI continua.
Tabla — Esquemas comunes de redundancia
| Nivel | Eléctrico | Refrigeración | Implicación operativa |
|---|---|---|---|
| N | Una ruta | Un tren | Mantenimiento con paro |
| N+1 | Ruta + 1 reserva | Tren + 1 reserva | Mantenimiento sin paro (siempre hay “uno de más”) |
| 2N | Dos rutas completas | Dos trenes completos | Tolerancia a fallo total de una ruta/tren |
| 2(N+1) | Doble N+1 | Doble N+1 | Doble resiliencia y flexión operativa |
Eficiencia: PUE (Power Usage Effectiveness)
PUE = Energía total del CPD / Energía TI. Cuanto más cerca de 1,00, menos energía “no TI” (clima, pérdidas, UPS, iluminación).
- On-prem tradicional: 1,8–2,0.
- Colo/hyperscale de última generación: 1,15–1,25 (climas favorables y refrigeración free-cooling).
- Meta actual en Europa: ≤ 1,2–1,3 en nuevos desarrollos; adicionalmente se valora WUE (agua) y Energy Reuse Factor (reaprovechamiento térmico para district heating).
Rangos de potencia orientativos (2025)
- Hyperscale: 20–100+ MW por fase; campus 100–500+ MW.
- Colo wholesale: 5–40 MW por fase; campus 20–150 MW.
- Colo retail: site 5–20 MW; cliente 1–500 kW.
- Edge/Micro-DC: 10–500 kW por site (edge metro hasta 1–2 MW).
- On-prem: 0,5–10 MW.
Tendencias Q4 2025 que están redibujando el diseño
- IA de alta densidad
Entrada masiva de racks ≥ 60–120 kW (y picos de 200–300 kW) con refrigeración líquida (direct-to-chip, inmersión de una o dos fases), manifolds y gestión avanzada de agua/glicol. Implica rediseñar salas blancas, distribución de potencia, altura libre, estructuras y protecciones. - Time-to-power y capacidad de red
El cuello ya no es el suelo, es la conexión a red. Transformadores, celdas y subestaciones 132/220 kV tienen plazos de suministro largos. Los operadores piden proyectos con tramitación eléctrica adelantada, grid slots asegurados y, cada vez más, BESS para peak-shaving o servicios de red. - Sostenibilidad y reporting
Presión regulatoria (CSRD, taxonomía UE) y objetivo 24/7 CFE (energía libre de carbono por hora). De PUE a cartera de PPAs, WUE, re-uso de calor, HVO en grupos, pilotos de H₂ y transición a batería Li-ion con marcos NFPA/IEC actualizados. - Estandarización y modularidad
Design libraries, salas prefabricadas modulares, pods repetibles y criterios de ingeniería comunes por país para acelerar despliegues multinacionales. - Seguridad y compliance
Del CCTV y el perímetro a Zero-Trust en tráfico Este-Oeste, microsegmentación, secure enclaves para IA, controles físicos/digitales integrados (ISO 27001, ISO 22301, EN 50600, PCI DSS, TISAX, ENS en España).
Qué buscan hoy los operadores en un proyecto
- Time-to-power real: no solo potencia contratada; hitos eléctricos (OTC, permisos, subestación, back-up).
- Flexibilidad de uso: layouts y plant capaces de aceptar hiperescalado de densidad (de 10 kW/rack a 80–120 kW/rack) sin rehacer el edificio.
- Modelo de entrega claro:
- Shell & Core: estructura, envolvente, patios y core building; el cliente ejecuta TI.
- Powered Shell: shell + energía distribuida y climatización base; el cliente adapta salas.
- Turnkey: llave en mano con salas TI entregadas listas para operar.
- Estandarización multinacional: mismos criterios de diseño, bill of materials y playbooks operativos en todos los países para escalar rápido.
- Versatilidad comercial: si no hay “ancla” (anchor tenant), diseño polivalente que admita varios perfiles de operador (cloud, IA, colo, banca) con mínimas obras de adaptación.
Cheat-sheet para inversores y project owners
- Viabilidad eléctrica manda. Sin punto de conexión claro y cronograma de subestación, el cronograma civil no vale.
- Tier y PUE son necesarias, no suficientes: pregunte por procedimientos, comprobaciones integrales, KPIs operativos (MTBF/MTTR, incidentes brown-out, SLAs de enfriamiento).
- Densidad y refrigeración: diseñe el 20–30 % de sala ready-for-liquid; piense en agua y layout para manifolds y CDU.
- Interconexión: prevea doble MMR, rutas físicas separadas y acuerdos con carriers/IXP desde el diseño.
- Permisos y comunidad: impacto acústico, hídricos, tráfico, calor residual; plan de reutilización térmica y diálogo temprano con autoridades locales.
Preguntas frecuentes
¿Qué diferencia práctica hay entre un hyperscale y un colo?
El hyperscale es propiedad del cloud o del hiperoperador y aloja sus propias regiones/plataformas; se optimiza para volumen y operación interna. El colocation es multiinquilino: vende espacio, energía e interconexión a terceros (bancos, SaaS, clouds, telcos), con servicios de retail (desde 1 kW) y wholesale (salas completas).
¿Qué significa realmente “Tier III” y por qué es el objetivo habitual?
Tier III garantiza mantenibilidad concurrente (N+1): puede realizar mantenimiento planificado sin apagar la carga TI. Es el punto de equilibrio entre coste y disponibilidad para la mayoría de usos comerciales y corporativos. Tier IV añade tolerancia a fallos completa (2N), con más coste y complejidad, reservado para misiones críticas extremas.
¿Qué PUE es “bueno” en 2025?
Depende del mix y del clima. Un site nuevo en Europa que trabaje entre 1,15 y 1,30 se considera muy eficiente. En retrofits de on-prem, valores 1,6–2,0 siguen siendo comunes; los planes de modernización persiguen bajar >0,2–0,4 puntos con mejoras de contención, free-cooling y UPS de alta eficiencia.
¿Qué densidad por rack debo prever para IA?
Para TI general, 10–20 kW/rack bastan. En IA de nueva generación, planifique 40–80 kW/rack como base y reserva para 100–150 kW (o más) con refrigeración líquida. El coste y la complejidad se disparan no por el servidor en sí, sino por eléctrica, climatización y distribución de agua.
vía: LinkedIN