Tipologías de centros de datos en 2025: del hiperescala a la frontera edge, qué construyen, cómo se operan y qué exigen los proyectos

Los centros de datos (CPD o data centers) son el sustrato físico de la “nube”: edificios industriales con salas técnicas, energía y refrigeración redundadas, redes de fibra, seguridad perimetral y procedimientos operativos que permiten que funcionen el correo, el e-commerce, la banca, las redes sociales, los videojuegos o la analítica de IA. Su diseño y explotación han cambiado a gran velocidad: la irrupción de la IA de gran escala, la escasez de potencia en red, la presión regulatoria y la necesidad de latencias cada vez menores han dado lugar a familias de CPD con misiones, tamaños y criterios de éxito muy distintos.

A continuación, un mapa de la infraestructura en 2025, con rangos de potencia, objetivos de disponibilidad (Tier), eficiencia (PUE) y lo que hoy piden los operadores en cualquier RFP seria.


1) Campus Hyperscale (Hiperescalares)

Para quién y para qué. Grandes nubes públicas (IaaS/PaaS/SaaS) y plataformas de IA que consumen decenas o cientos de megavatios por emplazamiento. Alojan regions con múltiples availability zones y, cada vez más, granjas de GPU con refrigeración líquida directa al chip y densidades por rack muy superiores a las de hace cinco años.

Claves técnicas.

  • Potencia: 20–100+ MW por fase; campus de 100–500+ MW.
  • Densidades: de 20–60 kW/rack en TI “clásica” a 80–200 kW/rack (e incluso >300 kW) en clústeres de IA con direct-to-chip o inmersión.
  • Disponibilidad: diseños Tier III o equivalentes con múltiples niveles de redundancia eléctrica (N+1/2N) y anillos de distribución.
  • Eficiencia: PUE objetivo ≤ 1,2 (campus de última generación con free-cooling, contención térmica, UPS de alta eficiencia, BMS/DCIM avanzados).
  • Operación: construcción design-build industrializada, pods modulares, micro-redes y BESS (baterías) para peak-shaving y soporte a eventos de red.

Ejemplos: Regiones de AWS, Microsoft Azure, Google Cloud, Oracle, y campus de Meta para IA.


2) Campus Colocation (Colo)

Venden espacio, energía y conectividad a terceros. Son la “plaza pública” de Internet y de la economía digital: desde retail (decenas de kW por cliente) hasta wholesale (salas completas de varios MW para uno o pocos inquilinos). Ofrecen meet-me rooms, interconnection fabrics, acceso a IXP, carriers y nubes públicas.

Subtipos.

  • Wholesale: 5–40 MW por fase; contratos a 7–15 años; entrega shell & core o powered shell y fit-out del cliente.
  • Retail: sites de 5–20 MW; clientes desde 1–500 kW con servicios gestionados, remote hands, bare-metal, cage y cross-connects.

Claves técnicas.

  • Disponibilidad: objetivo habitual Tier III (mantenibilidad concurrente, N+1).
  • PUE: nueva generación 1,2–1,35; retrofit de sites históricos 1,4–1,6; on-prem tradicionales todavía en 1,8–2,0.
  • Densidades: cliente TI general 5–15 kW/rack; pods de 30–60 kW/rack para HPC/IA con pasillos confinados o DLC.

Ejemplos: Digital Realty (Interxion), Equinix, DATA4, Global Switch, Nabiax, Vantage, CyrusOne, STACK Infrastructure, NTT GDC, Colt DCS, Iron Mountain.


3) Edge / Micro-DC

Instalaciones pequeñas y distribuidas cerca del usuario o de nodos de red para latencias muy bajas y tráfico local (CDN, 5G, IoT, broadcast, comercio electrónico con last-mile). Pueden ser módulos prefabricados en parques empresariales, telco hotels de barrio o mini-hubs en torres y PoPs.

  • Potencia: 10–500 kW por site (edge metropolitano 1–2 MW).
  • Disponibilidad: desde N/N+1 hasta Tier III en nodos críticos.
  • Casos: caching, game streaming, analítica de vídeo, MEC 5G, control industrial.

Ejemplos: AtlasEdge, EdgeConneX, Cellnex (infraestructura telco y edge).


4) Enterprise On-Prem

Centros de datos propiedad de la empresa en su campus o polígono (banca, seguros, administraciones, defensa, trading, I+D, IP sensible). Conviven con la nube en modelos híbridos (datos y cargas sensibles on-prem, escalado y servicios gestionados en cloud).

  • Potencia: 0,5–10 MW (hay outliers mayores en banca/Estado).
  • Objetivos: Tier II–III; DR/BCP con site secundario.
  • Retos: modernización de PUE (1,6–2,0 heredado), densidad limitada (5–10 kW/rack), ciclos de inversión largos.

5) Data Centers de Telecomunicaciones

Infraestructura nativa de operadores para su red: core móvil, BSS/OSS, plataformas de voz y televisión, cachés, peering. Suelen ser sites distribuidos y de tamaño contenido, con fuertes condicionantes de ubicación, energía y resiliencia por misión crítica 24×7.

  • Potencia: variable; normalmente ≤ 5 MW por site.
  • Diseño: énfasis en redundancia eléctrica/óptica y operación remota.

Nota: Un mismo grupo puede operar varias tipologías a la vez (hiperescala para nube propia, colo para terceros, edge para 5G, on-prem para back-office, etc.).


Disponibilidad: Tier y redundancias (Uptime Institute)

  • Tier I–II: básica/redundante.
  • Tier III: mantenibilidad concurrente (N+1) sin impacto en carga.
  • Tier IV: tolerante a fallos (2N / 2(N+1)), compartimentación y doble independencia de rutas.

Objetivo más habitual en nuevos desarrollos comerciales y corporativos: diseño Tier III (o equivalente) con pruebas integrales y enfoque de operación orientado a TI continua.

Tabla — Esquemas comunes de redundancia

NivelEléctricoRefrigeraciónImplicación operativa
NUna rutaUn trenMantenimiento con paro
N+1Ruta + 1 reservaTren + 1 reservaMantenimiento sin paro (siempre hay “uno de más”)
2NDos rutas completasDos trenes completosTolerancia a fallo total de una ruta/tren
2(N+1)Doble N+1Doble N+1Doble resiliencia y flexión operativa

Eficiencia: PUE (Power Usage Effectiveness)

PUE = Energía total del CPD / Energía TI. Cuanto más cerca de 1,00, menos energía “no TI” (clima, pérdidas, UPS, iluminación).

  • On-prem tradicional: 1,8–2,0.
  • Colo/hyperscale de última generación: 1,15–1,25 (climas favorables y refrigeración free-cooling).
  • Meta actual en Europa: ≤ 1,2–1,3 en nuevos desarrollos; adicionalmente se valora WUE (agua) y Energy Reuse Factor (reaprovechamiento térmico para district heating).

Rangos de potencia orientativos (2025)

  • Hyperscale: 20–100+ MW por fase; campus 100–500+ MW.
  • Colo wholesale: 5–40 MW por fase; campus 20–150 MW.
  • Colo retail: site 5–20 MW; cliente 1–500 kW.
  • Edge/Micro-DC: 10–500 kW por site (edge metro hasta 1–2 MW).
  • On-prem: 0,5–10 MW.

Tendencias Q4 2025 que están redibujando el diseño

  1. IA de alta densidad
    Entrada masiva de racks ≥ 60–120 kW (y picos de 200–300 kW) con refrigeración líquida (direct-to-chip, inmersión de una o dos fases), manifolds y gestión avanzada de agua/glicol. Implica rediseñar salas blancas, distribución de potencia, altura libre, estructuras y protecciones.
  2. Time-to-power y capacidad de red
    El cuello ya no es el suelo, es la conexión a red. Transformadores, celdas y subestaciones 132/220 kV tienen plazos de suministro largos. Los operadores piden proyectos con tramitación eléctrica adelantada, grid slots asegurados y, cada vez más, BESS para peak-shaving o servicios de red.
  3. Sostenibilidad y reporting
    Presión regulatoria (CSRD, taxonomía UE) y objetivo 24/7 CFE (energía libre de carbono por hora). De PUE a cartera de PPAs, WUE, re-uso de calor, HVO en grupos, pilotos de H₂ y transición a batería Li-ion con marcos NFPA/IEC actualizados.
  4. Estandarización y modularidad
    Design libraries, salas prefabricadas modulares, pods repetibles y criterios de ingeniería comunes por país para acelerar despliegues multinacionales.
  5. Seguridad y compliance
    Del CCTV y el perímetro a Zero-Trust en tráfico Este-Oeste, microsegmentación, secure enclaves para IA, controles físicos/digitales integrados (ISO 27001, ISO 22301, EN 50600, PCI DSS, TISAX, ENS en España).

Qué buscan hoy los operadores en un proyecto

  • Time-to-power real: no solo potencia contratada; hitos eléctricos (OTC, permisos, subestación, back-up).
  • Flexibilidad de uso: layouts y plant capaces de aceptar hiperescalado de densidad (de 10 kW/rack a 80–120 kW/rack) sin rehacer el edificio.
  • Modelo de entrega claro:
    • Shell & Core: estructura, envolvente, patios y core building; el cliente ejecuta TI.
    • Powered Shell: shell + energía distribuida y climatización base; el cliente adapta salas.
    • Turnkey: llave en mano con salas TI entregadas listas para operar.
  • Estandarización multinacional: mismos criterios de diseño, bill of materials y playbooks operativos en todos los países para escalar rápido.
  • Versatilidad comercial: si no hay “ancla” (anchor tenant), diseño polivalente que admita varios perfiles de operador (cloud, IA, colo, banca) con mínimas obras de adaptación.

Cheat-sheet para inversores y project owners

  • Viabilidad eléctrica manda. Sin punto de conexión claro y cronograma de subestación, el cronograma civil no vale.
  • Tier y PUE son necesarias, no suficientes: pregunte por procedimientos, comprobaciones integrales, KPIs operativos (MTBF/MTTR, incidentes brown-out, SLAs de enfriamiento).
  • Densidad y refrigeración: diseñe el 20–30 % de sala ready-for-liquid; piense en agua y layout para manifolds y CDU.
  • Interconexión: prevea doble MMR, rutas físicas separadas y acuerdos con carriers/IXP desde el diseño.
  • Permisos y comunidad: impacto acústico, hídricos, tráfico, calor residual; plan de reutilización térmica y diálogo temprano con autoridades locales.

Preguntas frecuentes

¿Qué diferencia práctica hay entre un hyperscale y un colo?
El hyperscale es propiedad del cloud o del hiperoperador y aloja sus propias regiones/plataformas; se optimiza para volumen y operación interna. El colocation es multiinquilino: vende espacio, energía e interconexión a terceros (bancos, SaaS, clouds, telcos), con servicios de retail (desde 1 kW) y wholesale (salas completas).

¿Qué significa realmente “Tier III” y por qué es el objetivo habitual?
Tier III garantiza mantenibilidad concurrente (N+1): puede realizar mantenimiento planificado sin apagar la carga TI. Es el punto de equilibrio entre coste y disponibilidad para la mayoría de usos comerciales y corporativos. Tier IV añade tolerancia a fallos completa (2N), con más coste y complejidad, reservado para misiones críticas extremas.

¿Qué PUE es “bueno” en 2025?
Depende del mix y del clima. Un site nuevo en Europa que trabaje entre 1,15 y 1,30 se considera muy eficiente. En retrofits de on-prem, valores 1,6–2,0 siguen siendo comunes; los planes de modernización persiguen bajar >0,2–0,4 puntos con mejoras de contención, free-cooling y UPS de alta eficiencia.

¿Qué densidad por rack debo prever para IA?
Para TI general, 10–20 kW/rack bastan. En IA de nueva generación, planifique 40–80 kW/rack como base y reserva para 100–150 kW (o más) con refrigeración líquida. El coste y la complejidad se disparan no por el servidor en sí, sino por eléctrica, climatización y distribución de agua.

vía: LinkedIN

encuentra artículos

newsletter

Recibe toda la actualidad del sector tech y cloud en tu email de la mano de RevistaCloud.com.

Suscripción boletín

LO ÚLTIMO

×