Planeación y Diseño de Sistemas de Liquid Cooling para Data Centers Hiperescala: Fundamentos para Instalaciones de Misión Crítica

10 de abril, 2026 | Planeación

Contexto: El imperativo técnico del liquid cooling en 2026

El mercado global de liquid cooling para data centers alcanzó los USD 6,000 millones en 2026 y proyecta un crecimiento sostenido con una tasa compuesta anual (CAGR) del 18.2% hasta 2035, cuando se estima alcance los USD 27,100 millones (Global Market Insights, 2026). Este crecimiento no responde a una tendencia especulativa, sino a una necesidad técnica ineludible: las densidades de carga térmica en racks de procesamiento han superado el límite operativo del enfriamiento por aire convencional.

Mientras que las configuraciones tradicionales operaban con densidades entre 5 y 15 kW por rack, las instalaciones contemporáneas de inteligencia artificial y computación de alto rendimiento (HPC) demandan sistemas capaces de disipar entre 30 y 120 kW por rack (Uptime Institute, 2024). Los procesadores GPU utilizados en clusters de AI generan entre 500 y 700 vatios por unidad, y los diseños térmicos de chips (TDP) han superado los 280 vatios, con proyecciones que exceden los 700 vatios para 2025 (Energy and Built Environment, 2024).

El enfriamiento por aire presenta limitaciones físicas insuperables en estos escenarios. La capacidad de transferencia térmica del aire es aproximadamente 1,000 veces inferior a la de los fluidos líquidos, lo que implica requerimientos exponencialmente mayores de volumen de aire, velocidad de flujo y potencia de ventilación para alcanzar los mismos resultados de disipación térmica. En términos operativos, esto se traduce en incrementos insostenibles de PUE (Power Usage Effectiveness) y consumo energético total.

La fase de planeación y diseño conceptual determina el desempeño, la eficiencia energética y la viabilidad económica de toda la infraestructura de enfriamiento durante su ciclo de vida operativo. Reaclima, con más de 50 años de experiencia y proyectos ejecutados como los data centers de Foxconn GDL Vesta 8 y Amazon AWS Querétaro, aplica metodologías de ingeniería basadas en estándares internacionales y análisis de riesgo estructurado para garantizar instalaciones que cumplan con los objetivos de continuidad operativa, eficiencia energética y cumplimiento normativo.

Definición de objetivos de desempeño: PUE, densidad de carga y temperatura operativa

El primer paso en el diseño de un sistema de liquid cooling consiste en establecer objetivos cuantificables de desempeño. Estos objetivos determinan la arquitectura del sistema, las tecnologías aplicables y los niveles de redundancia requeridos.

Power Usage Effectiveness (PUE)

El PUE cuantifica la eficiencia energética total del data center mediante la relación entre la energía total consumida por la instalación y la energía consumida por el equipamiento IT. Un PUE de 1.0 representa eficiencia teórica perfecta, donde toda la energía se destina al procesamiento. Las instalaciones convencionales con enfriamiento por aire operan con PUE entre 1.5 y 2.0, mientras que los sistemas de liquid cooling bien diseñados alcanzan valores entre 1.05 y 1.2.

La normativa alemana EnEfG establece objetivos de PUE ≤1.3 para data centers nuevos a partir de 2027, con metas de 1.2 para instalaciones construidas desde 2026 (Global Market Insights, 2026). ASHRAE Standard 90.4 define el Mechanical Load Component (MLC) como métrica complementaria para evaluar la eficiencia de los sistemas de enfriamiento mecánico, estableciendo umbrales de desempeño que orientan la selección de equipamiento (ASHRAE, 2024).

En proyectos como el ejecutado para Amazon AWS Querétaro, Reaclima integró sistemas de enfriamiento que permitieron alcanzar objetivos de PUE congruentes con estándares internacionales, mediante la combinación de tecnologías de enfriamiento evaporativo indirecto, economizadores de aire y gestión térmica por zonas. La transición hacia liquid cooling en instalaciones de densidad extrema permite proyectar PUE por debajo de 1.15 en condiciones de diseño.

Densidad de carga térmica por rack

La densidad de carga por rack determina la tecnología de liquid cooling aplicable. Las configuraciones actuales se clasifican en tres categorías:

  1. Densidad moderada (15-30 kW/rack): Pueden ser atendidas con rear-door heat exchangers (RDHx) o cold plates en componentes específicos, manteniendo enfriamiento por aire para equipamiento periférico.

  2. Densidad alta (30-80 kW/rack): Requieren direct-to-chip cooling (D2C) mediante cold plates instalados en CPUs, GPUs, módulos de memoria y reguladores de voltaje. Estos sistemas retiran entre 70% y 80% de la carga térmica directamente en el punto de generación.

  3. Densidad extrema (>80 kW/rack): Demandan inmersión monofásica o bifásica, donde los servidores completos se sumergen en fluidos dieléctricos. La inmersión bifásica permite alcanzar PUE de 1.02-1.03 mediante la evaporación y condensación del fluido refrigerante.

El diseño debe considerar no solo la densidad promedio, sino los picos transitorios de carga térmica. Los modelos de AI y HPC presentan variaciones significativas de carga según el tipo de procesamiento ejecutado, lo que exige sistemas con capacidad de respuesta dinámica.

Rangos de temperatura operativa: ASHRAE Thermal Guidelines y H1 envelope

ASHRAE Technical Committee 9.9 publica las Thermal Guidelines for Data Processing Environments, que definen los rangos de temperatura y humedad recomendados y permitidos para diferentes clases de equipamiento IT. La edición 2021 introdujo el H1 envelope, una nueva clase de equipamiento de alta densidad que integra procesadores, aceleradores, memoria y controladores de red en configuraciones térmicamente exigentes.

El H1 envelope especifica rangos de temperatura de aire recomendados más estrechos que las clases convencionales, con límites superiores de 25°C (77°F) en el rango permitido. Sin embargo, los sistemas de liquid cooling operan directamente sobre los componentes, lo que permite elevar las temperaturas de retorno del aire ambiente sin comprometer la temperatura de unión de los chips.

En instalaciones con liquid cooling, el diseño térmico debe considerar:

  • Temperatura de suministro del refrigerante: Típicamente entre 18°C y 30°C, dependiendo de la tecnología. Temperaturas más altas de suministro permiten mayor utilización de free cooling y reducción del trabajo de compresión en chillers.

  • Delta T (diferencia entre suministro y retorno): Valores entre 8°C y 15°C son comunes. Un Delta T mayor reduce el flujo volumétrico requerido y el consumo de bombas, pero puede requerir mayores superficies de intercambio en los cold plates.

  • Temperatura de condensación/rechazo de calor:Determina la eficiencia de los chillers o torres de enfriamiento. Condiciones climáticas favorables permiten operar con temperaturas de condensación reducidas, mejorando el COP (Coefficient of Performance) del sistema.

Arquitectura del sistema: demarcación entre FWS y TCS

ASHRAE TC 9.9 recomienda el uso de Coolant Distribution Units (CDU) para establecer una demarcación física y funcional entre el Facility Water System (FWS) y el Technology Cooling System (TCS). Esta separación presenta ventajas operativas y de gestión de riesgo:

El FWS comprende la infraestructura de enfriamiento a nivel de instalación: chillers, torres de enfriamiento, tuberías primarias, bombas de distribución y sistemas de tratamiento de agua. Este sistema opera con agua de proceso estándar y maneja volúmenes significativos de fluido.

El TCS se limita al circuito secundario que conecta el CDU con los cold plates o sistemas de inmersión instalados en los racks. Este circuito opera con fluidos especializados (mezclas agua-glicol, fluidos dieléctricos) en un loop cerrado de bajo volumen. La presión y temperatura del TCS se regulan de manera independiente, permitiendo ajustes finos sin impactar la operación del FWS.

La CDU funciona como intercambiador de calor entre ambos sistemas y como punto de monitoreo, filtración y control de calidad del refrigerante. Las unidades modernas integran:

  • Intercambiadores de placas de alta eficiencia
  • Bombas de velocidad variable para ajuste de flujo
  • Sistemas de filtración (típicamente 5-10 micrones)
  • Sensores de temperatura, presión, flujo y calidad del refrigerante
  • Válvulas de aislamiento automático ante detección de anomalías
  • Sistemas de expansión térmica y compensación de volumen

Las CDUs actuales alcanzan capacidades de 2 MW por unidad, lo que permite atender entre 25 y 40 racks de alta densidad con una sola unidad (Data Center Dynamics, 2025). Proveedores como Schneider Electric, Vertiv, CoolIT y Rittal ofrecen soluciones escalables con arquitectura modular.

Gestión de riesgos: inercia térmica, redundancia y modelado transitorio

Los sistemas de liquid cooling para instalaciones de misión crítica deben incorporar estrategias de mitigación de riesgo desde la fase de diseño.

Incremento de inercia térmica

ASHRAE TC 9.9 recomienda incrementar la inercia térmica del sistema para evitar daño térmico ante cambios abruptos de carga o pérdida temporal de enfriamiento. La inercia térmica se logra mediante:

  • Volumen de refrigerante en el TCS: Incrementar el volumen total del loop secundario mediante tuberías de mayor diámetro o tanques de expansión térmica.
  • Capacidad de almacenamiento térmico: Integración de tanques de agua fría o fluidos de cambio de fase (PCM) que actúan como buffer térmico.
  • Thermal mass de los componentes: Materiales con alta capacidad calorífica específica (cobre, aluminio) en cold plates y heat sinks incrementan el tiempo de respuesta ante transitorios térmicos.

En instalaciones críticas como data centers financieros o de telecomunicaciones, la pérdida de enfriamiento puede causar throttling térmico de procesadores en menos de 60 segundos, con potencial de shutdown térmico en 2-3 minutos. El incremento de inercia térmica extiende este margen a 5-10 minutos, permitiendo la activación de sistemas redundantes o protocolos de migración de carga.

Redundancia activa en CDUs y bombas

La redundancia debe diseñarse como redundancia activa (N+1 o 2N) en lugar de redundancia pasiva (standby). En configuración N+1, todas las CDUs operan simultáneamente en capacidad parcial, de modo que la pérdida de una unidad se compensa mediante el incremento automático de carga en las unidades restantes, sin interrupción del servicio.

Las bombas de circulación deben instalarse en configuración redundante con válvulas de aislamiento automático. Los sistemas avanzados incorporan bombas de velocidad variable con control PID (Proporcional-Integral-Derivativo) que ajustan el flujo según la demanda térmica real, reduciendo el consumo energético durante períodos de carga parcial.

Modelado transitorio y validación predictiva

ASHRAE recomienda la ejecución de modelado transitorio para verificar el desempeño de sistemas y componentes que carecen de datos empíricos de pruebas previas (ASHRAE TC 9.9, 2026). El modelado transitorio utiliza software de dinámica de fluidos computacional (CFD) y simulación térmica para predecir:

  • Respuesta del sistema ante cambios súbitos de carga (inicio de procesamiento de AI, migración de VMs)
  • Tiempo de estabilización térmica tras la pérdida de una CDU o bomba
  • Distribución de temperatura en racks y hot spots localizados
  • Efectividad de estrategias de contención de aire caliente residual

Reaclima emplea tecnologías de escaneo LiDAR y modelado BIM (Building Information Modeling) para capturar la geometría exacta de las instalaciones antes de la ejecución de trabajos. Los modelos digitales se integran con simulaciones CFD para validar el diseño de tuberías, ubicación de CDUs y estrategias de distribución de refrigerante, reduciendo el riesgo de interferencias durante la construcción y optimizando el tiempo de comisionamiento.

Cumplimiento normativo: ASHRAE 90.4, NOM-035-ENER-2025 y certificaciones ISO

El diseño debe garantizar cumplimiento con estándares de eficiencia energética y normativas nacionales aplicables.

ASHRAE Standard 90.4: Energy Standard for Data Centers
ASHRAE 90.4 establece requisitos mínimos de eficiencia energética para sistemas mecánicos instalados en data centers. El estándar define tres segmentos de cumplimiento: process cooling, process heating y process ventilation. Para sistemas de liquid cooling, el segmento de process cooling es el determinante.

El estándar emplea el concepto de Mechanical Load Component (MLC), calculado como la relación entre la energía anual de enfriamiento, ventilación y bombeo dividida entre la energía anual del equipamiento IT. Los sistemas deben diseñarse para cumplir con valores máximos de MLC según la configuración y ubicación geográfica de la instalación.

El uso de economizadores (direct air-side, indirect evaporative, waterside) permite reducir el MLC aprovechando condiciones climáticas favorables. En regiones con temperaturas de bulbo húmedo bajas durante el año, como Querétaro o Hermosillo, los economizadores pueden operar durante 60-70% de las horas anuales, reduciendo la dependencia de enfriamiento mecánico.

NOM-035-ENER-2025: Eficiencia energética en acondicionadores de aire tipo unitario

La Norma Oficial Mexicana NOM-035-ENER-2025, publicada en el Diario Oficial de la Federación el 20 de agosto de 2025, establece niveles mínimos de Relación de Eficiencia Energética Integrada (REEI) para acondicionadores de aire tipo unitario con capacidades nominales entre 19,050 W (65,000 BTU/h) y 70,340 W (240,000 BTU/h). Aunque esta norma aplica específicamente a equipos de aire acondicionado comercial, su entrada en vigor el 15 de febrero de 2026 refleja el compromiso normativo mexicano con la eficiencia energética en instalaciones de alta demanda.

Los data centers que incorporan sistemas híbridos (liquid cooling para componentes de alta densidad, aire acondicionado para equipamiento periférico) deben verificar que los equipos de aire tipo unitario cumplan con los requisitos de REEI, métodos de prueba y etiquetado establecidos en la norma.

Certificaciones ISO 50001 y gestión energética

Reaclima opera bajo certificaciones ISO que garantizan procesos estandarizados de gestión de calidad y eficiencia energética. Los proyectos de liquid cooling se desarrollan siguiendo protocolos de gestión energética alineados con ISO 50001, que establecen procedimientos de medición, análisis y mejora continua del desempeño energético.

Consideraciones de integración con infraestructura existente

Muchas instalaciones enfrentan el desafío de incorporar liquid cooling en data centers diseñados originalmente para enfriamiento por aire. La retrofitación presenta restricciones de espacio, capacidad eléctrica y distribución de servicios.

El diseño debe considerar:

  • Capacidad de generación de enfriamiento: Los chillers existentes pueden requerir ampliación o sustitución para manejar cargas térmicas incrementadas. La capacidad de rechazo de calor en torres de enfriamiento debe evaluarse.
  • Distribución de tuberías: El trazado de tuberías primarias (FWS) y secundarias (TCS) debe evitar interferencias con bandejas de cables, tuberías contra incendio y sistemas eléctricos. El uso de BIM permite identificar conflictos antes de la construcción.
  • Altura de piso falso: Los sistemas de liquid cooling requieren espacio bajo piso para tuberías, manifolds y conexiones rápidas. Alturas de piso falso inferiores a 45 cm pueden presentar restricciones.
  • Capacidad de UPS y distribución eléctrica: Las bombas de circulación y CDUs consumen potencia eléctrica. Aunque el consumo total es inferior al de sistemas de aire, debe verificarse la capacidad disponible en el sistema de UPS y PDUs.

Conclusión: Ingeniería de precisión para continuidad operativa

La planeación y diseño de sistemas de liquid cooling para data centers hiperescala exige rigor técnico, adherencia a estándares internacionales y análisis predictivo de desempeño. Los objetivos de PUE, densidad de carga, temperatura operativa y redundancia deben definirse cuantitativamente desde la fase conceptual, orientando las decisiones de arquitectura, selección de tecnología y configuración del sistema.

Reaclima aplica metodologías de ingeniería basadas en ASHRAE TC 9.9, ASHRAE 90.4 y normativas nacionales como NOM-035-ENER-2025, integrando herramientas de modelado BIM y simulación CFD para validar el diseño antes de la ejecución. La experiencia acumulada en proyectos de misión crítica como Foxconn GDL y Amazon AWS Querétaro respalda la capacidad de entregar instalaciones que garanticen continuidad operativa, eficiencia energética y cumplimiento normativo.

¿Tu instalación enfrenta densidades de carga que exceden la capacidad del enfriamiento por aire? Conversemos sobre las opciones de liquid cooling que se ajustan a tus objetivos operativos y presupuestales.

Referencias

  • ASHRAE Technical Committee 9.9. (2026). Technical Bulletin: Liquid Cooling Resiliency. American Society of Heating, Refrigerating and Air-Conditioning Engineers.
  • ASHRAE. (2024). ANSI/ASHRAE/IES Standard 90.4-2022: Energy Standard for Data Centers.
  • Energy and Built Environment. (2024). Liquid cooling of data centers: A necessity facing challenges. ScienceDirect.
  • Global Market Insights. (2026). Data Center Liquid Cooling Market Size & Share 2026-2035.
  • Uptime Institute. (2024). Data Center Rack Power Density Trends 2022-2024.
  • Diario Oficial de la Federación. (2025). Norma Oficial Mexicana NOM-035-ENER-2025: Eficiencia energética en acondicionadores de aire tipo unitario.