一、液冷温控系统在高性能智算/超算中心不可或缺后摩尔定律时代下 CPU/GPU 芯片的功耗随着算力能力的提高而大幅提升,Intel、AMD 主流系列处理器功耗已达到 350W/400W,NVIDIA H100 计算卡最大功耗可至 700W,已经突破传统风冷系统散热能力范畴。同时,随着大模型等系列 AIGC 产品的商业化落地,对于 AI 服务器的需求将会快速提升,AI 服务器中大量使用高功率 CPU、GPU 芯片,带动整台AI 服务器功耗走高,用于训练ChatGPT 的NVIDIA A100 服务器的最大功耗已达 6.5kW。受制于建设面积等客观因素,增加单机柜功率密度成为调和快速增长的算力需求与有限的数据中心承载力之间的有效方案。AI 集群算力密度将达到 20-50kW/柜,2022 年国内全行业数据中心单机柜平均功率密度中 8-12kW 占比 15%,同比增长 7pct,12-20kW 占比 10%,同比增长 7pct,高功率数据中心机柜占比迅速增加。自然风冷的数据中心单机柜密度一般只支持 8-10kW,冷热风道隔离的微模块加水冷空调水平制冷在机柜功率超过 15