施耐德电气:2024智算中心液冷架构探讨白皮书.pdf
施耐德电气:2024智算中心液冷架构探讨白皮书.pdf 智算中心液冷架构探讨 第 133 号白皮书 能源管理研究中心 作者:Paul Lin Robert Bunger Victor Avelar 摘要 许多用于训练大型语言模型(LLM)和推理工作负载 的配备了加速器(如GPU)的人工智能服务器会产生 足够的热量,因此需要采用液冷进行冷却。这些服务 器配备了输入输出管道,并且需要一个由歧管 (Manifolds)、冷却分配单元(CDUs...
共益星球报告库