适用于数据中心服务器液浸冷却系统的被动元件解决方案
New
自从大规模语言模型(LLM: Large Language Model)问世以来,人工智能(AI)在各种场景中得到了广泛应用,AI已成为我们日常生活中的常见存在。支持AI应用的基础设施技术是被称为AI加速器的硬件系统,这些系统能够进行高度且大规模的并行计算。
目前,许多AI加速器被安装在数据中心内,但传统数据中心使用的服务器、存储和网络系统并不是专为AI加速器的运作而设计的。因此,为了在数据中心部署AI加速器并提供满足AI需求的服务,需要解决许多技术挑战。
其中,设备的冷却被视为最重要的课题,针对AI加速器系统的下一代冷却技术正在开发中。其中,液浸冷却系统因其显著的冷却效果,被认为是最具前景的技术。
本文将介绍TDK在使用液浸冷却技术的AI加速器系统方面的被动元件产品的开发进展和所做的努力。