苏州正和铝业有限公司2024-01-06
目前散热模组分为气冷散热和液冷散热两种,其中气冷散热就是用空气作为媒介,透过热接口材料、均热片(VC)或热导管等中间材料,由散热片或风扇与空气对流进行散热。而液冷散热则是透过,或浸没式散热,主要就是透过与液体热对流散热,进而使晶片降温,但是随着晶片发热量的增加与体积的缩小,芯片热设计功耗(TDP)的提高,气冷散热逐渐不再使用。受到AI应用带动相关半导体技术发展,ChatGPT的GPT-3导入就已让AI算法参数量成长到1750亿,使得GPU运算力要成长百倍,目前业界多以液冷中的单相浸没式冷却技术,解决高密度发热的服务器或零件散热问题,但仍有600W的上限值,因为ChatGPT或更高阶的服务器散热能力须高于700W才足以因应。
本回答由 苏州正和铝业有限公司 提供
其余 2 条回答
随着物联网、边缘运算、5G应用的发展,数据AI带动全球算力进入高速成长期,下一代的散热模组设计,主要有两大方向,ㄧ是使用3D均热板(3DVC)升级现有散热模块,二是导入液冷散热系统,改用液体当作热对流介质,提升散热效率,因此2023年液冷测试案量***增加,但是3DVC终究只是过渡方案,预估2024年到2025年将进入气冷、 液冷并行的时代。 由于新一代服务器TDP提升到接近气冷散热的极限,因此电子科技大厂纷纷开始测试液冷散热,或增加散热空间,像某些企业的TDP 350-400W已达气冷极限,使得液冷散热成为AI芯片主流,像是NVIDA H100的TDP就达700W,气冷采3DVC,普遍需4U以上空间, 并不符合高密度部署架构。