热设计网

微软搞出“芯片水冷黑科技”!散热效率翻3倍,AI数据中心要变天?

热设计
来源:TheVerge

如果你觉得自己的游戏电脑发热量很大,那你是没见过真正“发烧”的家伙——现代人工智能数据中心。

为了训练GPT这类大模型,成千上万的AI芯片在数据中心里日夜不停地运算,产生的热量极其惊人。一个AI服务器机架的功耗,动辄就能超过几十个家庭的总和。

热量,已经成为锁死AI发展的终极瓶颈。

传统的风冷早已力不从心,甚至常规的水冷也快要触顶。怎么办?科技巨头微软给出的解决方案,听起来有点疯狂:把整个服务器主板,直接“泡”在特殊的液体里。

没错,就是字面意义上的“泡澡”。

image.png

微芯片背面蚀刻的凹槽可让冷却剂流过




“泡澡”散热,是什么黑科技?





当然,服务器泡的可不是普通的水,那会引发短路,酿成灾难。这种液体是一种不导电、绝缘的特殊工程流体。


其原理是,当发热的AI芯片完全浸没在这种液体中时,液体能通过直接接触,比空气高效成百上千倍地将热量带走。

但这还不是最绝的。微软与OpenAI等伙伴合作探索的,是一种更为极致的“两相”浸没式液冷。

这种液体的沸点很低,大约在50℃左右。当它接触到高温的芯片表面时,会瞬间沸腾,从液体变为气体。这个“沸腾”的过程,能吸收掉巨量的热量,散热效率极高。随后,蒸汽上升遇到冷凝器,又重新变回液体,完成一个高效的循环。




真正的杀手锏:微流体“冰甲”





如果只是把现有的服务器扔进液体桶里,那还只能算是一种“改良”。微软真正的野心,是从芯片设计之初,就将散热作为核心架构来考虑。这就是报道中提到的“微流体”技术。

我们可以把它想象成在芯片的内部或底部,用激光蚀刻出比头发丝还细的微型管道网络。这些管道就像芯片自己内置的“毛细血管”循环系统,让冷却液能够直接流经最核心、最炙热的发热单元,实现“精准降温”。

这好比是给一位高强度运动的运动员,直接在他的肌肉纤维里植入微型冷却管,而不是仅仅对着他吹风扇。这种从“外部降温”到“内生散热”的范式转移,才是这项技术最革命性的地方。




为什么说这是AI未来的关键?





热量是性能的枷锁。一旦散热不再是问题,AI芯片就可以在更高的功率下持续“狂飙”,再也不用因为过热而降频。未来训练一个大模型,时间可能从几个月缩短到几周。


而能效革命则是最直接的收益。据报道,这种液冷系统能够将用于冷却的能耗降低超过90%。对于微软、谷歌这样拥有庞大数据中心的企业来说,这不仅是巨大的成本节约,更是实现碳中和目标的关键一步。

摆脱了风扇和风道,服务器可以像书架上的书一样被紧密地排列在一起,在更小的空间内提供更强的算力。

散热不再是成本,而是新的竞争力。

微软的这场“液体革命”清晰地表明,在AI算力激烈竞赛的今天,散热已从一个需要被解决的“问题”,进化成了提升核心竞争力的“战场”。

当冷却效率提升90%,它节省的不仅是电费,更是解锁了AI未来发展的无限可能。下一次AI模型实现巨大飞跃的背后,或许就有这一池看似平静、实则沸腾的“冷却液”的功劳。

网站末尾图片.png

标签: 芯片元器件 液冷、数据中心等 点击: 评论:

留言与评论(共有 0 条评论)
   
验证码: