NEWS
数据中心冷却技术的解决方案正处在十字路口。虽然最常见的冷却解决方案是利用空气冷却,但新的技术是利用液体直接冷却到机架和芯片。商业化时间表似乎正在加快。ASHRAE TC9.9技术委员会是电力和冷却趋势及最佳实践的行业权威,编写本技术简介,以加速行业的准备。这篇文章将不仅突出行业因素和影响,而且将阐明目前迫切需要液体冷却技术。
在过去的15-20年中,数据中心冷却技术一直在不断发展。虽然水一直是大多数建筑物的主要载冷剂。但它再次向电子设备越来越靠近。它从房间移到了机柜列。从机柜列到机架和柜门进行热交换。有些已经开始在芯片的服务器内部冷却。从一个较长的时期来看,这个行业在迅速发展。
影响因素
这份简报是一年前写的,以下因素将作为考虑液体冷却的理由进行讨论:
1.对工作负载类型的可用性要求-由对更多数据的无限需求以及对实时数据消耗和分析的需求所驱动。高性能分析和人工智能催生了从纯HPC到更多的中心、边缘和colo数据中心等更多的细分市场。
2.数据中心基础架构的局限性—高热密度解决方案利用空气,占用空间有限的CRAH占地面积。通过将液体直接用于芯片或混合形式,可以显着提高热密度,从而延长数据中心的使用寿命
3.节能—节能的压力以减少数据中心电源的能耗。水冷解决方案可将PUE从大于1.6降低至小于1.1
4.减少投资—减少新数据中心建设的资本成本
5.废热再利用—主要是由欧洲推动的一项举措,将热量重新排入市政网络。
今天,有几个关键的附加要点需要讨论,它们都与芯片性能有关:
1.专门的SKU-响应实时数据分析的需求,芯片制造商以更高频率的SKU做出响应,既提高了热设计能力,又降低了芯片结温要求。这些(偏离路线图)的许多SKU不能进行风冷。随着多核部件的增加,提高性能的唯一选择就是提高功率。预计很快会从非路线图SKU转变为非路线图SKU。还期望整个道路SKU堆栈向上爬,这与下一点有关。
2.竞争格局-NVidia,IBM Power,ARM,AMD和Intel都在争夺性能优势。 (不再有一家芯片制造商在这个领域占据主导地位,试图阻止向非风冷解决方案的过渡)。
由芯片功率密度驱动的液体冷却
观察芯片密度的发展历史可能有助于解释空气冷却的挑战,并不可避免地要过渡到液体冷却。
每个点代表一个计算产品,或更明确地说,代表来自各种芯片供应商的每个产品中的芯片密度,单位为W / cm2。以实心菱形代表的产品是早期的晶体管技术,称为双极。在90年代初期,该行业过渡到另一种晶体管技术,即以方形表示的CMOS(互补金属氧化物半导体)。曾经被风冷过的双极型设备在80年代后期完全过渡到水冷。CMOS极大地降低了芯片功耗,从而使该行业过渡到了空气冷却。
快速发展了十年左右,IT供应商再次严肃地谈论液体冷却,其热通量接近14w / cm2。所有这些讨论都随着2005年左右多核设计的推出而平息了。一旦芯片中的主要热源(核心)被分开并散布开来,同一瓦数的芯片就变得更容易冷却。通过拆分内核而不会显着增加整体芯片功率即可实现性能提升。现在,由于空间不足,芯片无法增大,无法继续增加核心数量。只有通过提高芯片功率,采用强制液体冷却的芯片来实现性能提升。
由应用性能要求驱动的液体冷却
对于诸如机器学习和人工智能之类的新工作负载,对专用处理器(例如图形处理单元(GPU))的需求推动了显着的功率密度以达到所需的性能水平。作为示例,表1提供了有关最近几代IT设备和支持AI框架的服务器要求的示例。显然,为了获得新一代性能优势,服务器设计已经超出了空气的冷却能力。为了支持高密度服务器配置,例如(2)CPU和(6)GPU 2U服务器,需要水冷。在此示例中,设计出满足性能要求的风冷服务器将导致服务器在空间,电源和散热方面都非常低效。
总结
数据中心行业拒绝了的水,将再次成为主流的观念。Bi-Polar进入CMOS的历史以及多核技术的发展已经产生了一种错误的安全感,即技术的进步会阻碍液体的回归。作为电子冷却领域的专家和行业权威,液体的回归迫在眉睫。回到未来。与IT制造商和设备供应商合作,尽快制定用水冷你计划。TC9.9将在今年晚些时候发布更全面的白皮书以进一步讨论该主题,要想达到这种发展速度,就必须提前进行讨论沟通。
内容来源于网络,如有侵犯联系我们,我们会在第一时间处理。