新服务器如何配置热量输出和电力需求


过去的通常做法是当数据中心的冷却需求增加时,安装更多的空调就可以了,一般企业都适应了这种做法。但是,随着服务器的体积变得越来越小、越来越紧凑,添加更多空调的办法很多时候已经无法解决热量和电力问题。

200万美元该不该花?

美国Blacksburg市维吉尼亚综合州立大学最近部署了大约1100台基于Apple G5的系统组成的超级计算集群,为了保证该集群工作在适合的温度,这所大学的工程部提出了一个冷却方案-使用传统的空调设备并且将服务器分散安装在10000平方英尺的区域,实际上这所大学的主数据中心也就这么大。

但是,这并不是一个切合实际的做法。该大学研究和管理集群的Virginia Tech Terascale计算中心副主任Kevin Shinpaugh说:"将集群分布在10000平方英尺区域的设计真的不是一种选择,因为我们还安装了其他系统,不可能将整个数据中心都拿出来给这个集群系统。"

所以,Shinpaugh开始寻找其他冷却服务器的方案,最后选择了Liebert公司的精确冷却系统。这种冷却系统的特点之一是能够从服务器机架吸出热空气,然后再与空调设备进行热量调节。他说:"我们当时有大约3000英尺的空间可用于该集群,Liebert的冷却系统使我们能够做到在3000英尺的空间布置所有集群系统,并保证有效的冷却系统。"

Shinpaugh说,虽然他们为冷却设备和增加电源功率花费了大约200万美元,不过,现在数据中心具有了剩余的电源功率和冷却容量,因此在今后几年将能够满足更多系统的需要。

"这笔200万美元的投资使我们可以更好地利用已有的空间,并且以后向该集群添加服务器或建设新的集群将不会再遇到冷却和电源的问题",他说。

还有一个类似的例子。德克萨斯州Austin市Applied Materials公司项目经理Mark Nelson说,他也将他们的数据中心设计为可适应密度越来越高的配置。目前,他们的数据中心在设计上可满足约每平方英尺75瓦功率需求,但实际上只使用大约39%的容量。他说:"我们预测安装更多的设备以及当利用新技术更换设备时,我们的每平方英尺功率将开始增加,接近75%的功率容量。"

该数据中心现在运行一个冗余电源系统,因此一旦发生问题可以立即进行故障切换,另外还备有一台额外的空调,以防在发生最坏情况时热量输出激增。

14倍-刀片的热量挑战

据关注减少数据中心停机时间的企业协会Uptime Institute说,今天数据中心的平均热密度输出为每平方英尺28瓦左右。

Uptime Institute执行总监Kenneth Brill说:"尽管过去几年里这一数字不断增加,但是如果你使用刀片服务器的话,它仍达不到你可以对付的热量。当你采用刀片服务器,而且数量比较庞大的话,也许每平方英尺的热密度输出将达到400瓦。"

这个数字大约是数据中心平均热密度输出量的14倍。Brill说,一些刀片服务器用户所报告的数字,每机架的热量输出最多达到14千瓦,这与2台家用微波炉发出的热量相同。

咨询与外包公司Capgemini基础设施总经理Cees de Kuijer说,他将等到刀片服务器技术进一步发展后,才会向数据中心引进这种紧凑型计算设备。

de Kuijer说:"刀片服务器带来一些问题:其中之一是发热,另一个问题是供电。我们目前在采购上基本上不考虑选择刀片服务器。"

Gartner去年底发表的研究报告中,警告企业用户谨慎考虑部署刀片服务器和密度不断增加的机架式系统。Gartner分析师认为:"不经过仔细的规划以及缺少数据中心设备人员与服务器采购人员之间的协调,数据中心将不能增加电功率或冷却能力来适应服务器部署的增加。我们认为,一直到2008年底,服务器的热量和冷却需要将阻碍90%的企业数据中心取得最大理论服务器密度。"

这并不是说企业不能在减少费用昂贵的数据中心空间面积的同时,享受他们所需要的处理能力的好处。Gartner说,大多数企业服务器厂商提供评估服务,帮助客户确定他们的电功率和冷却限制。

现在,有一些专业的公司,提供AC和DC电源产品以及定位于冷却高密度系统的精确冷却设备,如American Power Conversion等公司。另外,硬件厂商和芯片制造商也在关注这个问题,Intel和Advanced Micro Devices都提供低功率芯片。Intel计划明年左右向安腾和至强处理器添加电源管理技术,使用户可以设置功率限制,开发可以根据需要启动和关闭的CPU。

然而,监测数据中心电源和热量问题的需要将继续增加,尤其随着公司部署像集群和网格这样的分布式计算架构时。

关注DC电源

Toshiba America Electronic Components选择利用来自Rackable Systems公司的专用基于Intel的服务器以及公司自己的分布式DC电源技术,部署服务器集群,运行设在马萨诸塞州的数据中心的电子设计自动化应用。

该公司西雅图分公司ASIC与铸件业务部副总裁Richard Tobias说,由于这种DC电源比传统AC设备体积小,所以发热更少,因此不容易出现过热和发生故障。

Tobias说:"我们关注的主要因素是构建服务器的每机架费用以及可以得到什么样的计算密度。利用DC转换节省功率意味着你可以在机架中安装更多的服务器,并利用服务器机架完成更多的工作。"

结论

IT经理必须与他们的设施团队密切合作,准确了解增加的功率和冷却需求将对服务器部署产生怎样的影响。Uptime Institute的Brill说,在许多情况下,数据中心拥有充足的气流和冷却能力,只是没有精确地加以控制。"只需进行一些较小的改变,人们就可以恢复足以满足几年需要的电源和冷却容量",他说。

相关内容