数据中心面临制冷难题•服务器等IT设备在处理能力得到提高的同时,其散热量也越来越大,传统的冷热通道分开、风冷等制冷技术在给机柜内部以及整个数据中心制冷时遭遇到瓶颈,液体制冷技术开始走到了台前。•最近用目前最热•门的IBMBladeCenter服务器替换其旧服务器。通过这一举措ILM公司将把数据中心单个机柜的电能消耗平均减少140千瓦,节省幅度达到84%。不过,新机柜中的热密度现在更高了:每个机柜功率达28千瓦,而之前为24千瓦。这些电能最终都要转换成热能,而这些热能必然会透过机柜散发到数据中心,最后由数据中心的空调系统带走。•ILM公司主要进行电脑特技制作,这些机柜组成渲染农场用以对图像进行处理。每个新机柜配有84台刀片服务器,每个刀片服务器有2个四核处理器和32GB的内存。这些服务器功能非常强大,与3年前采购的BladeCenter相比,一台服务器的处理能力相当于过去的7台。然而,一个新的42U机柜产生的热量相当9个家用烤箱以最高温度工作。为了制冷,ILM数据中心的空调系统几乎是满负荷工作。•惠普副总裁兼关键基础设施服务部门总经理PeterGross介绍说,近年来新建的大多数数据中心其设计制冷能力大都为每平方英尺100~200瓦,每个机柜的制冷能力为4千瓦。而一个数据中心的设计制冷能力达到200瓦时才能支持平均5千瓦的机柜热密度。如果对气流流向进行精心设计和专门优化,机房的空气调节系统最多可以满足用电量25千瓦的机柜的制冷需求。而现在ILM公司的数据中心每个机柜用电达到28千瓦,这已经是现有的机房空调系统所能承担的最高负荷了,从事数据中心能效研究的IBM研究员兼首席工程师RogerSchmidt说,“ILM是在挑战30千瓦的极限,这注定是一个相当艰苦的工作。”•计算密度•不宜继续增加•现在的问题是:接下来会发生什么?“未来用电量如果继续增加怎么办?完全可能因为制冷问题无法解决,让我们不能再往数据中心中添加任何设备。实际上,这个问题已经开始显现出来了。”Schmidt说。•Schmidt认为超过30千瓦的高功率密度计算以后将不得不依赖于水冷。不过其他专家表示,数据中心的相关设备制造商可以通过通力合作降低服务器的部署成本,使得服务器不用都挤在机柜中,而是分开摆放,这样机柜中的热密度就不至于越来越高。•ILM信息技术总监凯文·克拉克对采用新的刀片服务器后获得的计算能力的提升和节电效果很满意,他说这符合当今节能环保的大趋势。•根据IDC的研究,服务器的平均价格自2004年以来已经下降了18%,而CPU成本下降了70%,达到715美元。但克拉克不知道如果计算密度成倍增长持续下去的话,自己的机房到底还能维持多久。“就现有的机房设备而言,如果计算密度加倍的话,从制冷的需求来考虑,是难以满足需求的。”他说。•他并不是唯一关注制冷问题的人。40多年来,计算机行业按照摩尔定律规定的进程快速发展,每两年计算密度增加一倍。现在一些工程师和数据中心的设计师们开始怀疑这条道路的可持续性,因为这条路似乎已走到了尽头。现在面临的困难不只是芯片制造商是否能够克服制造更精密的晶体管所面临的技术挑战,还在于现代数据中心要运行和管理如此多的高计算密度的机柜是否经济。•现代数据中心机柜中安装的IT设备越来越多,这不仅意味着机柜用电量大大增加,还意味着后面的所有辅助设施的容量和用电量也相应增加,包括冷却系统、配电设备、UPS和发电机等都会按比例增加。这一点值得数据中心经理注意。•IDC公司在2009年曾调查了1000家数据中心的负责人,接受调查者中21%的人将电力和制冷列为数据中心当前面临的最大挑战。将近一半(43%)的人说这是它们运营成本增加的最主要原因,1/3的人说他们经历过因制冷问题或者电力问题导致的服务器宕机。•ChristianBelady是微软全球基础服务集团经验最丰富的基础设施架构师,负责设计和管理着微软最近在美国华盛顿州昆西市建立的数据中心。他说,采用高架地板形式的数据中心单位建设成本太高,微软在昆西的数据中心基础设施的建设成本占项目总成本的82%。•“我们必须改变过去的那种计算密度越高越好的错误观点。”Belady说,“要知道,计算密度加倍意味着所有的辅助设施、制冷系统容量都要加倍...