学习啦>知识大全>知识百科>百科知识>

世界上最漂亮的机房

巩诗4分享

  昨天,谷歌的母公司Alphabet正式取代苹果,成为全球市值最高的公司。

  带你认识最漂亮的机房

  眼看快过年了,估计大家没心思看太专业的文章(关于这个文末有投票调查。。),一起来欣赏下Google的号称'全世界最漂亮的机房'吧。

  这是谷歌某个数据中心冷站的内部场景。整个房间管道林立,色彩斑斓。

  左侧是大型冷水机组,右侧是板式热交换器,以便在室外温度较低时候采用板换散热实现水侧节能。谷歌也非常重视数据中心的耗水问题,据他们估算,采用高效节能方式的数据中心每年可节约几亿加仑的饮用水。

  空调管道采用了谷歌企业标准色来区分不同管路的功能。例如,

  绿色——冷却水回水管,

  黄色——冷却水供水管,

  蓝色——冷冻水供水管,

  深红色和冷机侧的粉红色——冷冻水回水管,

  白色——消防管路,

  从而便于运维人员快速定位并查找问题。

  从图中还可以看出,有一些运营层面的小细节也考虑得非常周全。例如,管路屋顶等地方采用了很多的电动吊装葫芦链条,方便重型设备的吊装维护或更换;又例如,管路底部采用了中间凹两边凸的滚轮型支撑,这样会减少管路振动和拉伸形变产生的物理应力;

  还有,楼层间的竖管采用了U型弯曲以便减少水温变化和建筑形变带来的隐形损伤;冷机周边地面也配备了应急排水口,等等。此外,在偌大的机房中,运营人员采用同样运用了谷歌标准色的自行车来进行现场巡视。

  IT设备同样也采用五种颜色的网线,加上不同数据中心不同主题的装修风格,都是数据中心颜色标识管理的典范。

  下图为谷歌在美国俄克拉荷马州的数据中心,整个机房在大量服务器LED指示灯的闪烁下显得非常整洁和梦幻。

  从这个整机房的俯视图看,数据中心采用了厂房式大开间框架结构。封闭热通道的一排排机柜构成庞大微模块阵列,机房顶部是供电网络桥架和消防管路。冷气从地板输送,用塑料帘隔开热空气。用布帘密封可以隔绝冷热气流的混合,减少冷量的浪费。

  谷歌采用了创新的空调置顶散热方式。整个机房大环境作为冷通道提供冷量给服务器吸入,加热后的热空气在封闭通道内上升,然后通过热通道顶部的空调盘管制冷,并被几个烟囱状导风管和大散热风扇重新循环回外部冷环境。

  这种空调置顶布局虽然存在着盘管漏水、更换维护较难等风险,并对产品质量和施工工艺要求非常高,但其气流组织较为合理。例如热气流自动上升,冷气流自动下沉,从而减少风扇的功耗,且机房大冷池环境可以作为缓冲池,减少局部空调故障引发的热保护。

  谷歌微模块的整个热通道温度非常高,像个大烤箱,温度可以高达49摄氏度,以至于一旦必须进去维护,那么服务器必须关掉才行。采用热通道封闭可以提供一个较为舒适的现场运营环境,热量被限制在热通道中,并被冷冻水带走。

  上图还显示了谷歌微模块热通道内部的一些细节。例如,热通道宽度大约是两块标准地板砖,里边安装的是机柜顶部空调盘管的安装支架和加固支撑,地板底下的快接软管提供冷冻水给热通道顶部的空调盘管。从冷冻水管的数量和密度上看,顶部空调盘管也做了模块化冗余设计,是个很不错的设计。

  谷歌在供电和制冷等方面总能打破常规。例如,他们有些机房没有采用商用的传统UPS和精密空调方案。下图是谷歌创新的“三明治”服务器,谷歌还为此申请了专利。“三明治”服务器采用的是液冷散热片,上下两个服务器靠此散热片内部的冷冻水以及循环风扇带走热量。

  谷歌“三明治”服务器示意图

  当然,也不是谷歌的所有机房都采用这些创新的散热方案,例如一些POD小机房和网络设备间就采用传统的散热方案。下图展示的网络设备间采用了传统的风管上送风或者地板下送风方式散热,双路冗余高可靠供电。不过,在这些传统机房模块中谷歌都采用了简单低成本的塑料帘子隔离冷热通道方案,避免了冷热气流直接混合短路,也大大提高了能源利用效率。

  谷歌数据中心平均PUE为1.13,如果忽略变电站、电源转换以及发电设备,PUE将降低到1.06。

  PUE是Power Usage Effectiveness(电源使用效率)的简写,是评价数据中心能源效率的指标,是数据中心消耗的所有能源与IT负载使用的能源之比。PUE值已成为国际上比较通行的数据中心电力使用效率的衡量指标。PUE越接近于1,表示数据中心的绿色化程度越高。

    3406066