数据中心散热,阿里居然玩出了这些花样

  1. 云栖社区>
  2. 博客列表>
  3. 正文

数据中心散热,阿里居然玩出了这些花样

【云行】 2017-04-26 13:46:12 浏览4365 评论0

摘要: 4月26日,阿里云在云栖大会·南京峰会上展示了黑科技——全浸没“凉得快”服务器麒麟,这是一种数据中心散热解决方案。本文就为大家详解阿里云黑科技——“麒麟”。

4月26日,阿里云在云栖大会·南京峰会上展示了黑科技——全浸没“凉得快”服务器麒麟,这是一种数据中心散热解决方案。


a5e9deaf0205bd67a24bde1a7cfe453b72cdc906


阿里云的“麒麟”采用了浸没式液冷散热的服务器部署方案,利用绝缘冷却液取代传统风冷。


由于无需风扇、空调等制冷设备,可在任何地方部署,因此也极大地降低了冷却能耗和空间消耗。这种浸没液冷服务器集群技术,可将数据中心能源使用效率(PUE)大幅降低到接近于理论极限值1.0(能源使用效率),达到世界领先水平。


999027b632395254f7120e4fa1c1ec7a6c0d2b17


阿里云为什么要推麒麟液冷?


随着“大数据时代”的到来,需要处理的数据逐年递增,2015年可产生8.5ZB数据,到 2020年将产生40ZB数据,机器产出的数据占40%以上,这些都需要IDC(互联网数据中心)来承载。随着全球互联网的发展,对硬件性能的要求越来越高,IDC的能耗也在逐年增加,CPU的功耗从2004年的35W增加到如今的240W,部件密度也在不断增加,从8DIMMs到24DIMMs,未来功耗和热密度将会快速增长,能耗和冷却成本也大幅增加。传统的风冷显得越来越力不从心,在总功率达10几千瓦时就碰到了瓶颈,效率很低。


在摩尔定律逐渐走向极限的今天,计算能力将变成稀缺资源,阿里巴巴希望通过重构数据中心,用突破式的创新应对井喷式的数据时代,为未来20年提供处理海量数据的计算能力。阿里巴巴选择了以散热与制冷为突破口的浸没液冷作为“变道超车”的赛道。

相比传统的风冷,“麒麟”所采用的浸没液冷解决方案是一种全新的变革。为什么这么说呢?一是“麒麟”节能,可大幅降低数据中心的冷却能耗;二是绿色环保,冷却液吸收元器件的热量后,再沸腾气化,气体上升遇到冷凝板后液化落回主机柜中循环利用,热量在几乎零功耗的情况下被冷凝管传递出去,与此同时高密封性也使得元器件远离湿度、灰尘、振动的影响,受干扰情况几乎为0。


6638342d736d10c53cd1fddb680d2d27a84b25c4


尤其是“麒麟”所使用的绝缘冷却液,它的特殊之处在于:这种材料完全绝缘且无腐蚀性,即使浸没元器件20年以上,成分不会发生任何变化,也不会对电子元器件产生任何影响。而得益于浸没式液冷高效的散热效率,“麒麟”无需空调等大型制冷设备,可以在任何地方部署,节省空间75%以上。“麒麟”在单位体积内的计算能力比过去提升了10倍。

可以说,“麒麟”的出现将填补未来20年的计算空缺,接近1.0的PUE可以将有限的电力发挥出最大的计算能力。而“麒麟”零噪音、零污染、绿色节能的特点也意味着它将可以保证我们在享受强大的计算能力的同时为我们赖以生存的地球极大地减轻负担。

据悉,“麒麟”将率先应用于阿里云数据中心,通过阿里云对外服务实现技术的普惠应用。

液冷外,在数据中心散热上阿里云还玩出了哪些花样?


除了“麒麟”所采用的液冷技术之外,在数据中心散热上,阿里云还采用了湖水冷却和自然风冷等多种冷却技术。


典型的例子就是阿里云位于浙江千岛湖的数据中心使用的湖水冷却,以及阿里云张北数据中心自然风冷。


ba4a0b140ce5050989b4474ebc2d366aa134139d


利用湖水散热?这如何做到的呢?我们看看流程:深层湖水通过完全密闭的管道流经数据中心,帮助服务器降温,再流经 2.5 公里的青溪新城中轴溪,不仅能作为城市景观呈现,自然冷却后的湖水最终还洁净地流回到千岛湖。


8bf6f82b1635c936dc25be9adba0db233c5f9119


为什么选择湖水冷却方案。主要是千岛湖地区年平均气温 17 度,其常年恒定的深层湖水水温,足以让数据中心 90%的时间都不依赖湖水之外的制冷能源,制冷能耗节省超过 8 成。反映到账面的数据显示,数据中心利用深层湖水制冷并采用阿里巴巴定制硬件,设计年平均 PUE(能源效率指标)低于 1.3,最低时 PUE1.17,比普通数据中心全年节电约数千万度,减少碳排放量一万多吨标煤,也是目前国内亚热带最节能的数据中心之一。

张北数据中心则利用的是张北气温低、空气干净的优势,大面积采用新风自然冷和水侧自然冷技术,尽可能用自然冷源为服务器降温。


76db5e4d6287665b0e0f099d76e63c3a8ff1b635


据悉,全年大约只有15天的时间需要开启传统压缩机空调,仅制冷能耗就可以降低59%。阿里张北数据中心的设计年均PUE(能源使用效率)仅为1.25,最低可达1.13。

结束语:


看完之后,是不是觉得阿里云很牛X,在数据中心散热上,都能这么玩,还玩出了这么多花样。


最后奉上视频:



用云栖社区APP,舒服~

【云栖快讯】诚邀你用自己的技术能力来用心回答每一个问题,通过回答传承技术知识、经验、心得,问答专家期待你加入!  详情请点击

网友评论

【云行】
文章107篇 | 关注1345
关注
一站式提供企业即时通讯、销售管理、协同办公。 查看详情
凝聚阿里巴巴多年来在无线业务安全防御的成功经验和技术成果,并面向开发者和企业提供安全扫描、应... 查看详情
基于深度学习技术及阿里巴巴多年的海量数据支撑, 提供多样化的内容识别服务,能有效帮助用户降低... 查看详情
为您提供简单高效、处理能力可弹性伸缩的计算服务,帮助您快速构建更稳定、安全的应用,提升运维效... 查看详情
阿里云总监课正式启航

阿里云总监课正式启航