也看阿里浸没式液冷 “麒麟”
无意在B站视频上看到阿里浸没式液冷 “麒麟”,然后被国内的键盘侠们各种吹捧。其实很多东西早已是业界早有的一些散热方式,之所以很多未普及到寻常百姓家,无非是由于环境、价格等因素影响。本篇就以客观的态度盘点下冷却方式及回看下所谓的浸没式液冷。
先说常见的冷却方式,无非是风冷、水冷、液氮冷、油冷、浸没式液冷几种。其中风冷这个是最常见的,几乎常见的主机上至少都在电源和CPU上各有一个风扇,另外液氮冷N年前在电脑城里都有了,只不过价格昂贵,属于发烧友和土豪们的专属,一般对于数据中心级的来说,不多见。
数据中心有一个非常通用的考核指标——PUE(Power Usage Effectiveness),它是数据中心消耗的所有能源与IT负载使用的能源之比,其基准值为2,越接近1表明能效水平越好,绿色化程度越高。统计数据表明,数据中心冷却功耗占到整体功耗的45%-50%,这就是PUE值高企的主要原因之一。
一、浸没式液冷
先说这个被很多吹捧的技术。先给两段视频,如下:
二、油冷散热
油冷散热其实是从水冷进化而来。相较于传统的水冷方式,油冷能够进一步降低能耗。比如,加州大学的Flometrics Chilldyne酷弗洛负压液体冷却系统,吸取了NASA对火箭发动机和固定热插拔连接器进行冷却的灵感,也就是通过负液压系统隔离单个服务器。这套系统比传统的液冷方式能够降低25%-35%的能耗。而更早之前,Intel曾联合一家名为Green Revolution Cooling的公司,设计出一套采用矿物油进行降温的方案。郁闷不?又是美帝的技术发明。
为了考察矿物油冷却系统的能耗,Intel还做了为期一年的测试。最终的结果令人瞠目结舌,该系统的PUE低至1.02-1.03,已经非常非常接近极限值1。而传统的风冷数据中心,通常PUE都在1.8左右,比较来看,矿物油冷却系统拥有极为显著的节能效果。
三、水冷
对于数据中心而言,这里的水冷和我们在电脑城配台机使用的水冷不同,数据中心级的水冷多是通过不循环,降低整个机柜的温度,从而减少整个机房温控设备的投入和电力开销。目前阿里云千岛湖数据中心即采用的湖水进行自然冷却。其写在此之前美帝那边的Google、Facebook早已有这类操作先例。其利用海水、生活废水带走数据中心大部分的热量的成功先例。
四、自然环境冷
利用自然环境进行冷确的也有不少,比如腾讯贵州七星数据中心利用贵州多雨天气和山洞低温的特点进行降温,微软的水下数据中心也都是利用了自然环境进行降温散热。
五、其他
还是回到最初的话题,技术这东西本就是互相借鉴的。很多看到的东西没必要上去就是一顿跪舔膜拜。这里也并有崇洋美帝的成份。像阿里由于云技术的成功应用,其在模块化部署上的能力还是可圈可点的。其像如数据中心微模块、整机柜服务器、PCIe 固态硬盘这些上的设计就很不错啊。
数据中心微模块(Alibaba Data Center Module),从工厂生产到现场交付仅需45天,和传统方案相比节约4个月的时间;微模块采用了独创的铝合金预制框架,实现精密的契合结构,进一步精简了现场的安装工作。
整机柜服务器(AliRack),专门针对云计算和大数据的业务需求定制。千岛湖数据中心采用了最新的2.0版本,服务器上架密度和传统机柜相比提升了30%,同样的服务器空间硬盘容量增加了一倍。AliRack支持即插即用,服务器交付变得非常方便。
PCIe固态硬盘(AliFlash),相比于传统SATA固态硬盘,能够打破接口瓶颈绕,过控制器开销,使吞吐量、IOPS提升5-10倍,延迟下降70%以上。除此以外,AliFlash还采用了自主掌控的驱动逻辑,真正做到软硬件结合,进一步提升性能表现。
捐赠本站(Donate)
如您感觉文章有用,可扫码捐赠本站!(If the article useful, you can scan the QR code to donate))
- Author: shisekong
- Link: https://blog.361way.com/datacenter-cooling/6276.html
- License: This work is under a 知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议. Kindly fulfill the requirements of the aforementioned License when adapting or creating a derivative of this work.