VR前景怎么样?
从数据分析来看数据中心无疑是能耗大户”。
一个超大型数据中心每年的耗电量近亿度。2018年全国数据中心消耗的总电量为1608.89亿度电,比上海市2018年全社会用电量(1567亿度)还要多,相当于三峡大坝全年的发电量。
如今,数据中心消耗了全球约2%的电力,华为负责研究可持续信息和通信技术的安德斯·安德雷表示,到2030年数据中心会消耗全球8%电力。当你拿起手机,通过搜索引擎寻找答案的时候,可能永远不会想到,这一次搜索,就会消耗一盏8瓦灯泡一个小时的电量。
所以低能耗数据中心呼之欲出,这不仅关系到环境的可续发展,也决定了算力的成本和服务的竞争力。Facebook把数据中心建到了北极、微软则选择了海底捞”、阿里巴巴将数据中心建到了千岛湖坝上,而我国首个国家大数据综合试验区将数据中心建在了山洞里。
这一切的一切都是为了降低能耗,降低成本
据IDC统计一个传统的数据中心平均的使用年限为9年,超过7年的设施都趋于陈旧。假定使用年限为10年,其中电力能耗占据所有成本的20%、场地费占15%、冷却设备费用占6%,这三项合起来的超过了40%。
能源只有47%的部分进入了服务器,而41%的部分变成热量消耗掉了。机架风扇、空调、泵机和散热塔消耗的能源占据了数据中心能源消耗的很大一部分。
微软将数据中心沉入海底,有以下几点好处:
- 大量的沿海海床可以免费使用,而不必付产地使用费,不用建设庞大的基础设施。
- 可以利用海洋的潮汐运动、和海面风能产生的廉价电力为数据中心供电。
- 数据中心在海底可以用海水来进行服务器的冷却,并且可以避开绝大部分的自然灾害。
- 世界50%的人口生活在海岸线附近,并且全球互联网的主干光缆都位于海底。海底数据中心可以减少数据包延迟。
今年7月份,微软位于英国苏格兰奥克尼群岛附近的35.66米深的数据中心(2018年放置)打捞起来了,864台服务器只有8台发生了故障。数据中心采用海底流动的海水自然冷却,可靠性是其他同类产品的8倍。
如此这样,省下了场地费、电费、冷却设备费用、一定量的维护费用,省下的这些费用就变成了巨大的收益,买肉吃不香吗?何必白白地浪费掉。
构建绿色高效的数据中心成为了这个时代迫切的需求
建数据中心已经优先地考虑全年低温时间较长的地区、河边或者海边等水资源特别丰富的地区,充分的利用自然冷源赖降低制冷系统的能耗。
微软、谷歌、阿里巴巴、腾讯等互联网巨头构建绿色高效的数据中心,作为绿色节能技术的行业推动者和践行者,已经不仅仅是企业基于自身经营需要,同时也是企业乃至整个行业都需要肩负的重大社会责任。
以上个人浅见,欢迎批评指正。
认同我的看法,请点个赞再走,感谢!
喜欢我的,请关注我,再次感谢!
为什么微软要把数据中心设在水下?数据中心制冷有多花钱?
微软要在苏格兰奥克尼群岛附近沉没一个像集装箱一样大的数据中心,不仅需要廉价的电力,免费的散热设备,还需要接近世界一半人口的居住地。建在这里的最大希望是,能够有一个真正低温且成本便宜的数据中心,运行更频繁且发生故障的次数更少。
更节省资源
为服务器建造潜水艇听起来可能很昂贵,但是考虑到总体拥有成本,其中大部分是前期准备,管理微软研究项目的本·卡特勒在接受采访时对数据中心知识说。他说:我们认为该结构可能比今天的数据中心更简单、更统一。虽然所有这些都仍然是假设的,但是最终期望实际上可能会有成本优势,更便宜。”
将计算机置于水下并不是什么新鲜事,不仅对于Microsoft而言。海洋科学家已经做了很长时间了,但是还没有大规模地这样做。海洋工业在建造大型结构,冷却船舶发动机以及处理在水下表面堆积的藤壶方面具有丰富的经验。卡特勒说:与人们几十年来在海洋中所做的事情相比,我们所做的事情相对温和。我们处于相对较浅的深度,而且这数据中心相对较小。”
供应链已基本到位
微软可以利用其硬件专业知识和供应链,用商品服务器填充水下数据中心。实际上, Northern Isles数据中心”中的12个机架,864个服务器和FPGA板是来自旱地上的Microsoft Azure数据中心。圆柱形外壳是由一家知名的海洋工程公司Naval Group制造的,如果这个想法得以流行和可实施,就可以批量生产和运输。
卡特勒说,时间框架和经济性与在陆地上建立数据中心大不相同。不是建设项目,而是制造产品,它在工厂中制造,就像我们放入其中的计算机一样,现在我们使用标准的物流供应链将它们运送到任何地方。 然后还需要乘坐渡轮穿越英吉利海峡,穿越英国,再乘另一艘渡轮到奥克尼群岛,然后将其装在驳船上进行部署。
能够更快地部署不仅意味着更快地扩张,还意味着没有提前花钱。卡特勒说:在某些情况下,我们需要18个月或2年的时间才能建立新的数据中心。想象一下,如果我只是将它们作为标准库存,那么我可以在90天内迅速将它们送到任何地方。现在资金成本有很大不同,因为不必像现在这样提前建造东西。只要我们处在这种模式下,我们的Web服务以及随之而来的数据中心都将呈指数级增长,那就是巨大的杠杆作用。”
停机也可以节省保修
在将所有服务器替换为新服务器之前,一次将数据中心停机5到10年与许多云服务器的生命周期没有太大区别,随着新硬件的出现,云服务器可能会重新用于不同的服务。五年的承诺意味着可以节省更多的预付款。
卡特勒指出:如果还是维持旧的方案,保修成本可能很高。就我们而言,也许我们会把它退回给供应商,但这种维持不下去。”因为这些保修成本很高,每个组件供应商都必须保持所售组件的库存,以保证产品使用寿命。他解释说,英特尔可能每年都会推出一种新芯片,但是它必须保持五年来的库存。就我们而言,一切麻烦都消失了。我们将其放到那里,我们就完成了任务。我们永远不会再找供应商说更换该磁盘驱动器,因为到了五年后,我们也不用管理这些东西。”
规模可大可小
尽管Orkney数据中心是单个模块,但Cutler设想将多个模块连接在一起以实现规模化,也许需要一个用于连接和配电的中央节点,将它们像常规数据中心中的机架排一样对待。容器间延迟将类似于大型数据中心网络中的延迟。一些较大的Azure数据中心相距一英里。
Microsoft数据中心中的每个机架顶交换机都连接到骨干交换机,这些骨干交换机在该行的所有机架上串扰。下一级,主干交换机彼此交叉连接。这些东西之间可能有相当大的距离。如果我们在水中放很多,那就没什么不同了。”
在边缘部署中,单个模块可能是Azure Stack的理想选择,该Azure Stack可为越来越多地部署在海底的勘探石油和天然气钻井平台处理地震数据。
绿色资源潜力
一旦水下数据中心启动并运行,电力和冷却成本就会降低。Project Natick的第一个小得多的版本(Microsoft研究工作的代号)具有一个带有不同阀门的歧管,以使团队可以尝试不同的冷却策略。PUE为1.07(Microsoft最新一代数据中心的PUE为1.125)。据卡特勒估计,如果没有歧管,该成本将低至1.3。
另外,这一次没有外部热交换器。他说:我们正在通过机架后部的热交换器将原海水吸入并再次排出。”他指出,这是用于冷却船舶和潜艇的相同技术。水流的速度应阻止藤壶的生长。该冷却系统可以应对非常高的功率密度,例如用于重型高性能计算和AI工作负载的装有GPU的服务器所需的功率密度。
北岛数据中心利用了欧洲海洋能源中心的潮汐发生器。Microsoft设想将海洋数据中心与这些离岸能源一起使用。但是未来的版本也可能拥有自己的发电能力。
潮流是一种可靠的,可预测的东西;我们知道何时会发生。”卡特勒说。想象一下,我们有潮汐能,我们有电池存储,因此您可以在整个24小时周期和整个月球周期内保持平稳行驶。”
代替备用发电机和装满电池的房间,Microsoft可以过量提供潮汐发电量以确保可靠性(例如,潮汐涡轮机由13台代替了10台)。最终您会得到一个更简单的系统,该系统是完全可再生的,并且具有最小的占地面积。”
没有增加本地资源的负担
这种设备使用海洋供电和制冷的环境影响相对较小,这使得在更多地方部署数据中心变得更加容易。
现代数据中心的制冷更多地依靠水而不是电力。卡特勒解释说:过去用于冷却的功率令人难以置信,随着时间的推移,我们已经能够将功率大幅降低。但是水被用来增强冷却效果。”
数据中心通常有一条通往城市供水的管道,这在发达国家的许多地方都可以,但在其他地方则没有。卡特勒和他的团队喜欢这样的想法:将数据中心带到发展中国家的某个地方,而不会对当地的水或电力供应施加任何限制。对电力网没有压力,对供水没有压力,但是我们带来了更多的计算机资源。”