返回顶部
分享到

【转载】数据中心开放技术的发展及创新

资讯 2020-11-16 08:57 718人浏览 0人回复
摘要

众所周知,开源开放协作促成IT技术的发展,超大规模数据中心在绿色节能、高效管理、弹性部署等方面有很多实际要求。而OCP社区的很多开源技术和开源项目正在帮助数据中心解决问题。下面是本次技术沙龙第一个环节,大 ...

众所周知,开源开放协作促成IT技术的发展,超大规模数据中心在绿色节能、高效管理、弹性部署等方面有很多实际要求。而OCP社区的很多开源技术和开源项目正在帮助数据中心解决问题。

下面是本次技术沙龙第一个环节,大规模数据中心技术与方案的最新发展。这个环节由来自5个公司的5位嘉宾共同分享。首先,由我开启本环节的演讲。

数据中心发展趋势。通过这张图可以看到,我们讲摩尔定律18-24个月集成电路的密度会翻一番。我们想说服务器核心的部件CPU处理性能每18-24个月的性能翻一番。随之而来的既然是一个半导体,那脱离不了物理的规律,它的功耗会不断的提升。也就是说服务器的功率也会不断提升,这是客观的趋势。数据中心目前正在向超大规模演进,我们知道现在目前的云计算已经普及到千家万户,每一个新的应用出现的热点,作为这个龙头企业必须得及时的响应客户需求。举个例子,现在讲短视频非常火,头部企业大家一想都知道了是抖音、快手等,必须得有超大规模的数据中心可以让客户的服务和实时性让用户感到满意才能黏住客户。我们讲数据中心会越来越大。从图上可以看到,单数据中心的服务器的数量现在看到蓝色和深蓝色,就是大型5000-10000台和一万台以上的数据中心的占比越来越高。数据中心的运营商虽然有很大量的服务器,也提供了云计算的基础设施,但它的毛利率非常低,这里有大笔的钱花在了电源、散热、电费、水费以及基础的费用,所以造成了毛利率比较低。

这带来了一个问题,怎样必须尽可能节能绿色,才能让TCO降低,这也是一个发展趋势。数据中心是越来越大的,但我们可以看到每一个数据中心里有一万多个节点,每一个机柜至少有20个节点,有电源和交换机,也就是说会有十万个左右的IT设备。这些设备汇聚在一起,有千万级的数据参数和数据信息去收集管理,整个数据中心的自动化运维也是一个发展的趋势。

我们讲说有这么多的数据中心的趋势,那对应客观的带来哪一些挑战?顾名思义,左上角的图说现在的服务器的性能越来越提高了,但带来的就是服务器的功耗和功率也都不断的在提升。我们怎样让服务器的数据中心去满足解决这些挑战,这是现在目前运营商或者说每一个数据中心的拥有者面临的课题。PUE使用效率也是类似的问题,就是说现在讲的上海应该是1.3,深圳是1.2,就是数据中心最优的一个效率值是有这样的要求。其实我们现在普遍的数据中心的运营都达不到,都没有办法达到这么高的一个PUE的值。这有很多的问题。左下角的图就是所谓的数据中心的资源利用率不均衡。刚才说我们需要做短视频的应用,需要在数据中心里布很多视频的CDN,需要做编码和解码的转码的工作。我响应这个需求,同时这个服务器的内部可能有硬盘。因为用到的是计算性能,没有用存储资源,这个资源只能说不得不闲置。

今年初疫情期间,大部分的中小学必须得通过网课上学,其实就是视频会议系统。后来这些中小学复学复工以后,视频会议的服务器能不能用在其它的地方?这些资源怎样能够充分的利用,这是带给所有的云服务供应商一个比较严重的课题挑战。我们讲了数据中心的智能运维不足,有大量的设备数据中心越来越庞大了,我们怎样可以实现自动的运维。降低费用,运营人员肯定要减少,但又不能让服务出现宕机的情况,自动化运维也是一个挑战。

刚才讲了很多的问题和发展趋势,我们觉得开放计算应该是解决这些问题和挑战的一个有效的手段。我们讲OCP,这次专门为OCP开源社区做一个技术沙龙。其实我近几年一直参与OCP的活动,我觉得OCP特别像一个百宝箱,里面有各种开源技术等待着我们这些使用者挖掘。我这里列了四个点跟大家进行简单分享。首先,性能。刚才提到怎样能够在数据中心里布更多的服务器办法客户性能,OCP有一个OU的计算节点,这是开源。还有四路的服务器,可以在单位空间里提供更好的计算密度。OCP有机柜级的标准,可以兼容19英寸和21英寸的机箱。同时,对电源和风扇都做了一些相关的标准规范。让厂商按照一个规范交付给用户统一的产品,让使用者不被单一的厂商牵绊,这是非常好的地方。弹性,模块化的设计可以让数据中心整机柜的部署和上线更加及时,也可以响应刚才说的云服务供应商很短时间内上线一个突发性的应用需求,所以模块化的设计和整机柜的交付是一个鲜明的要求。

我们看到OCP也有相关的一些设计规范,还有资源结耦问题,使计算和存储的资源进行结耦,也有池化的标准。节能,这也是一个诉求,现在有48伏的供电。因为交流电进到机箱里机器通过电源转成12伏,这带来了功耗的损失。48伏进来,然后可以降低3%的功耗节省。中国超大规模的数据中心造成每年电量有2000亿千瓦的功耗。如果有3%的话,虽然它很小,但庞大的数据中心的功耗3%是非常大的电力节省。液冷的技术也可以降低PUE。管理,现在的OCP组织有OpenBMC/RMC,可以实现服务器和设备的管理,还有自动化运维的软件。种种开源的技术都可以满足现在我们讲的超大规模的数据中心,降低能效,降低TCO的需求。

本文暂无评论,快来抢沙发!

热门问答
云萌主 云萌主-BIGSAAS旗下,由北京合智互联信息技术有限公司在2018年创立,为广大云应用技术爱好者的平台。在云萌主论坛可以查看云应用技术文章、云产品产品最新资讯、技术问答、技术视频。在畅游云上技术的同时,学到最新的云应用产品和技术。
  • 微信公众号

  • Powered by Discuz! X3.4 | Licensed | Copyright © 2001-2022, Aliyun Cloud. | 星点互联设计
  • 京ICP备18052714号 | 营业执照 | |合智互联| QQ