今天演讲主要分为三大部分:
第一部分是数据中心传输介质的发展。
第二,IDC布线应用技术发展。
第三,IDC布线相关案例。
我们说布线系统是IDC网络里面的神经,掌握着所有数据传输的载体。我们布线系统主要是连接IDC里面的相关服务器、存储和Servers,通常采用光纤、统揽来产生连接系统。
网络技术的发展与介质技术的发展是同步进行的,支撑着网络高一等级的传输发展。最初很多是采用OM1或者OM2来做的,目前来讲,IDC建设当中更多会采用10G作为主干,我们做了很多类似的机房,用的都是PC服务器。PC服务器网络网络短还是采用统揽。进一步演进包括布线技术的进一步发展,很多都是采用40G和100G做传输,主要是多模光纤。
大家可以看看对于布线行业里面相关的国际标准,和北美、欧洲的相关标准,数据中心对介质是有定义的。我们讲数据中心的进一步发展,比较重要的角色是多模光纤,在光纤里面占了80%的成分。
目前已经有部分开始采用OM光纤,绿色的条状,距离都是不一样的,OM2和OM3比较占有优势,采用激光传输。
我们刚才提到的单模光纤,我们可以看一个图,在下一代网络,40G的传输应用上面看,首先看成本的比较。往往某一种技术不是技术先进得到的应用越来广泛,往往是性价比越高的时候,应用会更加广泛一些。我们可以看到成本的显示,如果在40G的传输状态下,单模光纤的整体成本大概是多模光纤的3倍,所以下一代网络多模光纤会越来越多的产生应用。
我们再看100G状况下的图。单模和多模的成本比较会更加的明显,多模只有1/10的单模成本,当然包括网络设备,布线成本。多模整个成本会非常低,所以下一代网络的多模布线系统会越来越得到广泛的应用。
可能有一些在座的朋友认为40G、100G的问题,现在谈还时为尚早。我们有一个美国第三方机构,2011年开始有很多用户采用40G的部分,当然,大规模的应用可能会在2015年以后。作为网络的布线系统,部署时间要支撑至少10-15年,这个问题跟刚才ABB产生的问题是一样的,布线不可能那么高频率的更换,所以布线系统要比现有实际应用更加先进一些,要具备一定的超前性,才能满足网络支撑这么久的发展。
接下来给大家讲讲在IDC的布线系统里有什么样的产品和技术在发展。
对下一代数据中心的布线技术来说,有四个方面是非常关键的。今天早上听到很多云计算部分的介绍,从介质层面,从布线系统层面同样也面临着这样的问题、绿色、高效、高可靠、高可管理性,是对数据中心的要求,布线系统也有相应的解决方案。
首先,我们来看绿色,大家都知道在数据中心里面,能耗占有最大比重的就是制冷,可能会占有30-50%的能源消耗。布线是不会产生能耗的,我们从布线系统来讲,更多的是关注把冷却的利用率来思考问题。
我们来比较一下光纤和铜缆在传输带宽时候,会产生的端口能耗。红色的是10G铜缆的传输技术,光纤这部分是SFP的技术,每个端口是1.5瓦左右,如果从节能角度讲,光纤的应用是非常有优势的。
从我们的布线通道来讲,目前来讲还有一部分,很多老的机房,我们看到是从地板下走的弱电电缆。可以看这个图,整个地板的铜缆,这么大的空间占用率,如果空调在地板下送风的话,会产生很多的阻碍,所以从这个方面来讲,光纤在数据中心的应用也是比较好的发展趋势。除了带宽以外,对绿色也做了部分贡献。
如果还是采用铜缆,因为很多PC服务器都是采用铜缆的方式来传输的,如果比较单位流量的能耗情况,如果采用10G和1000G,如果1G的端口和10G的端口产生同样流量的话,10G的消耗能源只有1G的1/4。新一代的数据中心来讲,我们更建议用户采用上走线的方式来做,这样有利于空调制冷更加通常一些。
如果从布线的路由来思考能源的节约,可以节约3-5%的电,是比较可观的数字。
早上我们听到了有嘉宾提到机柜的部分,作为布线的厂家,在机柜里面也有相应的措施。从目前来讲,更多的标准是采用冷热通道分割的方法,可以对能耗起到很大的作用,把热通道和冷通道进行隔离。
采用垂直排风系统的机柜,热空气直接从上面抽,就是冷通道,把热和冷通道隔开。我们可以看计算机模拟的分析温度,左边这个是冷热通道隔离的时候,在处理不当的情况下,温度有过热的现象。如果采用绝对隔离垂直排风的机柜,空间就是冷通道,这样对能源,对服务器,都会起到比较好的作用。如果做得好,可以节约空调制冷的20-25%,这是很大的改善。
数据中心除了绿色以外,还有高效,体现在什么地方?首先数据中心部署速度要快,新一代的数据中心都会采用预留光纤的技术。根据统计,同等条件下相比统计熔纤方式预连接系统可以节约80%的部署时间。
大家可以看到这样这个图,采用高密度的连接器,布线系统的密度会越来越高,大部分会采用MTP的连接器,比传统的铜缆传播速度还要快。
采用这种方式来支持数据中心的主干来讲有它的道路,在下一代网络40G/100G的时候会采用这种连接器,才能支持下一代40G/100G的网络。
在一个MTP头里面,组成4G机的传输通道,才能负荷40G/100G的网络(PPT)。
IDC布线的高效,除了这块之外,还要考虑升级,不希望经常变动,当网络升级的时候,采用这样的方式可以很快的升级到40G/100G,可以支持下一代的40G/100G的网络。
从铜缆来讲,刚才也提到很多的PC服务器的端口还是采用铜缆,我们在欧洲的话,很多用户会采用这样的方式,欧洲的人工成本会贵一些,在中国目前还是采用现场打线的方式来做。作为一个高效的IDC的部署,同时也是可以考虑这种铜缆的系统。
新一代数据中心的网络规模越来越大,可靠性也面临着非常大的问题。以罗森伯格为代表的布线行业里面,对IDC方面也做了很多新的改善和尝试。大家都知道IDC管理的核心,主要是跳线上面,日常的管理和维护都是在跳线上面。管理跳线的时候,有的时候会产生一些问题。新一代的数据中心可以推出弯曲不敏感的光纤,半径7.5mm,变化可能只有零点零几。对于整个系统可靠性的考量,也是可以提升下一代网络可能性非常重要的因素。
主干系统刚才也提到,在运输、安装、测试的过程当中,都不会对它的停止产生任何问题,大大提高了IDC建设过程当中的可靠性。这个图是采用预连接光缆,两端是保护的管子。
细节方面可以看到,以罗森伯格公司来说,每个端口都用防尘盖,时间长了也不容易腐蚀,从可靠性的角度上讲也是做出了一定的贡献。
下一代网络,数据中心规模越大的时候,管理也是比较头疼的问题。新一代网络可以采用软件化的方式管理布线系统,可以对现有的系统,把数据导入里面去,进行可视化的管理。
每个机柜的端口的状况和调减的状况都可以输进去,如果部署的硬件是采用罗森伯格电子配件的时候,你可以不买我的硬件,可以采用现有的普通软件来管理,当要升级的时候,就可以直接升级到智能配件系统,这样数据库就可以不用重新维护了,以后可以考虑这些方式。
因为时间非常的有限,我可能讲得比较快一些。下面跟大家分享罗森伯格做的实际案例。
罗森伯格是一个德国的企业,1995年的时候在欧洲就有数据中心这个概念,国内还没有这个概念,下来举一些例子给大家看一下。
这个LOGO大家不会陌生,是中石油的数据中心,整个大厦是1000多个机柜的规模,布线系统采用的是罗森伯格的布线系统。
这是我们特殊的产品,可以直接装到桥架上面,当你设备没有到位的时候,我可以把这个线布好,当设备到位的时候,可以直接把线放到机柜里面就可以了,这样对整体规划有比较大的帮助。这是一个列头和配线柜的部分。
中国建设银行,北京和上海总行数据中心里面,很大一部分都是采用罗森伯格的系统,大的银行都采用大型的服务器,每年都会有扩容的需求。
这是一些IBM服务器内部的结构,IBM公司跟罗森伯格在欧洲签了全球战略合作伙伴协议,所以IBM采用了罗森伯格相关的配件产品。
这是工商银行上海数据中心,也是采用了类似于建行的设备。
这是SAM导向器。
这是建行的灾备中心。
这是新浪在广州、北京、天津三地的数据中心。在互联网的企业,很多都是采用PC服务器的机构。
这是百度北京数据中心,可以简单看一下。
这是主配件区域,一个是正面,一个是背后。
这是太平人寿的数据中心。
这是主配线区和设备配线区域。
中国科技馆就在鸟巢旁边,中国科技馆也有一个数据中心,这个数据心也是罗森伯格在2009年下半年完成的项目。
还有省级的银行数据中心,大家可以做一些参考。
罗森伯格是一个欧洲的企业,参与了很多国际标准,特别是欧洲和ISO的标准,在数据中心里有15年的布线经验。我们可以给客户提供布线系统的方案和前期咨询。
在中国,北京和上海各有一个研发中心,和德国总部时刻保持着联系,我们可以给客户提供定制化的服务,如果大家有需要的时候,可以和罗森伯格取得联系,我们会给大家比较专业的服务。
时间有限,今天就讲到这里,谢谢大家!
责任编辑:Mary