数据中心向100G进发分析。
大数据似乎已经成为了提升和管理数据中心网络过程中所面临的主要问题。海量数据意味着更多的流量,而这正在成为网络管理员越来越头疼的问题。事实上,来自各方面的压力正在促使网络由过去的10G向40G、100G甚至更高的带宽进发。
Silicon Angle的Mike Wheatley认为闪存就是一个最好的例子。应对数据延迟和SAN瓶颈的解决方案仅仅是将这一问题踢给了LAN。虽然存储农场(storage farm)表示他们能够以知识型员工所需的速度提供服务,但是这种情况不会持续很长时间,因为10 Gbps网络将会被视为阻碍数据生产效率最大障碍。当然 SDN[注](软件定义网络[注])可通过提供更高灵活性帮助缓解这一问题,但是它们最终也会成为负担,届时其所产生的数据负载将会远远超过人类所产生的流量,并且其中会有大量的机器对机器交互数据。
随着云在当前的业务环境中变得越来越流行,人们希望企业数据中心之外的相关性能也能够得到稳步提升。请记住,数据基础设施并不是云服务提供商的成本中心而是他们的战略资产,因此不同规模的服务提供商将会对他们的数据能力进行持续而稳定的投资,这其中包括网络。许多云服务提供商已经在尝试大范围地提供100 Gbps服务。不难想象,这些提供商会率先将这些服务拓展至数据中心。这意味着用户不久就能够从位于云端的远程资源那些获得比本地数据中心更高的性能。原因在于本地数据中心受到了10 Gbps甚至更低网络速率的限制。
幸运的是,尽管会遇到一些困难,但是升级至100G并不再像以前那样复杂。如今已经出现了大量工具,这些工具能够确保额外的吞吐量只被那些真正需要的流量使用。例如,Napatech已经推出了一款名为NT100E3-1-PTP的全新100G网络加速器。该工具提供了实时流量分析和快速加速功能,并且只需占用少量的CPU性能。此外,该单端口设备符合PCI-SIG规范,可提供100 Gbps无损带宽。由于支持纳秒级标间标记处理和PTP等多时间同步方案,因此可以将高速率高性能流量无缝整合至整个数据环境当中。
此外,高速网络也已经不再像以前那样会对机房调整带来影响。如Tripp Lite的N482系列等与光纤配套的全新高密度接线板可有效减少40G和100G网络所需的输出端线缆(+微信关注网络世界),以及为满足多种数据速率而配备的支架与连接器数量。N482设计了一个模式化的即插即用盒子,允许高带宽连接被固定在负责中转机架流量的单点上。随着数据负载的增加,用户可通过插入其它盒子进行扩容,而无需再接入多条线缆。
很明显,向高带宽网络扩展需要付出成本,因此在本地处理这些流量是否值得将由企业根据自身实际情况决定。正如我所提到的那样,云服务提供商极可能会提供端对端40/100G服务。对于企业首席信息官[注]来说,他们必须要在是创建自己的高速基础设施还是向服务提供商购买相关服务之间做出决定。
延伸阅读:数据中心建设向二三线城市延伸
市场规模960亿:数据中心的无奈几人知