未来3年内25G将成数据中心主流网络

简介:

日前,“2016ODCC开放数据中心峰会”在京隆重举行,就数据中心的发展现状、未来趋势进行了深入研讨。会中,Mellanox(迈络思)公司亚太及中国区市场开发高级总监刘通接受了记者专访,分享了他们对数据中心网络建设的认识和成果。

高速和开放已成市场普遍需求

云计算和大数据技术的不断成熟直接带动了云数据中心的兴起。与传统数据中心相比,云数据中心要求有更灵活的机制来进行管理网络,从而对硬件和软件都提出了更多需求。“更高速、更开放已经成为市场的普遍要求。”刘通指出。

用户终端数据流量和数据处理能力的提升将压力全部集中到了数据中心。为了实现对应用的良好支持,数据中心对内部网络速度的需求已经严重超过了行业预期。“去年,大多数人谈论的还是万兆,认为未来两到三年都够用了。而今年,大家热议的网络话题已经转移到了25G”。随着应用的快速发展,数据中心建设者对网络速度的关注度正不断提升。

同时,SDN技术在建立在网络软硬件解耦的基础上,继而对硬件层面的接口开放提出了要求。硬件接口不开放,所谓的软硬件解耦也只会在某种程度上沦为一个宣传口号,难以避免传统网络在部署时遇到的“割裂”问题。“要实现软硬件的完全隔离,网络厂商的硬件设备必须要在支持SDN的基础上做得更加开放”。

技术前瞻,构建核心竞争优势

相对于其他网络企业,高速和开放正是Mellanox的突出优势所在。Mellanox自成立之初就致力于提供高速的网络产品和解决方案。“99年Mellanox成立时,数据中心网络的普遍带宽只有百兆,而当时我们研发的InfiniBand已经可以实现万兆,比当时的主流网速快一百倍。”刘通介绍称。

以太网的演进路线在上个世纪发展缓慢,并存在诸多弊端,不能支撑对网络带宽有更高要求的应用场景。由Mellanox联合业界领袖创立的InfiniBand技术通过全新架构设计实现SDN的管理方式,同时优化协议传输机制如kernel bypass和 CPU bypass,通过RDMA技术让网络处理绕过内核和CPU,实现了传输点之间的“直连”,从而使网速得到明显提升,同时下降CPU消耗。“到2008年,Mellanox开始借鉴在InfiniBand领域积累的技术和经验拓展以太网市场,并始终保持着相对于主流网速一到两年的领先优势。”

Mellanox一直引领着数据中心网络速度的发展路线图,是首家做出25G、40G、50G、100G端到端以太网产品的企业。Mellanox在技术方面的前瞻性使其在大型网络2.0公司和大型云计算公司中占有相当高的市场份额。据统计,Mellanox在4万兆以太网的市场占有率已经达到95以上%。

而在硬件的开放方面,Mellanox也是绝对的领导者。“Mellanox是业界首家倡导开放以太网交换机的公司。”刘通称,“我们交换机通过开放API接口支持OpenDaylight、ONOS等主流的第三方SDN控制器。我们希望给用户和合作伙伴最大的空间开发来自己的网络管理软件或采用第三方网络管理软件”。

25G提前到来,400G不是梦想

从目前的数据中心发展来看,万兆网络仍是应用主流。但这一市场状况有可能在较短的时间内实现转变。“25G以太网的发展速度和被客户接受的速度比预想的快很多,25G、50G、100G以太网已经成为未来数据中心网络架构的主流发展方向”刘通指出,“普通网络2.0数据中心对服务器端的网络速度要求已经达到25G,如果有深度学习的需求,有大量数据处理、高速存储的需求,100G 才能满足”。

事实上,早在 2014年迈络思就联合微软、谷歌等公司创立了25G以太网联盟来推动25G以太网的规范制定。目前,25G已经成为被工业标准完全接受的行业规范。“未来3年内,25G将成为数据中心的主流网络,同时当下最快的100G网络也会快速提升至200G甚至达到400G。”刘通预测称。

面向未来,智能化将成为网络演进的主要方向。Mellanox ConnectX系列以太网网卡具备强大的虚拟化加速能力和数据处理卸载能力。“不同类型的应用对网络硬件的需求不同。比如要通过普通数据中心的网络架构和设备实现对NFV专有设备的替代,满足NFV对性能和稳定性的高要求,就必须在网络设备的创新方面下大功夫。”刘通指出,“网络硬件不仅要关注网络基本速度指标的提升,更要关注网络处理能力的提升。未来的网卡将会进一步提升智能化能力,成为协处理器,卸载由CPU承担的通讯及数据处理工作,大幅提升数据中心整体运行能力,提高投资回报率。”

对于网络速率和智能化的预测,刘通信心十足:“我相信这些预测一定能够实现,甚至比我预期的时间还要快”。

本文转自d1net(转载)

相关文章
|
3月前
|
存储 并行计算 网络协议
|
8月前
|
负载均衡 网络安全 数据中心
联盟时代V.跨数据中心L3网络
通过NSX Federation解决方案,用户可以轻松地实现业务网络的跨数据中心延伸,这提供了工作负载跨数据中心部署和迁移的可行性。NSX微分段能提供工作负载跨数据中心一致的安全防护,对于工作负载(虚拟机\容器\裸金属)来说,NSX构建的虚拟云网络是一个庞大可靠的网络资源池。在上次分享中,笔者分享了Federation架构下,跨数据中心L2网络的实现过程和基本原理。今天笔者将继续往前推进,说一说跨数据中心L3网络的实现。这其中涉及到东西向的分布式路由以及连接NSX网络与物理网络的静态\动态路由。现在,就让我们开始吧!
|
8月前
|
运维 容灾 数据中心
联盟时代IV.跨数据中心L2网络
对于诸如两地三中心、多云容灾等命题来说,NSX是非常优秀的解决方案之一;实现上述命题的关键钥匙在于L2网络的跨数据中心延伸。就NSX解决方案本身来说,其构建的虚拟云网络能让用户在部署工作负载时,不必局限于地点,也不必拘束于网络限制,且能让工作负载在多数据中心之间实现无缝地迁移。 今天的分享主要说说分段Segment在Federation架构下的跨数据中心延伸的实现。
|
12月前
|
网络协议 网络虚拟化 数据中心
「数据中心」脊叶网络架构:Cisco VXLAN MP-BGP EVPN脊叶网络
「数据中心」脊叶网络架构:Cisco VXLAN MP-BGP EVPN脊叶网络
|
12月前
|
网络虚拟化 数据中心 网络架构
「数据中心」网络架构脊页架构:Cisco VXLAN 泛滥学习 脊页网络
「数据中心」网络架构脊页架构:Cisco VXLAN 泛滥学习 脊页网络
|
12月前
|
网络协议 网络安全 网络虚拟化
「数据中心」数据中心脊页架构:思科FabricPath Spine和Leaf网络
「数据中心」数据中心脊页架构:思科FabricPath Spine和Leaf网络
|
12月前
|
Devops 网络安全 数据中心
「数据中心」Cisco数据中心脊页架构:覆盖(Overlay)网络
「数据中心」Cisco数据中心脊页架构:覆盖(Overlay)网络
|
10天前
|
网络协议 算法 Linux
【Linux】深入探索:Linux网络调试、追踪与优化
【Linux】深入探索:Linux网络调试、追踪与优化
|
4天前
|
Linux Shell 网络安全
网络安全中Dos和linux常用命令总结
本篇是对网安学习中,常用的命令做一个图文与命令示例,并对一些比较重要的dos和shell命令进行总结,方便自己后续学习进行查询,并希望能够给更多人有一个总结命令和了解命令的地方.
29 5
|
6天前
|
Ubuntu 网络协议 Linux