未来数据中心网络三大武器: SDN、VDC、Overlay

简介:

当然这些新技术之所以被提出来,并得到很多人的响应和热捧,是因为随着应用的复杂化,人们信息需求不断增加,现有数据中心出现了不少自身无法解决的问题,必须要对现有数据中心进行优化或重建,尤其是数据中心网络要重建。在这样的背景下,催生了很多数据中心网络新技术,这里不乏有一些不切合实际的技术,也有不少只是实验室技术,根本无法实际应用,但是正是有了这些技术探索,逐渐抛弃了一些不合理的,再对合理的不断进行修改,到目前为止可以基本形成一套成熟理论,这套理论基本是未来数据中心网络的样子。未来的数据中心网络包括三大件:SDN、Overlay无状态网络、vDC虚拟私有数据中心。这三大件的核心理念都是围绕着软件、自动化管理,大规模设计的,将人从繁琐的配置中解脱出来,让数据中心网络可以部署更大规模,下面就来好好说一说这三大件。

SDN最早为人们所熟知,即软件定义网络。核心理念是将网络功能和业务处理功能与网络设备硬件解耦,变成抽象化的功能,再通过外置的控制器来控制这 些抽象化对象。通过把传统网络的紧耦合架构拆分为应用、控制、转发三层分离的架构,网络将不再成为制约业务上线和云效率的瓶颈,而是在完成数据传输任务的同时,也能变得和虚拟化后的计算、存储资源一样,成为一种可灵活调配的资源。在数据中心里,网络技术是最为封闭的一部分,这导致长时间以来网络成为数据中心发展的瓶颈,网络部分的投资也占据了数据中心总投资的很大一部分。SDN的到来就是要打破这种网络的封闭性,让网络走向开放。

SDN包含控制器和openflow两大部分,控制器是一个软件,可以对整个网络设备进行管理和控制,管理包括下发转发表项,控制包括对所有网络设 备运行状态进行监控。Openflow是控制器与网络设备之间互通的语言,控制器通过Openflow对所有网络设备进行转发表项下发,设备管理。长久以来,人们都希望将数据中心能变成一种更为灵活、便捷、按需索取的资源,通过部署SDN就可以把“软件”从“硬件”平台中解放出来,实现了人们的愿望。

Overlay无状态网络技术也是未来数据中心的重要组成部分。Overlay是叠加的意思,即通过在现有网络上叠加一个软件定义的逻辑网络,原有网络尽量不做改造,通过定义其上的逻辑网络,实现业务逻辑,从而解决原有数据中心的网络问题,极大的节省传统用户投资。Overlay是一种将(业务的) 二层网络构架在(传统网络的)三层/四层报文中进行传递的网络技术。这样的技术实际上就是一种隧道封装技术。其实在网络技术里已经有了不少的封装技术,比如MPLS、VPLS、GRE等等。

Overlay最为关键的是要实现无状态网络,即在多个数据中心之间互访,虚拟机迁移都可以无感知地进行。对于上层应用业务无告知,也许一种业务是多个数据中心同时多个虚拟机提供的,这个在Overlay网络里再正常不过了。Overlay目前包含有三大标准技术,其中当属VXlan技术最受关注,VXlan是思科和VMware共同提出来的,自从被提出来就广受关注。从封装的结构上来看,VXlan提供了将二层网络overlay在三层网络上 的能力,VXlan Header中的VNI有24个bit,数量远远大于4096,并且UDP的封装可以穿越三层网络,比VLAN有更好的扩展性。在数据中心里,Overlay提供了一种解决数据平面转发和多租户隔离的技术手段,而之前说到的SDN,是定义了一种控制和管理的网络架构。两者在未来数据中心里作用并不冲突,而且VXlan技术还是SDN部署的必要条件,只有部署了VXlan才能上SDN,两者可以有机地结合,共同发挥作用。

未来的数据中心有了SDN和Overlay,是不是就够了?当然不够。还有一个重要的组成部分,那就是vDC虚拟私有数据中心。vDC虚拟私有数据中心其实包含很多内容,安全的虚拟化,服务器的虚拟化以及网络的虚拟化,对数据中心全面做虚拟化。vDC虚拟私有数据中心网络部分的典型技术目前是 VMware的Neutron网络技术。Neutron目的是为 OpenStack 云更灵活地划分物理网络,在多租户环境下提供给每个租户独立的网络环境。另外,Neutron 提供 API 来实现这种目标。Neutron 中用户可以创建自己的网络对象,如果要和物理环境下的概念映射的话,这个网络对象相当于一个巨大的交换机,可以拥有无限多个动态可创建和销毁的虚拟端口。 Neutron是一个站在SDN之上的,提供接近应用层的网络虚拟,偏应用层的技术,是SDN的有效补充。SDN实现的是三层以下的虚拟化,而vDC网络关注的是四到七层的虚拟化。

上面讲述的三大件将是未来数据中心网络的主要特征,未来的数据中心网络离不开这三大件。当然,目前数据中心网络还相差的比较远,我们甚至找不到一个完成部署一项技术的数据中心。一方面人们认识和接受这些新技术需要一段很长的时间,另一方面是这三大技术也有不少的缺陷,还需要不断优化,以便可以尽快实用,不要成为实验室展品。也许要达到三大技术全部部署还要很长的时间,但是这个大趋势已经不可逆转,让我们一起期待那一天的到来。

本文转自d1net(转载)

相关文章
|
6月前
|
Cloud Native 网络安全 数据安全/隐私保护
【云原生】Docker网络Overlay搭建Consul实现跨主机通信
【云原生】Docker网络Overlay搭建Consul实现跨主机通信
158 0
|
1月前
|
存储 运维 安全
SDN 网络编排与服务
【2月更文挑战第30天】网络编排是基于业务需求,对逻辑网络服务进行有序组织和安排,通过控制器构建满足需求的网络服务。
|
2月前
|
存储 并行计算 网络协议
|
4月前
|
网络协议 网络性能优化 SDN
【网络层】流量控制VS拥塞控制、路由器功能、SDN控制平面
【网络层】流量控制VS拥塞控制、路由器功能、SDN控制平面
49 0
|
6月前
|
Cloud Native Linux 虚拟化
【云原生】Docker跨主机网络Overlay与Macvlan的区别
【云原生】Docker跨主机网络Overlay与Macvlan的区别
93 0
|
7月前
|
负载均衡 网络安全 数据中心
联盟时代V.跨数据中心L3网络
通过NSX Federation解决方案,用户可以轻松地实现业务网络的跨数据中心延伸,这提供了工作负载跨数据中心部署和迁移的可行性。NSX微分段能提供工作负载跨数据中心一致的安全防护,对于工作负载(虚拟机\容器\裸金属)来说,NSX构建的虚拟云网络是一个庞大可靠的网络资源池。在上次分享中,笔者分享了Federation架构下,跨数据中心L2网络的实现过程和基本原理。今天笔者将继续往前推进,说一说跨数据中心L3网络的实现。这其中涉及到东西向的分布式路由以及连接NSX网络与物理网络的静态\动态路由。现在,就让我们开始吧!
|
7月前
|
运维 容灾 数据中心
联盟时代IV.跨数据中心L2网络
对于诸如两地三中心、多云容灾等命题来说,NSX是非常优秀的解决方案之一;实现上述命题的关键钥匙在于L2网络的跨数据中心延伸。就NSX解决方案本身来说,其构建的虚拟云网络能让用户在部署工作负载时,不必局限于地点,也不必拘束于网络限制,且能让工作负载在多数据中心之间实现无缝地迁移。 今天的分享主要说说分段Segment在Federation架构下的跨数据中心延伸的实现。
|
10月前
|
存储 智能网卡 API
智能网卡在分布式 SDN 网络的应用与实践 | 龙蜥技术
智能网卡加速原理和以及在浪潮分布式 SDN 网络加速的应用。
|
11月前
|
SDN 网络虚拟化 人工智能
带你读《智慧光网络:关键技术、应用实践和未来演进》——2.9.6 光接入网SDN/NFV
带你读《智慧光网络:关键技术、应用实践和未来演进》——2.9.6 光接入网SDN/NFV
|
11月前
|
网络协议 网络虚拟化 数据中心
「数据中心」脊叶网络架构:Cisco VXLAN MP-BGP EVPN脊叶网络
「数据中心」脊叶网络架构:Cisco VXLAN MP-BGP EVPN脊叶网络