边界路由器如何实现网络负载均衡

本文涉及的产品
公网NAT网关,每月750个小时 15CU
简介:
  “边界路由器如何实现网络负载均衡”这个论点,我们必须需要了解涉及 NAT 、边界路由器、网络负载均衡这个论点的几个相关知识点。
 
  网络地址转换( NAT )的主要目的是解决 IP 地址短缺,以及实现 TCP 负载均衡,在图  -1 所示的设计方案中,与 Internet  连接的路由器采用网络地址转换,根据路由器的 NAT 表和图  -2 中给出的网络结构、 IP 地址,阐述主机 B 向内部网络发出请求进行通信时,“边界路由器如何实现网络负载均衡”这个论点的过程。 NAT 就是在局域网内部网络中使用内部地址,内部节点要与外部网络进行通信时,就在网关处,将内部地址替换成公用地址,从而在外部公网( Internet )上正常使用, NAT 可以使多台计算机共享 Internet 连接,这一功能很好的解决了公共 IP 地址紧缺的问题。通过这种方法,只要申请一个合法的 IP  地址,就可把整个局域网中的计算机接入 Internet 中。这时, NAT 屏蔽了内部网络,所有的内部网计算机对于公网来说是不可见的,而内部网计算机用户通常不会意识到 NAT 的存在。全局地址是指合法的 IP 地址,它是由 ISP (网络服务提供商)分配的公网地址,对外代表一个或多个内部局部地址,是全球统一的可寻址的地址。
 
  边界路由器是 网络边界的边缘或末点的路由器,提供了对外界网络的基本的安全保护,或者从缺乏网络控制的区域进入到专用网络区域。 一般来说,大多数网络都有一个主要的接入点。这就是通常与专用防火墙一起使用的 边界路由器 。边界路由器是连接内部局域网和外部 Internet 的关键路由。作为内外网络之间的桥梁,它的安全运行关系到整个局域网的命运。因为直接与 Internet 连接,边界路由器首当其冲是黑客攻击的重点。基于此,边界路由器理应成为网络管理者重点维护的对象。
 
  负载均衡最初的基本设计思想是一台普通服务器的处理能力只能达到每秒几万个到几十万个请求,无法在一秒钟内处理上百万个甚至更多的请求。但若能将多台这样的服务器组成一个系统,并通过软件技术将所有请求平均分配给所有服务器,那么这个系统就完全拥有每秒钟处理几百万个甚至更多请求的能力。当网络负载均衡中的一台或几台服务器不可用时,服务不会中断。网络负载均衡自动检测到服务器不可用时,能够迅速在剩余的服务器中重新指派客户机通讯。这项保护措施能够帮助你为关键的业务程序提供不中断的服务,并可以根据网络访问量的增加来相应地增加网络负载均衡服务器的数量; “负载均衡”概念运用在网络上,简单来说是利用多个网络设备通道均衡分担流量。就像是寺庙一天要挑 10 桶水, 1 个尚必需要走 10 趟,但同时指派 10 个和尚却只要一趟即可完成工作的道理一样。负载均衡可运用多个网络设备同时工作,达成加速网络信息的处理能力,进而优化网络设备的性能,取代设备必须不停升级或淘汰的命运。目前普遍被运用在网络设备中,如服务器、路由器、交换机等。 由于 NAT 比较接近网络的低层,因此就可以将它集成在硬件设备中,通常这样的硬件设备是第四层交换机和专用负载均衡器,第四层交换机的一项重要功能就是 NAT 负载均衡。
 
  根据图 -1、-2 简单阐述下边缘路由器实现网络负载均衡的过程,直观的感受下我们对于上面所涉及相关知识点的理解。这里没有涉及到相关配置,那就根据这个论点简单描述下相关工作原理。
 
图 -1
 
 
图-2
 
 
  1、   外部主机 B 172.20.7.3 )发出请求,建立 B 到虚拟主机( 10.1.1.127 )的连接。
 
  2、   边界路由器接到这个连接请求后,查询 NAT 表,建立一个新的地址转换映射。如:为 10.1.1.127 分配真实主机地址 10.1.1.1
 
  3、   边界路由器用所选真实地址替换目的地址,转发该数据包。内部主机 10.1.1.1 接收到该数据包,并做应答。
 
  4、   边界路由器接到应答包后,根据内部地址及端口号和外部地址及端口号,从 NAT 映射表中查找对应的内部虚拟主机地址及端口号。
 
  5、   将源地址转换为虚拟主机地址,并转发应答包 ;B 接收到源地址为 10.1.1.127 的应答包。
 将源地址转换为虚拟主机地址,并转发应答包;B接收到源地址为10.1.1.127的应答包。
6、  下一个请求时,边界路由器为其分配下一个内部局部地址,如 10.1.1.2
 
 
     由于涉及好多理论性的东西,不好理解和把握,其实在实际的配置中比较一目了然,了解了相关工作原理及其涉及的相关知识点,对于负载均衡也有了一定的了解,那在企业的实际运用中就可以通过硬件或软件技术来实现网络负载均衡了。
  
   

本文转自jiangxuezhi2009 51CTO博客,原文链接:http://blog.51cto.com/jiangxuezhi/330262 ,如需转载请自行联系原作者

 
相关实践学习
部署高可用架构
本场景主要介绍如何使用云服务器ECS、负载均衡SLB、云数据库RDS和数据传输服务产品来部署多可用区高可用架构。
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
相关文章
|
17天前
|
负载均衡 算法 应用服务中间件
面试题:Nginx有哪些负载均衡算法?Nginx位于七层网络结构中的哪一层?
字节跳动面试题:Nginx有哪些负载均衡算法?Nginx位于七层网络结构中的哪一层?
32 0
|
5月前
|
负载均衡 算法 5G
m基于5G通信的超密集网络多连接负载均衡和资源分配算法matlab仿真
m基于5G通信的超密集网络多连接负载均衡和资源分配算法matlab仿真
107 4
|
6月前
|
负载均衡 应用服务中间件 Linux
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
企业实战(13)LVS负载均衡NAT(网络地址转换)模式实战详解(一)
|
7月前
|
负载均衡 算法 云计算
深入理解负载均衡:优化你的网络性能
在今天的数字时代,网络性能和可用性对于任何企业或组织都至关重要。负载均衡是一个关键的网络架构组件,可以帮助分散流量、提高可靠性和确保系统的高可用性。本文将深入探讨负载均衡的概念、工作原理以及在现代网络中的应用。
|
11月前
|
弹性计算 运维 负载均衡
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(上)-产品和架构(1)
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(上)-产品和架构(1)
207 0
|
11月前
|
弹性计算 运维 负载均衡
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(上)-产品和架构(2)
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(上)-产品和架构(2)
145 0
|
11月前
|
tengine 弹性计算 运维
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(上)-产品和架构(3)
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(上)-产品和架构(3)
156 0
|
11月前
|
弹性计算 运维 负载均衡
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(上)-产品和架构(4)
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(上)-产品和架构(4)
153 0
|
11月前
|
运维 负载均衡 调度
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(上)-产品和架构(5)
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(上)-产品和架构(5)
117 0
|
11月前
|
域名解析 运维 负载均衡
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(中)-最佳实践(1)
《企业运维之云上网络原理与实践》——第二章 负载均衡 CLB——负载均衡CLB(中)-最佳实践(1)
197 0