编辑推荐: |
本文首先对负载均衡和高可用的简单介绍 接着讲解了LVS的工作原理、LVS的四种工作模式介绍以及LVS的调度算法介绍等等相关。
来自于博客园,,由火龙果软件Anna编辑、推荐。 |
|
负载均衡和高可用的简单介绍
1.LB(LoadBalancer)负载均衡,或称为调度器 硬件:F5 Big-IP , Citrix(思杰) Netscaler 最常用,A10 软件:LVS(4层):根据套接字来负载均衡。 套接字=IP + 端口 Nginx(7层) :更适合http,smtp,pop3,imap的负载均衡 Haproxy(7层) :根据用户请求的内容来调度。 它支持4层和7层的负载均衡,其更适合http,tcp(如:mysql,smtp)
LB集群主要以提高并发能力为根本
LB的功能: 1. 监控主服务器的存活情况 2. 故障切换时,完成挂载存储,启动服务,抢占VIP
2. HA(HighAvailability) 高可用集群 在线时间/(在线时间 + 故障恢复时间) RHCS,heartbeat,pacemaker,rose(windows),PowerHA(AIX):目前这些使用都不多了。 主流是:Keepalived,目前官方也非常活跃,更新版本为2.x。
高可用指标:99%, 99.9%, 99.99%, 99.999%
#HA集群主要解决提高服务在线时间为根本
3. HPC(High-Performance Computing):高性能计算【HPC集群主要解决大任务计算的问题】 MapReduce 追踪任务完成的状态 Hadoop
LVS的工作原理:
LVS的两大组件: 用户空间: ipvsadm 内核空间: ipvs 当用户请求被网卡收到,该请求将最先来到PREROUTING链,接着进入INPUT链,当请求进入INPUT链后,ipvs将监听 到这个连接请求,并将该连接请求重定向到自己,接着根据内部调度规则进行匹配,若没有匹配到则将该请求原封不动的 转交给INPUT链,最终被INPUT链转发给监听在指定套接字(IP+Port)的应用程序。若匹配调度规则,则ipvs将修改该请求 的相关地址(NAT模型:修改VIP-->RIP; DR模型:修改目的MAC为RealSRV的MAC)后,重定向到POSTROUTING链上,最终 转发到后端的Real Server上。
使用LVS所需要的加载的几个重要内核模块:
- ip_vs
- ip_vs_rr
- ip_vs_wrr
- ip_vs_sh
- nf_conntrack_ipv4 # kernel < 4.19
- nf_conntrack # kernel >= 4.19 |
LVS的四种工作模式介绍: 1.Virtual server via NAT(VS-NAT) 优点:集群中的物理服务器可以使用任何支持TCP/IP操作系统,物理服务器可以分配Internet的 保留私有地址,只有负载均衡器需要一个合法的IP地址。 缺点:扩展性有限。当服务器节点(普通PC服务器)数据增长到20个或更多时,负载均衡器 将成为整个系统的瓶颈,因为所有的请求包和应答包都需要经过负载均衡器。假使TCP包的 平均长度是536字节的话,平均每个包重新构建,延迟时间大约为60us(在Pentium处理器上计算的, 采用更快的处理器将使得这个延迟时间变短),负载均衡器的最大容许能力为8.93M/s,假定每台 物理服务器的平台容许能力为400K/s来计算,负载均衡器能为22台物理服务器提供计算。
解决办法:即使是是负载均衡器成为整个系统的瓶颈,如果是这样也有两种方法来解决它。 一种是混合处理: 如果采用混合处理的方法,将需要许多同属单一的RR(DNS的资源记录)
DNS域。 另一种是采用Virtual Server via IP tunneling(即:Tunl模型)或Virtual
Server via direct routing(即:DR模型) : 若使用此方式可以获得更好的可扩展性;也可以嵌套使用负载均衡器,在最前端的是VS-Tunneling或 VS-DR的负载均衡器,然后后面采用VS-NAT的负载均衡器。
2.Virtual server via IP tunneling(VS-TUN) 我们发现,许多Internet服务(例如WEB服务器)的请求包很短小,而应答包通常很大。 优点:负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接发给用户。所以, 负载均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台的物理服务器服务, 负载均衡器不再是系统的瓶颈。使用VS-TUN方式,如果你的负载均衡器拥有100M的全双工网卡的话, 就能使得整个Virtual Server能达到1G的吞吐量。 缺点:但是,这种方式需要所有的服务器支持"IP Tunneling"(IP
Encapsulation)协议,我仅在Linux系统上 实现了这个,目前其它操作系统的支持还在探索之中。
3.Virtual Server via Direct Routing(VS-DR) 优点:和VS-TUN一样,负载均衡器也只是分发请求,应答包通过单独的路由方法返回给客户端。与VS-TUN相比, VS-DR这种实现方式不需要隧道结构,因此可以使用大多数操作系统做为物理服务器,其中包括: Linux、Solaris 、FreeBSD 、windows、IRIX 6.5;HPUX11等。 缺点:要求负载均衡器的网卡必须与物理网卡在一个物理段上。
4. LVS-FullNAT 通过同时修改请求报文的源IP地址和目标IP地址进行转发(CIP --> DIP, VIP
--> RIP ) 此模式在跨机房,跨多个不同网络时,FullNAT模式也可实现调度。 因为此时实际是将IP包的源和目标都修改了,就好象调度器直接去访问远端RealServer,远端RealServer只需要 按照自己本地路由,找到网关,将包回应给远端调度器,远端调度器再次将回应包,返回给用户。
(1) VIP是公网地址,RIP和DIP是私网地址,且通常不在同一IP网络;因此,RIP的网关一般不会指向DIP (2) RS收到的请求报文源地址是DIP,因此,只需响应给DIP;但Director还要将其发往Client (3) 请求和响应报文都经由Director (4) 支持端口映射 注意:此类型kernel默认不支持 此中使用场景较少,仅阿里云内部的SLB使用此种模式.
对上面三种IP负载均衡技术的优缺点比较:
杂项 |
VS/NAT |
VS/TUN |
VS/DR |
服务器操作系统 |
任意 |
支持隧道 |
多数(支持Non-arp
) |
服务器网络 |
私有网络 |
局域网/广域网 |
局域网 |
服务器数目(100M网络)
|
10-20 |
100 |
多(100) |
服务器网关 |
负载均衡器 |
自己的路由 |
自己的路由 |
效率 |
一般 |
高 |
最高 |
LVS的调度算法介绍: 1.轮叫调度(Round Robin)(简称rr) 不考虑RealServer实际连接数,系统负载,只是轮流给每个RealServer分配请求.
2.加权轮叫(Weighted Round Robin)(简称wrr) 根据实际RealServer的主机配置,将主机配置强的RealServer更大的权重,让调度器分配更多请求给它处理, 同时调度器可自动询问RealServer的负载请求,并动态调整其权重值.
3.最少链接(Least Connections)(LC) : 将新的链接请求分配到当前链接数最小的服务器上. 调度器需要记录每个Server已经建立链接的数目,当调度器给A调度一个请求,则将A的总链接数+1,当链接中止/超时, 则总链接-1。 缺陷: 1. Server性能相同:可平滑分发负载,但不能将长链接的请求发向同一Server. 2. Server性能不同:该算法并不理会。 因为TCP连接处理请求后会进入TIME_WAIT状态,TCP的TIME_WAIT一般为2分钟,此时连接还占用服务器的资源, 所以会出现这样情形,性能高的服务器已处理所收到的连接,连接处于TIME_WAIT状态,而性能低的服务器已经忙于 处理所收到的连接,还不断地收到新的连接请求。
4.加权最少链接(Weighted Least Connections)(WLC) 在集群系统中的服务器性能差异较大的情况下,调度器采用“加权最少链接”调度算法优化负载均衡性能,具有较高权值 的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
5.目标地址散列(Destination Hashing)(DH) “目标地址散列”调度算法根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器, 若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。 补充: 目标地址散列调度(Destination Hashing Scheduling)算法,是针对目标IP地址的负载均衡,它是一种静态映射算法, 通过一个散列函数将一个目标IP地址映射为一台服务器。 目标地址散列算法会先根据请求的目标IP,计算散列哈希(hash key),从静态分配的散列表找出对应的服务器, 若该服务器是可用且未超载,则将请求发给该服务器,否则返回空,重新调度。 哈希散列表可理解如下:
在此算法中,默认它使用256个哈希桶来将目标IP的哈希值前1个字节划分,平均分成256份,每一份 就是一个范围,这样我只要计算出目标IP的哈希值,马上就能确定它应该在那个桶中,然后定位到该桶, 这样在做小范围表扫描,速度就非常快。另外还需要注意:在此算法中它类似于一致性哈希算法, 它会事先将所有可用服务器均匀循环分布到每个桶中,更简单理解就是本来就是一张有256条记录的大表, 该表中事先将所有可用服务器全部顺序循环插入到每一行记录中,然后将这张大表拆分成多个小表, 并按前面的方法,将一个范围值作为进入该小表的条件,这样就可以最大限度均匀每一台服务器的负载。
6.源地址散列(Source Hashing)(SH) “源地址散列”调度算法根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器, 若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
7.基于局部性的最少链接(Locality-Based Least Connections)(LBLC) “基于局部性的最少链接”调度算法是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。该算法根据 请求的目标IP地址找出该目标IP地址最近使用的服务器,若该服务器是可用的且没有超载,将请求发送到该服务器; 若服务器不存在,或者该服务器超载且有服务器处于一半的工作负载,则用“最少链接” 的原则选出一个可用的服务器, 将请求发送到该服务器。
8.带复制的基于局部性最少链接(Locality-Based Least Connections
with Replication)(LBLCR)
“带复制的基于局部性最少链接”调度算法也是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。 它与LBLC算法的不同之处是它要维护从一个目标 IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP 地址到一台服务器的映射。该算法根据请求的目标IP地址找出该目标IP地址对应的服务器组,按“最小连接”原则 从服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器; 若所选服务器超载(超负载的标准是:该服务器正在处理的连接总数 > 其权重值的2倍),则按“最小连接”原则 从这个集群中选出一台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。同时,当该所选服务器组 有一段时间没有被修改过,则所选服务器加入新缓存复制组后,很可能导致复制流量大量增加,因此将最忙的服务器 从服务器组中删除,以降低复制流量的程度。 我的理解: 因为缓存的热点数据可能仅有20%是有效的,最繁忙的服务器缓存的数据量很大,但有效的经常被访问的热点 数据并不一定很多,因此总体考虑,该组中其它服务器上现有的缓存数据可应对一定量的请求,即便损失最繁忙的 服务器的数据也不会造成太大影响,但若留着它,新加入到节点,可能需要跟它同步缓存数据,将会导致更大的网络 带宽被占用,很可能导致整个组的不可用,因此宁愿损失一小部分缓存数据,也不能让整体不可用。 【注意: 以上理解不一定正确,仅供参考】
9. 最短的期望的延迟(Shortest Expected Delay Scheduling
SED)(SED) 基于wlc算法。这个必须举例来说了 ABC三台机器分别权重1,2,3 ,连接数也分别是1,2,3。那么如果使用WLC算法的话一个新请求进入时 它可能会分给ABC中的任意一个,使用sed算法后会进行这样一个运算 A:(1+1)/1 = 2 B:(1+2)/2 = 1.5 C:(1+3)/3 = 1.3334 根据运算结果,把连接交给C,因为C的处理延时最小 。
10.最少队列调度(Never Queue Scheduling NQ)(NQ) 无需队列。如果有台 realserver的连接数=0就直接分配过去,不需要在进行sed运算。
下面对三种模式做示例配置说明:
1. LVS-NAT模型:
简单的来说,LVS的NAT模型如下图:
本质是多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为通过调度算法挑出 的RS的RIP和PORT实现转发。
LVS-NAT模型: (1)RealServer和调度器应在同一个IP网络,且应使用私网地址;RealServer的网关要指向调度器的IP (2)调度器(Director)是RealServer的网关, 因此请求和响应报文都将由调度器转发,因此调度器容易成为系统瓶颈. (3)支持端口映射,可修改请求报文的目标PORT (4)LVS必须是Linux系统,RS可以是任意OS系统
上面拓扑图的配置如下: Client: 使用我的物理机,将默认网关指向ISP,当然使用VM也可以.
ISP:
ip addr add dev
eth0 192.168.10.254/24
ip addr add dev eth1 1.0.0.1/24
Systemctl stop firewalld #关闭firewalld,手动使用iptables来管理防火墙.
iptables -t nat -A POSTROUTING -s 192.168.10.0/24
!-d 192.168.10.0/24 -j MASQUERADE |
此实验中让Client可访问企业Web,也可用简单的方式: 在ISP和企业防火墙直接互相将默认网关指向对方.
企业FireWall:
ip addr add dev
eth0 1.0.0.2/24
ip addr add dev eth1 192.168.80.254/24
systemctl stop firewalld
iptables -t nat -A PREROUTING -d 1.0.0.2 -p tcp
--dport 80 -j DNAT --to-destination 192.168.80.10:80
echo "net.ipv4.ip_forward = 1" >>
/etc/sysctl.conf
sysctl -p |
Director LVS:
ip addr add dev
eth0 192.168.80.10/24
firewall-cmd --add-service=http --permanent ;
firewall-cmd --reload |
yum install -y
ipvsadm
ipvsadm -A -t 192.168.80.10:80 -s wrr
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.11:8080
-m -w 3
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.12:8080
-m -w 2
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.13:8080
-m |
ipvsadm -L -n (后来截的图,权重不符)
三台RealServer上只需配置IP,并安装httpd软件,然后启动即可. firewall-cmd --add-port=8080/tcp --permanent;
firewall-cmd --reload
在任意一台上查看httpd的日志:
可以看到CIP是ISP上的IP,即客户端的默认网关外网接口的IP.
2. LVS-DR模型
实验拓扑说明: 这个拓扑中必须有一个独立的网关,因为用户请求发来时,GW将请求发给VIP,而VIP只有调度器会响应, GW将请求发给调度器,【注意:调度器的VIP,尽量使用32位掩码,这非必须】,在DR模式下,调度器上与 GW连接的接口上有两个IP,一个是VIP(Virtual IP),一个是DIP(Director
IP); 当调度器收到来自GW的包后, 发现目标是VIP,并且访问的服务与自身定义的虚拟服务一样,接着调度器将数据包中的源MAC修改为自己的MAC, 而目的MAC的修改是 根据调度算法,选择一台Real Server后,将该Real Server的MAC填写在目的MAC上, 接着将包发给后端服务器,如此例为Real Server 1,RIP1收到后将解包发现其IP是本地loopback的接口IP,因此RIP1 继续解包,最终将包送给上层服务,如本例是Web服务;Web开始进行响应,最终封包时,将源MAC写为自己, 目的MAC写为GW,源IP写VIP,目的IP写Client IP,并发给GW出去响应。
(1)DIP, RIP 和 VIP : 可在同一网段,也可不在同一网段 ,但他们必须在同一个交换网络。 (2)Director(调度器)和RealServer他们的网关都必须指向真实网关(Firewall),并且都要配置VIP. (3)Director可以响应ARP查询VIP的MAC,但RealServer一律都不回应查询VIP的ARP请求.
以上拓扑图的配置如下:
Client: 将默认网关指向ISP
ISP:
ip addr add dev
eth0 192.168.10.254/24
ip addr add dev eth1 1.0.0.1/24
Systemctl stop firewalld #关闭firewalld,手动使用iptables来管理防火墙.
iptables -t nat -A POSTROUTING -s 192.168.10.0/24
!-d 192.168.10.0/24 -j MASQUERADE |
此实验中让Client可访问企业Web,也可用简单的方式: 在ISP和企业防火墙直接互相将默认网关指向对方.
企业FireWall:
ip addr add dev
eth0 1.0.0.2/24
ip addr add dev eth1 192.168.80.254/24
systemctl stop firewalld
iptables -t nat -A PREROUTING -d 1.0.0.2 -p tcp
--dport 80 -j DNAT --to-destination 192.168.80.10:80
echo "net.ipv4.ip_forward = 1" >>
/etc/sysctl.conf
sysctl -p |
Director LVS:
ip addr add dev
eth0 192.168.80.10/24
ip addr add dev lo 192.168.80.66/32
firewall-cmd --add-service=http --permanent ;
firewall-cmd --reload |
yum install -y
ipvsadm
ipvsadm -A -t 192.168.80.10:80 -s wrr
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.11:8080
-g -w 3
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.12:8080
-g -w 2
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.13:8080
-g |
三台RealServer:
ip addr add dev
eth0 192.168.80.11/24 #三台分别配置11,12,13
ip addr add dev lo 192.168.80.66/32 #不一定非要是32,可以是24.
#下面配置实际上是只允许lo接口收到与lo直接连接的接口发来的ARP请求时,
#才响应关于192.168.80.66的MAC响应.同时不在发生免费ARP做自问自答.
#向网络中宣告我要使用192.168.80.66这个IP了。
echo "net.ipv4.conf.all.arp_ignore = 1"
>> /etc/sysctl.conf
echo "net.ipv4.conf.all.arp_announce =
2" >> /etc/sysctl.conf
echo "net.ipv4.conf.lo.arp_ignore = 1"
>> /etc/sysctl.conf
echo "net.ipv4.conf.lo.arp_announce = 2"
>> /etc/sysctl.conf
sysctl -p
firewall-cmd --add-port =80/tcp --permanent;
firewall-cmd --reload |
查看通信过程的提示: 1. 在调度器或RealServer使用 tcpdump -i 接口 -n -nn port 80 -w director.cap #这样可捕获通信过程中的所有包,包括调度器收到的,转发给RealServer的, 以及RealServer发生给Firewall的. #若向单独查看调度器收到和发送的包,在RealServer上查看自己收到的包和发送的包可: tcpdump -i 接口 -n -nn -p port 80 #-p : 仅捕获发给自己的包,非自己的不要.
2. 在Firewall上查看所有的MAC ip addr show dev eth1 |grep link/ether ip neigh
3. 使用Wireshare查看时,通过添加自定义列来查看MAC的变化
3. LVS Tunnel模式 拓扑:
LVS Tunnel模式配置要点: (1) LVS调度节点、RealServer节点、VIP都必须是公网IP (2) LVS调度节点、RealServer节点都必须配置VIP (3) 调度节点 与 RS间必须打通一条隧道 (4) 客户端请求发往调度节点,调度节点通过隧道将请求报文封装起来发给RS, RS在隧道另一端去掉GRE封装,发现是去往VIP的,随即转给tunl0处理,最终Tunl0 将响应报文从RS的默认路由发出。 (5) 调度节点要在所有设备上启用 只接收网关发送的ICMP的重定向报文。 (6) 调度节点 和 RS上都必须关闭路由转发(ip_forward), RS上关闭ARP响应和返回路径过滤 (即:源是A口,要从B口出,B口不丢该包).
LVS Tunnel环境搭建
(1) 路由器模拟:
echo 1 > /proc/sys/net/ipv4/ip_forward
ifconfig eth0 20.0.0.254/24 up
ifconfig eth1 30.0.0.254/24 up
ifconfig eth2 40.0.0.254/24 up
ifconfig eth3 192.168.10.254/24 up
iptables -t nat -A POSTROUTING -s 192.168.10.0/24
! -d 192.168.10.0/24 -j SNAT --to 192.168.10.254
|
(2) LVS调度节点
#关闭路由转发(默认是关闭.) echo 0 > /proc/sys/net/ipv4/ip_forward
#在所有接口、默认接口、eth0上都打开 仅接收来自网关的ICMP重定向. #注:默认应该是打开的,从抓包和分析上看,ICMP重定向是必须,因为客户端访问的调度器的子接口, # 而调度器的主接口IP是20.0.0.1,子(次)接口IP20.0.0.2,网关通过ARP发现,客户端访问的VIP20.0.0.2 # 是在调度器接口上,因此,将去往20.0.0.2的请求重定向给调度器。
echo 1 > /proc/sys/net/ipv4/conf/all/
send_redirects
echo 1 > /proc/sys/net/ipv4/conf/default/
send_redirects
echo 1 > /proc/sys/net/ipv4/conf/eth0/
send_redirects
#先关闭所有接口,用到那个激活那个。 service network stop
ifconfig eth0 20.0.0.1/24 up ifconfig eth0:0 20.0.0.2 broadcast 20.0.0.2
netmask 255.255.255.255 up ip tunnel add tun1 mode gre remote 30.0.0.1
local 20.0.0.1 ifconfig tun1 10.0.0.1/30 up ip tunnel add tun2 mode gre remote 40.0.0.1
local 20.0.0.1 ifconfig tun2 10.0.0.5/30 up #注:
GRE(通用路由封装) :
简单理解: GRE就是在将原始IP包,再次封装在GRE内部, 接着在再次将GRE包封装到新IP包中, 然后在加入如链路层帧头,最后发出去.其实GRE,VxLAN,NVGRE,IPSec都可认为是一种VPN. MAC帧[IP头[GRE头【IP头[TCP头[应用协议数据]]】]] 注意: GRE封装后,若后端是调度器,则该调度器将永远只能看到一个IP来访问自己,因此要注意使用调度算法.
#添加默认路由 route add default gw 20.0.0.254 #添加主机路由,以便Linux收到去往20.0.0.2的报文后,知道转到那个接口上。 route add -host 20.0.0.2 dev eth0:0
yum install ipvsadm ipvsadm -A -t 20.0.0.2:80 -s rr ipvsadm -a -t 20.0.0.2:80 -r 10.0.0.2 -i #注意:这里必须使用tunnel模式,即“-i” ipvsadm -a -t 20.0.0.2:80 -r 10.0.0.6 -i
(2) RealServer1的配置: ifconfig eth0 30.0.0.1/24 up ifconfig tunl0 20.0.0.2 broadcast 20.0.0.2 netmask
255.255.255.255 up #注意:一定要添加一条主机路由,否则Linux的tun0接口收到GRE封包后, # 解开发现是一个去往20.0.0.2的IP报文,查本机转发表若没有找到,就可能丢弃该报文. # 那么客户端可能就打不开网页了。 route add -host 20.0.0.2 dev tunl0 ip tunnel add tun0 mode gre remote 20.0.0.1 local
30.0.0.1 ifconfig tun0 10.0.0.2/30 up
#关闭路由转发 echo 0 > /proc/sys/net/ipv4/ip_forward
#arp_ignore: 定义接收到ARP请求时的响应级别; # 0:只要本地配置的有相应地址,就给予响应; # 1:仅响应目的IP配置在此接口上的ARP广播请求 #arp_announce: 定义将自己的地址向外通告时的通告级别(此行为仅发生在网络设备刚接入网络时) # 0:将本地任何接口上的任何地址向外通告; # 1:试图仅向目标网络通告与其网络匹配的地址; # 2:仅向与本地接口上地址匹配的网络进行通告; echo 1 > /proc/sys/net/ipv4/conf/tunl0/arp_ignore echo 2 > /proc/sys/net/ipv4/conf/tunl0/arp_announce echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
#关闭tunl0、eth0上返回路径过滤 echo 0 > /proc/sys/net/ipv4/conf/tunl0/rp_filter echo 0 > /proc/sys/net/ipv4/conf/eth0/rp_filter echo 0 > /proc/sys/net/ipv4/conf/all/rp_filter
(2) RealServer2的配置: ifconfig eth0 40.0.0.1/24 up ifconfig tunl0 20.0.0.2 broadcast 20.0.0.2 netmask
255.255.255.255 up #注意:一定要添加一条主机路由,否则Linux的tun0接口收到GRE封包后, # 解开发现是一个去往20.0.0.2的IP报文,查本机转发表若没有找到,就可能丢弃该报文. # 那么客户端可能就打不开网页了。 route add -host 20.0.0.2 dev tunl0 ip tunnel add tun0 mode gre remote 20.0.0.1 local
40.0.0.1 ifconfig tun0 10.0.0.6/30 up
#关闭路由转发 echo 0 > /proc/sys/net/ipv4/ip_forward echo 1 > /proc/sys/net/ipv4/conf/tunl0/arp_ignore echo 2 > /proc/sys/net/ipv4/conf/tunl0/arp_announce echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
#关闭tunl0、eth0上返回路径过滤 echo 0 > /proc/sys/net/ipv4/conf/tunl0/rp_filter echo 0 > /proc/sys/net/ipv4/conf/eth0/rp_filter echo 0 > /proc/sys/net/ipv4/conf/all/rp_filter
LVS调度器收到来客户端的访问报文: #先重定向
#调度后发送的报文,注意每个IP报文内部的内容,在该IP报文看来都仅仅是数据而已。
#RealServer2收到GRE报文解封装后,将该报文发给tun0接口后:
#RealServer2的tun0接口去掉IP层后,发现还是IP报文,随机转发给tunl0接口:
#回应
|