LVS (DR, NAT)模式应用
生活随笔
收集整理的這篇文章主要介紹了
LVS (DR, NAT)模式应用
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
OS:?? Redhat AS4U4 內核:2.6.9-42 Server1: 192.168.1.91 (負載服務器) 虛擬服務IP: 192.168.1.99 Realserver: 192.168.1.92 (集群服務器) 實驗目的: 在負載服務器上,配置LVS(DR模式),做web服務器的集群。實現最終用戶訪問虛擬IP,負載服務器,將請求分發到集群下的服務器,由集群服務器輪流提供web服務。 Redhat AS4U4的內核版本已經集成了ipvsadm功能模塊,所以不需要安裝,直接使用即可。 如果要用高版本的ipvsadm, 到[url]http://www.linuxvirtualserver.org/software/[/url] 注意對應自己的內核版本ipvsadm-1.24.tar.gz tar zxvf ipvsadm-1.24.tar.gz cd ipvsadm-1.24 make make install 注意在make時可能會出現很多錯誤的信息,請按照如下操作就可以心編譯正常 ln -s /usr/src/kernels/2.6.9-22.EL-i686/ /usr/src/linux 一、負載服務器 編輯一個shell文件,執行后,即啟用LVS功能。 vi? /tmp/lvs.sh #!/bin/bash vip=192.168.1.99 rs1=192.168.1.91 rs2=192.168.1.92 gw=192.168.1.1 #set virttual ip address /sbin/ifconfig eth1:0 $vip broadcast $vip netmask 255.255.255.255 up /sbin/route add -host $vip dev eth1:0 #clear ipvs tables /sbin/ipvsadm -C #set LVS ?Server /sbin/ipvsadm -A -t $vip:80 -s rr /sbin/ipvsadm -a -t $vip:80 -r $rs1:80 -g /sbin/ipvsadm -a -t $vip:80 -r $rs2:80 -g #run lvs /sbin/ipvsadm 因為此實驗本負載服務器也提供web服務,所以要在/var/www/html下建立一個測試文件 index.html,然后service httpd start 啟動http服務。 二、集群服務器 所有集群服務器忽略ARP回應,在每臺群服務器上都要進行如下設置 vi /tmp/lvs.sh #!/bin/bash vip=192.168.1.99 /sbin/ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up /sbin/route add -host $vip dev lo:0 echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce sysctl –p 在 /var/www/html 下新建立一個index.html測試文件,然后 service httpd start啟動http服務。 三、測試 在客戶端反復訪問:http:.//192.168.1.99 如果能輪流顯示出 192.168.1.91 和192.168.1.92的http測試文件,即LVS(DR模式)配置完成。 第二部分: NAT 模式配置 OS:?? Redhat AS4U4 內核:2.6.9-42 Server1: eth0: 192.168.1.91 (負載服務器對外IP) eth1: 192.168.3.1 Realserver: 192.168.3.2 (集群服務器) 掩碼: 255.255.255.0? 網關: 192.168.3.1 實驗目的: 在負載服務器上,配置LVS(NAT模式),做web服務器的集群。實現最終用戶訪問負載服務器的對外IP,負載服務器,將請求分發到集群下的服務器,由集群服務器輪流提供web服務。 負載服務器 需要在此服務器上配置NAT功能,使其eth1網卡所接的3.0網段能夠通過它進行與外網進行聯系. 需要配置LVS功能,以實現集群功能. 以下是shell文件內容 vi /tmp/lvs-nat.sh #!/bin/bash echo "1">/proc/sys/net/ipv4/ip_forward echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects #echo 0 > /proc/sys/net/ipv4/conf/eth1/send_redirects iptables -F iptables -X iptables -t nat -F iptables -t nat -X iptables -t nat -A POSTROUTING -s 192.168.3.0/24 -o eth1 -j MASQUERADE ipvsadm -C ipvsadm -A -t 192.168.1.91:80 -s rr ipvsadm -a -t 192.168.1.91:80 -r 192.168.3.1:80 -m ipvsadm -a -t 192.168.1.91:80 -r 192.168.3.2:80 -m ipvsadm -a -t 192.168.1.91:80 -r 192.168.3.3:80 -m ipvsadm 集群中的節點服務器,只需要將網卡的IP及網關配置好,可以實現負載分擔功能. 附: LVS介紹 1.LVS系統結構與特點 使用LVS架設的服務器集群系統從體系結構上看是透明的,最終用戶只感覺到一個虛擬服務器.物理服務器之間可以通過高速的LAN或分布在各地的WAN相連。最前端是負載均衡器,它負責將各種服務請求分發給后面的物理服務器,讓整個集群表現得象一個服務于同一IP地址的虛擬服務器。 LVS集群系統具有良好的可擴展性和高可用性。 可擴展性是指,LVS集群建立后,可以很容易地根據實際的需要增加或減少物理服務器。而高可用性是指當檢測到服務器節點或服務進程出錯、失效時,集群系統能夠自動進行適當的重新調整系統。 2.LVS是如何工作的 Linux Virtual Server的主要是在負載均衡器上實現的,負載均衡器是一臺加了LVS Patch的2.2.x版內核的Linux系統。LVS Patch可以通過重新編譯內核的方法加入內核,也可以當作一個動態的模塊插入現在的內核中。 負載均衡器可以運行在以下三種模式下中的一種或幾種: 1)Virtual Server via NAT(VS-NAT):用地址翻譯實現虛擬服務器;2)Virtual Server via IP Tunneling (VS-TUN):用IP隧道技術實現虛擬服務器;3)Virtual Server via Direct Routing(VS-DR):用直接路由技術實現虛擬服務器。 另外,還需要根據LVS應用對物理服務器進行恰當的配置。 以下將分別講述一下三種模式的工作原理和優缺點。 2.1.Virtual server via NAT(VS-NAT) Virtual Server via NAT方法的最大優點是集群中的物理服務器可以使用任何支持TCP/IP操作系統,物理服務器可以分配Internet的保留私有地址,只有負載均衡器需要一個合法的IP地址。 這種實現方法的最大的缺點是擴展性有限。當服務器節點(普通PC服務器)數據增長到20個或更多時,負載均衡器將成為整個系統的瓶頸,因為所有的請求包和應答包都需要經過負載均衡器再生。假使TCP包的平均長度是536字節的話,平均包再生延遲時間大約為60us(在Pentium處理器上計算的,采用更快的處理器將使得這個延遲時間變短),負載均衡器的最大容許能力為8.93M/s,假定每臺物理服務器的平臺容許能力為400K/s來計算,負責均衡器能為22臺物理服務器計算。 Virtual Server via NAT能夠滿足許多服務器的服務性能需求。即使是是負載均衡器成為整個系統的瓶頸,如果是這樣也有兩種方法來解決它。一種是混合處理,另一種是采用Virtual Server via IP tunneling或Virtual Server via direct routing。如果采用混合處理的方法,將需要許多同屬單一的RR DNS域。你采用Virtual Server via IP tunneling或Virtual Server via direct routing以獲得更好的可擴展性。也可以嵌套使用負載均衡器,在最前端的是VS-Tunneling或VS-Drouting的負載均衡器,然后后面采用VS-NAT的負載均衡器。 2.2.Virtual server via IP tunneling(VS-TUN) 采用VS-NAT方式,請求與應答包都需要經過負載均衡器,那么當服務器節點增長到20個或更多時,這個負載均衡器就可能成為新的瓶頸。我們發現,許多Internet服務(例如WEB服務器)的請求包很短小,而應答包通常很大。 而使用VS-TUN方式的話,負載均衡器只負責將請求包分發給物理服務器,而物理服務器將應答包直接發給用戶。所以,負載均衡器能處理很巨大的請求量,這種方式,一臺負載均衡能為超過100臺的物理服務器服務,負載均衡器不再是系統的瓶頸。使用VS-TUN方式,如果你的負載均衡器擁有100M的全雙工網卡的話,就能使得整個Virtual Server能達到1G的吞吐量。 IP tunneling(IP隧道)能夠用于架構一個高性能的virtual server,非常適合構建virtual proxy server,因為當代理服務器收到了請求,能夠讓最終用戶直接與服務器聯系。 但是,這種方式需要所有的服務器支持IP Tunneling(IP Encapsulation)協議,我僅在Linux系統上實現了這個,如果你能讓其它操作系統支持,還在探索之中。 2.3.Virtual Server via Direct Routing(VS-DR) 就象VS-TUN一下,在VS-DR方式下,負載均衡器也只是分發請求,應答包通過單獨的路由方法返回給客戶端。這種方式能夠大大提高Virtual Server的可擴展性。與VS-TUN相比,VS-DR這種實現方式不需要隧道結構,但它要求負載均衡器的網卡必須與物理網卡在一個物理段上。 而且VS-DR模式,可以使用大多數操作系統做為物理服務器,其中包括:Linux 2.0.36、2.2.9、2.2.10、2.2.12;Solaris 2.5.1、2.6、2.7;FreeBSD 3.1、3.2、3.3;NT4.0無需打補丁;IRIX 6.5;HPUX11等
轉載于:https://blog.51cto.com/lucklong/198815
總結
以上是生活随笔為你收集整理的LVS (DR, NAT)模式应用的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 注意设置httpclient连接数
- 下一篇: 实用ISA Server 2006之一: