欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費電子書(shū)等14項超值服

開(kāi)通VIP
LVS集群技術(shù)及簡(jiǎn)明配置 - ◇Linux,BSD等平臺◇ - 專(zhuān)門(mén)網(wǎng)論壇--專(zhuān)業(yè)的筆記本...



1、題記
由于生產(chǎn)上的需要,最近在學(xué)習和研究 LVS(Linux Virtual Server),HA(High Available)等相關(guān)技術(shù)。
為遵循論壇資源共享,共同學(xué)習,努力進(jìn)步的原則,我把所得資料及實(shí)際中的簡(jiǎn)單應用過(guò)程記錄于此,與各位共勉。

2、LVS簡(jiǎn)介

2.1、LVS的體系結構

這里簡(jiǎn)單介紹通用的體系結構,其體系結構如下圖所示。
LVS集群采用IP負載均衡技術(shù)和基于內容請求分發(fā)技術(shù)。調度器具有很好的吞吐率,將請求均衡地轉移到不同的服務(wù)器上執行,且調度器自動(dòng)屏蔽掉服務(wù)器的故障,從而將一組服務(wù)器構成一個(gè)高性能的、高可用的虛擬服務(wù)器。整個(gè)服務(wù)器集群的結構對客戶(hù)是透明的,而且無(wú)需修改客戶(hù)端和服務(wù)器端的程序。為此,在設計時(shí)需要考慮系統的透明性、可伸縮性、高可用性和易管理性。一般來(lái)說(shuō),LVS集群采用三層結構,其主要組成部分為:
a.負載調度器(load balancer),它是整個(gè)集群對外面的前端機,負責將客戶(hù)的請求發(fā)送到一組服務(wù)器上執行,而客戶(hù)認為服務(wù)是來(lái)自一個(gè)IP地址(我們可稱(chēng)之為虛擬IP地址)上的。
b.服務(wù)器池(server pool),是一組真正執行客戶(hù)請求的服務(wù)器,執行的服務(wù)有WEB、MAIL、FTP和DNS等。
c.共享存儲(shared storage),它為服務(wù)器池提供一個(gè)共享的存儲區,這樣很容易使得服務(wù)器池擁有相同的內容,提供相同的服務(wù)。
調度器是服務(wù)器集群系統的唯一入口點(diǎn)(Single Entry Point),它可以采用IP負載均衡技術(shù)、基于內容請求分發(fā)技術(shù)或者兩者相結合。在IP負載均衡技術(shù)中,需要服務(wù)器池擁有相同的內容提供相同的服務(wù)。當客戶(hù)請求到達時(shí),調度器只根據服務(wù)器負載情況和設定的調度算法從服務(wù)器池中選出一個(gè)服務(wù)器,將該請求轉發(fā)到選出的服務(wù)器,并記錄這個(gè)調度;當這個(gè)請求的其他報文到達,也會(huì )被轉發(fā)到前面選出的服務(wù)器。在基于內容請求分發(fā)技術(shù)中,服務(wù)器可以提供不同的服務(wù),當客戶(hù)請求到達時(shí),調度器可根據請求的內容選擇服務(wù)器執行請求。因為所有的操作都是在Linux操作系統核心空間中將完成的,它的調度開(kāi)銷(xiāo)很小,所以它具有很高的吞吐率。
服務(wù)器池的結點(diǎn)數目是可變的。當整個(gè)系統收到的負載超過(guò)目前所有結點(diǎn)的處理能力時(shí),可以在服務(wù)器池中增加服務(wù)器來(lái)滿(mǎn)足不斷增長(cháng)的請求負載。對大多數網(wǎng)絡(luò )服務(wù)來(lái)說(shuō),請求間不存在很強的相關(guān)性,請求可以在不同的結點(diǎn)上并行執行,所以整個(gè)系統的性能基本上可以隨著(zhù)服務(wù)器池的結點(diǎn)數目增加而線(xiàn)性增長(cháng)。
共享存儲通常是數據庫、網(wǎng)絡(luò )文件系統或者分布式文件系統。服務(wù)器結點(diǎn)需要動(dòng)態(tài)更新的數據一般存儲在數據庫系統中,同時(shí)數據庫會(huì )保證并發(fā)訪(fǎng)問(wèn)時(shí)數據的一致性。靜態(tài)的數據可以存儲在網(wǎng)絡(luò )文件系統(如NFS/CIFS)中,但網(wǎng)絡(luò )文件系統的伸縮能力有限,一般來(lái)說(shuō),NFS/CIFS服務(wù)器只能支持3~6個(gè)繁忙的服務(wù)器結點(diǎn)。對于規模較大的集群系統,可以考慮用分布式文件系統,如AFS、GFS、Coda和 Intermezzo等。分布式文件系統可為各服務(wù)器提供共享的存儲區,它們訪(fǎng)問(wèn)分布式文件系統就像訪(fǎng)問(wèn)本地文件系統一樣,同時(shí)分布式文件系統可提供良好的伸縮性和可用性。此外,當不同服務(wù)器上的應用程序同時(shí)讀寫(xiě)訪(fǎng)問(wèn)分布式文件系統上同一資源時(shí),應用程序的訪(fǎng)問(wèn)沖突需要消解才能使得資源處于一致?tīng)顟B(tài)。這需要一個(gè)分布式鎖管理器(Distributed Lock Manager),它可能是分布式文件系統內部提供的,也可能是外部的。開(kāi)發(fā)者在寫(xiě)應用程序時(shí),可以使用分布式鎖管理器來(lái)保證應用程序在不同結點(diǎn)上并發(fā)訪(fǎng)問(wèn)的一致性。
負載調度器、服務(wù)器池和共享存儲系統通過(guò)高速網(wǎng)絡(luò )相連接,如100Mbps交換網(wǎng)絡(luò )、Myrinet和Gigabit網(wǎng)絡(luò )等。使用高速的網(wǎng)絡(luò ),主要為避免當系統規模擴大時(shí)互聯(lián)網(wǎng)絡(luò )成為整個(gè)系統的瓶頸。
Graphic Monitor是為系統管理員提供整個(gè)集群系統的監視器,它可以監視系統的狀態(tài)。Graphic Monitor是基于瀏覽器的,所以無(wú)論管理員在本地還是異地都可以監測系統的狀況。為了安全的原因,瀏覽器要通過(guò)HTTPS(Secure HTTP)協(xié)議和身份認證后,才能進(jìn)行系統監測,并進(jìn)行系統的配置和管理。



 附件: 您所在的用戶(hù)組無(wú)法下載或查看附件

T61: T9300, 2Gx2, WSXGA+, 3945ABG, BT, DVD/RW DL, Slackware.
T23: 1333G, 512Mx2, SXGA+, Atheros 802.11ABG, DVD/CD-RW.

2.2、LVS的IP負載均衡

可伸縮網(wǎng)絡(luò )服務(wù)的幾種結構,它們都需要一個(gè)前端的負載調度器(或者多個(gè)進(jìn)行主從備份)。我們先分析實(shí)現虛擬網(wǎng)絡(luò )服務(wù)的主要技術(shù),指出 IP負載均衡技術(shù)是在負載調度器的實(shí)現技術(shù)中效率最高的。在已有的IP負載均衡技術(shù)中,主要有通過(guò)網(wǎng)絡(luò )地址轉換(Network Address Translation)將一組服務(wù)器構成一個(gè)高性能的、高可用的虛擬服務(wù)器,我們稱(chēng)之為VS/NAT技術(shù)(Virtual Server via Network Address Translation)。在分析VS/NAT的缺點(diǎn)和網(wǎng)絡(luò )服務(wù)的非對稱(chēng)性的基礎上,我們提出了通過(guò)IP隧道實(shí)現虛擬服務(wù)器的方法VS/TUN (Virtual Server via IP Tunneling),和通過(guò)直接路由實(shí)現虛擬服務(wù)器的方法VS/DR(Virtual Server via Direct Routing),它們可以極大地提高系統的伸縮性。VS/NAT、VS/TUN和VS/DR技術(shù)是LVS集群中實(shí)現的三種IP負載均衡技術(shù)。


T61: T9300, 2Gx2, WSXGA+, 3945ABG, BT, DVD/RW DL, Slackware.
T23: 1333G, 512Mx2, SXGA+, Atheros 802.11ABG, DVD/CD-RW.

2.2.1、VS/NAT

客戶(hù)通過(guò)Virtual IP Address(虛擬服務(wù)的IP地址)訪(fǎng)問(wèn)網(wǎng)絡(luò )服務(wù)時(shí),請求報文到達調度器,調度器根據連接調度算法從一組真實(shí)服務(wù)器中選出一臺服務(wù)器,將報文的目標地址 Virtual IP Address改寫(xiě)成選定服務(wù)器的地址,報文的目標端口改寫(xiě)成選定服務(wù)器的相應端口,最后將修改后的報文發(fā)送給選出的服務(wù)器。同時(shí),調度器在連接Hash 表中記錄這個(gè)連接,當這個(gè)連接的下一個(gè)報文到達時(shí),從連接Hash表中可以得到原選定服務(wù)器的地址和端口,進(jìn)行同樣的改寫(xiě)操作,并將報文傳給原選定的服務(wù)器。當來(lái)自真實(shí)服務(wù)器的響應報文經(jīng)過(guò)調度器時(shí),調度器將報文的源地址和源端口改為Virtual IP Address和相應的端口,再把報文發(fā)給用戶(hù)。這樣,客戶(hù)所看到的只是在Virtual IP Address上提供的服務(wù),而服務(wù)器集群的結構對用戶(hù)是透明的。對改寫(xiě)后的報文,應用增量調整Checksum的算法調整TCP Checksum的值,避免了掃描整個(gè)報文來(lái)計算Checksum的開(kāi)銷(xiāo)。VS/NAT的體系結構如圖所示。



 附件: 您所在的用戶(hù)組無(wú)法下載或查看附件

T61: T9300, 2Gx2, WSXGA+, 3945ABG, BT, DVD/RW DL, Slackware.
T23: 1333G, 512Mx2, SXGA+, Atheros 802.11ABG, DVD/CD-RW.


2.2.2、VS/TUN

在VS/NAT 的集群系統中,請求和響應的數據報文都需要通過(guò)負載調度器,當真實(shí)服務(wù)器的數目在10臺和20臺之間時(shí),負載調度器將成為整個(gè)集群系統的新瓶頸。大多數 Internet服務(wù)都有這樣的特點(diǎn):請求報文較短而響應報文往往包含大量的數據。如果能將請求和響應分開(kāi)處理,即在負載調度器中只負責調度請求而響應直接返回給客戶(hù),將極大地提高整個(gè)集群系統的吞吐量。
IP隧道(IP tunneling)是將一個(gè)IP報文封裝在另一個(gè)IP報文的技術(shù),這可以使得目標為一個(gè)IP地址的數據報文能被封裝和轉發(fā)到另一個(gè)IP地址。IP隧道技術(shù)亦稱(chēng)為IP封裝技術(shù)(IP encapsulation)。IP隧道主要用于移動(dòng)主機和虛擬私有網(wǎng)絡(luò )(Virtual Private Network),在其中隧道都是靜態(tài)建立的,隧道一端有一個(gè)IP地址,另一端也有唯一的IP地址。
我們利用IP隧道技術(shù)將請求報文封裝轉發(fā)給后端服務(wù)器,響應報文能從后端服務(wù)器直接返回給客戶(hù)。但在這里,后端服務(wù)器有一組而非一個(gè),所以我們不可能靜態(tài)地建立一一對應的隧道,而是動(dòng)態(tài)地選擇一臺服務(wù)器,將請求報文封裝和轉發(fā)給選出的服務(wù)器。這樣,我們可以利用IP隧道的原理將一組服務(wù)器上的網(wǎng)絡(luò )服務(wù)組成在一個(gè)IP地址上的虛擬網(wǎng)絡(luò )服務(wù)。 VS/TUN的體系結構如圖所示,各個(gè)服務(wù)器將VIP地址配置在自己的IP隧道設備上。



 附件: 您所在的用戶(hù)組無(wú)法下載或查看附件

T61: T9300, 2Gx2, WSXGA+, 3945ABG, BT, DVD/RW DL, Slackware.
T23: 1333G, 512Mx2, SXGA+, Atheros 802.11ABG, DVD/CD-RW.

2.2.3、VS/DR

跟VS/TUN 方法相同,VS/DR利用大多數Internet服務(wù)的非對稱(chēng)特點(diǎn),負載調度器中只負責調度請求,而服務(wù)器直接將響應返回給客戶(hù),可以極大地提高整個(gè)集群系統的吞吐量。VS/DR的體系結構如圖所示:調度器和服務(wù)器組都必須在物理上有一個(gè)網(wǎng)卡通過(guò)不分斷的局域網(wǎng)相連,如通過(guò)高速的交換機或者HUB相連。VIP地址為調度器和服務(wù)器組共享,調度器配置的VIP地址是對外可見(jiàn)的,用于接收虛擬服務(wù)的請求報文;所有的服務(wù)器把VIP地址配置在各自的Non-ARP網(wǎng)絡(luò )設備上,它對外面是不可見(jiàn)的,只是用于處理目標地址為VIP的網(wǎng)絡(luò )請求



 附件: 您所在的用戶(hù)組無(wú)法下載或查看附件

T61: T9300, 2Gx2, WSXGA+, 3945ABG, BT, DVD/RW DL, Slackware.
T23: 1333G, 512Mx2, SXGA+, Atheros 802.11ABG, DVD/CD-RW.


2.2.4、三種方法的優(yōu)缺點(diǎn)比較

三種IP負載均衡技術(shù)的優(yōu)缺點(diǎn)歸納在下表中:
_                                VS/NAT                          VS/TUN                          VS/DR
Server                           any                         Tunneling                     Non-arp device
server network            private                         LAN/WAN                           LAN
server number         low (10~20)                 High (100)                        High (100)
server gateway          load balancer                 own router                     Own router
注:以上三種方法所能支持最大服務(wù)器數目的估計是假設調度器使用100M網(wǎng)卡,調度器的硬件配置與后端服務(wù)器的硬件配置相同,而且是對一般Web服務(wù)。使用更高的硬件配置(如千兆網(wǎng)卡和更快的處理器)作為調度器,調度器所能調度的服務(wù)器數量會(huì )相應增加。當應用不同時(shí),服務(wù)器的數目也會(huì )相應地改變。所以,以上數據估計主要是為三種方法的伸縮性進(jìn)行量化比較。

A、 Virtual Server via NAT
VS/NAT 的優(yōu)點(diǎn)是服務(wù)器可以運行任何支持TCP/IP的操作系統,它只需要一個(gè)IP地址配置在調度器上,服務(wù)器組可以用私有的IP地址。缺點(diǎn)是它的伸縮能力有限,當服務(wù)器結點(diǎn)數目升到20時(shí),調度器本身有可能成為系統的新瓶頸,因為在VS/NAT中請求和響應報文都需要通過(guò)負載調度器。 我們在Pentium 166 處理器的主機上測得重寫(xiě)報文的平均延時(shí)為60us,性能更高的處理器上延時(shí)會(huì )短一些。假設TCP報文的平均長(cháng)度為536 Bytes,則調度器的最大吞吐量為8.93 MBytes/s. 我們再假設每臺服務(wù)器的吞吐量為800KBytes/s,這樣一個(gè)調度器可以帶動(dòng)10臺服務(wù)器。(注:這是很早以前測得的數據)
基于 VS/NAT的的集群系統可以適合許多服務(wù)器的性能要求。如果負載調度器成為系統新的瓶頸,可以有三種方法解決這個(gè)問(wèn)題:混合方法、VS/TUN和 VS/DR。在DNS混合集群系統中,有若干個(gè)VS/NAT負載調度器,每個(gè)負載調度器帶自己的服務(wù)器集群,同時(shí)這些負載調度器又通過(guò)RR-DNS組成簡(jiǎn)單的域名。但VS/TUN和VS/DR是提高系統吞吐量的更好方法。
對于那些將IP地址或者端口號在報文數據中傳送的網(wǎng)絡(luò )服務(wù),需要編寫(xiě)相應的應用模塊來(lái)轉換報文數據中的IP地址或者端口號。這會(huì )帶來(lái)實(shí)現的工作量,同時(shí)應用模塊檢查報文的開(kāi)銷(xiāo)會(huì )降低系統的吞吐率。
B、 Virtual Server via IP Tunneling
在VS/TUN 的集群系統中,負載調度器只將請求調度到不同的后端服務(wù)器,后端服務(wù)器將應答的數據直接返回給用戶(hù)。這樣,負載調度器就可以處理大量的請求,它甚至可以調度百臺以上的服務(wù)器(同等規模的服務(wù)器),而它不會(huì )成為系統的瓶頸。即使負載調度器只有100Mbps的全雙工網(wǎng)卡,整個(gè)系統的最大吞吐量可超過(guò) 1Gbps。所以,VS/TUN可以極大地增加負載調度器調度的服務(wù)器數量。VS/TUN調度器可以調度上百臺服務(wù)器,而它本身不會(huì )成為系統的瓶頸,可以用來(lái)構建高性能的超級服務(wù)器。
VS/TUN技術(shù)對服務(wù)器有要求,即所有的服務(wù)器必須支持“IP Tunneling”或者“IP Encapsulation”協(xié)議。目前,VS/TUN的后端服務(wù)器主要運行Linux操作系統,我們沒(méi)對其他操作系統進(jìn)行測試。因為“IP Tunneling”正成為各個(gè)操作系統的標準協(xié)議,所以VS/TUN應該會(huì )適用運行其他操作系統的后端服務(wù)器。
C、 Virtual Server via Direct Routing
跟VS/TUN方法一樣,VS/DR調度器只處理客戶(hù)到服務(wù)器端的連接,響應數據可以直接從獨立的網(wǎng)絡(luò )路由返回給客戶(hù)。這可以極大地提高LVS集群系統的伸縮性。
跟VS/TUN相比,這種方法沒(méi)有IP隧道的開(kāi)銷(xiāo),但是要求負載調度器與實(shí)際服務(wù)器都有一塊網(wǎng)卡連在同一物理網(wǎng)段上,服務(wù)器網(wǎng)絡(luò )設備(或者設備別名)不作ARP響應,或者能將報文重定向(Redirect)到本地的Socket端口上。


T61: T9300, 2Gx2, WSXGA+, 3945ABG, BT, DVD/RW DL, Slackware.
T23: 1333G, 512Mx2, SXGA+, Atheros 802.11ABG, DVD/CD-RW.

3、LVS的負載調度

在內核中的連接調度算法上,IPVS已實(shí)現了以下八種調度算法:
?        輪叫調度(Round-Robin Scheduling)
輪叫調度(Round Robin Scheduling)算法就是以輪叫的方式依次將請求調度不同的服務(wù)器,即每次調度執行i = (i + 1) mod n,并選出第i臺服務(wù)器。算法的優(yōu)點(diǎn)是其簡(jiǎn)潔性,它無(wú)需記錄當前所有連接的狀態(tài),所以它是一種無(wú)狀態(tài)調度。
?        加權輪叫調度(Weighted Round-Robin Scheduling)
加權輪叫調度(Weighted Round-Robin Scheduling)算法可以解決服務(wù)器間性能不一的情況,它用相應的權值表示服務(wù)器的處理性能,服務(wù)器的缺省權值為1。假設服務(wù)器A的權值為1,B的權值為2,則表示服務(wù)器B的處理性能是A的兩倍。加權輪叫調度算法是按權值的高低和輪叫方式分配請求到各服務(wù)器。權值高的服務(wù)器先收到的連接,權值高的服務(wù)器比權值低的服務(wù)器處理更多的連接,相同權值的服務(wù)器處理相同數目的連接數。
?        最小連接調度(Least-Connection Scheduling)
最小連接調度(Least-Connection Scheduling)算法是把新的連接請求分配到當前連接數最小的服務(wù)器。最小連接調度是一種動(dòng)態(tài)調度算法,它通過(guò)服務(wù)器當前所活躍的連接數來(lái)估計服務(wù)器的負載情況。調度器需要記錄各個(gè)服務(wù)器已建立連接的數目,當一個(gè)請求被調度到某臺服務(wù)器,其連接數加1;當連接中止或超時(shí),其連接數減一。
?        加權最小連接調度(Weighted Least-Connection Scheduling)
加權最小連接調度(Weighted Least-Connection Scheduling)算法是最小連接調度的超集,各個(gè)服務(wù)器用相應的權值表示其處理性能。服務(wù)器的缺省權值為1,系統管理員可以動(dòng)態(tài)地設置服務(wù)器的權值。加權最小連接調度在調度新連接時(shí)盡可能使服務(wù)器的已建立連接數和其權值成比例。
?        基于局部性的最少鏈接(Locality-Based Least Connections Scheduling)
基于局部性的最少鏈接調度(Locality-Based Least Connections Scheduling,以下簡(jiǎn)稱(chēng)為L(cháng)BLC)算法是針對請求報文的目標IP地址的負載均衡調度,目前主要用于Cache集群系統,因為在Cache集群中客戶(hù)請求報文的目標IP地址是變化的。這里假設任何后端服務(wù)器都可以處理任一請求,算法的設計目標是在服務(wù)器的負載基本平衡情況下,將相同目標IP地址的請求調度到同一臺服務(wù)器,來(lái)提高各臺服務(wù)器的訪(fǎng)問(wèn)局部性和主存Cache命中率,從而整個(gè)集群系統的處理能力。LBLC調度算法先根據請求的目標IP地址找出該目標IP地址最近使用的服務(wù)器,若該服務(wù)器是可用的且沒(méi)有超載,將請求發(fā)送到該服務(wù)器;若服務(wù)器不存在,或者該服務(wù)器超載且有服務(wù)器處于其一半的工作負載,則用“最少鏈接”的原則選出一個(gè)可用的服務(wù)器,將請求發(fā)送到該服務(wù)器。
?        帶復制的基于局部性最少鏈接(Locality-Based Least Connections with Replication Scheduling)
帶復制的基于局部性最少鏈接調度(Locality-Based Least Connections with Replication Scheduling,以下簡(jiǎn)稱(chēng)為L(cháng)BLCR)算法也是針對目標IP地址的負載均衡,目前主要用于Cache集群系統。它與LBLC算法的不同之處是它要維護從一個(gè)目標IP地址到一組服務(wù)器的映射,而LBLC算法維護從一個(gè)目標IP地址到一臺服務(wù)器的映射。對于一個(gè)“熱門(mén)”站點(diǎn)的服務(wù)請求,一臺Cache 服務(wù)器可能會(huì )忙不過(guò)來(lái)處理這些請求。這時(shí),LBLC調度算法會(huì )從所有的Cache服務(wù)器中按“最小連接”原則選出一臺Cache服務(wù)器,映射該“熱門(mén)”站點(diǎn)到這臺Cache服務(wù)器,很快這臺Cache服務(wù)器也會(huì )超載,就會(huì )重復上述過(guò)程選出新的Cache服務(wù)器。這樣,可能會(huì )導致該“熱門(mén)”站點(diǎn)的映像會(huì )出現在所有的Cache服務(wù)器上,降低了Cache服務(wù)器的使用效率。LBLCR調度算法將“熱門(mén)”站點(diǎn)映射到一組Cache服務(wù)器(服務(wù)器集合),當該“熱門(mén)”站點(diǎn)的請求負載增加時(shí),會(huì )增加集合里的Cache服務(wù)器,來(lái)處理不斷增長(cháng)的負載;當該“熱門(mén)”站點(diǎn)的請求負載降低時(shí),會(huì )減少集合里的Cache服務(wù)器數目。這樣,該“熱門(mén)”站點(diǎn)的映像不太可能出現在所有的Cache服務(wù)器上,從而提供Cache集群系統的使用效率。LBLCR算法先根據請求的目標IP地址找出該目標IP地址對應的服務(wù)器組;按“最小連接”原則從該服務(wù)器組中選出一臺服務(wù)器,若服務(wù)器沒(méi)有超載,將請求發(fā)送到該服務(wù)器;若服務(wù)器超載;則按“最小連接”原則從整個(gè)集群中選出一臺服務(wù)器,將該服務(wù)器加入到服務(wù)器組中,將請求發(fā)送到該服務(wù)器。同時(shí),當該服務(wù)器組有一段時(shí)間沒(méi)有被修改,將最忙的服務(wù)器從服務(wù)器組中刪除,以降低復制的程度。
?        目標地址散列調度(Destination Hashing Scheduling)
目標地址散列調度(Destination Hashing Scheduling)算法也是針對目標IP地址的負載均衡,但它是一種靜態(tài)映射算法,通過(guò)一個(gè)散列(Hash)函數將一個(gè)目標IP地址映射到一臺服務(wù)器。目標地址散列調度算法先根據請求的目標IP地址,作為散列鍵(Hash Key)從靜態(tài)分配的散列表找出對應的服務(wù)器,若該服務(wù)器是可用的且未超載,將請求發(fā)送到該服務(wù)器,否則返回空。
?        源地址散列調度(Source Hashing Scheduling)
源地址散列調度(Source Hashing Scheduling)算法正好與目標地址散列調度算法相反,它根據請求的源IP地址,作為散列鍵(Hash Key)從靜態(tài)分配的散列表找出對應的服務(wù)器,若該服務(wù)器是可用的且未超載,將請求發(fā)送到該服務(wù)器,否則返回空。它采用的散列函數與目標地址散列調度算法的相同。它的算法流程與目標地址散列調度算法的基本相似,除了將請求的目標IP地址換成請求的源IP地址,所以這里不一一敘述。在實(shí)際應用中,源地址散列調度和目標地址散列調度可以結合使用在防火墻集群中,它們可以保證整個(gè)系統的唯一出入口。


T61: T9300, 2Gx2, WSXGA+, 3945ABG, BT, DVD/RW DL, Slackware.
T23: 1333G, 512Mx2, SXGA+, Atheros 802.11ABG, DVD/CD-RW.

4、實(shí)戰演練

4.1、掌握了基本的概念之后,可以進(jìn)行下一步的安裝演練了。先搭建LVS平臺。
4.1.1、前端負載調度器

required
kernel:http://www.kernel.org/
ipvsadm:http://www.linuxvirtualserver.org/software/ipvs.html
ARP hidden:http://www.ssi.bg/~ja/
注:
a. Kernel,IPVS,IPVSadm,ARP hidden之間的版本必須對應。
b. 自己編譯內核時(shí),從http://www.kernel.org/下載標準內核源文件,不要使用發(fā)行版的內核源文件。
c. Kernel 2.4.28和2.6.10及以上版本已內置IPVS,有些Linux發(fā)行版也在其內核里編譯了IPVS。
d. ARP hidden可以用arp_ignore/arp_announce或者arptables代替,解決LVS-DR/LVS-Tun的arp問(wèn)題。
解壓內核源碼,這里我在/usr/src目錄下執行(也可以打個(gè)kernel patch)。
tar zxvf linux-2.4.33.2.tar.gz
ln -s linux-2.4.33.2 linux
cd /usr/src/linux
mv ~/hidden-2.4.28-1.diff ./
patch -p1 < hidden-2.4.28-1.diff




本站僅提供存儲服務(wù),所有內容均由用戶(hù)發(fā)布,如發(fā)現有害或侵權內容,請點(diǎn)擊舉報。
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
LVS負載均衡原理和算法詳解
如何編寫(xiě)LVS對Real Server的健康狀態(tài)檢測腳本
LVS負載均衡原理
LVS(一)掃盲
LVS原理詳解及部署之二:LVS原理詳解(3種工作方式8種調度算法)
LVS基本介紹
更多類(lèi)似文章 >>
生活服務(wù)
分享 收藏 導長(cháng)圖 關(guān)注 下載文章
綁定賬號成功
后續可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服

欧美性猛交XXXX免费看蜜桃,成人网18免费韩国,亚洲国产成人精品区综合,欧美日韩一区二区三区高清不卡,亚洲综合一区二区精品久久