Ⅰ 如何在VMware ESX上實現網卡聚合
網卡(NIC:Network Interface Card)聚合意思就是把若干個網卡規整到一個網卡上。如果配置合理的話,VMware ESX上面的網卡聚合可以同時為客體虛擬機提供入站和出站的負載均衡。負責均衡使得把多個可用網卡均分到更多的伺服器上,因此即使在一個網卡、電纜或者交換機出現故障時,能允許客體虛擬機持續運行的情況下完成故障轉移。
網卡聚合實例
配置VMware ESX Server虛擬網路有多種方法,多數管理員通常會採用如下的方式:
從中可以看到,兩個管理網路都有兩個物理適配器。虛擬機網路(內置客體虛擬機)也有兩個物理適配器,如此做也可以帶來一些容錯上的優勢:
1. 如果一個物理適配器出現故障的話,另外一個可以取而代之;
2. 如果連接一個物理適配器的光纜出現故障,可以使用另外一個適配器(光纜沒問
題的那個);
3. 假定兩個網卡連接到不同的交換器,如果一個交換器出現故障,可以使用連接到
可用交換器上面的那個網卡;
盡管VMware ESX屬性介紹中聲稱網卡聚合可以實現負責均衡,但是基本的網卡聚合僅僅能夠提供出站負載均衡。然而如果希望通過網卡聚合實現入站的負載均衡,就還有一些額外的工作需要做,需要配置VLAN中繼器和乙太網交換器(連接在這些VMware ESX伺服器的物理適配器)上的埠通道。SearchVMware.com的作者Scott Lowe has曾經寫過一些文章介紹VLAN配置,這幾篇文章我之前一直有推薦:
ESX伺服器、網卡分組和VLAN鏈路聚合
2. VLAN和埠分組
VI3的VLAN配置:VST、EST和VGT標記
在VMware ESX Server里配置網卡聚合
對ESX伺服器內的網卡進行分組另外還需要兩個或者兩個以上網卡。實際上在VMware ESX伺服器內配置網卡聚合非常簡單。首先在ESX伺服器上至少需要兩個物理適配器,如上圖所示,很多管理員都會把管理網路和客體虛擬機網路隔離開來。因此例如我們在伺服器中有三個適配器,其中一個置於隔離的虛擬機交換器內用於管理網路,另外兩個物理適配器用於虛擬機網路。如果另外還有一個vSwitch0的話,最好用這個作為管理網路和VMnet0。
如果希望在管理網路(VMkernel和iSCSI)和虛擬機(客體機)網路上同時都配置網卡聚合的話,也就是說在我們這個場景中我們僅僅在虛擬機網路上配置了網卡聚合。首先需要創建一個新的vSwitch然後標識為「虛擬機網路」。該vSwitch很有可能就被命名為vSwitch1,在vSwitch上增加兩個物理適配器。
最後需要通過修改每一台虛擬機並且把其連接到新的埠組上,以修改每一台虛擬機客體系統。
Ⅱ 伺服器雙網卡綁定然後接在一台S5720上,交換機埠聚合怎麼做
首先要確定 你伺服器用的是什麼模式的網卡聚合 如果是LACP才需要在交換機上配置聚合命令,以下是華為交換機配置命令可供參考
interface eth-trunk1 #創建eth-trunk1的聚合埠
port link-type access #介面模式access
port default vlan 5 #伺服器段VLAN5
mode lacp #聚合模式LACP
interface g 0/0/1
eth-trunk1 #將埠G1劃到聚合組中,該介面下不要配置別的命令
interface g 0/0/2
eth-trunk1 #將埠G2劃到聚合組中,改介面下不要配置別的命令
q #退出
save #保存
純手打 望採納
Ⅲ linux 網路聚合有幾種模式
將多個Linux網路埠綁定為一個,可以提升網路的性能,比如對於備份伺服器,需要在一個晚上備份幾個T的數據,如果使用單個的千兆網口將會是很嚴重的瓶頸。其它的應用,比如ftp伺服器,高負載的下載網站, 都有類似的問題。因此使用Linux teaming或bond來綁定多個網卡作為一個邏輯網口,配置單個的IP地址,會大幅提升伺服器的網路吞吐(I/O)。
Linux的多網卡綁定功能使用的是內核中的"bonding"模塊,關於此模塊可以參考Linux Ethernet Bonding Driver文檔, 但是目前發布各個Linux版本內核均已包含了此模塊,大多數情況下不需要重新編譯內核。 Linux 的 bonding 驅動提供了綁定/集成(bond)多個網卡為一個虛擬邏輯網口的功能。並請注意綁定的網口(bonded)有多種工作模式; 一般來說,分為 熱後備(hot standby) 和 負載均衡(load balancing). 在Redhat/Fedora和其它類Redhat Linux中是比較容易配置的。
1.創建bond0配置文件
vi /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0 --物理設備名字
IPADDR=192.168.1.2 --IP地址
NETMASK=255.255.255.0 --子網掩碼
GATEWAY=192.168.1.1 --網關
DNS=8.8.8.8 --DNS
ONBOOT=yes --隨機啟動
NAME=bond0
BOOTPROTO=none
USERCTL=no --是否允許非root用戶控制該設備
2.修改被綁定的eth0和eth1的配置文件
vi /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"
USERCTL=no
ONBOOT=yes
MASTER=bond0
SLAVE=yes
BOOTPROTO=none
HWADDR=00:15:17:CC:FC:35
eth1的配置文件與之相同,只是device的值改為eth1即可。
3.裝在bond模塊驅動
編輯/etc/modprobe.conf或者/etc/moles.conf文件,加入如下內容,使系統啟動時載入bonding模塊驅動
alias bond0 bonding
option bond0 miimon=100 mode=1
說明:
1).miimon=100 用來進行鏈路監測的。即每100ms監測一次鏈路狀態。bonding只監測主機與交換機之間鏈路。如果交換機出去的鏈路出問題而本身沒有問題,那麼bonding認為鏈路沒有問題而繼續使用。
2).mode=1 表示提供冗餘功能。除此之外還可以為0、2、3,共四種模式。0表示負載均衡
4.在/etc/rc.d/rc.local文件中加入如下語句,使得系統啟動自動運行
ifenslave bond0 eth0 eth1
route add -net 192.168.1.254 netmask 255.255.255.0 bond0 #如有需要才加該路由
5.檢測、驗證配置
首先執行命令裝載bonding模塊:modprobe bonding
重啟網路服務,並確認bond0正確啟動:service network restart
確認設備已經正確載入:less /proc/net/bonding/bond0
列出所有網口:ifconfig
至此,bond技術的使用過程的設置就基本結束了,謝謝閱讀,希望能幫到大家,請繼續關注腳本之家,我們會努力分享更多優秀的文章。
Ⅳ linux伺服器埠聚合怎麼設置
基礎配置信息
常用的三種Bond模式
配置過程以mode=6為例,其它7種模式請參考擴展閱讀
mode=0:平衡負載模式,有自動備援,但需要」Switch」支援及設定。 mode=1:自動備援模式,其中一條線若斷線,其他線路將會自動備援。 mode=6:平衡負載模式,有自動備援,不必」Switch」支援及設定。
物理介面
2015610165454336.jpg (274×145)
CentOS版本
復制代碼代碼如下:
datanode01:~>cat /etc/redhat-release
CentOS release 6.4 (Final)
禁用NetworkManager
復制代碼代碼如下:
#立即關閉禁用NetworkManager並禁用開機自啟動
/etc/init.d/NetworkManager stop
chkconfig NetworkManager off
/etc/init.d/network restart
關閉iptables和selinux(可選)
復制代碼代碼如下:
#立即關閉iptables並禁用開機自啟動
/etc/init.d/iptables stop
chkconfig iptables off
#立即關閉selinux並永久禁用
setenforce 0
sed -i 『s/SELINUX=enforcing/SELINUX=disabled/『 /etc/selinux/config
修改主機名
復制代碼代碼如下:
vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=namenode01
#刷新生效
hostname namnode01
source /etc/sysconfig/network
配置IP
私有地址
復制代碼代碼如下:
cd /etc/sysconfig/network-scripts
[root@datanode09 network-scripts]# cat ifcfg-eth3
DEVICE=eth3
ONBOOT=yes
BOOTPROTO=none
IPADDR=10.129.46.19
NETMASK=255.255.255.0
IPV6INIT=no
USERCTL=no
雙網卡綁定
復制代碼代碼如下:
cd /etc/sysconfig/network-scripts
#編輯eth0
cat > ifcfg-eth0 << EOF
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
MASTER=bond0
EOF
#編輯eth2
cat > ifcfg-eth2 << EOF
DEVICE=eth2
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
MASTER=bond0
EOF
#編輯bond0
cat > ifcfg-bond0 << EOF
DEVICE=bond0
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=none
IPADDR=10.3.3.214
NETMASK=255.255.255.0
GATEWAY=10.3.3.1
IPV6INIT=no
USERCTL=no
EOF
#設置bond參數,注意mode選擇
cat > /etc/modprobe.conf << EOF
alias bond0 bonding
options bond0 miimon=100 mode=6
EOF
#加入開機自啟動參數
cat >> /etc/rc.local << EOF
ifenslave bond0 eth0 eth2
EOF
#重啟網卡
service network restart
#使綁定網卡立即生效
ifenslave bond0 eth0 eth2
#測試綁定網路
ping 10.3.3.1
常用3種網卡綁定模式對比
mode=0
中斷任意一條鏈路或恢復鏈路,網路0丟包
優點:流量提高1倍
缺點:需要接入同一交換機做聚合配置,無法保證物理交換機高可用(Cisco似乎有解決方案?)
mode=1
中斷任意一條鏈路丟失1-3個包(秒),恢復鏈路時0丟包
優點:交換機無需配置
缺點:如上
mode=6
中斷任意一條鏈路0丟包,恢復鏈路時丟失10-15個包(秒)
優點:交換機無需配置,流量提高1倍
Ⅳ 乙太網鏈路聚合中靜態聚合模式與動態聚合模式有什麼不同
1、配套方式不同
動態聚合要同埠匹配方式為強制相配套使用,因為如果埠匹配方式為自適應,那麼當物理鏈路質量不好時,可能埠狀態頻繁出現變化,相應的聚合組狀態也會頻繁出現up、down故障。
靜態聚合組要和埠匹配方式為自適應相配套,因為:如果埠匹配方式為強制模式,那麼當單纖芯發生故障時,接收正常的埠是處於UP狀態的,設備會繼續往該埠發出數據流,但實際上對端接收不到,導致單通情況出現。
2、對接方式不同
動態聚合對接的雙方通過交互LACP(鏈路聚合控制協議)協議報文,來協商聚合對接。
對接雙方不交互LACP報文,僅看物理埠狀態是否UP。
3、優缺點不同
動態聚合
優點:對接雙方相互交互埠狀態信息,使埠狀態能保持一致;
缺點:不同廠家對接可能因為協議報文的處理機制等不同,產生對接異常。
靜態聚合
優點:不同廠家之間無需擔心協議報文協商問題。
缺點:單根纖芯發生故障時,可能出現收端正常的一方埠處於UP,而出現單通,所以這種情況一般要求埠匹配狀態為自適應狀態。
(5)伺服器網卡聚合模式怎麼看擴展閱讀:
隨著網路規模不斷擴大,用戶對骨幹鏈路的帶寬和可靠性提出越來越高的要求。在傳統技術中常用更換高速率的介面板或更換支持高速率介面板設備的方式來增加帶寬,但這種方案需要付出高額的費用,而且不夠靈活。
採用鏈路聚合技術可以在不進行硬體升級的條件下,通過將多個物理介面捆綁為—個邏輯介面,達到增加鏈路帶寬的目的。在實現增大帶寬目的的同時,鏈路聚合採用備份鏈路的機制,可以有效地提高設備之間鏈路的可靠性。
Ⅵ 網卡聚合模式mode1為什麼交換機不用配置
網卡bond是通過把多張網卡綁定為一個邏輯網卡,實現本地網卡的冗餘,帶寬擴容和負載均衡。在應用部署中是一種常用的技術,我們公司基本所有的項目相關伺服器都做了bond,這里總結整理,以便待查。
bond模式:
Mode=0(balance-rr) 表示負載分擔round-robin,和交換機的聚合強制不協商的方式配合。
Mode=1(active-backup) 表示主備模式,只有一塊網卡是active,另外一塊是備的standby,這時如果交換機配的是捆綁,將不能正常工作,因為交換機往兩塊網卡發包,有一半包是丟棄的。
Mode=2(balance-xor) 表示XOR Hash負載分擔,和交換機的聚合強制不協商方式配合。(需要xmit_hash_policy)
Mode=3(broadcast) 表示所有包從所有interface發出,這個不均衡,只有冗餘機制...和交換機的聚合強制不協商方式配合。
Mode=4(802.3ad) 表示支持802.3ad協議,和交換機的聚合LACP方式配合(需要xmit_hash_policy)
Mode=5(balance-tlb) 是根據每個slave的負載情況選擇slave進行發送,接收時使用當前輪到的slave
Mode=6(balance-alb) 在5的tlb基礎上增加了rlb。
5和6不需要交換機端的設置,網卡能自動聚合。4需要支持802.3ad。0,2和3理論上需要靜態聚合方式
但實測中0可以通過mac地址欺騙的方式在交換機不設置的情況下不太均衡地進行接收。
Ⅶ 什麼是網卡匯聚
一般情況下,配置為中高端的無憂無盤伺服器帶了100台以上終端,當突發流量高的時候會卡,這樣的情況可通過埠匯聚(truck),提高網路的吞吐量來解決網路擁塞問題。以常用的核心交換機D-Link的DGS-1248T、接入交換機D-Link的DIS-2024T為例,介紹埠聚合實現過程。
在做埠匯聚前檢測各網口及主板是否支持千兆,所有硬體完成後可非常簡單的支持多網口匯聚,並能夠最大限度發揮無憂網維和無憂無盤的性能優勢。要提高網路的吞吐量,您需要 做3件事:
第一步:為每台接入交換機准備2根1000M的六類線,將您上聯到核心交換機(D-Link DGS-1248T)的網線,插入到的接入交換機(D-Link DIS-2024T)的23、24口(注意:必須是23、24口,才支持trunk,出廠時已做好設置)。這樣可以將原來只有1G的主幹網路升級到2G。提高網路並發能力。
第二步:另一端,此時不能馬上插入到核心交換機(D-Link DGS-1248T)上,否則會引起網路環路,導致網路風暴。您可以看一下說明書,看看1248T的默認管理地址是什麼,一般D-Link的可網管設備的ip是192.168.0.1。您可以通過網頁訪問192.168.0.1,默認帳號密碼應該都是admin。千萬注意,您的網路上不能有沖突的ip存在哦。
如果能登錄網頁,那麼恭喜你可以開始第二步了。在網頁中,選擇trunk或者埠聚合菜單項,會顯示出所有埠的名字,並帶有選擇框。您可以把1、2,做成一個trunk,然後3、4做成一個trunk,依次類推,直到把你所有的接入交換機都做好。最後再多做一個trunk為伺服器准備。
現在可以把您的所有2024T的2條網線,按之前設置好的trunk埠,插入進去了,千萬注意,必須配對插入,一台2024T的23、24口,接入到一個trunk的2個口上,不能亂插哦。如果兩邊的交換機,2個埠開始同步閃爍了,那麼恭喜你,第二部完成了;
第三步:在您的伺服器上安裝intel網卡的專用驅動,包括附帶的軟體,這一點很重要。如果只是用普通的windows server安裝盤安裝的話,只會安裝基本的網卡驅動,不會有網卡聚合軟體設置的。安裝好後,進入網卡屬性頁面,會多出一個埠聚合的選項頁面。將您伺服器上2個網卡打勾後確定。這時您會發現多出第三塊網卡。
最後一步,把兩個網卡都接入到核心交換機上最後為伺服器預留的那個trunk對應的2個網口上。如果伺服器桌面右下角托盤位置,第三塊網卡點亮狀態,並顯示2G,那麼恭喜您大功告成了
Ⅷ 如何掌握 Windows Server 2012 網卡聚合
Windows Server 2012的推出被稱為「雲操作系統「,想必這個操作系統在虛擬化領域,在網路和存儲層面,在接入和安全層面都會有很有實力的功能體現。今天給大家介紹的網卡聚合能力就是充分利用匯總方式提高伺服器整體網路性能,進而實現在高密度業務負載環境,高可用網路環境下的需求,當然除了網卡聚合功能單方面提升消除CPU的瓶頸也是重點,例如Offload卡,SRIOV, RSS,VMQ隊列等等技術在Server 2012中你都能找到配套的核心技術支撐。今天這篇博客重點介紹一下Windows Server 2012中網卡聚合的功能。
說到網卡聚合,可能大家並不陌生,而且這個在」虛擬化世界「里尤為重要的功能,原來Windows Server 2008 R2中並不能提供支持,而是需要依靠HP,DELL,Intel,Broadcom等公司自己提供的軟體進行設置和支持,但是這是不夠的,要知道通過一個硬體廠商提供的聚合功能軟體僅能對同種品牌的網卡進行統一的支持,這對於一個要求具有更多選擇權和靈活性的數據中心而言是不夠好的。當然你知道的,在Windows Server 2012中我們苦等的內置的,虛擬化環境所依賴的功能終於實現了在操作系統中的預置;因此充分了解合理利用這個功能是十分有益的。
那麼什麼是網路聚合或者Windows Server 2012中定義的網路聚合?在Server 2012中網路聚合有種稱謂叫做LBOF(Load Balance and failover)字面上也很好理解,就是負載均衡同時實現故障切換功能的網路通道,熟悉這個LBOF灰常有意義,因為實現和查看網卡聚合狀態需要用到的Powershell CMDLET就涉及了這個詞彙;有了這個操作系統層面的功能,就可以將不同品牌的同質的網卡進行組合實現:
1. 網路帶寬捆綁
2. 當網路組件出現故障時可以被檢測到並自動進行故障轉移
舉例來說如果你不是配置成「主備」模式而是「雙活」模式的網卡聚合,那麼兩個1GbE的千兆網卡可以實現2Gb的總吞吐,如果是兩個萬兆網卡就可以實現20Gb的總吞吐以此類推。Windows Server 2012支持多少個網卡進行捆綁呢?答案是32個!這是個絕對足夠大的帶寬:)
Server 2012支持兩種網路聚合模式,在配置網路聚合的時候默認的是選擇第一種模式:
交換機獨立模式
這種模式最為通用,因為不要求交換機參與網路聚合,因此交換機並不知道在聚合網路中的網卡屬於主機中一個網卡聚合組,所以網卡可以連接不同的交換機不過交換機獨立模式並不要求聚合組中的網卡連接到不同的交換機。
而且在連接不同交換機時採用的是主備模式,只有在連接在同一交換機時才可以實現負載均衡聚。
交換機依賴模式
這種模式需要交換機參與網路聚合,並且要求所有網路聚合組網卡連接到同一個物理交換機或者以級聯多交換機方式實現的對外顯示為單一物理交換機的方式;根據交換機支持的模式可以有兩種模式選擇:
通用的靜態聚合模式即IEEE 802.3ad
這種模式需要在交換機上靜態設置指定匯聚組中的網卡連接。由於這種方式需要靜態指定,因此沒有動態協商協議機制幫助交換機判斷線纜連接的正確與否或是否有其他錯誤導致聚合失敗。
動態聚合模式即IEEE 802.1ax或LACP( 鏈路匯聚控制協議)
這種模式由於有了LACP協議的支持,可以動態的識別伺服器和交換機的連接,進而實現動態地創建聚合組,添加和移除組成員等工作,現在多數交換機都支持LACP即802.1ax協議,不過也大多需要在伺服器連接的交換機埠中手工啟用此功能。
通過圖形方法配置,如果在Server 2012中啟用了圖形界面管理功能,可以利用伺服器管理器簡單的創建網路聚合。
當然,通過Powershell命令行是個很好的方式,先看看可以針對LBFO進行哪些操作:
創建一個網卡聚合組「NIC Teaming」,將所有本機物理網卡添加到這個組中,並且設置模式為交換機獨立模式,負載均衡模式為默認哈希:
看看創建之後的網路設備,是不是多了一個NIC Teaming網卡?
當然,你也可以通過Powershell看到這個網路聚合網卡的狀態。
Ⅸ 多網卡伺服器怎麼匯聚
雙擊它啟動安裝程序如果是win xp系統會提示,點繼續安裝,一路next軟體提示輸入unlock key(注冊碼),如果沒有注冊碼,就只好點擊demo,選擇試用,這樣可以獲得30天的免費試用期,在這30天里如果覺得不錯。什麼是load balancing 功能呢?load balancing的中文意思可以翻譯為負載均衡,在這里就是網路負載均衡。也就是當多塊網卡被綁定合一之後,當數據流量很大的時候,軟體會自動調整,將數據流量負載均衡地分配到各個網卡上,以減輕單塊網卡的壓力,達到暢快的訪問效果。我們綁定雙網卡,其中目的之一就是為了實現負載均衡,我們自然要開啟這個功能,所以,在這里一定要選「enabled」。當然,如果你在這里選擇錯了也沒關系,今後也可以通過nic express軟體管理界面開啟。到了下圖所示界面,就到了真正綁定網卡的時候了,這個界面一共分為上、中、下,三個窗口,上面的是空白,中間的默認是new array,你也可以根據自己喜好,寫成自己的名字。在最上面的窗口裡列出了目前伺服器上安裝的三塊網卡的名字。我們下一步就是要用滑鼠選中上面的網卡名字,然後點擊界面中間的add鍵把三塊網卡加入下面的窗口裡,這樣幾塊網卡就這樣被加入了網卡組里,初步綁定成一塊「網卡」,今後可以使用同一個ip地址了。點擊ok繼續,nic express出現一個配置界面,選項很多,但是不必太操心,因為這些配置都不必修改,使用默認值就可以了,直接點擊ok、點擊finish完成安裝進程。至此軟體安裝基本結束,剩下就需要對軟體和網卡進行一些必要的設置工作。點擊「開始」菜單,選擇執行菜單里的「nic express enterprise edition」選項,這是nic express軟體自帶的一個監控程序,首先點擊「setting」選項,在這里可以設置網卡流量計量單位,可以按照packets/sec、mbits/sec、kbits/sec三種單位來計算,一般都是使用默認的mbits/sec來計算,也就是兆/每秒,其實在這里只需要修改一下「graph detail(圖形顯示)」即可,將默認的「by protocol」改成「by incoming/outgoing」,別的不需要改。如果你想分別觀察綁定組中每塊網卡的流量或者整個組的流量,只需在「select device」選項中選擇一下設備即可。最後點擊「advanced」選項,設定網卡綁定的工作模式,在這里也可以點擊「load balancing disable」來關閉網卡負載均衡功能。使用nic express綁定的雙網卡組默認工作於「nic express elb」模式下,這是nic express所特有的一種工作模式,實際效果很好。我們都知道利用昂貴的intel proset綁定的intel 8255x的組合是運行在「802.3ad」工作模式下的,這一模式在nicexpress中也可以選擇,但是多數使用者在實際使用後都認為「nic express elb」模式的效果優於「802.3ad」模式,大家今後可以自己實踐測試比較一下。如果你也使用默認的「nic express elb」模式,那麼「advanced」選項里也就不用改什麼,一切默認即可。至此nic express的設置結束。綁定「虛擬網卡」設定最後還要看看網卡的設置,用滑鼠在桌面「網上鄰居」上點擊右鍵彈出「網路和撥號連接」窗口,可以看到原來的三個網卡連接圖標已經變成了四個,多出來的一個圖標就是「nic express virtual adapter」,這個就是綁定後的網卡組,這個網卡組的使用和使用單一網卡完全一樣,相當於一個單一的「虛擬網卡」。用滑鼠在這個圖標上點擊右鍵選擇屬性,可以為這個「虛擬網卡」設定ip地址、子網掩碼、網關等等,其實在安裝「nic express」過程中,如果伺服器原來的單一網卡已經設置了這些,那麼「虛擬網卡」就會自動設定和原來的網卡一樣。在這里選擇「nic express transport for ethernet」還可以自由對網卡綁定組進行調整,例如,減少或者加入一塊網卡,這個較之intel proset要方便許多,intel proset在增加或者減少綁定組里的網卡之前必須刪除原來的綁定組然後重新創建。