Ⅰ linux 網卡bond的七種模式
網卡bond是通過多張網卡綁定為一個邏輯網卡,實現本地網卡的冗餘,帶寬擴容和負載均衡,在生產場景中是一種常用的技術。Kernels 2.4.12及以後的版本均供bonding模塊,以前的版本可以通過patch實現。可以通過以下命令確定內核是否支持 bonding:
鏈路負載均衡,增加帶寬,支持容錯,一條鏈路故障會自動切換正常鏈路。交換機需要配置聚合口,思科叫port channel。
這個是主備模式,只有一塊網卡是active,另一塊是備用的standby,所有流量都在active鏈路上處理,交換機配置的是捆綁的話將不能清租橡工作,因為交換機往兩塊網卡發包,有一半包是丟棄的。
表示XOR Hash負載分擔,和交換機的聚合強制不協商方式配合。(需要xmit_hash_policy,需要交換機配置port channel)
表示所有包從所有網路介面發出,這個不均衡,只有冗餘機制,但過於浪費資源。此模式適用於金融行業,因為他們需要高可靠性的網路,不允許出現任何問題。需要和交換機的聚合強制不協商方式配合。
表示支持802.3ad協議,和交換機的聚合LACP方式配合(需要xmit_hash_policy).標准要求所有設備在聚合操作時,要在同樣的速率和雙工模式,而且,和除了balance-rr模式外的其它bonding負載均衡模式一樣,任何連接都不能使用多於一個介面的帶寬。
是根據每個slave的負載情況選擇slave進行發送,接收時使用當前輪到的slave。該模式要求slave介面的網路設備驅動有某種ethtool支持;而且ARP監控不可用。
在5的tlb基礎上增加了rlb(接收負載均衡receive load balance).不需要任何switch(交換機)的支持。接收負載均衡是通過ARP協商實現的.
mode5和mode6不需要交換機端的設置,網卡能自動聚合。mode4需要支持802.3ad。mode0,mode2和mode3理論上需要靜態聚合方式。
但實測中mode0可以通過mac地址欺騙的方式在交換機不設置的情況下不太均衡地進行接收。
1、首先要看linux是否支持bonding,大部分發行版都支持
如輸出以上信息,則說明支持bonding,如果沒有,說明內核不支持bonding,需要重新編譯內核
2、答旁網卡配置文件
兩個物理網口分別是:eth0,eth1 綁定後的虛擬口是:bond0
開機自動載入模塊到內核
每100毫秒 (即0.1秒) 監測一次路連接狀態,如果有一條線路不通就轉入另一條線路; Linux的多網卡綁定功能使用的是內核中的"bonding"模塊
如果修改為其它模式,只需要在BONDING_OPTS中指定mode=Number即可。USERCTL=no --是否允許非root用戶控制該設備
查看bond0狀態:可以看到調用的是哪幾個物理網卡
三、擴展
上邊是兩個網卡(eth0、eth1)綁定成一個bond0,如果我們要設置多個bond口,比如物理網口eth0和eth1組成bond0,eth2和型罩eth3組成bond1,那麼網口設置文件的設置方法和上面
是一樣的,只是/etc/modprobe.d/dist.conf文件就不能疊加了。正確的設置方法有兩種:
1、第一種
這樣所有的綁定只能使用一個mode了。
2、第二種
這種方式不同的bond口可以設定為不同的mode,注意開機自動啟動/etc/rc.d/rc.local文件的設置
http://lixin15.blog.51cto.com/3845983/1769338
http://linuxnote.blog.51cto.com/9876511/1680315
Ⅱ linux伺服器埠聚合怎麼設置
基礎配置信息
常用的三種Bond模式
配置過程以mode=6為例,其它7種模式請參考擴展閱讀
mode=0:平衡負載模式,有自動備援,但需要」Switch」支援及設定。 mode=1:自動備援模式,其中一條線若斷線,其他線路將會自動備援。 mode=6:平衡負載模式,有自動備援,不必」Switch」支援及設定。
物理介面
2015610165454336.jpg (274×145)
CentOS版本
復制代碼代碼如下:
datanode01:~>cat /etc/redhat-release
CentOS release 6.4 (Final)
禁用NetworkManager
復制代碼代碼如下:
#立即關閉禁用NetworkManager並禁用開機自啟動
/etc/init.d/NetworkManager stop
chkconfig NetworkManager off
/etc/init.d/network restart
關閉iptables和selinux(可選)
復制代碼代碼如下:
#立即關閉iptables並禁用開機自啟動
/etc/init.d/iptables stop
chkconfig iptables off
#立即關閉selinux並永久禁用
setenforce 0
sed -i 『s/SELINUX=enforcing/SELINUX=disabled/『 /etc/selinux/config
修改主機名
復制代碼代碼如下:
vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=namenode01
#刷新生效
hostname namnode01
source /etc/sysconfig/network
配置IP
私有地址
復制代碼代碼如下:
cd /etc/sysconfig/network-scripts
[root@datanode09 network-scripts]# cat ifcfg-eth3
DEVICE=eth3
ONBOOT=yes
BOOTPROTO=none
IPADDR=10.129.46.19
NETMASK=255.255.255.0
IPV6INIT=no
USERCTL=no
雙網卡綁定
復制代碼代碼如下:
cd /etc/sysconfig/network-scripts
#編輯eth0
cat > ifcfg-eth0 << EOF
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
MASTER=bond0
EOF
#編輯eth2
cat > ifcfg-eth2 << EOF
DEVICE=eth2
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
MASTER=bond0
EOF
#編輯bond0
cat > ifcfg-bond0 << EOF
DEVICE=bond0
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=none
IPADDR=10.3.3.214
NETMASK=255.255.255.0
GATEWAY=10.3.3.1
IPV6INIT=no
USERCTL=no
EOF
#設置bond參數,注意mode選擇
cat > /etc/modprobe.conf << EOF
alias bond0 bonding
options bond0 miimon=100 mode=6
EOF
#加入開機自啟動參數
cat >> /etc/rc.local << EOF
ifenslave bond0 eth0 eth2
EOF
#重啟網卡
service network restart
#使綁定網卡立即生效
ifenslave bond0 eth0 eth2
#測試綁定網路
ping 10.3.3.1
常用3種網卡綁定模式對比
mode=0
中斷任意一條鏈路或恢復鏈路,網路0丟包
優點:流量提高1倍
缺點:需要接入同一交換機做聚合配置,無法保證物理交換機高可用(Cisco似乎有解決方案?)
mode=1
中斷任意一條鏈路丟失1-3個包(秒),恢復鏈路時0丟包
優點:交換機無需配置
缺點:如上
mode=6
中斷任意一條鏈路0丟包,恢復鏈路時丟失10-15個包(秒)
優點:交換機無需配置,流量提高1倍
Ⅲ Linux裡面什麼是聚合模式
將多個Linux網路埠綁定為一個,可以提升網路的性能,比如對於備份伺服器,需要在一個晚上備份幾個T的數據,如果使用單個的千兆網口將會是很嚴重的塌孝掘瓶頸。其團核它的應用,比如ftp伺服器,高負載的下載網站, 都有類慎穗似的問題。因此使用Linux teaming或bond來綁定多個網卡作為一個邏輯網口,配置單個的IP地址,會大幅提升伺服器的網路吞吐(I/O)。
Linux的多網卡綁定功能使用的是內核中的"bonding"模塊,關於此模塊可以參考Linux Ethernet Bonding Driver文檔, 但是目前發布各個Linux版本內核均已包含了此模塊,大多數情況下不需要重新編譯內核。 Linux 的 bonding 驅動提供了綁定/集成(bond)多個網卡為一個虛擬邏輯網口的功能。並請注意綁定的網口(bonded)有多種工作模式; 一般來說,分為 熱後備(hot standby) 和 負載均衡(load balancing). 在Redhat/Fedora和其它類Redhat Linux中是比較容易配置的。
Ⅳ Linux系統如何配置鏈路聚合,實現流量負載均衡
本文主要解決3個問題:
第一、鏈路聚合的定義和作用是什麼?
第二、如何配置鏈路聚合?
第三、鏈路聚合的實際應用場景有那些?
第一、鏈路聚合的定義和作用是什麼?
答:鏈路聚合的定義:鏈路聚合,官方稱聚合鏈接,民間又稱網卡組隊,具體指的是將多個網卡綁定在一起組建一個虛擬網卡,外界與虛擬網卡進行通信,虛擬網卡再將信息進行分發;
鏈路聚合的作用:可以實現輪詢式的流量負載均衡和熱備份的作用;
舉個栗子:
鏈路聚合就好比是一個包工頭,這個包工頭為了多賺錢,多接訂單,肯定需要找多個小弟;
這樣就可以保障,萬一有一個小弟感冒了,不能上班,這時有其他小弟可以頂上;
當客戶需要蓋房子的時候,直接找包工頭就好了,不需要一個一個的去找建築工人;
第二、如何配置鏈路聚合?
答:
1、配置鏈路聚合的命令是:
nmcli connection add type team con-name team0 ifname team0 autoconnect yes config '{"runner": {"name": "activebackup"}}'
譯為:nmcli connection 添加 類型 team(組隊)
配置文件名 team0 網卡名 team0 每次開機自動啟用
配置運行模式 熱備份模式
整體譯為:為系統網卡添加一個 team (團隊),團隊名稱叫 team0 ,配置文件也叫 team0 , 並且設置為開機自動啟動,配置運行模式為熱備份模式;
2、為鏈路聚合添加成員的命令是:
nmcli connection add type team-slave con-name team0-1 ifname eth1 master team0 ;
nmcli connection add type team-slave con-name team0-2 ifname eth2 master team0;
注釋:nmcli connection 添加 類型為 team的成員
配置文件名 team0-1 網卡為 eth1 主設備為 team0
整體譯為:為主設備team0添加兩張網卡,eth1和eth2;
3、為tem0配置ip地址的命令是:
nmcli connection modify team0 ipv4.method manual ipv4.addresses
「IP 地址 / 子網掩碼」 connection.autoconnect yes
4、激活team0的命令是:
nmcli connection up team0
第三、鏈路聚合的實際應用場景有那些?
答:當伺服器提供比較重要的服務時,只准備一張網卡是遠遠不夠的,因為一但網卡出現故障,客戶就無法訪問,這就會造成客戶流失,體驗感差;
這個時候就可以運用鏈路聚合的方法來解決,將多張網卡綁定在一起創建一張虛擬網卡,從而實現網卡熱備份,流量輪詢式負載均衡;
以此來保障伺服器能夠正常提供服務,給用戶以良好的體驗;
注意事項:
在創建虛擬網卡和添加成員時,如果命令敲錯了,一定要刪除錯誤的信息,以免造成通信混亂;
刪除的命令是:nmcli connection delete team0 (team0或team x)
查看team0的信息命令是: teamdctl team0 state
以上.......
(本篇完)
祝:開心!
羅貴
2019-03-24
Ⅳ Linuxbond聚合模式修改後無法生效
一、網卡綁定:
第一步:創建一個ifcfg-bondX
# vi /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
BONDING_OPTS="mode=0 miimon=100"
BOOTPROTO=none
ONBOOT=yes
BROADCAST=192.168.0.255
IPADDR=192.168.0.180
NETMASK=255.255.255.0
NETWORK=192.168.0.0
USERCTL=no
BONDING_OPTS="mode=0 miimon=100" ,mode有多種模式實現不同的功能,
第二步:修改/etc/sysconfig/network-scripts /ifcfg-ethX
# vi /etc/sysconfig/network-scripts /ifcfg-eth0
DEVICE=eth0
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
# vi /etc/sysconfig/network-scripts /ifcfg-eth1
DEVICE=eth1
BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
第三步:配置/etc/modprobe.conf,添加alias bond0 bonding
# vi /etc/modprobe.conf
alias eth0 e1000e
alias eth1 e1000e
alias scsi_hostadapter mptbase
alias scsi_hostadapter1 mptspi
alias bond0 bonding
第四步:重啟網路服務
#service network restart
通過查看/proc/net/bonding/bond0,查看當前是用什麼mode,如果是主備的話,當前是哪個網卡工作。
# cat/proc/net/bonding/bond0
Ethernet ChannelBonding Driver: v3.0.3 (March 23, 2006)
Bonding Mode: fault-tolerance (active-backup)
Primary Slave:None
Currently Active Slave: eth0
MII Status: up
MII PollingInterval (ms): 100
Up Delay (ms): 0
Down Delay (ms):0
Slave Interface:eth0
MII Status: up
Link FailureCount: 0
Permanent HWaddr: 00:0c:29:01:4f:77
Slave Interface:eth1
MII Status: up
Link FailureCount: 0
Permanent HWaddr: 00:0c:29:01:4f:8b
二、七種bond模式說明:
第一種模式:mod=0 ,即:(balance-rr) Round-robin policy(平衡掄循環策略)
特點:傳輸數據包順序是依次傳輸(即:第1個包走eth0,下一個包就走eth1….一直循環下去,直到最後一個傳輸完畢),此模式提供負載平衡和容錯能力;但是我們知道如果一個連接或者會話的數據包從不同的介面發出的話,中途再經過不同的鏈路,在客戶端很有可能會出現數據包無序到達的問題,而無序到達的數據包需要重新要求被發送,這樣網路的吞吐量就會下降
第二種模式:mod=1,即: (active-backup) Active-backup policy(主-備份策略)
特點:只有一個設備處於活動狀態,當一個宕掉另一個馬上由備份轉換為主設備。mac地址是外部可見得,從外面看來,bond的MAC地址是唯一的,以避免switch(交換機)發生混亂。此模式只提供了容錯能力;由此可見此演算法的優點是可以提供高網路連接的可用性,但是它的資源利用率較低,只有一個介面處於工作狀態,在有 N 個網路介面的情況下,資源利用率為1/N
第三種模式:mod=2,即:(balance-xor) XOR policy(平衡策略)
特點:基於指定的傳輸HASH策略傳輸數據包。預設的策略是:(源MAC地址 XOR 目標MAC地址) % slave數量。其他的傳輸策略可以通過xmit_hash_policy選項指定,此模式提供負載平衡和容錯能力
第四種模式:mod=3,即:broadcast(廣播策略)
特點:在每個slave介面上傳輸每個數據包,此模式提供了容錯能力
第五種模式:mod=4,即:(802.3ad) IEEE 802.3adDynamic link aggregation(IEEE 802.3ad 動態鏈接聚合)
特點:創建一個聚合組,它們共享同樣的速率和雙工設定。根據802.3ad規范將多個slave工作在同一個激活的聚合體下。
外出流量的slave選舉是基於傳輸hash策略,該策略可以通過xmit_hash_policy選項從預設的XOR策略改變到其他策略。需要注意的是,並不是所有的傳輸策略都是802.3ad適應的,尤其考慮到在802.3ad標准43.2.4章節提及的包亂序問題。不同的實現可能會有不同的適應性。
必要條件:
條件1:ethtool支持獲取每個slave的速率和雙工設定
條件2:switch(交換機)支持IEEE 802.3ad Dynamic link aggregation
條件3:大多數switch(交換機)需要經過特定配置才能支持802.3ad模式
第六種模式:mod=5,即:(balance-tlb) Adaptive transmit load balancing(適配器傳輸負載均衡)
特點:不需要任何特別的switch(交換機)支持的通道bonding。在每個slave上根據當前的負載(根據速度計算)分配外出流量。如果正在接受數據的slave出故障了,另一個slave接管失敗的slave的MAC地址。
該模式的必要條件:ethtool支持獲取每個slave的速率
第七種模式:mod=6,即:(balance-alb) Adaptive load balancing(適配器適應性負載均衡)
特點:該模式包含了balance-tlb模式,同時加上針對IPV4流量的接收負載均衡(receive load balance, rlb),而且不需要任何switch(交換機)的支持。接收負載均衡是通過ARP協商實現的。bonding驅動截獲本機發送的ARP應答,並把源硬體地址改寫為bond中某個slave的唯一硬體地址,從而使得不同的對端使用不同的硬體地址進行通信。