導航:首頁 > 配伺服器 > 伺服器怎麼實現兩個網卡綁定

伺服器怎麼實現兩個網卡綁定

發布時間:2023-01-07 03:35:38

linux下雙網卡綁定七種模式

現在一般的企業都會使用雙網卡接入,這樣既能添加網路帶寬,同時又能做相應的冗餘,可以說是好處多多。而一般企業都會使用linux操作系統下自帶的網卡綁定模式,當然現在網卡產商也會出一些針對windows操作系統網卡管理軟體來做網卡綁定(windows操作系統沒有網卡綁定功能 需要第三方支持)。進入正題,linux有七種網卡綁定模式:0. round robin,1.active-backup,2.load balancing (xor), 3.fault-tolerance (broadcast), 4.lacp, 5.transmit load balancing, 6.adaptive load balancing。 第一種:bond0:round robin標准:round-robin policy: Transmit packets in sequential order from the first available slave through the last. This mode provides load balancing and fault tolerance.

特點:(1)所有鏈路處於負載均衡狀態,輪詢方式往每條鏈路發送報文,基於per packet方式發送。服務上ping 一個相同地址:1.1.1.1 雙網卡的兩個網卡都有流量發出。負載到兩條鏈路上,說明是基於per packet方式 ,進行輪詢發送。(2)這模式的特點增加了帶寬,同時支持容錯能力,當有鏈路出問題,會把流量切換到正常的鏈路上。

實際綁定結果: cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: load balancing (round-robin) -----RR的模式 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 74:ea:3a:6a:54:e3 Slave Interface: eth1 MII Status: up Link Failure Count: 0

應用拓撲:交換機端需要配置聚合口,cisco叫port channel。拓撲圖如下:

第二種:bond1:active-backup標准文檔定義:Active-backup policy: Only one slave in the bond is active. A different slave becomes active if, and only if, the active slave fails. The bond's MAC address is externally visible on only one port (network adapter) to avoid confusing the switch. This mode provides fault tolerance. The primary option affects the behavior of this mode.

模式的特點:一個埠處於主狀態 ,一個處於從狀態,所有流量都在主鏈路上處理,從不會有任何流量。當主埠down掉時,從埠接手主狀態。

實際綁定結果: root@1:~# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: fault-tolerance (active-backup) —–backup模式 Primary Slave: None Currently Active Slave: eth0 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 74:ea:3a:6a:54:e3 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: d8:5d:4c:71:f9:94

應用拓撲:這種模式接入不需要交換機端支持,隨便怎麼接入都行。

第三種:bond2:load balancing (xor)標准文檔描述:XOR policy: Transmit based on [(source MAC address XOR'd with destination MAC address) molo slave count]. This selects the same slave for each destination MAC address. This mode provides load balancing and fault tolerance.

特點:該模式將限定流量,以保證到達特定對端的流量總是從同一個介面上發出。既然目的地是通過MAC地址來決定的,因此該模式在"本地"網路配置下可以工作得很好。如果所有流量是通過單個路由器(比如 "網關"型網路配置,只有一個網關時,源和目標mac都固定了,那麼這個演算法算出的線路就一直是同一條,那麼這種模式就沒有多少意義了。),那該模式就不是最好的選擇。和balance-rr一樣,交換機埠需要能配置為"port channel"。這模式是通過源和目標mac做hash因子來做xor演算法來選路的。

實際綁定結果: [root@localhost ~]# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.0.3 (March 23, 2006) Bonding Mode: load balancing (xor) ——配置為xor模式 Transmit Hash Policy: layer2 (0) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: 00:d0:f8:40:f1:a0 Slave Interface: eth2 MII Status: up Link Failure Count: 0 Permanent HW addr: 00:d0:f8:00:0c:0c

應用拓撲:同bond0一樣的應用模型。這個模式也需要交換機配置聚合口。

第四種:bond3:fault-tolerance (broadcast)標准文檔定義:Broadcast policy: transmits everything on all slave interfaces. This mode provides fault tolerance.

特點:這種模式的特點是一個報文會復制兩份往bond下的兩個介面分別發送出去,當有對端交換機失效,我們感覺不到任何downtime,但此法過於浪費資源;不過這種模式有很好的容錯機制。此模式適用於金融行業,因為他們需要高可靠性的網路,不允許出現任何問題。

實際綁定結果: root@ubuntu12:~/ram# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: fault-tolerance (broadcast) ——- fault-tolerance 模式 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 74:ea:3a:6a:54:e3 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: d8:5d:4c:71:f9:94

應用拓撲:如下:

這種模式適用於如下拓撲,兩個介面分別接入兩台交換機,並且屬於不同的vlan,當一邊的網路出現故障不會影響伺服器另一邊接入的網路正常工作。而且故障過程是0丟包。下面展示了這種模式下ping信息: 64 bytes from 1.1.1.1: icmp_seq=901 ttl=64 time=0.205 ms 64 bytes from 1.1.1.1: icmp_seq=901 ttl=64 time=0.213 ms (DUP!) —p為重復報文 64 bytes from 1.1.1.1: icmp_seq=902 ttl=64 time=0.245 ms 64 bytes from 1.1.1.1: icmp_seq=902 ttl=64 time=0.254 ms (DUP!) 64 bytes from 1.1.1.1: icmp_seq=903 ttl=64 time=0.216 ms 64 bytes from 1.1.1.1: icmp_seq=903 ttl=64 time=0.226 ms (DUP!) 從這個ping信息可以看到,這種模式的特點是,同一個報文伺服器會復制兩份分別往兩條線路發送,導致回復兩份重復報文,這種模式有浪費資源的嫌疑。

第五種:bond4:lacp

標准文檔定義:IEEE 802.3ad Dynamic link aggregation. Creates aggregation groups that share the same speed and plex settings. Utilizes all slaves in the active aggregator according to the 802.3ad specification. Pre-requisites: 1. Ethtool support in the base drivers for retrieving.the speed and plex of each slave. 2. A switch that supports IEEE 802.3ad Dynamic link aggregation. Most switches will require some type of configuration to enable 802.3ad mode.

特點:802.3ad模式是IEEE標准,因此所有實現了802.3ad的對端都可以很好的互操作。802.3ad 協議包括聚合的自動配置,因此只需要很少的對交換機的手動配置(要指出的是,只有某些設備才能使用802.3ad)。802.3ad標准也要求幀按順序(一定程度上)傳遞,因此通常單個連接不會看到包的亂序。802.3ad也有些缺點:標准要求所有設備在聚合操作時,要在同樣的速率和雙工模式,而且,和除了balance-rr模式外的其它bonding負載均衡模式一樣,任何連接都不能使用多於一個介面的帶寬。 此外,linux bonding的802.3ad實現通過對端來分發流量(通過MAC地址的XOR值),因此在"網關"型配置下,所有外出(Outgoing)流量將使用同一個設備。進入(Incoming)的流量也可能在同一個設備上終止,這依賴於對端802.3ad實現里的均衡策略。在"本地"型配置下,路兩將通過 bond里的設備進行分發。

實際綁定結果: root@:~# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: IEEE 802.3ad Dynamic link aggregation Transmit Hash Policy: layer2 (0) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 802.3ad info LACP rate: slow Aggregator selection policy (ad_select): stable Active Aggregator Info: Aggregator ID: 1 Number of ports: 1 Actor Key: 9 Partner Key: 1 Partner Mac Address: 00:00:00:00:00:00 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 74:ea:3a:6a:54:e3 Aggregator ID: 1 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: d8:5d:4c:71:f9:94 Aggregator ID: 2

應用拓撲:應用拓撲同bond0,和bond2一樣,不過這種模式除了配置port channel之外還要在port channel聚合口下開啟LACP功能,成功協商後,兩端可以正常通信。否則不能使用。

交換機端配置: interface AggregatePort 1 配置聚合口 interface GigabitEthernet 0/23 port-group 1 mode active 介面下開啟lacp 主動模式 interface GigabitEthernet 0/24 port-group 1 mode active

第六種:bond5: transmit load balancing

標准文檔定義:Adaptive transmit load balancing: channel bonding that does not require any special switch support. The outgoing traffic is distributed according to the current load (computed relative to the speed) on each slave. Incoming traffic is received by the current slave. If the receiving slave fails, another slave takes over the MAC address of the failed receiving slave. Prerequisite: Ethtool support in the base drivers for retrieving the speed of each slave.

特點:balance-tlb模式通過對端均衡外出(outgoing)流量。既然它是根據MAC地址進行均衡,在"網關"型配置(如上文所述)下,該模式會通過單個設備來發送所有流量,然而,在"本地"型網路配置下,該模式以相對智能的方式(不是balance-xor或802.3ad模式里提及的XOR方式)來均衡多個本地網路對端,因此那些數字不幸的MAC地址(比如XOR得到同樣值)不會聚集到同一個介面上。 不像802.3ad,該模式的介面可以有不同的速率,而且不需要特別的交換機配置。不利的一面在於,該模式下所有進入的(incoming)流量會到達同一個介面;該模式要求slave介面的網路設備驅動有某種ethtool支持;而且ARP監控不可用。

實際配置結果: cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.0.3 (March 23, 2006) Bonding Mode: transmit load balancing —–TLB模式 Primary Slave: None Currently Active Slave: eth1 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: 00:d0:f8:40:f1:a0 Slave Interface: eth2 MII Status: up Link Failure Count: 0 Permanent HW addr: 00:d0:f8:00:0c:0c

應用拓撲:這個模式下bond成員使用各自的mac,而不是上面幾種模式是使用bond0介面的mac。

如上圖,設備開始時會發送免費arp,以主埠eth1的mac為源,當客戶端收到這個arp時就會在arp緩存中記錄下這個mac對的ip。而在這個模式下,伺服器每個埠在ping操作時,會根據演算法算出出口,地址不斷變化時他,這時會負載到不同埠。實驗中ping1.1.1.3時往eth2發送,源mac為00:D0:F8:00:0C:0C,ping1.1.1.4是往eth1發送,源mac為00:D0:F8:40:F1:A0,以此類推,所以從伺服器出去的流量負載到兩條線路,但是由於服務發arp時只用00:D0:F8:40:F1:A0,這樣客戶端緩沖記錄的是00:D0:F8:40:F1:A0對的ip,封裝時目標mac:00:D0:F8:40:F1:A0。這樣進入服務的流量都只往eth1(00:D0:F8:40:F1:A0)走。設備會一直發入snap報文,eth1發送源為00d0.f840.f1a0的snap報文,eth2發送源為00d0.f800.0c0c的snap報文。這個snap報文mac和目標mac一樣都是網卡本地mac,源ip和目標ip也一樣,這個報文的作用是檢測線路是否正常的回環報文。 註:可以通過修改bond0的mac地址來引導他發修改後的源mac的免費arp(MACADDR=00:D0:F8:00:0C:0C)

第七種:bond6:adaptive load balancing特點:該模式包含了balance-tlb模式,同時加上針對IPV4流量的接收負載均衡(receive load balance, rlb),而且不需要任何switch(交換機)的支持。接收負載均衡是通過ARP協商實現的。bonding驅動截獲本機發送的ARP應答,並把源硬體地址改寫為bond中某個slave的唯一硬體地址,從而使得不同的對端使用不同的硬體地址進行通信。所有埠都會收到對端的arp請求報文,回復arp回時,bond驅動模塊會截獲所發的arp回復報文,根據演算法算到相應埠,這時會把arp回復報文的源mac,send源mac都改成相應埠mac。從抓包情況分析回復報文是第一個從埠1發,第二個從埠2發。以此類推。 (還有一個點:每個埠除發送本埠回復的報文,也同樣會發送其他埠回復的報文,mac還是其他埠的mac)這樣來自伺服器端的接收流量也會被均衡。 當本機發送ARP請求時,bonding驅動把對端的IP信息從ARP包中復制並保存下來。當ARP應答從對端到達時,bonding驅動把它的硬體地址提取出來,並發起一個ARP應答給bond中的某個slave(這個演算法和上面一樣,比如算到1口,就給發送arp請求,1回復時mac用1的mac)。使用ARP協商進行負載均衡的一個問題是:每次廣播 ARP請求時都會使用bond的硬體地址,因此對端學習到這個硬體地址後,接收流量將會全部流向當前的slave。這個問題通過給所有的對端發送更新(ARP應答)來解決,往所有埠發送應答,應答中包含他們獨一無二的硬體地址,從而導致流量重新分布。當新的slave加入到bond中時,或者某個未激活的slave重新激活時,接收流量也要重新分布。接收的負載被順序地分布(round robin)在bond中最高速的slave上 當某個鏈路被重新接上,或者一個新的slave加入到bond中,接收流量在所有當前激活的slave中全部重新分配,通過使用指定的MAC地址給每個 client發起ARP應答。下面介紹的updelay參數必須被設置為某個大於等於switch(交換機)轉發延時的值,從而保證發往對端的ARP應答不會被switch(交換機)阻截。 必要條件: 條件1:ethtool支持獲取每個slave的速率; 條件2:底層驅動支持設置某個設備的硬體地址,從而使得總是有個slave(curr_active_slave)使用bond的硬體地址,同時保證每個bond 中的slave都有一個唯一的硬體地址。如果curr_active_slave出故障,它的硬體地址將會被新選出來的 curr_active_slave接管。

實際配置結果: root@:/tmp# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: adaptive load balancing Primary Slave: None Currently Active Slave: eth0 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 74:ea:3a:6a:54:e3 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: d8:5d:4c:71:f9:94

應用拓撲:

A是雙網卡綁定。 當B 發送一個arp請求到達A時,按正常情況A會回應一個arp回應報文,源mac為bond的mac,源就是bond的ip。但是這個模式下bonding驅動會截獲這個arp回應,把源mac改成bond狀態 下其中某一個網卡的mac:mac1,這樣B收到這個arp回應時就會在arp緩存中記錄下ip:1.1.1.1對應的mac為mac1。這樣B的過來的流量都走MAC1. 當C 發送一個arp請求到達A時,按正常情況A會回應一個arp回應報文,源mac為bond的mac,源就是bond的ip。但是這個模式下bonding驅動會截獲這個arp回應,把源mac改成bond狀態 下其中某一個網卡的mac:mac2,這樣C收到這個arp回應時就會在arp緩存中記錄下ip:1.1.1.1對應的mac為mac2。這樣C的過來的流量都走MAC2. 這樣就可以做到回來讓回來的流量也負載均衡。出方向均衡和MODE=5一致,不同地址會根據xor演算法算出不同出口,發不同出口發送相應的arp ,mac是對應網卡的mac。

===================================================

Linux (RedHat, Ubuntu, etc.) Bonding 共提供了六種模式:

名辭解釋: 在bonding的領域里, 英文slave interface表示某個實體連線的意思; 因此指令名稱為: ifenslave

mode=0 (balance-rr): 採取依序使用的連線的方式,提供了負載均衡及容錯的功能

mode=1 (active-backup): 眾多的連線中,只有一個是啟用的狀態,當啟用的連線失效(敗),則由備援的連線接手,提供容錯機制。

mode=2 (balance-xor): 採用xor的演演算法來選擇傳輸的連線,其結果是以目的地MAC為基準選擇哪一條連線;提供了負載均衡及容錯機制。

mode=3 ( broadcast): 把封包送到所有的連線,當有連線失效沒有任何downtime,但此法過於浪費連線資源;有容錯機制。

mode=4 (802.3ad, LACP): IEEE 802.3ad Dynamic Link Aggregation協定;提供較好的機制,並可搭配802.1Q trunking同時介接不同的VLAN;惟獨此法必須與支援802.3ad的交換機介接,並且每個slave的驅動程式都需支援ethtool擷取介面的訊息, 較為豪華,但是提供了相當優良的應用,負載均衡及容錯機制。

mode=5 (balance-tlb): Adaptive Transmit load balancing; 無須交換機支援但slave驅動程式需支援ethtool;根據連線介面卡的負載決定traffic如何送出,回覆的traffic則由送出的salve接收。

mode=6 (balance-alb): 包含了mode 5所有功能及需求,再加上接收traffic時的負載均衡.

Ⅱ 如何在一台電腦上設置雙網卡

解決如何在一台電腦上設置雙網卡的具體步驟如下:

1.打開計算機,首先將連接到內聯網網卡設置上的 IP, 自動獲取的內聯網 IP 也可以。

Ⅲ Linux系統雙網卡綁定配置教程

系統版本

[root@ ~]# cat /etc/redhat-release

CentOS release 6.8 (Final)

[root@ ~]# uname -r

2.6.32-642.6.1.el6.x86_64

網卡說明

eth0   192.168.1.8(伺服器外網卡)

eth1   伺服器網卡(內網)

eth2   伺服器網卡(內網)

[root@ ~]# /etc/init.d/iptables stop

[root@ ~]#  chkconfig iptables off

關閉selinux

[root@ ~]#setenforce 0

[root@ ~]#sed -i 『s/SELINUX=enforcing/SELINUX=disabled/『 /etc/selinux/config

禁用NetworkManager

[root@ ~]# /etc/init.d/NetworkManager stop

Stopping NetworkManager daemon:           [  OK  ]

[root@ ~]# chkconfig NetworkManager off

[root@ ~]# /etc/init.d/network restart

雙網卡綁定配置過程

[root@ ~]# cd /etc/sysconfig/network-scripts/

編輯eth1網卡

[root@ network-scripts]# cat >ifcfg-eth1 <> DEVICE=eth1

> ONBOOT=yes

> BOOTPROTO=none

> USERCTL=no

> MASTER=bind0

> EOF

編輯eth2網卡

[root@ network-scripts]# cat >ifcfg-eth2

ONBOOT=yes

BOOTPROTO=none

USERCTL=no

MASTER=bind0

EOF

編輯bind0網卡

[root@ network-scripts]# cat >ifcfg-bind0 <> DEVICE=bind0

> TYPE=Ethernet

> ONBOOT=yes

> BOOTPROTO=none

> IPADDR=10.0.0.8

> NETMASK=255.255.255.0

> GATEWAY=10.0.0.254

> IPV6INIT=no

> USERCTL=no

> EOF

配置bond參數

[root@ network-scripts]# cat >/etc/modprobe.conf <> alias bind0 bonding

> options bind0 miimon=100 mode=6

> EOF

加入開機自啟動(/etc/rc.local)

[root@ network-scripts]# cat >>/etc/rc.local <> ifenslave bind0 eth1 eth2

> EOF

重啟網路服務

[root@LVS-2 network-scripts]# service network restart

Shutting down interface eth0:                              [  OK  ]

Shutting down interface eth1:                              [  OK  ]

Shutting down interface eth2:                              [  OK  ]

Shutting down loopback interface:                       [  OK  ]

Bringing up loopback interface:                            [  OK  ]

Bringing up interface bind0:  WARNING: Deprecated config file /etc/modprobe.conf, all config files belong into /etc/modprobe.d/.

WARNING: Deprecated config file /etc/modprobe.conf, all config files belong into /etc/modprobe.d/.

Determining if ip address 10.0.0.8 is already in use for device bind0..[  OK  ]

Bringing up interface eth0:  Determining if ip address 192.168.1.8 is already in use for device eth0...                                                     [  OK  ]

Bringing up interface eth1:  RTNETLINK answers: File exists         [  OK  ]

Bringing up interface eth2:  RTNETLINK answers: File exists          [  OK  ]

配置使綁定立即生效

[root@LVS-2 network-scripts]# ifenslave bind0 eth1 eth2

測試聯通

[root@LVS-2 network-scripts]# ping 10.0.0.8

PING 10.0.0.8 (10.0.0.8) 56(84) bytes of data.

64 bytes from 10.0.0.8: icmp_seq=1 ttl=64 time=0.089 ms

64 bytes from 10.0.0.8: icmp_seq=2 ttl=64 time=0.046 ms

^C

--- 10.0.0.8 ping statistics ---

2 packets transmitted, 2 received, 0% packet loss, time 1921ms

rtt min/avg/max/mdev = 0.046/0.067/0.089/0.023 ms

此時會發現系統多一個網卡

[root@LVS-2 network-scripts]# ifconfig bind0

bind0

Link encap:Ethernet  HWaddr 00:0C:29:CC:9B:5

inet addr:10.0.0.8  Bcast:10.0.0.255  Mask:255.255.255.0

inet6 addr: fe80::20c:29ff:fecc:9b55/64 Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST  MTU:1500 Metric:1

RX packets:151 errors:0 dropped:0 overruns:0 frame:0

TX packets:3 errors:0 dropped:0 overruns:0 carrier:0

collisions:0 txqueuelen:0

RX bytes:11826 (11.5 KiB)  TX bytes:258 (258.0 b)

Ⅳ 如何綁定雙網卡

准備工作:

材料:100M網卡兩片(任何品牌)、NIC Express Enterprise4.0,帶TRUNK的交換機一台(智能交換機一般都帶這功能)

系統支持:WINDOWS9X、ME、2000、XP、2003系統(本貼僅以WINDOWSXP做說明)

適用范圍:無盤、VOD視頻點播、游戲伺服器等.

一、硬體設備的安裝

1、安裝網卡

在這裡面,網卡的數量是由交換機來決定的,如果你的交換機支持4口的TRUNK,那麼你的網卡綁定數量就可以是4片,也就可以達到:4*88M左右的速度

網卡的安裝和普通的安裝完全相同,本文不將做詳細說明

2、交換機及交網線

先拿到說明書,了解一下交換機支持幾口的TRUNK,一般的,如:8口交換機支持2埠4組TRUNK,在全雙工下的理論速度就是:200*200=400M,本文以兩口TRUNK交換機作說明

將網線分別接至交換機的1 、2口,並與雙網卡連接

二、各硬體設置

第一步:設置交換機的TRUNK

用TELNET登陸到你的交換機(各交換機登陸方式不同),進入TRUNK設置界面,設置為如下圖所示!

第二步:網卡的安裝

正確安裝好你的網卡,並設置一塊網卡的IP地址及俺碼等(本例為:192。168。0。34 255。255。255。0),另一塊不作設置.

三、軟體安裝

NIC Express的安裝其實可以說是很簡單很簡單的,而且不需要進行什麼設置就可以很好的工作了

雙擊它啟動安裝程序,一路回車,軟體提示輸入unlock key(注冊碼),如果沒有注冊碼,就只好選擇試用了,試用為30天,注冊碼怎麼搞?(自己想辦法去啊,找我,我有的)

到這個圖示後,我們仍然選擇下一步,不作設置!

註:LOAD Balancing (負載均衡)

到這一步後,一定要在下拉菜單裡面輸入一個文字(這個文字將是以後生成的新的連接),然後點擊上面分配了IP地址的網卡,再點ADD,會提示你是否用當用網卡的IP?選擇「是」,再選擇另一塊網卡,點ADD

載入完所有的網卡後,點擊OK!繼續我們的安裝!

四、NIC Express設置

選擇執行菜單里的「NIC Express Enterprise Edition」選項,點擊,「Advanced」選項,出現下圖!

在這裡面,要注意了:將默認的:先將STATUS PPACKETS改為:AUTO DETECT,再將NIC EXPRESS ELB改為:FEC/GEC TRUNKING,順序不能反!

點擊確定後!軟體設置至此完成,很簡單吧:)

所有的設置好後,先關閉計算機,再將交換機關閉!停一分鍾後,完全啟動交換機後啟動計算機(這一步必須要做!)

所有的工作都做完了,下面我們來測試一下速度吧!

稍等一會出現下圖:

下圖是區域網未調用任何文件時的流量!從下圖可以看出,適配器1和2均沒有流量(如果在非TRUNK的交換機上面使用TRUNK,在未傳送文件的時候雙網卡都有20M左右的流量的,很明顯,這樣的流量不真實!)

上圖為區域網內兩台機器調文件後的流量圖!從上圖中我們不難發現,適配器1和2都很好的分配到了流量,網速也由以前的:88M/S到了現在的155M/S。至此,我們的目的已經實現!

這里我們不作任何設置,直接點OK!再點完成!

Ⅳ Win10怎樣綁定雙網卡或多網卡做Nic Teaming鏈路聚合

1、重命名網卡名

win10左下角LOGO->設置->網路和internet->(左側)乙太網->(右側)網路和共享中心->(左側)更改適配器設置,默認情況下兩個網卡名稱改為「nic1」,「nic2」。

Ⅵ windows server 2012怎樣綁定網卡

在windows server 2012 之前我們在伺服器上如果要實現雙網卡綁定則需要向伺服器廠家所要相應的軟體,但是現在強大的windows
server
2012的到來使我們省去了所有的麻煩,因為操作系統本身就具有雙網卡綁定的功能,具體這個功能如何實現呢,下面我們就用實驗來為大家說明:
雙網卡綁定主要有以下兩點好處:
1、實現網路容錯:主主模式和主被模式
2、帶寬綁定
實驗准備:
1、兩台windows server 2012伺服器。
2、其中一個伺服器又兩塊網卡
3、確保兩個伺服器網路相通
首先我們開始配置server01的網路:
打開server01的網路適配器:
win+R打開運行命令:

輸入ncpa.cpl,點擊確定:

滑鼠右鍵我們所框選的Ethernet0,如下圖所示:

點擊屬性,如下圖:

OK,在這里可以看到網卡的一些屬性,我們取消IPv4的勾選,然後雙擊IPv4,如下圖:

在這里我們勾選使用下面的IP地址,然後輸入我們要使用得當IP地址,在這里我使用192.168.10網段的,如下圖:

點擊確定,如下圖:

系統彈出這個錯誤是因為我們沒有指定DNS伺服器,在這里我們點擊是:

點擊確定,我們在server01端的配置就結束了,下面我們開始配置server02
首先要確保server02有兩塊網卡:
我們同時按下win+R鍵:

輸入ncpa.cpl,點擊確定:

有上面這張圖片可以看到我們的server02已經有兩塊網卡,在這里要注意:做雙網卡綁定的兩塊網卡要清楚所有的配置。
在兩塊網卡上分別滑鼠右鍵:

點擊屬性:

在這里我們取消IPv6的勾選,然後雙擊打開IPv4,如下圖:

這里一定要確定選擇自動獲得IP地址,下面我們打開伺服器管理器:

點擊本地伺服器:

點擊NIC組合,NIC默認是禁用,我們手動來啟用它:

打開NIC組合之後我們可以看到我們的兩塊網卡,然後我們點擊任務:

點擊新建組:

在這里我們給組起名,並選中我們的兩塊網卡,然後點擊其他屬性:

因為我們沒有交換機,所以在成組模式這里我們選擇靜態成組,然後點擊確定:

OK,可以看到我們的兩塊網卡以及組合成一個,下面我們就打開網路鏈接:

從上圖也可以看出我們的兩塊網卡已經成功組合成一塊網卡,下面我們就配置一下我們組合的網卡tema1的IP :
滑鼠右鍵tema1:

點擊屬性:

這里我們勾選IPv6,然後雙擊IPv4:

這里我們要選擇使用下面的IP地址:
注意:這里輸入的IP地址一定要和server01的IP地址在同一網段,否則網路不會通:
這里我輸入192.168.10.20:

點擊確定
OK ,我們的配置就到此結束了,下面我們測試一下我們的雙網卡綁定:
在server01上ping 192.168.10.20 -t:

可以看到是通的。下面我們禁用server02上的一塊網卡:

在查看我們的PING命令:

可以看到我們的ping命令依舊通:
下面我們打開我們所禁用的網卡,然後禁用另一塊網卡:

然後查看PING命令:

wKiom1Uy_NLi7AUHAAFbBUk79Ew051.jpg (47.51 KB, 下載次數: 0)

下載附件

保存到相冊

2015-4-20 11:20 上傳

可以看到我們的網路依舊是通的。

Ⅶ 伺服器雙網卡怎麼配置

看你干什麼用了,雙網卡可以做匯聚、分流以及不同應用訪問。匯聚:兩個網卡綁在一起工作,需要交換機的支持,可以達到雙倍的埠帶寬,而且任意一塊網卡壞掉都不影響整體使用。分流:兩塊網卡分別對應於不同的客戶群體,被設置號的群體只能通過設置好的那塊網卡進行數據交換。不同應用訪問:比如一個走外網,應用於VPN或者網路資源交換,一個走內網,做內部數據交換。

Ⅷ 伺服器的雙網卡如何設置

給你看個教程。不少公司的網管試圖解決雙網卡問題,下面我就給大家詳細的講解一下雙網卡同時使用的方法,這樣即可保障內網的安全,又能解決電腦訪問外網的問題,一舉兩得。希望大家喜歡。
首先你的機器需要有兩塊網卡,分別接到兩台交換機上,
internet地址:192.168.1.8,子網掩碼:255.255.255.0,網關:192.168.1.1
內部網地址:172.23.1.8,子網掩碼:255.255.255.0,網關:172.23.1.1
如果按正常的設置方法設置每塊網卡的ip地址和網關,再cmd下使用route print查看時會看到
Network Destination Netmask Gateway Interface Metric
0.0.0.0 0.0.0.0 192.168.1.1 192.168.1.8
0.0.0.0 0.0.0.0 172.23.1.1 172.23.1.8
即指向0.0.0.0的有兩個網關,這樣就會出現路由沖突,兩個網路都不能訪問。
如何實現同時訪問兩個網路?那要用到route命令
第一步:route delete 0.0.0.0 "刪除所有0.0.0.0的路由"
第二步:route add 0.0.0.0 mask 0.0.0.0 192.168.1.1 "添加0.0.0.0網路路由"這個是主要的,意思就是你可以上外網.
第三步:route add 172.23.0.0 mask 255.0.0.0 172.23.1.1 "添加172.23.0.0網路路由",注意mask為255.0.0.0 ,而不是255.255.255.0 ,這樣內部的多網段才可用。
這時就可以同時訪問兩個網路了,但碰到一個問題,使用上述命令添加的路由在系統重新啟動後會自動丟失,怎樣保存現有的路由表呢?
route add -p 添加靜態路由,即重啟後,路由不會丟失。注意使用前要在tcp/ip設置里去掉接在企業內部網的網卡的網關
------------------------------------------------------------------------------------------------
一些單位將內網和外網分開了。痛苦啊,偶單位就是如此。boss當然是基於安全性考慮了,可是沒有筆記本的怎麼辦?又要辦公,有得上網。沒辦法,發揚DIY精神偷偷裝一塊網卡,讓聊天與工作同在。讓你的主機內外兼顧。這是我在網上找到的,謝謝作者了。方法如下:
1.設置其中接internet的網卡的網關為10.0.0.1,啟用後就是默認網關
--註:這是對應外網的網卡,按照你們單位外網的ip分配情況,在TCP/IP屬性中配置好 ip、掩碼、DNS
2.將連接單位內部網的網卡IP配好後,設網關設置為空(即不設網關),啟用後,此時內網無法通過網關路由
3.進入CMD,運行:route -p add 192.0.0.0 mask 255.0.0.0 192.168.0.1 metric 1
--註:意思是將192*的IP包的路由網關設為192.168.0.1 ,-P 參數代表永久寫入路由表,建議先不加此參數,實踐通過後在寫上去
4. OK!同時啟用兩個網卡,兩個網關可以同時起作用了,兩個子網也可以同時訪問了,關機重啟後也不用重設!

其實這是個中折的辦法。。。。使大家的雙網卡同時運行,很不錯的方法。大家學習一下吧。。
還有 :開機的時候設置一下本地的路由表
把下面的命令寫到一個bat裡面,開機運行一下
route ADD [內網網的網路地址] MASK [內網的掩碼] [通向內網的網關] METRIC 1
route ADD 0.0.0.0 MASK 0.0.0.0 [通向Internet的網關] METRIC 1

[]內的內容需要你修改成適合你網路的參數(修改後[]不保留),其他內容不用動
這個方法沒有停用任何一塊網卡,兩個網卡還在同時工作,只是數據包的投遞方向發生了改變,這樣設置以後可以保證流向財務網的數據不向internet發送,流向internet的數據也不向財務網發送,各走各的路!

閱讀全文

與伺服器怎麼實現兩個網卡綁定相關的資料

熱點內容
水壓縮後有彈性 瀏覽:42
蘇州阿里雲伺服器數據備份 瀏覽:522
消息提示音怎麼設置安卓 瀏覽:277
怎麼去掉安卓手機的小圓圈 瀏覽:474
女程序員每天教你一招 瀏覽:590
葯劑學pdf下載 瀏覽:477
打開的共享文件夾少東西 瀏覽:643
芝麻黑頭解壓去除視頻 瀏覽:186
光明與黑暗怎麼進入伺服器 瀏覽:659
20歲的程序員 瀏覽:238
p4備份伺服器是什麼意思 瀏覽:350
棗庄空氣壓縮機維修 瀏覽:621
色弱程序員 瀏覽:415
oraclelinux修改ip 瀏覽:665
雲上城之歌九游通用伺服器 瀏覽:348
加密貨幣需要投資嗎 瀏覽:533
php選擇文件夾 瀏覽:564
資料庫命令文件用什麼創建 瀏覽:66
空調壓縮機接頭 瀏覽:376
安卓命令代碼大全 瀏覽:13