Ⅰ 如何在VMware ESX上实现网卡聚合
网卡(NIC:Network Interface Card)聚合意思就是把若干个网卡规整到一个网卡上。如果配置合理的话,VMware ESX上面的网卡聚合可以同时为客体虚拟机提供入站和出站的负载均衡。负责均衡使得把多个可用网卡均分到更多的服务器上,因此即使在一个网卡、电缆或者交换机出现故障时,能允许客体虚拟机持续运行的情况下完成故障转移。
网卡聚合实例
配置VMware ESX Server虚拟网络有多种方法,多数管理员通常会采用如下的方式:
从中可以看到,两个管理网络都有两个物理适配器。虚拟机网络(内置客体虚拟机)也有两个物理适配器,如此做也可以带来一些容错上的优势:
1. 如果一个物理适配器出现故障的话,另外一个可以取而代之;
2. 如果连接一个物理适配器的光缆出现故障,可以使用另外一个适配器(光缆没问
题的那个);
3. 假定两个网卡连接到不同的交换器,如果一个交换器出现故障,可以使用连接到
可用交换器上面的那个网卡;
尽管VMware ESX属性介绍中声称网卡聚合可以实现负责均衡,但是基本的网卡聚合仅仅能够提供出站负载均衡。然而如果希望通过网卡聚合实现入站的负载均衡,就还有一些额外的工作需要做,需要配置VLAN中继器和以太网交换器(连接在这些VMware ESX服务器的物理适配器)上的端口通道。SearchVMware.com的作者Scott Lowe has曾经写过一些文章介绍VLAN配置,这几篇文章我之前一直有推荐:
ESX服务器、网卡分组和VLAN链路聚合
2. VLAN和端口分组
VI3的VLAN配置:VST、EST和VGT标记
在VMware ESX Server里配置网卡聚合
对ESX服务器内的网卡进行分组另外还需要两个或者两个以上网卡。实际上在VMware ESX服务器内配置网卡聚合非常简单。首先在ESX服务器上至少需要两个物理适配器,如上图所示,很多管理员都会把管理网络和客体虚拟机网络隔离开来。因此例如我们在服务器中有三个适配器,其中一个置于隔离的虚拟机交换器内用于管理网络,另外两个物理适配器用于虚拟机网络。如果另外还有一个vSwitch0的话,最好用这个作为管理网络和VMnet0。
如果希望在管理网络(VMkernel和iSCSI)和虚拟机(客体机)网络上同时都配置网卡聚合的话,也就是说在我们这个场景中我们仅仅在虚拟机网络上配置了网卡聚合。首先需要创建一个新的vSwitch然后标识为“虚拟机网络”。该vSwitch很有可能就被命名为vSwitch1,在vSwitch上增加两个物理适配器。
最后需要通过修改每一台虚拟机并且把其连接到新的端口组上,以修改每一台虚拟机客体系统。
Ⅱ 服务器双网卡绑定然后接在一台S5720上,交换机端口聚合怎么做
首先要确定 你服务器用的是什么模式的网卡聚合 如果是LACP才需要在交换机上配置聚合命令,以下是华为交换机配置命令可供参考
interface eth-trunk1 #创建eth-trunk1的聚合端口
port link-type access #接口模式access
port default vlan 5 #服务器段VLAN5
mode lacp #聚合模式LACP
interface g 0/0/1
eth-trunk1 #将端口G1划到聚合组中,该接口下不要配置别的命令
interface g 0/0/2
eth-trunk1 #将端口G2划到聚合组中,改接口下不要配置别的命令
q #退出
save #保存
纯手打 望采纳
Ⅲ linux 网络聚合有几种模式
将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据,如果使用单个的千兆网口将会是很严重的瓶颈。其它的应用,比如ftp服务器,高负载的下载网站, 都有类似的问题。因此使用Linux teaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O)。
Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参考Linux Ethernet Bonding Driver文档, 但是目前发布各个Linux版本内核均已包含了此模块,大多数情况下不需要重新编译内核。 Linux 的 bonding 驱动提供了绑定/集成(bond)多个网卡为一个虚拟逻辑网口的功能。并请注意绑定的网口(bonded)有多种工作模式; 一般来说,分为 热后备(hot standby) 和 负载均衡(load balancing). 在Redhat/Fedora和其它类Redhat Linux中是比较容易配置的。
1.创建bond0配置文件
vi /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0 --物理设备名字
IPADDR=192.168.1.2 --IP地址
NETMASK=255.255.255.0 --子网掩码
GATEWAY=192.168.1.1 --网关
DNS=8.8.8.8 --DNS
ONBOOT=yes --随机启动
NAME=bond0
BOOTPROTO=none
USERCTL=no --是否允许非root用户控制该设备
2.修改被绑定的eth0和eth1的配置文件
vi /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"
USERCTL=no
ONBOOT=yes
MASTER=bond0
SLAVE=yes
BOOTPROTO=none
HWADDR=00:15:17:CC:FC:35
eth1的配置文件与之相同,只是device的值改为eth1即可。
3.装在bond模块驱动
编辑/etc/modprobe.conf或者/etc/moles.conf文件,加入如下内容,使系统启动时加载bonding模块驱动
alias bond0 bonding
option bond0 miimon=100 mode=1
说明:
1).miimon=100 用来进行链路监测的。即每100ms监测一次链路状态。bonding只监测主机与交换机之间链路。如果交换机出去的链路出问题而本身没有问题,那么bonding认为链路没有问题而继续使用。
2).mode=1 表示提供冗余功能。除此之外还可以为0、2、3,共四种模式。0表示负载均衡
4.在/etc/rc.d/rc.local文件中加入如下语句,使得系统启动自动运行
ifenslave bond0 eth0 eth1
route add -net 192.168.1.254 netmask 255.255.255.0 bond0 #如有需要才加该路由
5.检测、验证配置
首先执行命令装载bonding模块:modprobe bonding
重启网络服务,并确认bond0正确启动:service network restart
确认设备已经正确加载:less /proc/net/bonding/bond0
列出所有网口:ifconfig
至此,bond技术的使用过程的设置就基本结束了,谢谢阅读,希望能帮到大家,请继续关注脚本之家,我们会努力分享更多优秀的文章。
Ⅳ linux服务器端口聚合怎么设置
基础配置信息
常用的三种Bond模式
配置过程以mode=6为例,其它7种模式请参考扩展阅读
mode=0:平衡负载模式,有自动备援,但需要”Switch”支援及设定。 mode=1:自动备援模式,其中一条线若断线,其他线路将会自动备援。 mode=6:平衡负载模式,有自动备援,不必”Switch”支援及设定。
物理接口
2015610165454336.jpg (274×145)
CentOS版本
复制代码代码如下:
datanode01:~>cat /etc/redhat-release
CentOS release 6.4 (Final)
禁用NetworkManager
复制代码代码如下:
#立即关闭禁用NetworkManager并禁用开机自启动
/etc/init.d/NetworkManager stop
chkconfig NetworkManager off
/etc/init.d/network restart
关闭iptables和selinux(可选)
复制代码代码如下:
#立即关闭iptables并禁用开机自启动
/etc/init.d/iptables stop
chkconfig iptables off
#立即关闭selinux并永久禁用
setenforce 0
sed -i ‘s/SELINUX=enforcing/SELINUX=disabled/‘ /etc/selinux/config
修改主机名
复制代码代码如下:
vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=namenode01
#刷新生效
hostname namnode01
source /etc/sysconfig/network
配置IP
私有地址
复制代码代码如下:
cd /etc/sysconfig/network-scripts
[root@datanode09 network-scripts]# cat ifcfg-eth3
DEVICE=eth3
ONBOOT=yes
BOOTPROTO=none
IPADDR=10.129.46.19
NETMASK=255.255.255.0
IPV6INIT=no
USERCTL=no
双网卡绑定
复制代码代码如下:
cd /etc/sysconfig/network-scripts
#编辑eth0
cat > ifcfg-eth0 << EOF
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
MASTER=bond0
EOF
#编辑eth2
cat > ifcfg-eth2 << EOF
DEVICE=eth2
ONBOOT=yes
BOOTPROTO=none
USERCTL=no
MASTER=bond0
EOF
#编辑bond0
cat > ifcfg-bond0 << EOF
DEVICE=bond0
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=none
IPADDR=10.3.3.214
NETMASK=255.255.255.0
GATEWAY=10.3.3.1
IPV6INIT=no
USERCTL=no
EOF
#设置bond参数,注意mode选择
cat > /etc/modprobe.conf << EOF
alias bond0 bonding
options bond0 miimon=100 mode=6
EOF
#加入开机自启动参数
cat >> /etc/rc.local << EOF
ifenslave bond0 eth0 eth2
EOF
#重启网卡
service network restart
#使绑定网卡立即生效
ifenslave bond0 eth0 eth2
#测试绑定网络
ping 10.3.3.1
常用3种网卡绑定模式对比
mode=0
中断任意一条链路或恢复链路,网络0丢包
优点:流量提高1倍
缺点:需要接入同一交换机做聚合配置,无法保证物理交换机高可用(Cisco似乎有解决方案?)
mode=1
中断任意一条链路丢失1-3个包(秒),恢复链路时0丢包
优点:交换机无需配置
缺点:如上
mode=6
中断任意一条链路0丢包,恢复链路时丢失10-15个包(秒)
优点:交换机无需配置,流量提高1倍
Ⅳ 以太网链路聚合中静态聚合模式与动态聚合模式有什么不同
1、配套方式不同
动态聚合要同端口匹配方式为强制相配套使用,因为如果端口匹配方式为自适应,那么当物理链路质量不好时,可能端口状态频繁出现变化,相应的聚合组状态也会频繁出现up、down故障。
静态聚合组要和端口匹配方式为自适应相配套,因为:如果端口匹配方式为强制模式,那么当单纤芯发生故障时,接收正常的端口是处于UP状态的,设备会继续往该端口发出数据流,但实际上对端接收不到,导致单通情况出现。
2、对接方式不同
动态聚合对接的双方通过交互LACP(链路聚合控制协议)协议报文,来协商聚合对接。
对接双方不交互LACP报文,仅看物理端口状态是否UP。
3、优缺点不同
动态聚合
优点:对接双方相互交互端口状态信息,使端口状态能保持一致;
缺点:不同厂家对接可能因为协议报文的处理机制等不同,产生对接异常。
静态聚合
优点:不同厂家之间无需担心协议报文协商问题。
缺点:单根纤芯发生故障时,可能出现收端正常的一方端口处于UP,而出现单通,所以这种情况一般要求端口匹配状态为自适应状态。
(5)服务器网卡聚合模式怎么看扩展阅读:
随着网络规模不断扩大,用户对骨干链路的带宽和可靠性提出越来越高的要求。在传统技术中常用更换高速率的接口板或更换支持高速率接口板设备的方式来增加带宽,但这种方案需要付出高额的费用,而且不够灵活。
采用链路聚合技术可以在不进行硬件升级的条件下,通过将多个物理接口捆绑为—个逻辑接口,达到增加链路带宽的目的。在实现增大带宽目的的同时,链路聚合采用备份链路的机制,可以有效地提高设备之间链路的可靠性。
Ⅵ 网卡聚合模式mode1为什么交换机不用配置
网卡bond是通过把多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡。在应用部署中是一种常用的技术,我们公司基本所有的项目相关服务器都做了bond,这里总结整理,以便待查。
bond模式:
Mode=0(balance-rr) 表示负载分担round-robin,和交换机的聚合强制不协商的方式配合。
Mode=1(active-backup) 表示主备模式,只有一块网卡是active,另外一块是备的standby,这时如果交换机配的是捆绑,将不能正常工作,因为交换机往两块网卡发包,有一半包是丢弃的。
Mode=2(balance-xor) 表示XOR Hash负载分担,和交换机的聚合强制不协商方式配合。(需要xmit_hash_policy)
Mode=3(broadcast) 表示所有包从所有interface发出,这个不均衡,只有冗余机制...和交换机的聚合强制不协商方式配合。
Mode=4(802.3ad) 表示支持802.3ad协议,和交换机的聚合LACP方式配合(需要xmit_hash_policy)
Mode=5(balance-tlb) 是根据每个slave的负载情况选择slave进行发送,接收时使用当前轮到的slave
Mode=6(balance-alb) 在5的tlb基础上增加了rlb。
5和6不需要交换机端的设置,网卡能自动聚合。4需要支持802.3ad。0,2和3理论上需要静态聚合方式
但实测中0可以通过mac地址欺骗的方式在交换机不设置的情况下不太均衡地进行接收。
Ⅶ 什么是网卡汇聚
一般情况下,配置为中高端的无忧无盘服务器带了100台以上终端,当突发流量高的时候会卡,这样的情况可通过端口汇聚(truck),提高网络的吞吐量来解决网络拥塞问题。以常用的核心交换机D-Link的DGS-1248T、接入交换机D-Link的DIS-2024T为例,介绍端口聚合实现过程。
在做端口汇聚前检测各网口及主板是否支持千兆,所有硬件完成后可非常简单的支持多网口汇聚,并能够最大限度发挥无忧网维和无忧无盘的性能优势。要提高网络的吞吐量,您需要 做3件事:
第一步:为每台接入交换机准备2根1000M的六类线,将您上联到核心交换机(D-Link DGS-1248T)的网线,插入到的接入交换机(D-Link DIS-2024T)的23、24口(注意:必须是23、24口,才支持trunk,出厂时已做好设置)。这样可以将原来只有1G的主干网络升级到2G。提高网络并发能力。
第二步:另一端,此时不能马上插入到核心交换机(D-Link DGS-1248T)上,否则会引起网络环路,导致网络风暴。您可以看一下说明书,看看1248T的默认管理地址是什么,一般D-Link的可网管设备的ip是192.168.0.1。您可以通过网页访问192.168.0.1,默认帐号密码应该都是admin。千万注意,您的网络上不能有冲突的ip存在哦。
如果能登录网页,那么恭喜你可以开始第二步了。在网页中,选择trunk或者端口聚合菜单项,会显示出所有端口的名字,并带有选择框。您可以把1、2,做成一个trunk,然后3、4做成一个trunk,依次类推,直到把你所有的接入交换机都做好。最后再多做一个trunk为服务器准备。
现在可以把您的所有2024T的2条网线,按之前设置好的trunk端口,插入进去了,千万注意,必须配对插入,一台2024T的23、24口,接入到一个trunk的2个口上,不能乱插哦。如果两边的交换机,2个端口开始同步闪烁了,那么恭喜你,第二部完成了;
第三步:在您的服务器上安装intel网卡的专用驱动,包括附带的软件,这一点很重要。如果只是用普通的windows server安装盘安装的话,只会安装基本的网卡驱动,不会有网卡聚合软件设置的。安装好后,进入网卡属性页面,会多出一个端口聚合的选项页面。将您服务器上2个网卡打勾后确定。这时您会发现多出第三块网卡。
最后一步,把两个网卡都接入到核心交换机上最后为服务器预留的那个trunk对应的2个网口上。如果服务器桌面右下角托盘位置,第三块网卡点亮状态,并显示2G,那么恭喜您大功告成了
Ⅷ 如何掌握 Windows Server 2012 网卡聚合
Windows Server 2012的推出被称为“云操作系统“,想必这个操作系统在虚拟化领域,在网络和存储层面,在接入和安全层面都会有很有实力的功能体现。今天给大家介绍的网卡聚合能力就是充分利用汇总方式提高服务器整体网络性能,进而实现在高密度业务负载环境,高可用网络环境下的需求,当然除了网卡聚合功能单方面提升消除CPU的瓶颈也是重点,例如Offload卡,SRIOV, RSS,VMQ队列等等技术在Server 2012中你都能找到配套的核心技术支撑。今天这篇博客重点介绍一下Windows Server 2012中网卡聚合的功能。
说到网卡聚合,可能大家并不陌生,而且这个在”虚拟化世界“里尤为重要的功能,原来Windows Server 2008 R2中并不能提供支持,而是需要依靠HP,DELL,Intel,Broadcom等公司自己提供的软件进行设置和支持,但是这是不够的,要知道通过一个硬件厂商提供的聚合功能软件仅能对同种品牌的网卡进行统一的支持,这对于一个要求具有更多选择权和灵活性的数据中心而言是不够好的。当然你知道的,在Windows Server 2012中我们苦等的内置的,虚拟化环境所依赖的功能终于实现了在操作系统中的预置;因此充分了解合理利用这个功能是十分有益的。
那么什么是网络聚合或者Windows Server 2012中定义的网络聚合?在Server 2012中网络聚合有种称谓叫做LBOF(Load Balance and failover)字面上也很好理解,就是负载均衡同时实现故障切换功能的网络通道,熟悉这个LBOF灰常有意义,因为实现和查看网卡聚合状态需要用到的Powershell CMDLET就涉及了这个词汇;有了这个操作系统层面的功能,就可以将不同品牌的同质的网卡进行组合实现:
1. 网络带宽捆绑
2. 当网络组件出现故障时可以被检测到并自动进行故障转移
举例来说如果你不是配置成“主备”模式而是“双活”模式的网卡聚合,那么两个1GbE的千兆网卡可以实现2Gb的总吞吐,如果是两个万兆网卡就可以实现20Gb的总吞吐以此类推。Windows Server 2012支持多少个网卡进行捆绑呢?答案是32个!这是个绝对足够大的带宽:)
Server 2012支持两种网络聚合模式,在配置网络聚合的时候默认的是选择第一种模式:
交换机独立模式
这种模式最为通用,因为不要求交换机参与网络聚合,因此交换机并不知道在聚合网络中的网卡属于主机中一个网卡聚合组,所以网卡可以连接不同的交换机不过交换机独立模式并不要求聚合组中的网卡连接到不同的交换机。
而且在连接不同交换机时采用的是主备模式,只有在连接在同一交换机时才可以实现负载均衡聚。
交换机依赖模式
这种模式需要交换机参与网络聚合,并且要求所有网络聚合组网卡连接到同一个物理交换机或者以级联多交换机方式实现的对外显示为单一物理交换机的方式;根据交换机支持的模式可以有两种模式选择:
通用的静态聚合模式即IEEE 802.3ad
这种模式需要在交换机上静态设置指定汇聚组中的网卡连接。由于这种方式需要静态指定,因此没有动态协商协议机制帮助交换机判断线缆连接的正确与否或是否有其他错误导致聚合失败。
动态聚合模式即IEEE 802.1ax或LACP( 链路汇聚控制协议)
这种模式由于有了LACP协议的支持,可以动态的识别服务器和交换机的连接,进而实现动态地创建聚合组,添加和移除组成员等工作,现在多数交换机都支持LACP即802.1ax协议,不过也大多需要在服务器连接的交换机端口中手工启用此功能。
通过图形方法配置,如果在Server 2012中启用了图形界面管理功能,可以利用服务器管理器简单的创建网络聚合。
当然,通过Powershell命令行是个很好的方式,先看看可以针对LBFO进行哪些操作:
创建一个网卡聚合组“NIC Teaming”,将所有本机物理网卡添加到这个组中,并且设置模式为交换机独立模式,负载均衡模式为默认哈希:
看看创建之后的网络设备,是不是多了一个NIC Teaming网卡?
当然,你也可以通过Powershell看到这个网络聚合网卡的状态。
Ⅸ 多网卡服务器怎么汇聚
双击它启动安装程序如果是win xp系统会提示,点继续安装,一路next软件提示输入unlock key(注册码),如果没有注册码,就只好点击demo,选择试用,这样可以获得30天的免费试用期,在这30天里如果觉得不错。什么是load balancing 功能呢?load balancing的中文意思可以翻译为负载均衡,在这里就是网络负载均衡。也就是当多块网卡被绑定合一之后,当数据流量很大的时候,软件会自动调整,将数据流量负载均衡地分配到各个网卡上,以减轻单块网卡的压力,达到畅快的访问效果。我们绑定双网卡,其中目的之一就是为了实现负载均衡,我们自然要开启这个功能,所以,在这里一定要选“enabled”。当然,如果你在这里选择错了也没关系,今后也可以通过nic express软件管理界面开启。到了下图所示界面,就到了真正绑定网卡的时候了,这个界面一共分为上、中、下,三个窗口,上面的是空白,中间的默认是new array,你也可以根据自己喜好,写成自己的名字。在最上面的窗口里列出了目前服务器上安装的三块网卡的名字。我们下一步就是要用鼠标选中上面的网卡名字,然后点击界面中间的add键把三块网卡加入下面的窗口里,这样几块网卡就这样被加入了网卡组里,初步绑定成一块“网卡”,今后可以使用同一个ip地址了。点击ok继续,nic express出现一个配置界面,选项很多,但是不必太操心,因为这些配置都不必修改,使用默认值就可以了,直接点击ok、点击finish完成安装进程。至此软件安装基本结束,剩下就需要对软件和网卡进行一些必要的设置工作。点击“开始”菜单,选择执行菜单里的“nic express enterprise edition”选项,这是nic express软件自带的一个监控程序,首先点击“setting”选项,在这里可以设置网卡流量计量单位,可以按照packets/sec、mbits/sec、kbits/sec三种单位来计算,一般都是使用默认的mbits/sec来计算,也就是兆/每秒,其实在这里只需要修改一下“graph detail(图形显示)”即可,将默认的“by protocol”改成“by incoming/outgoing”,别的不需要改。如果你想分别观察绑定组中每块网卡的流量或者整个组的流量,只需在“select device”选项中选择一下设备即可。最后点击“advanced”选项,设定网卡绑定的工作模式,在这里也可以点击“load balancing disable”来关闭网卡负载均衡功能。使用nic express绑定的双网卡组默认工作于“nic express elb”模式下,这是nic express所特有的一种工作模式,实际效果很好。我们都知道利用昂贵的intel proset绑定的intel 8255x的组合是运行在“802.3ad”工作模式下的,这一模式在nicexpress中也可以选择,但是多数使用者在实际使用后都认为“nic express elb”模式的效果优于“802.3ad”模式,大家今后可以自己实践测试比较一下。如果你也使用默认的“nic express elb”模式,那么“advanced”选项里也就不用改什么,一切默认即可。至此nic express的设置结束。绑定“虚拟网卡”设定最后还要看看网卡的设置,用鼠标在桌面“网上邻居”上点击右键弹出“网络和拨号连接”窗口,可以看到原来的三个网卡连接图标已经变成了四个,多出来的一个图标就是“nic express virtual adapter”,这个就是绑定后的网卡组,这个网卡组的使用和使用单一网卡完全一样,相当于一个单一的“虚拟网卡”。用鼠标在这个图标上点击右键选择属性,可以为这个“虚拟网卡”设定ip地址、子网掩码、网关等等,其实在安装“nic express”过程中,如果服务器原来的单一网卡已经设置了这些,那么“虚拟网卡”就会自动设定和原来的网卡一样。在这里选择“nic express transport for ethernet”还可以自由对网卡绑定组进行调整,例如,减少或者加入一块网卡,这个较之intel proset要方便许多,intel proset在增加或者减少绑定组里的网卡之前必须删除原来的绑定组然后重新创建。