linux双网卡绑定配置,双网卡静态路由配置命令

大家好,今天小编来为大家解答linux双网卡绑定配置这个问题,双网卡静态路由配置命令很多人还不知道,现在让我们一起来看看吧!

linux 双网卡绑定 流量怎么走

linux的双网卡bond,共有7种模式,可参阅网络文章。

第一种模式:mod=0,即:(balance-rr)Round-robin

policy(平衡抡循环策略)

特点:传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降

第二种模式:mod=1,即:(active-backup)Active-backup

policy(主-备份策略)

特点:只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得,从外面看来,bond的MAC地址是唯一的,以避免switch(交换机)发生混乱。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有 N个网络接口的情况下,资源利用率为1/N

第三种模式:mod=2,即:(balance-xor)XOR policy(平衡策略)

特点:基于指定的传输HASH策略传输数据包。缺省的策略是:(源MAC地址 XOR目标MAC地址)%

slave数量。其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力

第四种模式:mod=3,即:broadcast(广播策略)

特点:在每个slave接口上传输每个数据包,此模式提供了容错能力

第五种模式:mod=4,即:(802.3ad)IEEE 802.3ad

Dynamic link aggregation(IEEE802.3ad动态链接聚合)

特点:创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。需要注意的是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应性。

必要条件:

条件1:ethtool支持获取每个slave的速率和双工设定

条件2:switch(交换机)支持IEEE802.3ad

Dynamic link aggregation

条件3:大多数switch(交换机)需要经过特定配置才能支持802.3ad模式

第六种模式:mod=5,即:(balance-tlb)Adaptive

transmit load balancing(适配器传输负载均衡)

特点:不需要任何特别的switch(交换机)支持的通道bonding。在每个slave上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。

该模式的必要条件:ethtool支持获取每个slave的速率

第七种模式:mod=6,即:(balance-alb)Adaptive

load balancing(适配器适应性负载均衡)

特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receiveload

balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。

来自服务器端的接收流量也会被均衡。当本机发送ARP请求时,bonding驱动把对端的IP信息从ARP包中复制并保存下来。当ARP应答从对端到达时,bonding驱动把它的硬件地址提取出来,并发起一个ARP应答给bond中的某个slave。使用ARP协商进行负载均衡的一个问题是:每次广播 ARP请求时都会使用bond的硬件地址,因此对端学习到这个硬件地址后,接收流量将会全部流向当前的slave。这个问题可以通过给所有的对端发送更新(ARP应答)来解决,应答中包含他们独一无二的硬件地址,从而导致流量重新分布。当新的slave加入到bond中时,或者某个未激活的slave重新激活时,接收流量也要重新分布。接收的负载被顺序地分布(roundrobin)在bond中最高速的slave上当某个链路被重新接上,或者一个新的slave加入到bond中,接收流量在所有当前激活的slave中全部重新分配,通过使用指定的MAC地址给每个 client发起ARP应答。下面介绍的updelay参数必须被设置为某个大于等于switch(交换机)转发延时的值,从而保证发往对端的ARP应答不会被switch(交换机)阻截。

必要条件:

条件1:ethtool支持获取每个slave的速率;

条件2:底层驱动支持设置某个设备的硬件地址,从而使得总是有个slave(curr_active_slave)使用bond的硬件地址,同时保证每个 bond中的slave都有一个唯一的硬件地址。如果curr_active_slave出故障,它的硬件地址将会被新选出来的 curr_active_slave接管其实mod=6与mod=0的区别:mod=6,先把eth0流量占满,再占eth1,….ethX;而mod=0的话,会发现2个口的流量都很稳定,基本一样的带宽。而mod=6,会发现第一个口流量很高,第2个口只占了小部分流量

Linux双网卡配置路由linux双网卡配置

linux双网卡上内外网设置(树莓派)?

共享internet连接,在设备上启用nat即可:

echo1>/proc/sys/net/ipv4/ip_forward//启用ipv4数据包转发

iptables-tnat-IPOSTROUTING-owlan0-jMASQUERADE//在wlan0接口上启用IP伪装(源地址NAT)

然后将连接到设备的网关指向设备的eth0即可。

在linux系统下如何配置双网卡?

因为一个系统只允许一个默认网关,所以你的双网卡配置文件,只有一个进行配置,另一个注释掉,以软路由的方式实现双网卡网络通信正常。操作如下:

1、内网卡的IP配置文件正常配置;

2、外网卡的IP配置文件网关位置去掉;

3、启动2个网卡;

4、执行路由命令添加软路由显示外网只允许指定网段通信使用外网,命令如下:routeadd-net网段netmask掩码gw外网网关以上请使用对应IP替换网段,掩码,外网网关

在Linux上怎么两个网卡配同一个IP?

在Linux系统下一个网卡设置多个IP用ifconfig命令比较方便。#ifconfigeth0192.168.0.1netmask255.255.255.0up说明:up是表示立即激活如果给单个网卡eth0配置多个ip地址如何操作呢,如果使用ifconfig命令,那么上边需要改动的地方只有eth0而已,将eth0改为eth0:x(x是0-255例如eth0:0或者eth0:1等等),eth0:x称为虚拟网络接口,是建立在网络接口上边。所以给单网卡配置多ip的方法就是使用命令:#ifconfigeth0:0192.168.0.1netmask255.255.255.0up#ifconfigeth0:1192.168.0.2netmask255.255.255.0upping测试通过,就完成了单网卡配置多ip的功能。这样reboot以后ip地址会变回去,所以要设置启动时自动激活ip设置。办法有以下:

linux怎么配置双网卡,我的只有eth0?

我的:需要确定好硬件环境是否存在多网口。

如果存在,那么直接执行ifconfigeth1up命令开启后,配置eth1端口的配置文件就行。

如果端口eth1不存在,需要添加网口之后配置。

双网卡绑定交换机配置?

Linux下双网卡绑定七种模式

现在一般的企业都会使用双网卡接入,这样既能添加网络带宽,同时又能做相应的冗余,可以说是好处多多。而一般企业都会使用linux操作系统下自带的网卡绑定模式,当然现在网卡产商也会出一些针对windows操作系统网卡管理软件来做网卡绑定(windows操作系统没有网卡绑定功能需要第三方支持)。进入正题,linux有七种网卡绑定模式:0.roundrobin,1.active-backup,2.loadbalancing(xor),3.fault-tolerance(broadcast),4.lacp,5.transmitloadbalancing,6.adaptiveloadbalancing。

第一种:bond0:roundrobin

标准:round-robinpolicy:Transmitpacketsinsequentialorderfromthefirstavailableslavethroughthelast.Thismodeprovidesloadbalancingandfaulttolerance.

特点:(1)所有链路处于负载均衡状态,轮询方式往每条链路发送报文,基于perpacket方式发送。服务上ping一个相同地址:1.1.1.1双网卡的两个网卡都有流量发出。负载到两条链路上,说明是基于perpacket方式,进行轮询发送。(2)这模式的特点增加了带宽,同时支持容错能力,当有链路出问题,会把流量切换到正常的链路上。

实际绑定结果:

cat/proc/net/bonding/bond0

EthernetChannelBondingDriver:v3.6.0(September26,2009)

BondingMode:loadbalancing(round-robin)-----RR的模式

MIIStatus:up

MIIPollingInterval(ms):100

UpDelay(ms):0

DownDelay(ms):0

SlaveInterface:eth0

MIIStatus:up

LinkFailureCount:0

PermanentHWaddr:74:ea:3a:6a:54:e3

SlaveInterface:eth1

MIIStatus:up

LinkFailureCount:0

应用拓扑:交换机端需要配置聚合口,cisco叫portchannel

第二种:bond1:active-backup

标准文档定义:Active-backuppolicy:Onlyoneslaveinthebondisactive.Adifferentslavebecomesactiveif,andonlyif,theactiveslavefails.Thebond’sMACaddressisexternallyvisibleononlyoneport(networkadapter)toavoidconfusingtheswitch.Thismodeprovidesfaulttolerance.Theprimaryoptionaffectsthebehaviorofthismode.

模式的特点:一个端口处于主状态,一个处于从状态,所有流量都在主链路上处理,从不会有任何流量。当主端口down掉时,从端口接手主状态。

实际绑定结果:

root@1:~#cat/proc/net/bonding/bond0

EthernetChannelBondingDriver:v3.6.0(September26,2009)

BondingMode:fault-tolerance(active-backup)—_backup模式

PrimarySlave:None

CurrentlyActiveSlave:eth0

MIIStatus:up

MIIPollingInterval(ms):100

UpDelay(ms):0

DownDelay(ms):0

SlaveInterface:eth0

MIIStatus:up

LinkFailureCount:0

PermanentHWaddr:74:ea:3a:6a:54:e3

SlaveInterface:eth1

MIIStatus:up

LinkFailureCount:0

PermanentHWaddr:d8:5d:4c:71:f9:94

应用拓扑:这种模式接入不需要交换机端支持,随便怎么接入都行。

第三种:bond2:loadbalancing(xor)

标准文档描述:XORpolicy:Transmitbasedon.ThisselectsthesameslaveforeachdestinationMACaddress.Thismodeprovidesloadbalancingandfaulttolerance.

特点:该模式将限定流量,以保证到达特定对端的流量总是从同一个接口上发出。既然目的地是通过MAC地址来决定的,因此该模式在“本地”网络配置下可以工作得很好。如果所有流量是通过单个路由器(比如“网关”型网络配置,只有一个网关时,源和目标mac都固定了,那么这个算法算出的线路就一直是同一条,那么这种模式就没有多少意义了。),那该模式就不是最好的选择。和balance-rr一样,交换机端口需要能配置为“portchannel”。这模式是通过源和目标mac做hash因子来做xor算法来选路的。

实际绑定结果:

#cat/proc/net/bonding/bond0

EthernetChannelBondingDriver:v3.0.3(March23,2006)

BondingMode:loadbalancing(xor)——配置为xor模式

TransmitHashPolicy:layer2(0)

MIIStatus:up

MIIPollingInterval(ms):100

UpDelay(ms):0

DownDelay(ms):0

SlaveInterface:eth1

MIIStatus:up

LinkFailureCount:0

PermanentHWaddr:00:d0:f8:40:f1:a0

SlaveInterface:eth2

MIIStatus:up

LinkFailureCount:0

PermanentHWaddr:00:d0:f8:00:0c:0c

应用拓扑:同bond0一样的应用模型。这个模式也需要交换机配置聚合口。

第四种:bond3:fault-tolerance(broadcast)

标准文档定义:Broadcastpolicy:transmitseverythingonallslaveinterfaces.Thismodeprovidesfaulttolerance.

特点:这种模式的特点是一个报文会复制两份往bond下的两个接口分别发送出去,当有对端交换机失效,我们感觉不到任何downtime,但此法过于浪费资源;不过这种模式有很好的容错机制。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。

实际绑定结果:

root@ubuntu12:~/ram#cat/proc/net/bonding/bond0

EthernetChannelBondingDriver:v3.6.0(September26,2009)

BondingMode:fault-tolerance(broadcast)——-fault-tolerance模式

MIIStatus:up

MIIPollingInterval(ms):100

UpDelay(ms):0

DownDelay(ms):0

SlaveInterface:eth0

MIIStatus:up

LinkFailureCount:0

PermanentHWaddr:74:ea:3a:6a:54:e3

SlaveInterface:eth1

MIIStatus:up

LinkFailureCount:0

PermanentHWaddr:d8:5d:4c:71:f9:

llinux配置双网卡绑定bond模式

理解bond配置

网络卡bond是多张网络卡绑定为单一逻辑卡技术,用于实现本地网络卡冗余、带宽扩展与负载均衡,在生产环境中常用。

实现原理

网络卡工作在混杂(promisc)模式下,接收所有到达卡的数据包。混杂模式下,如使用tcpdump工具,也能接收所有数据包。将两块网络卡的MAC地址设为相同,接收特定MAC的数据帧,然后将数据帧传递给bond驱动程序处理。

确定内核是否支持bonding

通过命令检查内核配置文件中是否包含bonding模块信息。

bond模式

常用的bond模式有:

mode=0(balance-rr):负载分担方式,采用轮询策略,如第一个包走eth0,第二个包走eth1,直到数据包发送完毕。

mode=1(active-backup):主备模式,同时只有1块网络卡工作。

其他模式包括:

mode=2(balance-xor):基于XOR Hash策略进行负载分担。

mode=3(broadcast):所有包从所有网络接口发出。

mode=4(802.3ad):支持IEEE802.3ad协议,与交换机聚合LACP方式配合。

mode=5(balance-tlb):根据每个网络卡的负载选择发送网络卡。

mode=6(balance-alb):结合balance-tlb模式,添加针对IPV4流量的接收负载均衡。

配置bond

测试环境使用CentOS 6.7内核,配置物理网卡与逻辑网卡bind0,加载bonding模块,配置bond模式,参数设置,以及检查网络配置。

配置完成后,使用ping测试bond模式是否正常工作。断开一个网络卡后,ping测试应不会中断,验证负载均衡功能。

阅读剩余
THE END