centos聚合模式?centos镜像
大家好,今天来为大家分享centos聚合模式的一些知识点,和centos镜像的问题解析,大家要是都明白,那么可以忽略,如果不太清楚的话可以看看本篇文章,相信很大概率可以解决您的问题,接下来我们就一起来看看吧!
centos系统网络聚合怎么做实战告诉你
在项目实施和运维工作中,常常需要面对“双网卡聚合”这一术语。对于不少技术人员而言,特别是专注于项目部署的人员,这个概念可能显得有些遥远,似乎它与自己的工作关系不大,似乎只需网络设备的网关负责即可。然而,实际上,“双网卡聚合”不仅取决于网络环境需求,还涉及到操作系统级别的操作。在接下来的实战演示中,我们将探讨如何在CentOS系统下实现双网卡聚合。
实现双网卡网络聚合的首要条件是,服务器需具备两块网卡,并通过网线连接至相应网络环境。此外,对侧交换机应配置好相应的聚合策略。
以CentOS 7.9为例,进行以下步骤:
检查本机网卡信息。通过此操作,确认两块网卡的名称(如ens33和ens36)以及当前的连接状态。
根据实际需求选择聚合模式。通常情况下,可选择主备模式或负载均衡模式。主备模式意味着优先使用主网卡,备用网卡作为备份;负载均衡模式则是两块网卡同时承载负载。具体执行时,根据实际情况选择命令。
在主备模式下:
在CentOS系统中,通过如下命令创建并配置团队网卡(如team0):
在负载均衡模式下:
类似地,配置团队网卡时,考虑负载均衡策略,确保两块网卡均衡地承载流量。
为team0网卡分配IP信息,并启动。例如,聚合后的IP地址为172.31.103.196/24,网关为172.31.103.1。同时,注意处理网关路由问题,避免双默认网关导致的路由冲突,通常需要去掉不必要的网关配置,并添加静态路由。
将两块物理网卡加入到team0中。基于第一步获取的网卡名称,使用适当命令进行添加。
重启网络服务,确保系统识别并正确配置新的网络设置。
启用team0相关网卡。根据实际情况调整ens33和ens36的配置。
检查team0绑定状态,确保其正常运行,确认所有步骤无误。
若需咨询与Linux操作系统、数据库集群部署、系统高可用方案、商用密码密评密改方案等相关技术问题,欢迎进一步沟通交流。
网卡聚合bonding
网卡bond是通过把多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在应用部署中是一种常用的技术。网上有很多解释和说明,这里我从网上整理了一些简单的概念,可以了解一下。
常用的模式有:
mode=0:平衡负载模式,有自动备援,但需要”Switch”支援及设定。
mode=1:自动备援模式,其中一条线若断线,其他线路将会自动备援。
mode=4:如果交换机及网卡都确认支持802.3ab,则实现负载均衡时尽量使用mode 4以提高系统性能
mode=6:平衡负载模式,有自动备援,不必”Switch”支援及设定。
如果系统流量不超过单个网卡的带宽,请不要选择使用mode 1之外的模式,因为负载均衡需要对流量进行计算,这对系统性能会有所损耗。
建议mode 5、mode 6只在交换机不支持"ports group"的情况下选用。
如果交换机及网卡都确认支持802.3ab,则实现负载均衡时尽量使用mode 4以提高系统性能。
实际工作中使用mode4模式居多,这里我只讲解一下mode4的配置,其它模式的配置大同小异。
Centos6的路由文件。
部分配置信息
部分配置信息
有时间再更新
手动配置bonding和vlan的命令,参考如下。
剔除或添加端口。
查看bonding是否正确,在mode4里数值相同即正确。
bonding模式的选择要根据实际情况,这点很重要。有的公司不选择使用bonding,原因是在业务层已经做了相当好的冗余,并且这样也省去了不少成本。
centos 双网卡绑定 mode哪种好些
CentOS双网卡绑定的模式一共有7种(即mode=0、1、2、3、4、5、6):
0(balance-rr模式)网卡的负载均衡模式。特点:(1)所有链路处于负载均衡状态,轮询方式往每条链路发送报文,基于per packet方式发送。服务上ping一个相同地址:1.1.1.1双网卡的两个网卡都有流量发出。负载到两条链路上,说明是基于per packet方式,进行轮询发送。(2)这模式的特点增加了带宽,同时支持容错能力,当有链路出问题,会把流量切换到正常的链路上。
1(active-backup模式)网卡的容错模式。特点:一个端口处于主状态,一个处于从状态,所有流量都在主链路上处理,从不会有任何流量。当主端口down掉时,从端口接手主状态。
2(balance-xor模式)需要交换机支持。特点:该模式将限定流量,以保证到达特定对端的流量总是从同一个接口上发出。既然目的地是通过MAC地址来决定的,因此该模式在“本地”网络配置下可以工作得很好。如果所有流量是通过单个路由器(比如“网关”型网络配置,只有一个网关时,源和目标mac都固定了,那么这个算法算出的线路就一直是同一条,那么这种模式就没有多少意义了。),那该模式就不是最好的选择。和balance-rr一样,交换机端口需要能配置为“port channel”。这模式是通过源和目标mac做hash因子来做xor算法来选路的。
3(broadcast模式)。特点:这种模式的特点是一个报文会复制两份往bond下的两个接口分别发送出去,当有对端交换机失效,我们感觉不到任何downtime,但此法过于浪费资源;不过这种模式有很好的容错机制。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。
4(IEEE 802.3ad动态链路聚合模式)需要交换机支持。特点:802.3ad模式是IEEE标准,因此所有实现了802.3ad的对端都可以很好的互操作。802.3ad协议包括聚合的自动配置,因此只需要很少的对交换机的手动配置(要指出的是,只有某些设备才能使用802.3ad)。802.3ad标准也要求帧按顺序(一定程度上)传递,因此通常单个连接不会看到包的乱序。802.3ad也有些缺点:标准要求所有设备在聚合操作时,要在同样的速率和双工模式,而且,和除了balance-rr模式外的其它bonding负载均衡模式一样,任何连接都不能使用多于一个接口的带宽。此外,linux bonding的802.3ad实现通过对端来分发流量(通过MAC地址的XOR值),因此在“网关”型配置下,所有外出(Outgoing)流量将使用同一个设备。进入(Incoming)的流量也可能在同一个设备上终止,这依赖于对端802.3ad实现里的均衡策略。在“本地”型配置下,路两将通过 bond里的设备进行分发。
5自适应传输负载均衡模式。特点:balance-tlb模式通过对端均衡外出(outgoing)流量。既然它是根据MAC地址进行均衡,在“网关”型配置(如上文所述)下,该模式会通过单个设备来发送所有流量,然而,在“本地”型网络配置下,该模式以相对智能的方式(不是balance-xor或802.3ad模式里提及的XOR方式)来均衡多个本地网络对端,因此那些数字不幸的MAC地址(比如XOR得到同样值)不会聚集到同一个接口上。
不像802.3ad,该模式的接口可以有不同的速率,而且不需要特别的交换机配置。不利的一面在于,该模式下所有进入的(incoming)流量会到达同一个接口;该模式要求slave接口的网络设备驱动有某种ethtool支持;而且ARP监控不可用。
6网卡虚拟化方式。特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receive load balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。所有端口都会收到对端的arp请求报文,回复arp回时,bond驱动模块会截获所发的arp回复报文,根据算法算到相应端口,这时会把arp回复报文的源mac,send源mac都改成相应端口mac。从抓包情况分析回复报文是第一个从端口1发,第二个从端口2发。以此类推。
具体选择哪种要根据自己需要和交换机情况定,一般Mode=0和Mode=1比较常见;Mode=6负载均衡方式,两块网卡都工作,不需要交换机支持,也常用