linux多路径(linux多路径multipath)
大家好,关于linux多路径很多朋友都还不太明白,不过没关系,因为今天小编就来为大家分享关于linux多路径multipath的知识点,相信应该可以解决大家的一些困惑和问题,如果碰巧可以解决您的问题,还望关注下本站哦,希望对各位有所帮助!
Linux系统怎么配置多路径
1、一般情况下,Linux配完multipath后用fdisk-l查看,重复的磁盘还是能看得到。应该看到的是n多个/dev/sd*和后来生出来的/dev/dm-*(与mpath*分别对应)。
2、配置存储时一定会遇到multipath多路径的问题,不同的厂商比如EMCPowerPath,VeritasVxDMP等都有独立的多路径软件,而多路径软件的功能也很清晰主要用于IO流量负载均衡和故障切换恢复等。
3、自己的路径:在自己的home目录中:ls-agrepbash会找到两个文件:.bashrc和.bash_profile同样可以像修改/etc/profile一样,修改.bash_profile来配置你的个性PATH环境。
4、linux下使用udev配置过多路径的rawudev不是多路径,是Linuxkernel6系列的设备管理器。它主要的功能是管理/dev目录底下的设备节点。
5、Linux下HDS存储多路径查看在Redhat下确定需要划分的存储空间。在本例中需要进行划分的空间是从HDSAMS2000上划分到服务器的多路径存储空间。其中sddlmad为ycdb1上需要进行划分的空间,sddlmah为ycdb2上需要进行划分的空间。
6、好像不行。因为fstab的挂载是在整个系统启动的最前面,但这种东西都需要很多软件环境的支持才能挂载。所以防止fstab里面经常有问题。
multipath多路径,Linux系统底层存储扩容了,如何扩大文件系统
linux服务器通过multipath多路径连接到共享存储,那么当文件系统空间不足的时候,有几种方式可以扩展文件系统的大小:
1、pv不变,原lun存储扩大容量,扩大lv,扩大文件系统
2、新增pv,加入到vg中,扩大lv,扩大文件系统
下文是针对场景1的情况下如何操作(但是个人建议采取新建pv的方式2进行):
Environment
If you have this specific scenario, you can use the following steps:
Note: if these lv's are part of a clustered vg, steps 1 and 2 need to be performed on all nodes.注意:集群模式下步骤1和步骤2两个节点都需要执行。
1) Update block devices
Note: This step needs to be run against any sd devices mapping to that lun. When using multipath, there will be more than one.通过multipath-ll命令查看每个聚合卷对应的路径。
2) Update multipath device
例子:
3) Resize the physical volume, which will also resize the volume group
4) Resize your logical volume(the below command takes all available space in the vg)
5) Resize your filesystem
6) Verify vg, lv and filesystem extension has worked appropriately
模拟存储端扩容testlv增加
查看客户端多路径情况
客户端更新存储
更新聚合设备
更新pv空间
更新lv空间
更新文件系统空间
linux多路径mpath怎么修改名称
Linux下多路径Multipath的简单配置
1、启用Multipath:
(1)启动multipathd服务
#service multipathd start或者#/etc/init.d/multipathd start
(2)修改multipath配置文件/etc/multipath.conf:
a默认情况下所以的设备都在multipath的黑名单中,所以即使启动了multipathd服务并加在了内核模块,multipath也不会对链路进行聚合,找到下面的3行并注释掉(在行首加上#号)
#devnode_blacklist{
# devnode"*"
#}
b默认情况下multipath生成dm设备之后,会同时在/dev/mapper/下生成以磁盘wwid为名的符号链接指向对应的dm设备。如果想生成mpath设备,则需要打开user_friendly_names选项,将配置文件中下面3行的注释取消(去掉行首的#号)
defaults{
user_friendly_names yes
}
(3)重启multipathd服务(修改multipath.conf文件之后都应该重启multipath服务)
(4)扫描磁盘
#multipath-v2
使用上面命令之后,系统中会出现链路聚合之后的dm设备,同时也会在/dev/mapper/、/dev/mpath/目录下生成相应的设备。
查看multipath拓扑结构
#multipath-ll
另外一个重要的文件是/var/lib/multipath/bindings,这个文件中是磁盘的别名和wwid的对应关系,典型的例子是:
mpath0 3600508b4000c3af700008000002d0000
(5)需要注意的问题,multipath也会为本地的磁盘生成相应的dm设备,所以需要在multipath.conf中将本地磁盘加入到黑名单,配置的方法可以参考下面的示例
devnode_blacklist{
wwid 36005076b08164f4011ae88b23efb95fe
devnode"^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
devnode"^hd[a-z]"
}
如上例所示,可以通过wwid或者设备名将本地磁盘加入到黑名单中。
2、固定multipath设备的命名:
通过wwid和设备别名一一对应的方式固定multipath设备的名称,这些和别名对应的设备会被创建到/dev/mapper/目录下,使用时直接使用这个目录的的设备。
(1)通过/var/lib/multipath/bindings可以获取所有磁盘的wwid,确定每个磁盘的别名之后,在/etc/multipath.conf中的multipaths段中加入相应的配置,如将wwid为3600508b4000c3b910000c00000330000的磁盘命名为etl01,wwid为3600508b4000c3b910000c00000390000的磁盘命名为etl02,配置文件如下所示
multipaths{
multipath{
wwid 3600508b4000c3b910000c00000330000
alias etl01
}
multipath{
wwid 3600508b4000c3b910000c00000390000
alias etl02
}
}
(2)配置完成之后,重启multipathd服务,使用下面的命令清空已有的multipath记录
#multipath-F
然后使用multipath-v2重新扫描设备,这时会在/dev/mapper/目录下生成和别名对应的设备文件。
#ls/dev/mapper/
control etl01 eth02
(3)如果多台服务器的存储链路完全相同,并希望各服务器上同一磁盘的设备名相同,可以在一台服务器上配置好别名绑定之后,将multipaths{}中间的配置复制到其他服务器,这样各台服务器/dev/mapper/下面的设备将会保持一致。