centos 多路径 centos7多路径详细配置
大家好,关于centos 多路径很多朋友都还不太明白,不过没关系,因为今天小编就来为大家分享关于centos7多路径详细配置的知识点,相信应该可以解决大家的一些困惑和问题,如果碰巧可以解决您的问题,还望关注下本站哦,希望对各位有所帮助!
如何加载multipath多路径内核
LINUX下多路径(multi-path)介绍及使用
一、什么是多路径
普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。
多路径的主要功能就是和存储设备一起配合实现如下功能:
1.故障的切换和恢复
2.IO流量的负载均衡
3.磁盘的虚拟化
由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。比如EMC公司基于linux下的多路径软件,就需要单独的购买license。好在, RedHat和Suse的2.6的内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。
二、Linux下multipath介绍,需要以下工具包:
在CentOS 5中,最小安装系统时multipath已经被安装,查看multipath是否安装如下:
1、device-mapper-multipath:即multipath-tools。主要提供multipathd和multipath等工具和 multipath.conf等配置文件。这些工具通过device mapper的ioctr的接口创建和配置multipath设备(调用device-mapper的用户空间库。创建的多路径设备会在/dev/mapper中)。
2、 device-mapper:主要包括两大部分:内核部分和用户部分。内核部分主要由device mapper核心(dm.ko)和一些target driver(md-multipath.ko)。核心完成设备的映射,而target根据映射关系和自身特点具体处理从mappered device下来的i/o。同时,在核心部分,提供了一个接口,用户通过ioctr可和内核部分通信,以指导内核驱动的行为,比如如何创建mappered device,这些divece的属性等。linux device mapper的用户空间部分主要包括device-mapper这个包。其中包括dmsetup工具和一些帮助创建和配置mappered device的库。这些库主要抽象,封装了与ioctr通信的接口,以便方便创建和配置mappered device。multipath-tool的程序中就需要调用这些库。
3、dm-multipath.ko和dm.ko:dm.ko是device mapper驱动。它是实现multipath的基础。dm-multipath其实是dm的一个target驱动。
4、scsi_id:包含在udev程序包中,可以在multipath.conf中配置该程序来获取scsi设备的序号。通过序号,便可以判断多个路径对应了同一设备。这个是多路径实现的关键。scsi_id是通过sg驱动,向设备发送EVPD page80或page83的inquery命令来查询scsi设备的标识。但一些设备并不支持EVPD的inquery命令,所以他们无法被用来生成multipath设备。但可以改写scsi_id,为不能提供scsi设备标识的设备虚拟一个标识符,并输出到标准输出。multipath程序在创建multipath设备时,会调用scsi_id,从其标准输出中获得该设备的scsi id。在改写时,需要修改scsi_id程序的返回值为0。因为在multipath程序中,会检查该直来确定scsi id是否已经成功得到。
三、multipath在CentOS 5中的基本配置过程:
1、安装和加载多路径软件包
# yum–y install device-mapper device-mapper-multipath
# chkconfig–level 2345 multipathd on#设置成开机自启动multipathd
# lsmod|grep dm_multipath#来检查安装是否正常
如果模块没有加载成功请使用下列命初始化DM,或重启系统
---Use the following commands to initialize and start DM for the first time:
# modprobe dm-multipath
# modprobe dm-round-robin
# service multipathd start
# multipath–v2
2、配置multipath:
Multipath的配置文件是/etc/multipath.conf,如需要multipath正常工作只需要如下配置即可:(如果需要更加详细的配置,请看本文后续的介绍)
blacklist{
devnode"^sda"
}
defaults{
user_friendly_names yes
path_grouping_policy multibus
failback immediate
no_path_retry fail
}
# vi/etc/multipath.conf
3、multipath基本操作命令
#/etc/init.d/multipathd start#开启mulitipath服务
# multipath-F#删除现有路径
# multipath-v2#格式化路径
# multipath-ll#查看多路径
如果配置正确的话就会在/dev/mapper/目录下多出mpath0、mpath1等之类设备。
用fdisk-l命令可以看到多路径软件创建的磁盘,如下图中的/dev/dm-[0-3]
4、multipath磁盘的基本操作
要对多路径软件生成的磁盘进行操作直接操作/dev/mapper/目录下的磁盘就行.
在对多路径软件生成的磁盘进行分区之前最好运行一下pvcreate命令:
# pvcreate/dev/mapper/mpath0
# fdisk/dev/mapper/mpath0
用fdisk对多路径软件生成的磁盘进行分区保存时会有一个报错,此报错不用理会。
fdisk对多路径软件生成的磁盘进行分区之后,所生成的磁盘分区并没有马上添加到/dev/目录下,此时我们要重启IPSAN或者FCSAN的驱动,如果是用iscsi-initiator来连接IPSAN的重启ISCSI服务就可以发现所生成的磁盘分区了
# service iscsi restart
# ls-l/dev/mapper/
如上图中的mpath0p1和mpath1p1就是我们对multipath磁盘进行的分区
# mkfs.ext3/dev/mapper/mpath0p1#对mpath1p1分区格式化成ext3文件系统
# mount/dev/mapper/mpath0p1/ipsan/#挂载mpath1p1分区
linux 多路径后怎么绑定裸设备
方法一 raw的配置(1)
[root@qs-dmm-rh2 mapper]# cat/etc/rc.local
#!/bin/sh
#
# This script will be executed*after* all theother init scripts.
# You can put your own initialization stuff inhere if you don't
# want to do the full Sys V style init stuff.
touch/var/lock/subsys/local
#####
# Oracle Cluster Voting disks
#####
chown oracle:oinstall/dev/mapper/voting*
chmod 660/dev/mapper/voting*
raw/dev/raw/raw5/dev/mapper/votingdiskp1
raw/dev/raw/raw6/dev/mapper/votingdiskp2
raw/dev/raw/raw7/dev/mapper/votingdiskp3
raw/dev/raw/raw8/dev/mapper/votingdiskp4
#sleep 2
chown oracle:oinstall/dev/raw/raw5
chown oracle:oinstall/dev/raw/raw6
chown oracle:oinstall/dev/raw/raw7
chown oracle:oinstall/dev/raw/raw8
chmod 660/dev/raw/raw5
chmod 660/dev/raw/raw6
chmod 660/dev/raw/raw7
chmod 660/dev/raw/raw8
方法一(2)
[root@felix2 raw]# vi/etc/rc.local
#!/bin/sh
#
# This script will be executed*after* all theother init scripts.
# You can put your own initialization stuff inhere if you don't
# want to do the full Sys V style init stuff.
touch/var/lock/subsys/local
chown-R oracle:oinstall/dev/raw/raw*
chmod-R 660/dev/raw/raw*
~
(1)编辑rawdevices的配置文件:
[root@felix2 sysconfig]# pwd
/etc/sysconfig
[root@felix2 sysconfig]# vi rawdevices
# rw device bindings
# format:<rawdev><major><minor>
#<rawdev><blockdev>
# example:/dev/raw/raw1/dev/sda1
#/dev/raw/raw2 8 5
#--添加裸设备、块设备的绑定条目:
/dev/raw/raw1/dev/sdb1
/dev/raw/raw2/dev/sdc1
/dev/raw/raw3/dev/sdd1
/dev/raw/raw4/dev/sde1
(2)启动rawdevices服务:
service rawdevices start
(3)配置系统启动时,自动启动rawdevices服务:
chkconfig rawdevices on
(4)确认rawdevices服务成功启动,并且裸设备正确创建。先查看rawdevices服务状态:
service rawdevicesstatus
[root@felix2 sysconfig]# service rawdevices status
/dev/raw/raw1: bound to major 8, minor 17
/dev/raw/raw2: bound to major 8, minor 33
/dev/raw/raw3: bound to major 8, minor 49
/dev/raw/raw4: bound to major 8, minor 65
再查看裸设备:
[root@felix2 sysconfig]# cd/dev/raw
[root@felix2 raw]# ll
total 0
crw-rw---- 1 oracle oinstall 162, 1 May 21 15:03raw1
crw-rw---- 1 oracle oinstall 162, 2 May 21 15:35raw2
crw-rw---- 1 oracle oinstall 162, 3 May 21 15:35raw3
crw-rw---- 1 oracle oinstall 162, 4 May 21 15:35raw4
[root@felix2 raw]#
(5)ASM是以Oracle用户身份运行的,要让ASM能够发现这些设备,必须更改这些设备的属主(owner):
[root@felix2 raw]# chown oracle:oinstall/dev/raw/raw*
[root@felix2 raw]# ll
total 0
crw-rw---- 1 oracle oinstall 162, 1 May 21 15:03raw1
crw-rw---- 1 oracle oinstall 162, 2 May 21 15:37raw2
crw-rw---- 1 oracle oinstall 162, 3 May 21 15:37raw3
crw-rw---- 1 oracle oinstall 162, 4 May 21 15:37raw4
方法二运用UDEV设备绑定:
修改/etc/udev/rules.d/60-raw.rules文件
#现在我们把/dev/sdb1知道到raw1上,就可以在/etc/udev/rules.d/60-raw.rules文件里添加如下内容:
[root@centos~]#vi/etc/udev/rules.d/60-raw.rules
Cat>>/etc/udev/rules.d/60-raw.rules<< EOF
ACTION=="add",KERNEL=="sdb1",RUN+="/bin/raw/dev/raw/raw1%N"
ACTION=="add",KERNEL=="sdc1",RUN+="/bin/raw/dev/raw/raw2%N"
ACTION=="add",KERNEL=="sdd1",RUN+="/bin/raw/dev/raw/raw3%N"
ACTION=="add", KERNEL=="sde1",RUN+="/bin/raw/dev/raw/raw4%N"
ACTION=="add",KERNEL=="raw[1-5]",OWNER="oracle", GROUP="oinstall", MODE="660"
EOF
重启UDEV服务:
[root@rac1~]# start_udev
[root@zrac1 asmfileapp-linux5.4]# ls-lat/dev/raw/raw*
crw-rw---- 1 oracle oinstall 162, 4 Apr 10 00:49/dev/raw/raw4
crw-rw---- 1 oracle oinstall 162, 3 Apr 10 00:49/dev/raw/raw3
crw-rw---- 1 oracle oinstall 162, 2 Apr 10 00:49/dev/raw/raw2
crw-rw---- 1 oracle oinstall 162, 1 Apr 10 00:49/dev/raw/raw1
CentOS下多路径大容量硬盘挂载详解
一、应用环境及需求刀片服务器通过光纤交换机连接HP存储,形成了一个2X2的链路。操作系统为CentOS 6.4 64位挂载的存储容量为2.5T
基于此应用环境,需要解决两个问题:
为保证链路的稳定性及传输性能等,可以使用多路径技术;挂载的存储硬盘超过了2T,MBR分区格式不能支持,需要使用到GPT分区格式
因为CentOS 6.4中已经自带了HP存储的驱动,会自动识别出挂载的存储硬盘,否则的话,需要先安装存储驱动。
二、什么是多路径
普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。
多路径的主要功能就是和存储设备一起配合实现如下功能:
1.故障的切换和恢复
2.IO流量的负载均衡
3.磁盘的虚拟化
由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。比如EMC公司基于linux下的多路径软件,就需要单独的购买license。好在,RedHat和Suse的2.6的内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。
比较直观的感受是在Linux系统中执行fdisk-l命令,会出现类似/dev/sda1、/dev/sdb1、/dev/sdc1、/dev/sdd1的硬盘。因为总共有四种组合的路径,Linux系统会将每跳链路都认为是挂载了一块硬盘。
三、Linux下multipath介绍
CentOS 6.4中,默认已经安装了multipath:
[root@localhost~]# rpm-qa|grep mapper device-mapper-multipath-0.4.9-64.el6.x86_64 device-mapper-event-libs-1.02.77-9.el6.x86_64 device-mapper-multipath-libs-0.4.9-64.el6.x86_64 device-mapper-persistent-data-0.1.4-1.el6.x86_64 device-mapper-libs-1.02.77-9.el6.x86_64 device-mapper-event-1.02.77-9.el6.x86_64 device-mapper-1.02.77-9.el6.x86_64
device-mapper-multipath:即multipath-tools。主要提供multipathd和multipath等工具和 multipath.conf等配置文件。这些工具通过device mapper的ioctr的接口创建和配置multipath设备(调用device-mapper的用户空间库,创建的多路径设备会在/dev/mapper中)。
device-mapper:主要包括两大部分:内核部分和用户部分。
其中内核部分主要由device mapper核心(dm.ko)和一些target driver(md-multipath.ko)。核心完成设备的映射,而target根据映射关系和自身特点具体处理从mappered device下来的i/o。同时,在核心部分,提供了一个接口,用户通过ioctr可和内核部分通信,以指导内核驱动的行为,比如如何创建mappered device,这些divece的属性等。linux device mapper的用户空间部分主要包括device-mapper这个包。其中包括dmsetup工具和一些帮助创建和配置mappered device的库。这些库主要抽象,封装了与ioctr通信的接口,以便方便创建和配置mappered device。multipath-tool的程序中就需要调用这些库。
dm-multipath.ko和dm.ko:dm.ko是device mapper驱动。它是实现multipath的基础。dm-multipath其实是dm的一个target驱动。
scsi_id:包含在udev程序包中,可以在multipath.conf中配置该程序来获取scsi设备的序号。通过序号,便可以判断多个路径对应了同一设备。这个是多路径实现的关键。scsi_id是通过sg驱动,向设备发送EVPD page80或page83的inquery命令来查询scsi设备的标识。但一些设备并不支持EVPD的inquery命令,所以他们无法被用来生成multipath设备。但可以改写scsi_id,为不能提供scsi设备标识的设备虚拟一个标识符,并输出到标准输出。multipath程序在创建multipath设备时,会调用scsi_id,从其标准输出中获得该设备的scsi id。在改写时,需要修改scsi_id程序的返回值为0。因为在multipath程序中,会检查该直来确定scsi id是否已经成功得到。
四、配置multipath
基本配置脚本如下:
[root@localhost~]# cat/etc/multipath.conf defaults{ polling_interval 30 failback immediate no_path_retry queue rr_min_io 100 path_checker tur user_friendly_names yes}# SVC device{ vendor IBM product 2145 path_grouping_policy group_by_prio prio_callout/sbin/mpath_prio_alua/dev/%n}
multipath基本操作命令
#/etc/init.d/multipathd start#开启mulitipath服务# multipath-F#删除现有路径# multipath-v2#格式化路径# multipath-ll#查看多路径
如果配置正确的话就会在/dev/mapper/目录下多出mpathbp1等之类的设备,用fdisk-l命令可以看到多路径软件创建的磁盘,如:/dev/mapper/mpathbp1
五、格式化硬盘
执行fdisk-l,可以看到存储已经识别成功,并且多路径配置也正确。信息如下:
[root@localhost~]# fdisk-l...... Disk/dev/mapper/mpathb: 2684.4 GB, 2684354560000 bytes 255 heads, 63 sectors/track, 326354 cylinders Units= cylinders of 16065* 512= 8225280 bytes Sector size(logical/physical): 512 bytes/ 512 bytes I/O size(minimum/optimal): 512 bytes/ 512 bytes Disk identifier: 0x00000000 Device Boot Start End Blocks Id System/dev/mapper/mpathbp1 1 267350 2147483647+ ee GPT......
通过上面的信息可以发现已经是GPT的分区格式了,接下来就是需要对硬盘进行格式化。如果不是,需要先执行如下步骤:
1.新建分区
[root@localhost~]# pvcreate/dev/mapper/mpathb [root@localhost~]# parted/dev/mapper/mpathb GNU Parted 2.1 Using/dev/mapper/mpathbp1 Welcome to GNU Parted! Type'help' to view a list of commands.(parted) mklabel gpt#设置分区类型为gpt(parted) mkpart extended 0% 100%#扩展分区,并使用整个硬盘(parted) quit#退出 Information: You may need to update/etc/fstab.
2.格式化挂载硬盘
[root@localhost~]# mkfs.ext4/dev/mapper/mpathbp1 [root@localhost~]# mount/dev/mapper/mpathbp1/test
挂载成功后,即可使用了。
3.动挂载分区
当在系统里创建了一个新的分区后,因为mount挂载在重启系统后会失效,所以需要将分区信息写到/etc/fstab文件中让其永久挂载。
[root@localhost~]# vi/etc/fstab/dev/mapper/mpathbp1/test ext4 defaults 1 2
保存退出,重启后/dev/mapper/mpathbp1就会自动挂载到/test目录下