centos6 iscsi,centos挂载

老铁们,大家好,相信还有很多朋友对于centos6 iscsi和centos挂载的相关问题不太懂,没关系,今天就由我来为大家分享分享centos6 iscsi以及centos挂载的问题,文章篇幅可能偏长,希望可以帮助到大家,下面一起来看看吧!

CentOS下多路径大容量硬盘挂载详解

一、应用环境及需求刀片服务器通过光纤交换机连接HP存储,形成了一个2X2的链路。操作系统为CentOS 6.4 64位挂载的存储容量为2.5T

基于此应用环境,需要解决两个问题:

为保证链路的稳定性及传输性能等,可以使用多路径技术;挂载的存储硬盘超过了2T,MBR分区格式不能支持,需要使用到GPT分区格式

因为CentOS 6.4中已经自带了HP存储的驱动,会自动识别出挂载的存储硬盘,否则的话,需要先安装存储驱动。

二、什么是多路径

普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。

多路径的主要功能就是和存储设备一起配合实现如下功能:

1.故障的切换和恢复

2.IO流量的负载均衡

3.磁盘的虚拟化

由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。比如EMC公司基于linux下的多路径软件,就需要单独的购买license。好在,RedHat和Suse的2.6的内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。

比较直观的感受是在Linux系统中执行fdisk-l命令,会出现类似/dev/sda1、/dev/sdb1、/dev/sdc1、/dev/sdd1的硬盘。因为总共有四种组合的路径,Linux系统会将每跳链路都认为是挂载了一块硬盘。

三、Linux下multipath介绍

CentOS 6.4中,默认已经安装了multipath:

[root@localhost~]# rpm-qa|grep mapper device-mapper-multipath-0.4.9-64.el6.x86_64 device-mapper-event-libs-1.02.77-9.el6.x86_64 device-mapper-multipath-libs-0.4.9-64.el6.x86_64 device-mapper-persistent-data-0.1.4-1.el6.x86_64 device-mapper-libs-1.02.77-9.el6.x86_64 device-mapper-event-1.02.77-9.el6.x86_64 device-mapper-1.02.77-9.el6.x86_64

device-mapper-multipath:即multipath-tools。主要提供multipathd和multipath等工具和 multipath.conf等配置文件。这些工具通过device mapper的ioctr的接口创建和配置multipath设备(调用device-mapper的用户空间库,创建的多路径设备会在/dev/mapper中)。

device-mapper:主要包括两大部分:内核部分和用户部分。

其中内核部分主要由device mapper核心(dm.ko)和一些target driver(md-multipath.ko)。核心完成设备的映射,而target根据映射关系和自身特点具体处理从mappered device下来的i/o。同时,在核心部分,提供了一个接口,用户通过ioctr可和内核部分通信,以指导内核驱动的行为,比如如何创建mappered device,这些divece的属性等。linux device mapper的用户空间部分主要包括device-mapper这个包。其中包括dmsetup工具和一些帮助创建和配置mappered device的库。这些库主要抽象,封装了与ioctr通信的接口,以便方便创建和配置mappered device。multipath-tool的程序中就需要调用这些库。

dm-multipath.ko和dm.ko:dm.ko是device mapper驱动。它是实现multipath的基础。dm-multipath其实是dm的一个target驱动。

scsi_id:包含在udev程序包中,可以在multipath.conf中配置该程序来获取scsi设备的序号。通过序号,便可以判断多个路径对应了同一设备。这个是多路径实现的关键。scsi_id是通过sg驱动,向设备发送EVPD page80或page83的inquery命令来查询scsi设备的标识。但一些设备并不支持EVPD的inquery命令,所以他们无法被用来生成multipath设备。但可以改写scsi_id,为不能提供scsi设备标识的设备虚拟一个标识符,并输出到标准输出。multipath程序在创建multipath设备时,会调用scsi_id,从其标准输出中获得该设备的scsi id。在改写时,需要修改scsi_id程序的返回值为0。因为在multipath程序中,会检查该直来确定scsi id是否已经成功得到。

四、配置multipath

基本配置脚本如下:

[root@localhost~]# cat/etc/multipath.conf defaults{ polling_interval 30 failback immediate no_path_retry queue rr_min_io 100 path_checker tur user_friendly_names yes}# SVC device{ vendor IBM product 2145 path_grouping_policy group_by_prio prio_callout/sbin/mpath_prio_alua/dev/%n}

multipath基本操作命令

#/etc/init.d/multipathd start#开启mulitipath服务# multipath-F#删除现有路径# multipath-v2#格式化路径# multipath-ll#查看多路径

如果配置正确的话就会在/dev/mapper/目录下多出mpathbp1等之类的设备,用fdisk-l命令可以看到多路径软件创建的磁盘,如:/dev/mapper/mpathbp1

五、格式化硬盘

执行fdisk-l,可以看到存储已经识别成功,并且多路径配置也正确。信息如下:

[root@localhost~]# fdisk-l...... Disk/dev/mapper/mpathb: 2684.4 GB, 2684354560000 bytes 255 heads, 63 sectors/track, 326354 cylinders Units= cylinders of 16065* 512= 8225280 bytes Sector size(logical/physical): 512 bytes/ 512 bytes I/O size(minimum/optimal): 512 bytes/ 512 bytes Disk identifier: 0x00000000 Device Boot Start End Blocks Id System/dev/mapper/mpathbp1 1 267350 2147483647+ ee GPT......

通过上面的信息可以发现已经是GPT的分区格式了,接下来就是需要对硬盘进行格式化。如果不是,需要先执行如下步骤:

1.新建分区

[root@localhost~]# pvcreate/dev/mapper/mpathb [root@localhost~]# parted/dev/mapper/mpathb GNU Parted 2.1 Using/dev/mapper/mpathbp1 Welcome to GNU Parted! Type'help' to view a list of commands.(parted) mklabel gpt#设置分区类型为gpt(parted) mkpart extended 0% 100%#扩展分区,并使用整个硬盘(parted) quit#退出 Information: You may need to update/etc/fstab.

2.格式化挂载硬盘

[root@localhost~]# mkfs.ext4/dev/mapper/mpathbp1 [root@localhost~]# mount/dev/mapper/mpathbp1/test

挂载成功后,即可使用了。

3.动挂载分区

当在系统里创建了一个新的分区后,因为mount挂载在重启系统后会失效,所以需要将分区信息写到/etc/fstab文件中让其永久挂载。

[root@localhost~]# vi/etc/fstab/dev/mapper/mpathbp1/test ext4 defaults 1 2

保存退出,重启后/dev/mapper/mpathbp1就会自动挂载到/test目录下

windows server 能不能做NAS

可以的,以Windows server 2012为例:

Windows Server 2012 NAS前期准备工作

安装操作系统Windows server 2012,版本最好选择数据中心版本的。

硬盘最好是两个以上,组建Raid,否则没几天就硬盘就坏了,那就糟糕了。

过去 Windows磁盘管理分两部分:磁盘(Disk)和分区(Volume),磁盘是实体的硬盘,透过硬盘的软件或者硬件都可以组建Raid,或者使用光纤线Fibre Channel/iSCSI连接SAN上面的 LUN。

这样做的好处就是增加了更大的弹性与更好的硬盘使用率,以RAID-0和 RAID-1举例,传统的RAID架构需要3个硬盘,而Raid0或者1只需要2个就够了。

使用新的存取空间来放文件的步骤很简单,之需要下列三个步骤

1.新增存取去

2.新增虚拟硬盘。

3.新增磁盘分割、格式化并制定磁盘代号

开启Windows Server 2012上面的服务器管理员,点击文件存取服务,接下来选择存取区,

在还没建立任何的存放集区之前,在中间的存放集区会看到一个Primordial的项目,右下角的实体磁盘会看到目前所以还没被使用的实体硬盘列表

建立存放集区可透过存放集区右上角的工作或是在中间的Storage Spaces区右键单击点选新增存放集区叫出新增存放集区精灵,在存放集区名称中输入存放集区的名字,下面默认只会有一组可用的磁盘群组所以没的选

按了下一步之后到了实体硬盘区,选择要加入这个存放集区的硬盘,这边在配置的地方有两个选项:自动和热备援(Hot Spare),选择自动默认是数据碟,热备援顾名思义就是该硬盘并不会拿来存放数据,而是在存放集区中有任何一颗硬盘损毁的时候自动递补上去,不需要人为介入可增加这个存放集区的可靠度,目前只有两颗那就全部选自动当作数据碟

下一步进入确认画面看看数据正不正确,点选建立后就会建立一个原始容量有6TB的存放集区

存放集区建立成功后,画面下方会有一个复选框:当此精灵关闭时建立虚拟磁盘(V),点一下核取后关闭这个精灵会开启新增虚拟磁盘精灵已进行下一步

关闭新增存放区精灵后,新增虚拟磁盘精灵就会出现了,这时候我们可以建立新的虚拟硬盘,在介绍画面按下一步继续

在选取储存集区点选刚刚建立的Storage Pool 1,然后按下一步继续

接下来是指定虚拟磁盘名称,输入名称和描述后按下一步继续

接下来是选取储存配置,Windows Server 2012的虚拟硬盘配置有三种选项,Simple/Mirror/Parity

1.Simple:和RAID-0 Stripe Set一样,将数据切块后分布在存放集区内所有的硬盘上,不会浪费任何空间但是也没有容错功能,任何一颗硬盘毁损的话所有的数据就不见了,读写效率最高。

2.Mirror:和RAID-1 Mirror Set一样,将数据同时写两份在两颗硬盘上,有容错功能但是会浪费一半的硬盘空间,存放集区如果超过两颗硬盘(4/6/8….)会变成 RAID-10(1+0)。另外 Windows Server 2012的 Mirror配置还有一个特异功能,就是如果存放集区内的硬盘是 3的倍数的话可以开启 3-way Mirror,数据会同时写在三分到三颗硬盘,这样在两颗硬盘损坏的况下还是可以读写数据。

3.Parity:和RAID-5 Parity Set一样,存放集区内最少需要有3颗硬盘才能使用,有容错功能硬盘空间浪费也不像RAID-0那么高,写入效率较差。

可以按照存放数据的特性和系统的硬盘数量选择适合的储存配置,以下以Simple为例

接下来是指定布建类型,有精简(Thin)和固定式(Fixed)两个选项。这边的观念和 Hyper-V的虚拟硬盘(VHD)的观念一样,固定式在建立时就会使用掉相同大小的空间,而精简在建立时只会使用一点点硬盘空间,等到真的开始写入数据的时候才会开始配置硬盘空间,这就是在 SAN/NAS上很流行的Thin Provisioning,也有人把这个技术归类成Storage Virtualization。以精简为例继续

接下来是指定虚拟磁盘的大小,由于我们前面的布建类型选择的是精简,所以虽然存放集区的可用空间只有6TB,但是我们可以建立一个100TB的虚拟磁盘,当数据写入接近6TB的时候再在线加硬盘到存放集区并且扩大虚拟硬盘和磁盘分区即可,这对管理上来说会非常的方便,不用像过去要一开始就规划好未来的硬盘的空间大小,可以事后再在线动态扩充

接下来在确认选取项目的画面上确定参数没问题,按下建立就会把虚拟硬盘建立完成

建立完虚拟硬盘后的检视结果画面下方有复选框可以在关闭新增虚拟硬盘精灵后开启建立磁盘区精灵,到这边存储空间的设定就完成了,接下来和传统的Windows磁盘管理一样建立磁盘区(Partition),格式化成NTFS/FAT32/ReFS并指定驱动器号后就可以开始存放数据了。

Windows Server 2012的存放集区功能让可以打造非常强大的NAS/File Server,不但可以弹性的扩充存放集区的硬盘数量、在线扩充容量,也可以透过虚拟硬盘的精简配置(Thin Provisioning)和容错配置(Simple/Mirror/Parity)降低硬盘数量和容错的成本。

----------------------

司马青衫

用过win7,win8.1做过,就是网络共享,装个FTP Server,可以远程桌面远程管理,可以远程开机(路由器要绑定,有些路由器不行),但是关机要远程桌面登陆了关机,总体比较方便,但资源占用挺多。后来装了CentOS(Linux),最小化安装,ssh管理,rtorrent做PT下载,不用占用太多资源,缺点是rtorrent的客户端rutorrent太折腾了,没完美运行过,只能凑合着用。

CentOS7mount网络磁盘的详细步骤

systemctl disable firewalld

systemctl stop firewalld

systemctl mask firewalld

   vi/etc/iscsi/initiatorname.iscsi

    InitiatorName= iqn.************;【注:eg:iqn.2017-09.com.centos:client1】

    1.安装target

        yum-y install targetcli

    2.启动target服务

        systemctl start target

    3.设置开机自启动

        systemctl enable target

    4.新建分区

        eg:

        fdisk/dev/sda==>回车,见下图

    5.进入交互模式

    targetcli

    6.建立一个块存储

        />/backstores/block create netdisk1.disk/dev/sdb1【注:其中netdisk1为自定义名称】

    7.配置ISCSI target端的命名

        />/iscsi create iqn.2017-09.com.centos:server1【注:其中server1为自定义名称,且命名在同一子网中确保是唯一的】

    8.创建ACL允许ISCSI客户机连接

        />/iscsi/iqn.2017-09.com.example:server1/tpg1/acls create iqn.2017-09.com.example:client1【注:其中server1为服务端,client1为客户端名称】

    9.创建lun(target块设备的逻辑单元)

        />/iscsi/iqn.2017-03.com.example:server1/tpg1/luns create/backstores/block/netdisk1.disk

    10.配置验证用户名和密码

        />cd/iscsi/iqn.2017-03.com.example:disk1/tpg1/acls/iqn.2017-03.com.example:client1

        />set auth userid=username

        />set auth password=password

    11.配置完成后查看配置信息,并退出

        />cd/

        />ls

        />exit

    1.安装ISCSI Initiator

        # yum-y install iscsi-initiator-utils

    2.配置ISCSI Initiator的名称

        # vi/etc/iscsi/initiatorname.iscsi【注:此处InitiatorName必须与服务端配置的ACL允许ISCSI客户机连接的名称一致,且与上面的server端的配置相互配合】

    3.修改ISCSI Initiator的配置文件

        # vi/etc/iscsi/iscsid.conf

【注:node.session.auth.username为存储服务端set auth userid=username配置的username,node.session.auth.password= password为存储服务器端set auth password=password配置的password】

    4.查找ISCSI设备

        # iscsiadm-m discovery-t sendtargets-p 192.168.**.**

    5.链接ISCSI设备

        # iscsiadm-m node--login【注:如果登录一直失败的话,可以尝试重新启动下面两个服务:service iscsi stop; service iscsid stop; service iscsi start; service iscsid start;】

    6.查看系统磁盘的信息

        # fdisk-l

    7.格式化磁盘

        mkfs-t ext4/dev/sda

    8.mount到指定的位置

        mount/dev/sda/root/iscsi

    9.设置开机自动连接ISCSI设备

        # iscsiadm-m node-T iqn.2017-03.com.example:disk1-p192.168.**.**:3260-o update-n node.startup-v automatic【注:提到的名字与IP均为target端的】

    10.设置开机挂载网络磁盘

        开机挂载:采用写入fstab方式开启启动挂载磁盘

        获取磁盘UUID:# blkid/dev/sda

        编辑fstab:# vi/etc/fstab

        添加配置:UUID=9f122014-071a-4416-b40f-ece882285b2b   /mnt/iscsi    ext4   defaults,_netdev   0 0

        【说明】

            UUID=ba7925cc-9bfb-4238-984d-999e18d592e8:磁盘UUID,代表磁盘

            /mnt/iscs:代表挂载路径,根据实际灵活变动。

            ext4:代表文件系统,根据实际灵活变动。

            _netdev:代表该挂载的磁盘分区为网络磁盘分区。(在网络服务启动之后再去mount磁盘,若果不加的话,会使机器无法启动!!!!)

阅读剩余
THE END