fdisk分区 centos?使用fdisk创建3个新分区
各位老铁们好,相信很多人对fdisk分区 centos都不是特别的了解,因此呢,今天就来为大家分享下关于fdisk分区 centos以及使用fdisk创建3个新分区的问题知识,还望可以帮助大家,解决大家的一些困惑,下面一起来看看吧!
CentOS下多路径大容量硬盘挂载详解
一、应用环境及需求刀片服务器通过光纤交换机连接HP存储,形成了一个2X2的链路。操作系统为CentOS 6.4 64位挂载的存储容量为2.5T
基于此应用环境,需要解决两个问题:
为保证链路的稳定性及传输性能等,可以使用多路径技术;挂载的存储硬盘超过了2T,MBR分区格式不能支持,需要使用到GPT分区格式
因为CentOS 6.4中已经自带了HP存储的驱动,会自动识别出挂载的存储硬盘,否则的话,需要先安装存储驱动。
二、什么是多路径
普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。
多路径的主要功能就是和存储设备一起配合实现如下功能:
1.故障的切换和恢复
2.IO流量的负载均衡
3.磁盘的虚拟化
由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。比如EMC公司基于linux下的多路径软件,就需要单独的购买license。好在,RedHat和Suse的2.6的内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。
比较直观的感受是在Linux系统中执行fdisk-l命令,会出现类似/dev/sda1、/dev/sdb1、/dev/sdc1、/dev/sdd1的硬盘。因为总共有四种组合的路径,Linux系统会将每跳链路都认为是挂载了一块硬盘。
三、Linux下multipath介绍
CentOS 6.4中,默认已经安装了multipath:
[root@localhost~]# rpm-qa|grep mapper device-mapper-multipath-0.4.9-64.el6.x86_64 device-mapper-event-libs-1.02.77-9.el6.x86_64 device-mapper-multipath-libs-0.4.9-64.el6.x86_64 device-mapper-persistent-data-0.1.4-1.el6.x86_64 device-mapper-libs-1.02.77-9.el6.x86_64 device-mapper-event-1.02.77-9.el6.x86_64 device-mapper-1.02.77-9.el6.x86_64
device-mapper-multipath:即multipath-tools。主要提供multipathd和multipath等工具和 multipath.conf等配置文件。这些工具通过device mapper的ioctr的接口创建和配置multipath设备(调用device-mapper的用户空间库,创建的多路径设备会在/dev/mapper中)。
device-mapper:主要包括两大部分:内核部分和用户部分。
其中内核部分主要由device mapper核心(dm.ko)和一些target driver(md-multipath.ko)。核心完成设备的映射,而target根据映射关系和自身特点具体处理从mappered device下来的i/o。同时,在核心部分,提供了一个接口,用户通过ioctr可和内核部分通信,以指导内核驱动的行为,比如如何创建mappered device,这些divece的属性等。linux device mapper的用户空间部分主要包括device-mapper这个包。其中包括dmsetup工具和一些帮助创建和配置mappered device的库。这些库主要抽象,封装了与ioctr通信的接口,以便方便创建和配置mappered device。multipath-tool的程序中就需要调用这些库。
dm-multipath.ko和dm.ko:dm.ko是device mapper驱动。它是实现multipath的基础。dm-multipath其实是dm的一个target驱动。
scsi_id:包含在udev程序包中,可以在multipath.conf中配置该程序来获取scsi设备的序号。通过序号,便可以判断多个路径对应了同一设备。这个是多路径实现的关键。scsi_id是通过sg驱动,向设备发送EVPD page80或page83的inquery命令来查询scsi设备的标识。但一些设备并不支持EVPD的inquery命令,所以他们无法被用来生成multipath设备。但可以改写scsi_id,为不能提供scsi设备标识的设备虚拟一个标识符,并输出到标准输出。multipath程序在创建multipath设备时,会调用scsi_id,从其标准输出中获得该设备的scsi id。在改写时,需要修改scsi_id程序的返回值为0。因为在multipath程序中,会检查该直来确定scsi id是否已经成功得到。
四、配置multipath
基本配置脚本如下:
[root@localhost~]# cat/etc/multipath.conf defaults{ polling_interval 30 failback immediate no_path_retry queue rr_min_io 100 path_checker tur user_friendly_names yes}# SVC device{ vendor IBM product 2145 path_grouping_policy group_by_prio prio_callout/sbin/mpath_prio_alua/dev/%n}
multipath基本操作命令
#/etc/init.d/multipathd start#开启mulitipath服务# multipath-F#删除现有路径# multipath-v2#格式化路径# multipath-ll#查看多路径
如果配置正确的话就会在/dev/mapper/目录下多出mpathbp1等之类的设备,用fdisk-l命令可以看到多路径软件创建的磁盘,如:/dev/mapper/mpathbp1
五、格式化硬盘
执行fdisk-l,可以看到存储已经识别成功,并且多路径配置也正确。信息如下:
[root@localhost~]# fdisk-l...... Disk/dev/mapper/mpathb: 2684.4 GB, 2684354560000 bytes 255 heads, 63 sectors/track, 326354 cylinders Units= cylinders of 16065* 512= 8225280 bytes Sector size(logical/physical): 512 bytes/ 512 bytes I/O size(minimum/optimal): 512 bytes/ 512 bytes Disk identifier: 0x00000000 Device Boot Start End Blocks Id System/dev/mapper/mpathbp1 1 267350 2147483647+ ee GPT......
通过上面的信息可以发现已经是GPT的分区格式了,接下来就是需要对硬盘进行格式化。如果不是,需要先执行如下步骤:
1.新建分区
[root@localhost~]# pvcreate/dev/mapper/mpathb [root@localhost~]# parted/dev/mapper/mpathb GNU Parted 2.1 Using/dev/mapper/mpathbp1 Welcome to GNU Parted! Type'help' to view a list of commands.(parted) mklabel gpt#设置分区类型为gpt(parted) mkpart extended 0% 100%#扩展分区,并使用整个硬盘(parted) quit#退出 Information: You may need to update/etc/fstab.
2.格式化挂载硬盘
[root@localhost~]# mkfs.ext4/dev/mapper/mpathbp1 [root@localhost~]# mount/dev/mapper/mpathbp1/test
挂载成功后,即可使用了。
3.动挂载分区
当在系统里创建了一个新的分区后,因为mount挂载在重启系统后会失效,所以需要将分区信息写到/etc/fstab文件中让其永久挂载。
[root@localhost~]# vi/etc/fstab/dev/mapper/mpathbp1/test ext4 defaults 1 2
保存退出,重启后/dev/mapper/mpathbp1就会自动挂载到/test目录下
Centos7.9磁盘分区及挂载
本文详细介绍了如何在Centos 7.9中对不同大小的磁盘进行分区、格式化和挂载。对于小于2.2T的磁盘,推荐使用fdisk进行分区,而对于大于2.2T的硬盘,parted工具更为适合。下面是操作步骤的概述:
1.磁盘小于2.2T:使用fdisk
-查看当前分区:`fdisk-l`
-分区:`fdisk/dev/sdb`,创建并确认分区
-格式化:`mkfs.xfs-f/dev/sdb1`
磁盘大于2.2T:使用parted
-安装工具:`yum install-y parted`
-查看分区:`parted-l`
-分区操作(以整个磁盘为例):
-进入分区:`parted/dev/sdb`
-设置为GPT:`mklabel GPT`
-创建主分区:`mkpart primary 1-1`
-查看分区:`print`
-格式化:同上
-挂载:创建目录、`mount-t xfs/dev/sdb1/home_pro`,并添加到fstab以实现开机挂载
3.创建目录、挂载并验证:如上所述
4.可以通过`lsblk-f`查看分区信息、类型、UUID和挂载点。
这些步骤确保了分区的有效管理和磁盘的高效使用。
CentOS下SWAP分区建立及释放内存详解
方法一:
一、查看系统当前的分区情况:
free-m
二、创建用于交换分区的文件:
dd if=/dev/zero of=/whatever/swap bs=block_size(10M)count=number_of_block(3000)
三、设置交换分区文件:
mkswap/export/swap/swapfile
四、立即启用交换分区文件:
swapon/whateever/swap
五、若要想使开机时自启用,则需修改文件/etc/fstab中的swap行:
/whatever/swap swap swap defaults 0 0
方法二
增加交换分区空间的方法:
1.查看一下/etc/fstab确定目前的分区
2.swapoff/dev/hd**
3.free看一下是不是停了.
4.fdisk删了停掉的swap分区
5.重新用FDISK建一个新的SWAP分区
6.mkswap/dev/hd**把新的分区做成swap
7.swapon/dev/hd**打开swap
8.修改/etc/fstab
操作实例:
1.查看系统Swap空间使用
# free
total used free shared buffers cached
Mem: 513980 493640 20340 0 143808 271780
-/+ buffers/cache: 78052 435928
Swap: 1052248 21256 1030992
2.在空间合适处创建swap文件
# mkdir swap
# cd swap
# dd if=/dev/zero of=swapfile bs=1024 count=10000
10000+0 records in
10000+0 records out
# ls-al
total 10024
drwxr-xr-x 2 root root 4096 7月 28 14:58.
drwxr-xr-x 19 root root 4096 7月 28 14:57..
-rw-r--r-- 1 root root 10240000 7月 28 14:58 swapfile
# mkswap swapfile
Setting up swapspace version 1, size= 9996 KiB
3.激活swap文件
# swapon swapfile
# ls-l
total 10016
-rw-r--r-- 1 root root 10240000 7月 28 14:58 swapfile
# free
total used free shared buffers cached
Mem: 513980 505052 8928 0 143900 282288
-/+ buffers/cache: 78864 435116
Swap: 1062240 21256 1040984
生成1G的文件
# dd if=/dev/zero of=swapfile bs=10M count=3000
创建为swap文件
#mkswap swapfile
让swap生效
#swapon swapfile
查看一下swap
#swapon-s
[root@cluster/]# swapon-sFilenameTypeSizeUsedPriority/dev/sda3 partition10201161728-1/state/partition1/swap/swapfile file307199920-2
加到fstab文件中让系统引导时自动启动
#vi/etc/fstab
/state/partition1/swap/swapfil swap swap defaults 0 0
完毕。
二,LINUX释放内存
细心的朋友会注意到,当你在linux下频繁存取文件后,物理内存会很快被用光,当程序结束后,内存不会被正常释放,而是一直作为caching.这个问题,貌似有不少人在问,不过都没有看到有什么很好解决的办法.那么我来谈谈这个问题.
先来说说free命令
[root@cluster/]# free-m
total used free shared buffers cached
Mem: 31730 31590 139 0 37 27537
-/+ buffers/cache: 4015 27714
Swap: 30996 1 30994
其中:
total内存总数
used已经使用的内存数
free空闲的内存数
shared多个进程共享的内存总额
buffers Buffer Cache和cached Page Cache磁盘缓存的大小
-buffers/cache的内存数:used- buffers- cached
+buffers/cache的内存数:free+ buffers+ cached
可用的memory=free memory+buffers+cached
有了这个基础后,可以得知,我现在used为163MB,free为86,buffer和cached分别为10,94
那么我们来看看,如果我执行复制文件,内存会发生什么变化.
[root@cluster/]# cp-r/etc~/test/
[root@cluster/]# free-m
total used free shared buffers cached
Mem: 31730 31590 139 0 37 27537
-/+ buffers/cache: 4015 27714
Swap: 30996 1 30994
在我命令执行结束后,used为244MB,free为4MB,buffers为8MB,cached为174MB,天呐都被cached吃掉了.别紧张,这是为了提高文件读取效率的做法.
引用[url][/url]为了提高磁盘存取效率, Linux做了一些精心的设计,除了对dentry进行缓存(用于VFS,加速文件路径名到inode的转换),还采取了两种主要Cache方式:Buffer Cache和Page Cache。前者针对磁盘块的读写,后者针对文件inode的读写。这些Cache有效缩短了 I/O系统调用(比如read,write,getdents)的时间。
那么有人说过段时间,linux会自动释放掉所用的内存,我们使用free再来试试,看看是否有释放?
[root@cluster/]# free-m
total used free shared buffers cached
Mem: 31730 31590 139 0 37 27537
-/+ buffers/cache: 4015 27714
Swap: 30996 1 30994
MS没有任何变化,那么我能否手动释放掉这些内存呢???回答是可以的!
/proc是一个虚拟文件系统,我们可以通过对它的读写操作做为与kernel实体间进行通信的一种手段.也就是说可以通过修改/proc中的文件,来对当前kernel的行为做出调整.那么我们可以通过调整/proc/sys/vm/drop_caches来释放内存.操作如下:
[root@cluster/]# cat/proc/sys/vm/drop_caches
0
首先,/proc/sys/vm/drop_caches的值,默认为0
[root@cluster/]# sync
手动执行sync命令(描述:sync命令运行 sync子例程。如果必须停止系统,则运行 sync命令以确保文件系统的完整性。sync命令将所有未写的系统缓冲区写到磁盘中,包含已修改的 i-node、已延迟的块 I/O和读写映射文件)
[root@server test]# echo 3/proc/sys/vm/drop_caches
[root@server test]# cat/proc/sys/vm/drop_caches
3
将/proc/sys/vm/drop_caches值设为3
[root@server test]# free-m
total used free shared buffers cached
Mem: 249 66 182 0 0 11
-/+ buffers/cache: 55 194
Swap: 511 0 511
再来运行free命令,发现现在的used为66MB,free为182MB,buffers为0MB,cached为11MB.那么有效的释放了buffer和cache.
有关/proc/sys/vm/drop_caches的用法在下面进行了说明
/proc/sys/vm/drop_caches(since Linux 2.6.16)
Writing to this file causes the kernel to drop clean caches,
dentries and inodes from memory, causing that memory to become free.
To free pagecache, use echo 1/proc/sys/vm/drop_caches;
to free dentries and inodes, use echo 2/proc/sys/vm/drop_caches;
to free pagecache, dentries and inodes, use echo 3/proc/sys/vm/drop_caches.
Because this is a non-destructive operation and dirty objects
这几天发现linux系统内存一直涨,即使把apache和mysql关闭了,内存也不释放,可以使用以下脚本来释放内存:
脚本内容:
#!/bin/sh
# cache释放:
# To free pagecache:
/bin/sync
/bin/sync
#echo 1/proc/sys/vm/drop_caches
# To free dentries and inodes:
#echo 2/proc/sys/vm/drop_caches
# To free pagecache, dentries and inodes:
echo 3/proc/sys/vm/drop_caches
利用系统crontab实现每天自动运行:
crontab-e
输入以下内容:
00 00***/root/Cached.sh
每天0点释放一次内存,这个时间可以根据自己需要修改设置
在运行./Cached.sh时如果提示错误:Permission denied权限的问题,可以运行