ssd centos?centos8官网下载教程
大家好,今天小编来为大家解答以下的问题,关于ssd centos,centos8官网下载教程这个很多人还不知道,现在让我们一起来看看吧!
CentOS磁盘与分区的命名规则详解
在Linux中,没有盘符这个概念,通过设备名来访问设备,设备名存放在/dev目录中。
前面讲的SSD、SAS、SATA硬盘都属于SCSI接口类型的硬盘,在Linux中用sd来标识,而IDE硬盘是属于IDE接口类型的硬盘,在Linux中用hd来标识。
在Linux中,不同硬盘的命名规则如下:
第一块SCSI接口类型硬盘:/dev/sda
第二块SCSI接口类型硬盘:/dev/sdb
第一块IDE接口类型硬盘:/dev/hda
第二块IDE接口类型硬盘:/dev/hdb
关于硬盘的分区,一块硬盘最多只能有4个主分区或3个主分区加1个扩展分区,即序号1-4是留给主分区或扩展分区用的,主分区和扩展分区加起来最多只有4个,主分区与扩展分区是平级的。一块硬盘最多也只能有一个扩展分区,但扩展分区不能直接用来存放数据,需要把它划分为若干个逻辑分区。因此从上面可知,逻辑分区的编号一定是从5开始的。
在Linux中的分区方案:
3p+1e或2p+1e或1p+1e
在Linux中分区编号:
第一块SCSI接口类型硬盘的第1个分区:/dev/sda1
第一块SCSI接口类型硬盘的第5个分区:/dev/sda5
第一块IDE接口类型硬盘的第1个分区:/dev/hda1
第一块IDE接口类型硬盘的第5个分区:/dev/hda5
CentOS下对SSD寿命的检查和健康判断详解
整个网上只有 intel的 SSD查看硬盘寿命的资料,象我们这种穷人,只能使用的起 Crucial和 OCZ的用户来讲是太不公平了.象我要透过 RAID卡就真没法子看其它商家的 SSD的寿命了吗?
研究了一下,所有查看 SSD的命令,只要要透过 RAID的,都需要借助 MegaCli和 smartCtl获得 ssd盘使用情况.认真研究了一下,目前我使用的
RAID卡是LSI Logic/ Symbios Logic MegaRAID SAS 1078和 2108这二种.使用通常的 MegaCli来查询:
这个是的下载地址:
Centos5的 MegaCli
Centos6的 MegaCli
整个过程分二步,第一步是从过 RAID卡来取得下面硬盘的信息.接下来使用 smartCtl来进行硬盘详细信息的显示.
使用 MegaCli来取得 RAID卡下硬盘的信息:
然后使用下面的命令:
/opt/MegaRAID/MegaCli/MegaCli64-PDList-aALL
这样可以查出 RAID卡下面的内容.会显示如下:
Enclosure Device ID: 252
Slot Number: 7
Device Id: 28
Sequence Number: 2
Media Error Count: 0
Other Error Count: 1
Predictive Failure Count: 0
Last Predictive Failure Event Seq Number: 0
PD Type: SATA
Raw Size: 119.242 GB [0xee7c2b0 Sectors]
Non Coerced Size: 118.742 GB [0xed7c2b0 Sectors]
Coerced Size: 118.277 GB [0xec8e000 Sectors]
Firmware state: Online, Spun Up
SAS Address(0): 0x1e394d57aa996b80
Connected Port Number: 7(path0)
Inquiry Data: 0000000011070303A99EC300-CTFDDAC128MAG 0007
FDE Capable: Not Capable
FDE Enable: Disable
Secured: Unsecured
Locked: Unlocked
Needs EKM Attention: No
Foreign State: None
Device Speed: 6.0Gb/s
Link Speed: 1.5Gb/s
Media Type: Solid State Device
注意上面几个地方,上面会输出很多这样的信息,只有 Media Type: Solid State Device.表示这是 SSD.其中 Device Id: 28这个需要记下来.这个过一会使用 smartctl查询时会需要.我们可以见到上面都显示了硬盘的型号:Inquiry Data: 0000000011070303A99EC300-CTFDDAC128MAG 0007.另外还有一个标志告诉你这个 SSD是不是正常的 Firmware state: Online,Spun Up这个选项,所以如果你做 SSD的监控报警,直接监控这个参数基本就行了.
使用 smartctl来取得 SSD硬盘的详细信息
要注意,不同厂商不同型号磁盘的信息不同.象 intel的硬盘信息就不介绍了.下面是查询所使用的命令.其中-a是让显示所有的信息出来.-d是用来设置硬盘的.这时需要注意不同的 RAID卡所使用的接口可能不一样,所以可能会有小的不相同.
比如 intel的硬盘,直接使用-d megaraid,27就能正常了.但我使用了上面的 raid卡后,需要指定 sat这个参数,就变成象下面这样了:
smartctl-a-d sat+megaraid,27/dev/sdb1-s on
上面这时的 sat是指由 SCSI转成 ATA的设备,可以加象 scsi,ata之类的参数.
这时,会显示如下的信息:
Model Family: Crucial/Micron RealSSD C300/C400
Device Model: C300-CTFDDAC128MAG
SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x002f 100 100 000 Pre-fail Always- 0
5 Reallocated_Sector_Ct 0x0033 100 100 000 Pre-fail Always- 0
9 Power_On_Hours 0x0032 100 100 000 Old_age Always- 5572
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always- 3
170 Grown_Failing_Block_Ct 0x0033 100 100 000 Pre-fail Always- 0
171 Program_Fail_Count 0x0032 100 100 000 Old_age Always- 0
172 Erase_Fail_Count 0x0032 100 100 000 Old_age Always- 0
173 Wear_Levelling_Count 0x0033 090 090 000 Pre-fail Always- 536
174 Unexpect_Power_Loss_Ct 0x0032 100 100 000 Old_age Always- 1
181 Non4k_Aligned_Access 0x0022 100 100 000 Old_age Always- 0 0 0
183 SATA_Iface_Downshift 0x0032 100 100 000 Old_age Always- 0
184 End-to-End_Error 0x0033 100 100 000 Pre-fail Always- 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always- 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always- 0
189 Factory_Bad_Block_Ct 0x000e 100 100 000 Old_age Always- 250
195 Hardware_ECC_Recovered 0x003a 100 100 000 Old_age Always- 0
196 Reallocated_Event_Count 0x0032 100 100 000 Old_age Always- 0
197 Current_Pending_Sector 0x0032 100 100 000 Old_age Always- 0
198 Offline_Uncorrectable 0x0030 100 100 000 Old_age Offline- 0
199 UDMA_CRC_Error_Count 0x0036 100 100 000 Old_age Always- 0
202 Perc_Rated_Life_Used 0x0018 090 090 000 Old_age Offline- 10
206 Write_Error_Rate 0x000e 100 100 000 Old_age Always- 0
如果是 OCZ的:
Device Model: OCZ-AGILITY3
Serial Number: OCZ-1OX963Q8B5X2V684
SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 086 086 050 Pre-fail Always- 135388659
5 Reallocated_Sector_Ct 0x0033 100 100 003 Pre-fail Always- 9
9 Power_On_Hours 0x0032 100 100 000 Old_age Always- 265772576277126
12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always- 15
171 Unknown_Attribute 0x0032 000 000 000 Old_age Always- 9
172 Unknown_Attribute 0x0032 000 000 000 Old_age Always- 0
174 Unknown_Attribute 0x0030 000 000 000 Old_age Offline- 13
177 Wear_Leveling_Count 0x0000 000 000 000 Old_age Offline- 1
181 Program_Fail_Cnt_Total 0x0032 000 000 000 Old_age Always- 9
182 Erase_Fail_Count_Total 0x0032 000 000 000 Old_age Always- 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always- 0
194 Temperature_Celsius 0x0022 030 030 000 Old_age Always- 30(Lifetime Min/Max 30/30)
195 Hardware_ECC_Recovered 0x001c 120 120 000 Old_age Offline- 135388659
196 Reallocated_Event_Count 0x0033 100 100 003 Pre-fail Always- 9
201 Soft_Read_Error_Rate 0x001c 120 120 000 Old_age Offline- 135388659
204 Soft_ECC_Correction 0x001c 120 120 000 Old_age Offline- 135388659
230 Head_Amplitude 0x0013 100 100 000 Pre-fail Always- 100
231 Temperature_Celsius 0x0013 100 100 010 Pre-fail Always- 0
233 Media_Wearout_Indicator 0x0000 000 000 000 Old_age Offline- 2531
234 Unknown_Attribute 0x0032 000 000 000 Old_age Always- 3465
241 Total_LBAs_Written 0x0032 000 000 000 Old_age Always- 3465
242 Total_LBAs_Read 0x0032 000 000 000 Old_age Always- 2030
SSD是否健康的参数分析:
注意这时的使用寿命不在是象 intel ssd的 Media_Wearout_Indicator这个参数(当然 OCZ也有,在 Crucial就变成了Perc_Rated_Life_Used).但其实我们要看 SSD是否健康,主要是要通过 Wear Leveling Count(颗粒平均擦写次数)这个参数和Grown Failling Block Ct这个参数.
注意看下面二行:
170 Grown_Failing_Block_Ct 0x0033 100 100 000 Pre-fail Always- 0
173 Wear_Levelling_Count 0x0033 090 090 000 Pre-fail Always- 536
上面二个参数是关键:
Wear Levelling Count(颗粒平均擦写次数):先讲这个参数.更加重要.先声明这个硬盘是使用了一年的 SSD硬盘.图中显示的数据为536,即这块128G的硬盘的全盘写入/擦除(P/E)数为536次,显示还有 90%的寿命.所以大约这个硬盘使用的闪存颗粒的寿命为 5000多次的样子.536约为 5000的 10%,所以此项值为90(CA). Grown Failing Block Count(使用中新增坏块数):此项代表 SSD的闪存颗粒在使用时出现的坏块(类似于HDD的坏道)数量,此处数据为 0即尚未有出现坏块,若你命不好.新购买回来 SSD在正常使用时,很短的时间内这个数据产生较大变化,那代表盘可能有问题,早点找售后服务吧.
MegaCli常用参数组合介绍:
MegaCli-cfgdsply-aALL| grep Error【正常都是0】
MegaCli-LDGetProp-Cache-LALL-a0【写策略】
MegaCli-cfgdsply-aALL| grep Memory【内存大小】
MegaCli-LDInfo-Lall-aALL【查RAID级别】
MegaCli-AdpAllInfo-aALL【查RAID卡信息】
MegaCli-PDList-aALL【查看硬盘信息】
MegaCli-AdpBbuCmd-aAll【查看电池信息】
MegaCli-FwTermLog-Dsply-aALL【查看RAID卡日志】
MegaCli-adpCount【显示适配器个数】
MegaCli-AdpGetTime aALL【显示适配器时间】
MegaCli-AdpAllInfo-aAll【显示所有适配器信息】
MegaCli-LDInfo-LALL-aAll【显示所有逻辑磁盘组信息】
MegaCli-PDList-aAll【显示所有的物理信息】
MegaCli-AdpBbuCmd-GetBbuStatus-aALL|grep Charger Status【查看充电状态】
MegaCli-AdpBbuCmd-GetBbuStatus-aALL【显示BBU状态信息】
MegaCli-AdpBbuCmd-GetBbuCapacityInfo-aALL【显示BBU容量信息】
MegaCli-AdpBbuCmd-GetBbuDesignInfo-aALL【显示BBU设计参数】
MegaCli-AdpBbuCmd-GetBbuProperties-aALL【显示当前BBU属性】
MegaCli-cfgdsply-aALL【显示RAID卡型号,RAID设置,DISK相关信息】
磁带状态的变化,从拔盘,到插盘的过程中:
Device|Normal|Damage|Rebuild|Normal
Virtual Drive|Optimal|Degraded|Degraded|Optimal
Physical Drive|Online|Failed Unconfigured|Rebuild|Online
CentOS系统中跟踪高IO等待详解
高IO等待问题的第一个征兆通常是系统平均负载。负载均衡的计算都是基于CPU利用率的,即使用或等待CPU的进程数目,当然,在Linux平台上,进程几乎都处于不可中断的睡眠状态。负载均衡的基线可以解释为,在一个CPU核的机器上上,该CPU得到充分利用。因此,对于4核机器中,如果系统平均复杂为 4,表示该机器有足够的资源来处理它需要做的工作,当然只是勉强。在相同的4核系统,如果平均复杂是8,那么以为这将意味着服务器系统需要8个core才能处理所要做的工作,但现在只有4个核,所以已经超载。
如果系统显示平均负载较高,但是CPU的系统(system)和用户(user)利用率较低,那么就需要观察IO等待(即IO wait)。在linuc系统上,IO wait对系统负载有较大的影响,主要因为一个或多个核都可能被磁盘IO或网络
发现进程在等待IO完成是一回事,验证高IO wait的原因是另一回事。使用”iostat–x 1”能够显示正在使用的物理存储设备的IO情况:
[username@server~]$ iostat-x 1
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm%util
cciss/c0d0 0.08 5.94 1.28 2.75 17.34 69.52 21.60 0.11 26.82 4.12 1.66
cciss/c0d0p1 0.00 0.00 0.00 0.00 0.00 0.00 5.30 0.00 8.76 5.98 0.00
cciss/c0d0p2 0.00 0.00 0.00 0.00 0.00 0.00 58.45 0.00 7.79 3.21 0.00
cciss/c0d0p3 0.08 5.94 1.28 2.75 17.34 69.52 21.60 0.11 26.82 4.12 1.66
由上可知,很明显,设备/dev/cciss/c0d0p3的等待时间很长。然而,我们并没有挂载找个设备,实际上,它是个LVM设备。如果您使用的是 LVM作为存储,那么,您应该发现iostat应该有那么一点混乱。LVM使用device mapper子系统将文件系统映射到物理设备,因此,iostat可能显示多个设备,比如/ dev/dm-0和/ dev/dm-1。而”df–h”的输出却不会显示device mapper路径,而是打印了LVM路径。最简单的方法是在iostat参数中添加选项”-N”。
[username@server~]$ iostat-xN 1
Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s avgrq-sz avgqu-sz await svctm%util
vg1-root 0.00 0.00 0.09 3.01 0.85 24.08 8.05 0.08 24.69 1.79 0.55
vg1-home 0.00 0.00 0.05 1.46 0.97 11.69 8.36 0.03 19.89 3.76 0.57
vg1-opt 0.00 0.00 0.03 1.56 0.46 12.48 8.12 0.05 29.89 3.53 0.56
vg1-tmp 0.00 0.00 0.00 0.06 0.00 0.45 8.00 0.00 24.85 4.90 0.03
vg1-usr 0.00 0.00 0.63 1.41 5.85 11.28 8.38 0.07 32.48 3.11 0.63
vg1-var 0.00 0.00 0.55 1.19 9.21 9.54 10.74 0.04 24.10 4.24 0.74
vg1-swaplv 0.00 0.00 0.00 0.00 0.00 0.00 8.00 0.00 3.98 1.88 0.00
为简便起见,裁剪上面iostat命令的输出信息。列出的每个文件系统所显示出的IO等待都是不可接受的,观察第十栏标有“await”的数据。相比而言,文件系统/usr的await时间要高一些。我们先来分析一下这个文件系统,使用命令” fuser-vm/opt”查看哪些进程在访问这个文件系统,进程列表如下。
root@server:/root> fuser-vm/opt
USER PID ACCESS COMMAND
/opt: db2fenc1 1067....m db2fmp
db2fenc1 1071....m db2fmp
db2fenc1 2560....m db2fmp
db2fenc1 5221....m db2fmp
当前服务器上有112个DB2进程正在访问/opt文件系统,为简便起见,列出四项。看来已经找到导致问题的原因,在服务器上,数据库配置为可使用速度更快的SAN访问,操作系统可以使用的是本地磁盘。可以打电话问问DBA(数据库管理员)怎么做才能这样配置。
最后一个组要的注意的是LVM和device mapper。“Iostat–xN”命令的输出显示的是逻辑卷名,但它是可以通过命令”ls–lrt/ dev/mapper”查到映射关系表。输出信息的第六列中的dm-是与iostat中的设备名相对应的。
有时候,在操作系统或应用层是没有什么可以做的,除了选择速度更快的磁盘,并没有其他的选择。幸运的是,快速磁盘访问,如SAN或SSD的价格正在逐步下降。