centos 负载查看(centos如何安装软件)
大家好,今天来为大家解答centos 负载查看这个问题的一些问题点,包括centos如何安装软件也一样很多人还不知道,因此呢,今天就来为大家分析分析,现在让我们一起来看看吧!如果解决了您的问题,还望您关注下本站哦,谢谢~
CentOS中如何使用top命令查看CPU负载
CentOS是 RHEL(Red Hat Enterprise Linux)源代码再编译的产物,而且在 RHEL的基础上修正了不少已知的 Bug,相对于其他 Linux发行版,其稳定性值得信赖。
在系统维护的过程中,随时可能有需要查看 CPU使用率,并根据相应信息分析系统状况的需要。在 CentOS中,可以通过 top命令来查看 CPU使用状况。运行 top命令后,CPU使用状态会以全屏的方式显示,并且会处在对话的模式--用基于 top的命令,可以控制显示方式等等。退出 top的命令为 q(在 top运行中敲 q键一次)。
在命令行中输入“top”即可启动 top,运行后如下图所示:
如上图所示,top的全屏对话模式可分为3部分:系统信息栏、命令输入栏、进程列表栏。
第一部分--最上部的系统信息栏
第一行(top):
“00:11:04”为系统当前时刻;“3:35”为系统启动后到现在的运作时间;“2 users”为当前登录到系统的用户,更确切的说是登录到用户的终端数--同一个用户同一时间对系统多个终端的连接将被视为多个用户连接到系统,这里的用户数也将表现为终端的数目;“load average”为当前系统负载的平均值,后面的三个值分别为1分钟前、5分钟前、15分钟前进程的平均数,一般的可以认为这个数值超过 CPU数目时,CPU将比较吃力的负载当前系统所包含的进程;
第二行(Tasks):
“59 total”为当前系统进程总数;“1 running”为当前运行中的进程数;“58 sleeping”为当前处于等待状态中的进程数;“0 stoped”为被停止的系统进程数;“0 zombie”为被复原的进程数;
第三行(Cpus):
分别表示了 CPU当前的使用率;
第四行(Mem):
分别表示了内存总量、当前使用量、空闲内存量、以及缓冲使用中的内存量;
第五行(Swap):
表示类别同第四行(Mem),但此处反映着交换分区(Swap)的使用情况。通常,交换分区(Swap)被频繁使用的情况,将被视作物理内存不足而造成的。
第二部分--中间部分的内部命令提示栏
top运行中可以通过 top的内部命令对进程的显示方式进行控制。内部命令如下表:
s-改变画面更新频率l-关闭或开启第一部分第一行 top信息的表示t-关闭或开启第一部分第二行 Tasks和第三行 Cpus信息的表示m-关闭或开启第一部分第四行 Mem和第五行 Swap信息的表示N-以 PID的大小的顺序排列表示进程列表P-以 CPU占用率大小的顺序排列进程列表M-以内存占用率大小的顺序排列进程列表h-显示帮助n-设置在进程列表所显示进程的数量q-退出 tops-改变画面更新周期
第三部分--最下部分的进程列表栏
以 PID区分的进程列表将根据所设定的画面更新时间定期的更新。通过 top内部命令可以控制此处的显示方式。
一般的,我们通过远程监控的方式对服务器进行维护,让服务器本地的终端实时的运行 top,是在服务器本地监视服务器状态的快捷便利之一。
CentOS下如何查看多核负载CentOS下查看多核负载的方法
1. Linux下,如何看每个CPU的使用率:
#top-M
之后按下数字1.(或者top之后按1也一样)则显示多个CPU的信息,和内存信息:
[root@testpc~]# top-M
top- 15:38:40 up 2 days, 2:05, 2 users, load average: 0.00, 0.00, 0.00
Tasks: 138 total, 1 running, 137 sleeping, 0 stopped, 0 zombie
Cpu0: 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu1: 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu2: 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Cpu3: 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st
Mem: 3725.047M total, 263.312M used, 3461.734M free, 45.711M buffers
Swap: 8095.992M total, 0.000k used, 8095.992M free, 55.977M cached
PID USER PR NI VIRT RES SHR S%CPU%MEM TIME+ COMMAND
1 root 20 0 19228 1512 1224 S 0.0 0.0 0:00.61 init
2 root 20 0 0 0 0 S 0.0 0.0 0:00.00 kthreadd
2.在Linux下,如何确认是多核或多CPU:
#cat/proc/cpuinfo
如果有多个类似以下的项目,则为多核或多CPU:
processor: 0
......
processor: 1
3.如何察看某个进程在哪个CPU上运行:
#top-d 1
之后按下f.进入top Current Fields设置页面:
选中:j: P= Last used cpu(SMP)
则多了一项:P显示此进程使用哪个CPU。
Sam经过试验发现:同一个进程,在不同时刻,会使用不同CPU Core.这应该是Linux Kernel SMP处理的。
4.配置Linux Kernel使之支持多Core:
内核配置期间必须启用CONFIG_SMP选项,以使内核感知 SMP。
Processor type and features--- Symmetric multi-processing support
察看当前Linux Kernel是否支持(或者使用)SMP
#uname-a
5. Kernel 2.6的SMP负载平衡:
在 SMP系统中创建任务时,这些任务都被放到一个给定的 CPU运行队列中。通常来说,我们无法知道一个任务何时是短期存在的,何时需要长期运行。因此,最初任务到 CPU的分配可能并不理想。
为了在 CPU之间维护任务负载的均衡,任务可以重新进行分发:将任务从负载重的 CPU上移动到负载轻的 CPU上。Linux 2.6版本的调度器使用负载均衡(load balancing)提供了这种功能。每隔 200ms,处理器都会检查 CPU的负载是否不均衡;如果不均衡,处理器就会在 CPU之间进行一次任务均衡操作。
这个过程的一点负面影响是新 CPU的缓存对于迁移过来的任务来说是冷的(需要将数据读入缓存中)。
记住 CPU缓存是一个本地(片上)内存,提供了比系统内存更快的访问能力。如果一个任务是在某个 CPU上执行的,与这个任务有关的数据都会被放到这个 CPU的本地缓存中,这就称为热的。如果对于某个任务来说,CPU的本地缓存中没有任何数据,那么这个缓存就称为冷的。
不幸的是,保持 CPU繁忙会出现 CPU缓存对于迁移过来的任务为冷的情况。
6.应用程序如何利用多Core:
开发人员可将可并行的代码写入线程,而这些线程会被SMP操作系统安排并发运行。
另外,Sam设想,对于必须顺序执行的代码。可以将其分为多个节点,每个节点为一个thread.并在节点间放置channel.节点间形如流水线。这样也可以大大增强CPU利用率。
例如:
游戏可以分为3个节点。
1.接受外部信息,声称数据(1ms)
2.利用数据,物理运算(3ms)
3.将物理运算的结果展示出来。(2ms)
如果线性编程,整个流程需要6ms.
但如果将每个节点作为一个thread。但thread间又同步执行。则整个流程只需要3ms.
CentOS下多路径大容量硬盘挂载详解
一、应用环境及需求刀片服务器通过光纤交换机连接HP存储,形成了一个2X2的链路。操作系统为CentOS 6.4 64位挂载的存储容量为2.5T
基于此应用环境,需要解决两个问题:
为保证链路的稳定性及传输性能等,可以使用多路径技术;挂载的存储硬盘超过了2T,MBR分区格式不能支持,需要使用到GPT分区格式
因为CentOS 6.4中已经自带了HP存储的驱动,会自动识别出挂载的存储硬盘,否则的话,需要先安装存储驱动。
二、什么是多路径
普通的电脑主机都是一个硬盘挂接到一个总线上,这里是一对一的关系。而到了有光纤组成的SAN环境,或者由iSCSI组成的IPSAN环境,由于主机和存储通过了光纤交换机或者多块网卡及IP来连接,这样的话,就构成了多对多的关系。也就是说,主机到存储可以有多条路径可以选择。主机到存储之间的IO由多条路径可以选择。每个主机到所对应的存储可以经过几条不同的路径,如果是同时使用的话,I/O流量如何分配?其中一条路径坏掉了,如何处理?还有在操作系统的角度来看,每条路径,操作系统会认为是一个实际存在的物理盘,但实际上只是通向同一个物理盘的不同路径而已,这样是在使用的时候,就给用户带来了困惑。多路径软件就是为了解决上面的问题应运而生的。
多路径的主要功能就是和存储设备一起配合实现如下功能:
1.故障的切换和恢复
2.IO流量的负载均衡
3.磁盘的虚拟化
由于多路径软件是需要和存储在一起配合使用的,不同的厂商基于不同的操作系统,都提供了不同的版本。并且有的厂商,软件和硬件也不是一起卖的,如果要使用多路径软件的话,可能还需要向厂商购买license才行。比如EMC公司基于linux下的多路径软件,就需要单独的购买license。好在,RedHat和Suse的2.6的内核中都自带了免费的多路径软件包,并且可以免费使用,同时也是一个比较通用的包,可以支持大多数存储厂商的设备,即使是一些不是出名的厂商,通过对配置文件进行稍作修改,也是可以支持并运行的很好的。
比较直观的感受是在Linux系统中执行fdisk-l命令,会出现类似/dev/sda1、/dev/sdb1、/dev/sdc1、/dev/sdd1的硬盘。因为总共有四种组合的路径,Linux系统会将每跳链路都认为是挂载了一块硬盘。
三、Linux下multipath介绍
CentOS 6.4中,默认已经安装了multipath:
[root@localhost~]# rpm-qa|grep mapper device-mapper-multipath-0.4.9-64.el6.x86_64 device-mapper-event-libs-1.02.77-9.el6.x86_64 device-mapper-multipath-libs-0.4.9-64.el6.x86_64 device-mapper-persistent-data-0.1.4-1.el6.x86_64 device-mapper-libs-1.02.77-9.el6.x86_64 device-mapper-event-1.02.77-9.el6.x86_64 device-mapper-1.02.77-9.el6.x86_64
device-mapper-multipath:即multipath-tools。主要提供multipathd和multipath等工具和 multipath.conf等配置文件。这些工具通过device mapper的ioctr的接口创建和配置multipath设备(调用device-mapper的用户空间库,创建的多路径设备会在/dev/mapper中)。
device-mapper:主要包括两大部分:内核部分和用户部分。
其中内核部分主要由device mapper核心(dm.ko)和一些target driver(md-multipath.ko)。核心完成设备的映射,而target根据映射关系和自身特点具体处理从mappered device下来的i/o。同时,在核心部分,提供了一个接口,用户通过ioctr可和内核部分通信,以指导内核驱动的行为,比如如何创建mappered device,这些divece的属性等。linux device mapper的用户空间部分主要包括device-mapper这个包。其中包括dmsetup工具和一些帮助创建和配置mappered device的库。这些库主要抽象,封装了与ioctr通信的接口,以便方便创建和配置mappered device。multipath-tool的程序中就需要调用这些库。
dm-multipath.ko和dm.ko:dm.ko是device mapper驱动。它是实现multipath的基础。dm-multipath其实是dm的一个target驱动。
scsi_id:包含在udev程序包中,可以在multipath.conf中配置该程序来获取scsi设备的序号。通过序号,便可以判断多个路径对应了同一设备。这个是多路径实现的关键。scsi_id是通过sg驱动,向设备发送EVPD page80或page83的inquery命令来查询scsi设备的标识。但一些设备并不支持EVPD的inquery命令,所以他们无法被用来生成multipath设备。但可以改写scsi_id,为不能提供scsi设备标识的设备虚拟一个标识符,并输出到标准输出。multipath程序在创建multipath设备时,会调用scsi_id,从其标准输出中获得该设备的scsi id。在改写时,需要修改scsi_id程序的返回值为0。因为在multipath程序中,会检查该直来确定scsi id是否已经成功得到。
四、配置multipath
基本配置脚本如下:
[root@localhost~]# cat/etc/multipath.conf defaults{ polling_interval 30 failback immediate no_path_retry queue rr_min_io 100 path_checker tur user_friendly_names yes}# SVC device{ vendor IBM product 2145 path_grouping_policy group_by_prio prio_callout/sbin/mpath_prio_alua/dev/%n}
multipath基本操作命令
#/etc/init.d/multipathd start#开启mulitipath服务# multipath-F#删除现有路径# multipath-v2#格式化路径# multipath-ll#查看多路径
如果配置正确的话就会在/dev/mapper/目录下多出mpathbp1等之类的设备,用fdisk-l命令可以看到多路径软件创建的磁盘,如:/dev/mapper/mpathbp1
五、格式化硬盘
执行fdisk-l,可以看到存储已经识别成功,并且多路径配置也正确。信息如下:
[root@localhost~]# fdisk-l...... Disk/dev/mapper/mpathb: 2684.4 GB, 2684354560000 bytes 255 heads, 63 sectors/track, 326354 cylinders Units= cylinders of 16065* 512= 8225280 bytes Sector size(logical/physical): 512 bytes/ 512 bytes I/O size(minimum/optimal): 512 bytes/ 512 bytes Disk identifier: 0x00000000 Device Boot Start End Blocks Id System/dev/mapper/mpathbp1 1 267350 2147483647+ ee GPT......
通过上面的信息可以发现已经是GPT的分区格式了,接下来就是需要对硬盘进行格式化。如果不是,需要先执行如下步骤:
1.新建分区
[root@localhost~]# pvcreate/dev/mapper/mpathb [root@localhost~]# parted/dev/mapper/mpathb GNU Parted 2.1 Using/dev/mapper/mpathbp1 Welcome to GNU Parted! Type'help' to view a list of commands.(parted) mklabel gpt#设置分区类型为gpt(parted) mkpart extended 0% 100%#扩展分区,并使用整个硬盘(parted) quit#退出 Information: You may need to update/etc/fstab.
2.格式化挂载硬盘
[root@localhost~]# mkfs.ext4/dev/mapper/mpathbp1 [root@localhost~]# mount/dev/mapper/mpathbp1/test
挂载成功后,即可使用了。
3.动挂载分区
当在系统里创建了一个新的分区后,因为mount挂载在重启系统后会失效,所以需要将分区信息写到/etc/fstab文件中让其永久挂载。
[root@localhost~]# vi/etc/fstab/dev/mapper/mpathbp1/test ext4 defaults 1 2
保存退出,重启后/dev/mapper/mpathbp1就会自动挂载到/test目录下