centos 延迟?centos7ping命令
CentOS7开启BBR为VPS加速详解
什么是BBR
TCP BBR是谷歌出品的TCP拥塞控制算法。BBR目的是要尽量跑满带宽,并且尽量不要有排队的情况。BBR可以起到单边加速TCP连接的效果。替代锐速再合适不过,毕竟免费。
Google提交到Linux主线并发表在ACM queue期刊上的TCP-BBR拥塞控制算法。继承了Google“先在生产环境上部署,再开源和发论文”的研究传统。TCP-BBR已经再YouTube服务器和Google跨数据中心的内部广域网(B4)上部署。由此可见出该算法的前途。
TCP-BBR的目标就是最大化利用网络上瓶颈链路的带宽。一条网络链路就像一条水管,要想最大化利用这条水管,最好的办法就是给这跟水管灌满水。
BBR解决了两个问题:
再有一定丢包率的网络链路上充分利用带宽。非常适合高延迟,高带宽的网络链路。
降低网络链路上的buffer占用率,从而降低延迟。非常适合慢速接入网络的用户。
项目地址:
Google在 2016年9月份开源了他们的优化网络拥堵算法BBR,最新版本的 Linux内核(4.9-rc8)中已经集成了该算法。
对于TCP单边加速,并非所有人都很熟悉,不过有另外一个大名鼎鼎的商业软件“锐速”,相信很多人都清楚。特别是对于使用国外服务器或者VPS的人来说,效果更佳。
网上有很多在 Debian和 Ubuntu系统下启用 BBR的教程,我就不粘贴了,我自己一直用的是 CentOS,本文介绍一下在 64位 CentOS 7系统下开启BBR的方法。
升级内核
第一步首先是升级内核到支持BBR的版本:
#下载 linux内核 4.9-rc8的 deb包
wget
#加压缩下载好的 deb包
ar x linux-image-4.9.0-rc8-amd64-unsigned_4.9~rc8-1~exp1_amd64.deb
#执行完上面的命令后,会得到*control.tar.gz*,*data.tar.xz*,*debian-binary*三个文件
#继续解压*data.tar.xz*文件
tar-Jxf data.tar.xz
#执行完这一步的命令之后,会得到*boot*,*lib*,*usr*三个文件夹
#安装可引导的内核镜像
install-m644 boot/vmlinuz-4.9.0-rc8-amd64/boot/vmlinuz-4.9.0-rc8-amd64
#复制内核模块
cp-Rav lib/modules/4.9.0-rc8-amd64/lib/modules/
#分析可载入模块的相依性,产生模块依赖的映射文件
depmod-a 4.9.0-rc8-amd64
# centos 6以上版本执行这条命令
dracut-f-v--hostonly-k'/lib/modules/4.9.0-rc8-amd64'/boot/initramfs-4.9.0-rc8-amd64.img 4.9.0-rc8-amd64
#更新 grub2的配置文件
grub2-mkconfig-o/boot/grub2/grub.cfg
调整GRUB启动顺序
在安装好新版本内核以后,要先用新安装的内核引导系统看看能否正常启动,下面是直接调整 GRUB2启动顺序的命令:
#查看可用的启动项
cat/boot/grub2/grub.cfg|grep CentOS
执行完这条命令以后,能看到多条以 menuentry开头的项目,每一项都是一个内核引导选项,紧跟在 menuentry后面,以单引号包围的部分就是这一条启动项的“title”,比如我的是:
menuentry'CentOS Linux(4.9.0-rc8-amd64) 7(Core)'--class rhel fedora--class gnu-linux....
menuentry'CentOS Linux(3.10.0-327.36.3.el7.x86_64) 7(Core)'--class rhel fedora--class gnu-linux...
menuentry'CentOS Linux(0-rescue-731edbf944d54068a3249dee56ed3727) 7(Core)'--class rhel fedora--class gnu-linux--class gnu...
可以看到第一条单引号中的就是我们新安装的 4.9-rc8内核,我们要使用这一项来引导。
#设置默认 4.9-rc8的引导项为默认引导项
grub2-set-default"CentOS Linux(4.9.0-rc8-amd64) 7(Core)"
#验证一下,如果上一条命令执行成功,执行下面的命令应该能看到 `saved_entry=CentOS Linux(4.9.0-rc8-amd64) 7(Core)`
grub2-editenv list
#重新生成 grub2的配置文件
grub2-mkconfig-o/boot/grub2/grub.cfg
#重启系统
reboot
修改sysctl开启 BBR
重启系统之后,通过 uname-a或者其它命令可以看到我们的内核已经是 4.9.0-rc8-amd64了,接下来开启 BBR
echo"net.core.default_qdisc=fq">>/etc/sysctl.conf
echo"net.ipv4.tcp_congestion_control=bbr">>/etc/sysctl.conf
#加载/etc/sysctl.conf文件中的参数并显示,主要看看有没有报错的设置(显示的结果与你的配置文件内容有关)
sysctl-p
#验证 bbr是否开启,如果成功,应该会看到 net.ipv4.tcp_congestion_control= bbr
sysctl net.ipv4.tcp_available_congestion_control
#依然是验证,如果成功,应该会看到类似 tcp_bbr 16384 3这样的文字
lsmod| grep bbr
如何让CentOS服务器磁盘io性能翻倍
如何让CentOS服务器磁盘io性能翻倍
这一期我们来看一下有哪些办法可以减少linux下的文件碎片。主要是针对磁盘长期满负荷运转的使用场景(例如http代理服务器);另外有一个小技巧,针对互联网图片服务器,可以将io性能提升数倍。如果为服务器订制一个专用文件系统,可以完全解决文件碎片的问题,将磁盘io的性能发挥至极限。对于我们的代理服务器,相当于把io性能提升到3-5倍。
在现有文件系统下进行优化linux内核和各个文件系统采用了几个优化方案来提升磁盘访问速度。但这些优化方案需要在我们的服务器设计中进行配合才能得到充分发挥。
文件系统缓存linux内核会将大部分空闲内存交给虚拟文件系统,来作为文件缓存,叫做page cache。在内存不足时,这部分内存会采用lru算法进行淘汰。通过free命令查看内存,显示为cached的部分就是文件缓存了。
如果能找到当前使用场景下,文件被访问的统计特征,针对性的写一个淘汰算法,可以大幅提升文件缓存的命中率。对于http正向代理来说,一个好的淘汰算法可以用1GB内存达到lru算法100GB内存的缓存效果。如果不打算写一个新的淘汰算法,一般不需要在应用层再搭一个文件cache程序来做缓存。
最小分配
最小分配的副作用是会浪费一些磁盘空间(分配了但是又没有使用)
如果当前使用场景下小文件很多,把预分配改大就会浪费很多磁盘空间,所以这个数值要根据当前使用场景来设定。似乎要直接改源代码才能生效,不太记得了,09年的时候改的,有兴趣的同学自己google吧。
io访问调度
如何针对性优化:io访问调度能大幅提升io性能,前提是应用层同时发起了足够的io访问供linux去调度。怎样才能从应用层同时向内核发起多个io访问呢?方案一是用aio_read异步发起多个文件读写请求。
小提示:将文件句柄设置为非阻塞时,进程还是会睡眠等待磁盘io,非阻塞对于文件读写是不生效的。在正常情况下,读文件只会引入十几毫秒睡眠,所以不太明显;而在磁盘io极大时,读文件会引起十秒以上的进程睡眠。详见内核源代码do_generic_file_read会调用lock_page_killable进入睡眠,但是不会判断句柄的非阻塞标志。
预读取linux内核可以预测我们“将来的读请求”并提前将数据读取出来。通过预读取可以减少读io的次数,并且减小读请求的延时。
当文件扩大,需要分配磁盘空间时,可以不立即进行分配,而是暂存在内存中,将多次分配磁盘空间的请求聚合在一起后,再进行一次性分配。
延迟分配的副作用有几个:1如果应用程序每次写数据后都通过fsync等接口进行强制刷新,延迟分配将不起作用2延迟分配有可能间歇性引入一个较大的磁盘IO延时(因为要一次性向磁盘写入较多数据)
如何针对性优化:
“让每个目录下的文件连续存储”是一个极有价值的功能。假设一个网页上有10张图片,这10张图片虽然存在10个文件中,但其实是几乎同时被用户访问的。如果能让这10张图片存储在连续的磁盘空间中,就能把io性能提升10倍(一次寻道就可以读10个文件了)传统的做法是通过拼接图片来将这10张图片合并到一张大图中,再由前端将大图切成10张小图。有了e4defrag后,可以将需连续访问的文件放在同一个文件夹下,再定期使用e4defrag进行磁盘整理。
实现自己的文件系统我们曾经写过一款专用文件系统,针对代理服务器,将磁盘io性能提升到3-5倍。在大部分服务器上,不需要支持“修改文件”这个功能。一旦文件创建好,就不能再做修改操作,只支持读取和删除。在这个前提下,我们可以消灭所有文件碎片,把磁盘io效率提升到理论极限。
大于16MB的文件,服务器创建文件时告诉文件系统分配16MB磁盘空间。后续每次扩大文件大小时,要么是16MB,要么就是文件终结。不允许在文件未终结的情况下分配非16MB的空间。读写文件时,每次读写16MB或者直到文件末尾。
在我们的文件系统中,小文件完全无碎片,一次寻道就能搞定一个文件,达到了理论上最佳的性能。大文件每次磁头定位读写16MB,性能没有达到100%,但已经相当好了。有一个公式可以衡量磁盘io的效率:磁盘利用率=传输时间/(平均寻道时间+传输时间)对我们当时采用的磁盘来说(1T 7200转sata),16MB连续读写已经可以达到98%以上的磁盘利用率。
CentOS下SWAP分区建立及释放内存详解
方法一:
一、查看系统当前的分区情况:
free-m
二、创建用于交换分区的文件:
dd if=/dev/zero of=/whatever/swap bs=block_size(10M)count=number_of_block(3000)
三、设置交换分区文件:
mkswap/export/swap/swapfile
四、立即启用交换分区文件:
swapon/whateever/swap
五、若要想使开机时自启用,则需修改文件/etc/fstab中的swap行:
/whatever/swap swap swap defaults 0 0
方法二
增加交换分区空间的方法:
1.查看一下/etc/fstab确定目前的分区
2.swapoff/dev/hd**
3.free看一下是不是停了.
4.fdisk删了停掉的swap分区
5.重新用FDISK建一个新的SWAP分区
6.mkswap/dev/hd**把新的分区做成swap
7.swapon/dev/hd**打开swap
8.修改/etc/fstab
操作实例:
1.查看系统Swap空间使用
# free
total used free shared buffers cached
Mem: 513980 493640 20340 0 143808 271780
-/+ buffers/cache: 78052 435928
Swap: 1052248 21256 1030992
2.在空间合适处创建swap文件
# mkdir swap
# cd swap
# dd if=/dev/zero of=swapfile bs=1024 count=10000
10000+0 records in
10000+0 records out
# ls-al
total 10024
drwxr-xr-x 2 root root 4096 7月 28 14:58.
drwxr-xr-x 19 root root 4096 7月 28 14:57..
-rw-r--r-- 1 root root 10240000 7月 28 14:58 swapfile
# mkswap swapfile
Setting up swapspace version 1, size= 9996 KiB
3.激活swap文件
# swapon swapfile
# ls-l
total 10016
-rw-r--r-- 1 root root 10240000 7月 28 14:58 swapfile
# free
total used free shared buffers cached
Mem: 513980 505052 8928 0 143900 282288
-/+ buffers/cache: 78864 435116
Swap: 1062240 21256 1040984
生成1G的文件
# dd if=/dev/zero of=swapfile bs=10M count=3000
创建为swap文件
#mkswap swapfile
让swap生效
#swapon swapfile
查看一下swap
#swapon-s
[root@cluster/]# swapon-sFilenameTypeSizeUsedPriority/dev/sda3 partition10201161728-1/state/partition1/swap/swapfile file307199920-2
加到fstab文件中让系统引导时自动启动
#vi/etc/fstab
/state/partition1/swap/swapfil swap swap defaults 0 0
完毕。
二,LINUX释放内存
细心的朋友会注意到,当你在linux下频繁存取文件后,物理内存会很快被用光,当程序结束后,内存不会被正常释放,而是一直作为caching.这个问题,貌似有不少人在问,不过都没有看到有什么很好解决的办法.那么我来谈谈这个问题.
先来说说free命令
[root@cluster/]# free-m
total used free shared buffers cached
Mem: 31730 31590 139 0 37 27537
-/+ buffers/cache: 4015 27714
Swap: 30996 1 30994
其中:
total内存总数
used已经使用的内存数
free空闲的内存数
shared多个进程共享的内存总额
buffers Buffer Cache和cached Page Cache磁盘缓存的大小
-buffers/cache的内存数:used- buffers- cached
+buffers/cache的内存数:free+ buffers+ cached
可用的memory=free memory+buffers+cached
有了这个基础后,可以得知,我现在used为163MB,free为86,buffer和cached分别为10,94
那么我们来看看,如果我执行复制文件,内存会发生什么变化.
[root@cluster/]# cp-r/etc~/test/
[root@cluster/]# free-m
total used free shared buffers cached
Mem: 31730 31590 139 0 37 27537
-/+ buffers/cache: 4015 27714
Swap: 30996 1 30994
在我命令执行结束后,used为244MB,free为4MB,buffers为8MB,cached为174MB,天呐都被cached吃掉了.别紧张,这是为了提高文件读取效率的做法.
引用[url][/url]为了提高磁盘存取效率, Linux做了一些精心的设计,除了对dentry进行缓存(用于VFS,加速文件路径名到inode的转换),还采取了两种主要Cache方式:Buffer Cache和Page Cache。前者针对磁盘块的读写,后者针对文件inode的读写。这些Cache有效缩短了 I/O系统调用(比如read,write,getdents)的时间。
那么有人说过段时间,linux会自动释放掉所用的内存,我们使用free再来试试,看看是否有释放?
[root@cluster/]# free-m
total used free shared buffers cached
Mem: 31730 31590 139 0 37 27537
-/+ buffers/cache: 4015 27714
Swap: 30996 1 30994
MS没有任何变化,那么我能否手动释放掉这些内存呢???回答是可以的!
/proc是一个虚拟文件系统,我们可以通过对它的读写操作做为与kernel实体间进行通信的一种手段.也就是说可以通过修改/proc中的文件,来对当前kernel的行为做出调整.那么我们可以通过调整/proc/sys/vm/drop_caches来释放内存.操作如下:
[root@cluster/]# cat/proc/sys/vm/drop_caches
0
首先,/proc/sys/vm/drop_caches的值,默认为0
[root@cluster/]# sync
手动执行sync命令(描述:sync命令运行 sync子例程。如果必须停止系统,则运行 sync命令以确保文件系统的完整性。sync命令将所有未写的系统缓冲区写到磁盘中,包含已修改的 i-node、已延迟的块 I/O和读写映射文件)
[root@server test]# echo 3/proc/sys/vm/drop_caches
[root@server test]# cat/proc/sys/vm/drop_caches
3
将/proc/sys/vm/drop_caches值设为3
[root@server test]# free-m
total used free shared buffers cached
Mem: 249 66 182 0 0 11
-/+ buffers/cache: 55 194
Swap: 511 0 511
再来运行free命令,发现现在的used为66MB,free为182MB,buffers为0MB,cached为11MB.那么有效的释放了buffer和cache.
有关/proc/sys/vm/drop_caches的用法在下面进行了说明
/proc/sys/vm/drop_caches(since Linux 2.6.16)
Writing to this file causes the kernel to drop clean caches,
dentries and inodes from memory, causing that memory to become free.
To free pagecache, use echo 1/proc/sys/vm/drop_caches;
to free dentries and inodes, use echo 2/proc/sys/vm/drop_caches;
to free pagecache, dentries and inodes, use echo 3/proc/sys/vm/drop_caches.
Because this is a non-destructive operation and dirty objects
这几天发现linux系统内存一直涨,即使把apache和mysql关闭了,内存也不释放,可以使用以下脚本来释放内存:
脚本内容:
#!/bin/sh
# cache释放:
# To free pagecache:
/bin/sync
/bin/sync
#echo 1/proc/sys/vm/drop_caches
# To free dentries and inodes:
#echo 2/proc/sys/vm/drop_caches
# To free pagecache, dentries and inodes:
echo 3/proc/sys/vm/drop_caches
利用系统crontab实现每天自动运行:
crontab-e
输入以下内容:
00 00***/root/Cached.sh
每天0点释放一次内存,这个时间可以根据自己需要修改设置
在运行./Cached.sh时如果提示错误:Permission denied权限的问题,可以运行