linux 线程关闭 linux删除已安装的软件

大家好,今天小编来为大家解答linux 线程关闭这个问题,linux删除已安装的软件很多人还不知道,现在让我们一起来看看吧!

linux下 c中怎么让才能安全关闭线程

多线程程序中,特别是频繁申请,释放线程的情况下,就要注意线程的关闭,最好使用线程池。

一,线程退出方式

(1)执行完成后隐式退出;

(2)由线程本身显示调用pthread_exit函数退出;

pthread_exit(void* retval);

(3)被其他线程用pthread_cance函数终止:

pthread_cance(pthread_t thread);

二,线程状态

pthread线程有两种状态,joinable(非分离)状态和detachable(分离)状态,默认为joinable。

joinable:当线程函数自己返回退出或pthread_exit时都不会释放线程所用资源,包括栈,线程描述符等(有人说有8k多,未经验证)。

detachable:线程结束时会自动释放资源。

joinable线程执行完后不使用pthread_join的话就会造成内存泄漏。

解决办法:

1、创建线程前设置 PTHREAD_CREATE_DETACHED属性

pthread_attr_t attr;

pthread_t thread;

pthread_attr_init(&attr);

pthread_attr_setdetachstat(&attr, PTHREAD_CREATE_DETACHED);

pthread_create(&thread,&attr,&thread_function, NULL);

pthread_attr_destroy(&attr);

2、当线程为joinable时,使用pthread_join来获取线程返回值,并释放资源。

3、当线程为joinable时,也可在线程中调用 pthread_detach(pthread_self());来分离自己。

Linux中,shell脚本如何使用信号机制去控制线程的开启关闭

trap是Linux的内建命令,用于捕捉信号,trap命令可以指定收到某种信号时所执行的命令。trap命令的格式如下:trap command sig1 sig2... sigN,当接收到sinN中任意一个信号时,执行command命令,command命令完成后继续接收到信号前的操作,直到脚本结束。利用trap命令捕捉INT信号(即与Ctrl+c绑定的中断信号)。trap还可以忽略某些信号,将command用空字符串代替即可,如trap"" TERM INT,忽略kill%n和Ctrl+c发送的信号(kill发送的是TERM信号)。Linux更强劲的杀死进程的命令:kill-9进程号(或kill-9%n作业号)等价与kill-KILL进程号。

举个例子:

最近小A需要生产2015年全年的KPI数据报表,现在小A已经将生产脚本写好了,生产脚本一次只能生产指定一天的KPI数据,假设跑一次生产脚本需要5分钟,那么:

如果是循环顺序执行,那么需要时间:5* 365= 1825分钟,约等于 6天

如果是一次性放到linux后台并发执行,365个后台任务,系统可承受不住哦!

既然不能一次性把365个任务放到linux后台执行,那么,能不能实现自动地每次将N个任务放到后台并发执行呢?当然是可以的啦。

#!/bin/bash

source/etc/profile;

#-----------------------------

tempfifo=$$.fifo#$$表示当前执行文件的PID

begin_date=$1#开始时间

end_date=$2#结束时间

if[$#-eq2]

then

if["$begin_date"\>"$end_date"]

then

echo"Error!$begin_dateisgreaterthan$end_date"

exit1;

fi

else

echo"Error!Notenoughparams."

echo"Sample:shloop_kpi2015-12-012015-12-07"

exit2;

fi

#-----------------------------

trap"exec1000>&-;exec1000<&-;exit0"2

mkfifo$tempfifo

exec1000<>$tempfifo

rm-rf$tempfifo

for((i=1;i<=8;i++))

do

echo>&1000

done

while[$begin_date!=$end_date]

do

read-u1000

{

echo$begin_date

hive-fkpi_report.sql--hivevardate=$begin_date

echo>&1000

}&

begin_date=`date-d"+1day$begin_date"+"%Y-%m-%d"`

done

wait

echo"done!!!!!!!!!!"

第6~22行:比如:sh loop_kpi_report.sh 2015-01-01 2015-12-01:

$1表示脚本入参的第一个参数,等于2015-01-01

$2表示脚本入参的第二个参数,等于2015-12-01

$#表示脚本入参的个数,等于2

第13行用于比较传入的两个日期的大小,\>是转义

第26行:表示在脚本运行过程中,如果接收到Ctrl+C中断命令,则关闭文件描述符1000的读写,并正常退出

exec 1000>&-;表示关闭文件描述符1000的写

exec 1000<&-;表示关闭文件描述符1000的读

trap是捕获中断命令

第27~29行:

第27行,创建一个管道文件

第28行,将文件描述符1000与FIFO进行绑定,<读的绑定,>写的绑定,<>则标识对文件描述符1000的所有操作等同于对管道文件$tempfifo的操作

第29行,可能会有这样的疑问:为什么不直接使用管道文件呢?事实上这并非多此一举,管道的一个重要特性,就是读写必须同时存在,缺失某一个操作,另一个操作就是滞留,而第28行的绑定文件描述符(读、写绑定)正好解决了这个问题

第31~34行:对文件描述符1000进行写入操作。通过循环写入8个空行,这个8就是我们要定义的后台并发的线程数。为什么是写空行而不是写其它字符?因为管道文件的读取,是以行为单位的

第37~42行:

第37行,read-u1000的作用就是读取管道中的一行,在这里就是读取一个空行;每次读取管道就会减少一个空行

第39~41行,注意到第42行结尾的&吗?它表示进程放到linux后台中执行

第41行,执行完后台任务之后,往文件描述符1000中写入一个空行。这是关键所在了,由于read-u1000每次操作,都会导致管道减少一个空行,当linux后台放入了8个任务之后,由于文件描述符1000没有可读取的空行,将导致read-u1000一直处于等待。

高性能网络服务器编程:为什么linux下epoll

基本的IO编程过程(包括网络IO和文件IO)是,打开文件描述符(windows是handler,Java是stream或channel),多路捕获(Multiplexe,即select和poll和epoll)IO可读写的状态,而后可以读写的文件描述符进行IO读写,由于IO设备速度和CPU内存比速度会慢,为了更好的利用CPU和内存,会开多线程,每个线程读写一个文件描述符。

但C10K问题,让我们意识到在超大数量的网络连接下,机器设备和网络速度不再是瓶颈,瓶颈在于操作系统和IO应用程序的沟通协作的方式。

举个例子,一万个socket连接过来,传统的IO编程模型要开万个线程来应对,还要注意,socket会关闭打开,一万个线程要不断的关闭线程重建线程,资源都浪费在这上面了,我们算建立一个线程耗1M内存,1万个线程机器至少要10G内存,这在IA-32的机器架构下基本是不可能的(要开PAE),现在x64架构才有可能舒服点,要知道,这仅仅是粗略算的内存消耗。别的资源呢?

所以,高性能的网络编程(即IO编程),第一,需要松绑IO连接和应用程序线程的对应关系,这就是非阻塞(nonblocking)、异步(asynchronous)的要求的由来(构造一个线程池,epoll监控到有数的fd,把fd传入线程池,由这些worker thread来读写io)。第二,需要高性能的OS对IO设备可读写(数据来了)的通知方式:从level-triggered notification到edge-triggered notification,关于这个通知方式,我们稍后谈。

需要注意异步,不等于AIO(asynchronous IO),Linux的AIO和java的AIO都是实现异步的一种方式,都是渣,这个我们也接下来会谈到。

针对前面说的这两点,我们看看select和poll的问题

这两个函数都在每次调用的时候要求我们把需要监控(看看有没有数据)的文件描述符,通过数组传递进入内核,内核每次都要扫描这些文件描述符,去理解它们,建立一个文件描述符和IO对应的数组(实际内核工作会有好点的实现方式,但可以这么理解先),以便IO来的时候,通知这些文件描述符,进而通知到进程里等待的这些select、poll。当有一万个文件描述符要监控的时候呢(一万个网络连接)?这个工作效率是很低的,资源要求却很高。

我们看epoll

epoll很巧妙,分为三个函数,第一个函数创建一个session类似的东西,第二函数告诉内核维持这个session,并把属于session内的fd传给内核,第三个函数epoll_wait是真正的监控多个文件描述符函数,只需要告诉内核,我在等待哪个session,而session内的fd,内核早就分析过了,不再在每次epoll调用的时候分析,这就节省了内核大部分工作。这样每次调用epoll,内核不再重新扫描fd数组,因为我们维持了session。

说道这里,只有一个字,开源,赞,众人拾柴火焰高,赞。

epoll的效率还不仅仅体现在这里,在内核通知方式上,也改进了,我们先看select和poll的通知方式,也就是level-triggered notification,内核在被DMA中断,捕获到IO设备来数据后,本来只需要查找这个数据属于哪个文件描述符,进而通知线程里等待的函数即可,但是,select和poll要求内核在通知阶段还要继续再扫描一次刚才所建立的内核fd和io对应的那个数组,因为应用程序可能没有真正去读上次通知有数据后的那些fd,应用程序上次没读,内核在这次select和poll调用的时候就得继续通知,这个os和应用程序的沟通方式效率是低下的。只是方便编程而已(可以不去读那个网络io,方正下次会继续通知)。

于是epoll设计了另外一种通知方式:edge-triggered notification,在这个模式下,io设备来了数据,就只通知这些io设备对应的fd,上次通知过的fd不再通知,内核不再扫描一大堆fd了。

基于以上分析,我们可以看到epoll是专门针对大网络并发连接下的os和应用沟通协作上的一个设计,在linux下编网络服务器,必然要采用这个,nginx、PHP的国产异步框架swool、varnish,都是采用这个。

注意还要打开epoll的edge-triggered notification。而java的NIO和NIO.2都只是用了epoll,没有打开edge-triggered notification,所以不如JBoss的Netty。

接下来我们谈谈AIO的问题,AIO希望的是,你select,poll,epoll都需要用一个函数去监控一大堆fd,那么我AIO不需要了,你把fd告诉内核,你应用程序无需等待,内核会通过信号等软中断告诉应用程序,数据来了,你直接读了,所以,用了AIO可以废弃select,poll,epoll。

但linux的AIO的实现方式是内核和应用共享一片内存区域,应用通过检测这个内存区域(避免调用nonblocking的read、write函数来测试是否来数据,因为即便调用nonblocking的read和write由于进程要切换用户态和内核态,仍旧效率不高)来得知fd是否有数据,可是检测内存区域毕竟不是实时的,你需要在线程里构造一个监控内存的循环,设置sleep,总的效率不如epoll这样的实时通知。所以,AIO是渣,适合低并发的IO操作。所以java7引入的NIO.2引入的AIO对高并发的网络IO设计程序来说,也是渣,只有Netty的epoll+edge-triggered notification最牛,能在linux让应用和OS取得最高效率的沟通。

阅读剩余
THE END