centos源linuxdeploy,centos镜像

tomcat6.0怎么修改配置文件server.xml以便启用Ajp13

你看看这个:

tomcat6_apache2.2_ajp负载均衡加集群实战

环境:

--------------------------------------------

一台apache2.2服务器,三台tomcat服务器:

apache2.2服务器

1.ip:192.168.1.20

2.只装apache软件:httpd-2.2.6.tar.bz2

安装路径:/usr/local/apache2

tomcat服务器:均配置相同的应用。

1.集群名:balancer://tomcatcluster

2.三台集群服务器ip:

IP_1:192.168.1.31

IP_2:192.168.1.32

IP_3:192.168.1.33

3.测试应用程序test文件夹放在tomcat6的webapps目录下

操作系统均为:centos 4.5_x86

jre:1.6:jdk-6u1-linux-i586-rpm.bin

tomcat6.0:编译好的二进制软件包apache-tomcat-6.0.13.tar.gz

tomcat6.0安装路径:/usr/local/tomcat6

oralce的jdbc:class12.jar

软件包存放的路径:/home/xiutuo/software/

java安装路径:/usr/java/jdk1.6.0_01

使用普通用户:xiutuo来启动tomcat6

tomcat6开机自动启动脚本:/etc/init.d/tomcat

下载路径:

+++++++++++++++++++++++++++++++++++++++++++++++++++++++++

一:前言:

1.apache对tomcat集群支持有俩种方式:

a.通过apache2.1之后版本后内置的proxy_ajp。

b.对于apache2.1之版本则通过tomcat的jk2.0.4的mod_jk2.so:

(该版本已经停止开发)

将解压缩后的目录中的modules目录中的mod_jk2.so

文件复制到apache的安装目录下的modules目录中。

********************

俩种方式比较:

proxy_ajp配置较简单,主要表现在proxy_ajp目前只支持配置到目录,

还不支持对文件名称的pattern模式匹配

(即还不能定义到只对jsp文件起作用)。

而jk2则可配置性强,但已经停止开发

********************

官方对ajp和jk2说明:

JK2 has been put in maintainer mode and no further development will take place.

The reason for shutting down JK2 development was the lack of developers interest.

Other reason was lack of users interest in adopting JK2,

caused by configuration complexity when compared to JK.

The latest official JK2 release is 2.0.4.

JK2 will have it's successor within core Apache2.1/2.2 distribution.

We have developed new proxy_ajp that is an addition to the mod_proxy

and uses Tomcat's AJP protocol stack. It is developped in httpd-2.1

and integrated in it. We have also developed a new proxy_balancer

module for load balancing http and ajp protocol stacks.

JK will be fully supported for all other web servers.

The next JK release is planned for the end of November.

Lots of code from JK2 has been ported to JK

2.tomcat集群方式:

a.DeltaManager

--现在采用的该方式:内部机器集群少采用

b.BackupManager

********************

两种集群方式官方说明:

using the DeltaManager to replicate session deltas.

By all-to-all we mean that the session gets replicated to

all the other nodes in the cluster. This works great for smaller cluster

but we don't recommend it for larger clusters(a lot of tomcat nodes).

Also when using the delta manager it will replicate to all nodes,

even nodes that don't have the application deployed.

To get around this problem, you'll want to use the BackupManager.

This manager only replicates the session data to one backup node,

and only to nodes that have the application deployed.Downside of

the BackupManager: not quite as battle tested as the delta manager.

********************

3.负载均衡(load-balance)定义:

在服务器端短时间内获得大量的请求,单一服务器无法在一个较短的时间内响应这些请求,

此时服务器需要一个机制,请求按照多个服务器不同的负载能力,把这些请求合理的分配。

4.集群(cluster):

在多个服务器之间共享用户信息,资源等。

tomcat6_apache2.2负载均衡加集群:高可用性至高体现。

现在的带集群功能相关软件oracle10g,mysql5,tomcat等。

二:软件安装

1.apache服务器安装:

这里主要介绍apache2的源码安装

# cd/home/xiutuo/software/

# tar-zvxf httpd-2.2.6.tar.gz

# cd httpd-2.2.6

# mkdir-p/usr/local/apache2

#./configure\

--prefix=/usr/local/apache2\

--enable-modules=so\

--enable-mods-shared=all\

--enable-proxy\

--enable-proxy-connect\

--enable-proxy-ftp\

--enable-proxy-http\

--enable-proxy-ajp\

--enable-proxy-balancer

注释:这里测试用,编译了所有可用模块,并激活了tomcat集群需要的

enable-proxy,enable-proxy-http,enable-proxy-connect,enable-proxy-ajp

和enable-proxy-balancer,其中proxy-ajp和proxy-balancer必须依赖proxy,

如果是自定义的编译除了以上几个必须的模块外,mod_status也要编译进去,切记。

enable-proxy-ftp可以不编译。

# make

# make install

2.三台tomcat服务器安装

主要介绍jdk1.6u1和tomcat6的安装,三台机器重复此工作就可以了,

当然记得ip一定要设置正确。

jdk1.6安装

-------------------------------

a.卸载系统自带jdk

# rpm-e j2sdk-1.4.1-fcs

b.安装新jdk

# cd/home/xiutuo/software

进入软件包存放目录

# chmod a+x jdk-6u1-linux-i586-rpm.bin

使它有执行权限

#./jdk-6u1-linux-i586-rpm.bin

多敲几个空格,然后看到[yes]的时候输入yes,回车

然后在当前目录下就生成了jdk-6u1-linux-i586-rpm

# rpm-ivh jdk-6u1-linux-i586-rpm

c.设置环境变量

仅设置某个用户而不是所有用户可以修改~/.cshrc,~/.bash_profile文件,

追加下面一段,如果为所有用户以及以后添加的用户都加上环境变量的话,

追加/etc/profie文件.

***主意不要在profile和~/.cshrc或~/.bash_profile中重复追加**

这里:

# vi/etc/profile

//java

//如果你安装的j2sdk的路径不一样,请自行修改

JAVA_HOME=/usr/java/jdk1.6.0_01

export JAVA_HOME

CLASSPATH=/usr/java/jdk1.6.0_01/lib:/usr/java/jdk1.6.0_01/jre/lib

export CLASSPATH

PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin

export PATH

JRE=/usr/java/jdk1.6.0_01/jre

export JRE

d:立即生效

//如果你修改的是/etc/profile

# source/etc/profile

//如果你修改的是~/.cshrc

# source~/.cshrc

//如果你修改的是~/.bash_profile

# source~/.bash_profile

e:测试成功否

# java-version

Java(TM) SE Runtime Environment(build 1.6.0_01-b06)

Java HotSpot(TM) Client VM(build 1.6.0_01-b06, mixed mode, sharing)

看到这个消息,就ok啦

----------------------------------------------

tomcat6安装

tomcat6更详细的安装请看blog上tomcat文章

----------------------------------------------

a.安装tomcat,

# cd/home/xiutuo/software//进入软件包存放目录

# tar-zvxf apache-tomcat-6.0.13.tar.gz//解压

# mv apache-tomcat-6.0.13/usr/local/tomcat6//安装

# cd/usr/local/tomcat6/bin///进入安装目录

# tar-zvxf jsvc.tar.gz//解压

# cd jsvc-src//进入jsvc-src目录

# autoconf

#./configure--with-java=/usr/java/jdk1.6.0_01

# configure时切记加java的jdk路径,否则无法使用普通用户开机自动启动tomcat

# make//编译生成jsvc文件

# cp jsvc..//拷贝jsvc到上级目录

# cd..//回到上级目录

# cd/usr/local/tomcat6/

//运行下面的命令可以使tomcat以daemon方式运行

#./bin/jsvc-cp./bin/bootstrap.jar\

-outfile./logs/catalina.out\

-errfile./logs/catalina.err\

org.apache.catalina.startup.Bootstrap

b.配置oralce的jdbc

//拷贝oracle的jdbc到/usr/local/tomcat6/lib目录下

# cp/home/software/class12.jar./lib/

c.配置tomcat用户

# cd/usr/local/tomcat6/conf

# vi tomcat-users.xml

内容如下:

<?xml version='1.0' encoding='utf-8'?>

<tomcat-users>

<role rolename="tomcat"/>

<role rolename="role1"/>

<role rolename="manager"/>

<role rolename="admin"/>

<user username="tomcat" password="tomcat" roles="tomcat"/>

<user username="role1" password="tomcat" roles="role1"/>

<user username="both" password="tomcat" roles="tomcat,role1"/>

<user username="admin" password="admin" roles="admin,manager"/>

</tomcat-users>

请修改tomcat里所有定义用户的密码:即修改password为自己想要的值。

d.把应用程序文件夹test放到webapps下

3.tomcat负载均衡和集群配置

参考官方配置文档:

a.tomcat6配置文件server.xml和应用程序的web.xml

**开放负载均衡,默认使用ajp协议时使用8009端口(使用http协议时为8080端口)

**修改tomcat的 conf/server.xml的<Engine>(使用ajp协议时配置)

<!-- You should set jvmRoute to support load-balancing via AJP ie:

<Engine name="Standalone" defaultHost="localhost" jvmRoute="jvm1">

-->

<Engine name="Catalina" defaultHost="localhost">

改成

<!-- You should set jvmRoute to support load-balancing via AJP ie:

-->

<Engine name="Standalone" defaultHost="localhost" jvmRoute="tomcat1">

<!--

<Engine name="Catalina" defaultHost="localhost">

-->

说明:

第一台tomcat就把jvmRoute="tomcat1"

第二台tomcat就把jvmRoute="tomcat2"

第三台tomcat就把jvmRoute="tomcat3"

**开放集群

**修改tomcat的 conf/server.xml(使用ajp协议时配置)

在<Engine>后面或者<Host>后面简单的加上

<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>

也可以加上更详细参数的集群配置内容(这是官方默认,请自行修改相关参数):

<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"

channelSendOptions="8">

<Manager className="org.apache.catalina.ha.session.DeltaManager"

expireSessionsOnShutdown="false"

notifyListenersOnReplication="true"/>

<Channel className="org.apache.catalina.tribes.group.GroupChannel">

<Membership className="org.apache.catalina.tribes.membership.McastService"

address="228.0.0.4"

port="45564"

frequency="500"

dropTime="3000"/>

<Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"

address="auto"

port="4000"

autoBind="100"

selectorTimeout="5000"

maxThreads="6"/>

<Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter">

<Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/>

</Sender>

<Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/>

<Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/>

</Channel>

<Valve className="org.apache.catalina.ha.tcp.ReplicationValve"

filter=""/>

<Valve className="org.apache.catalina.ha.session.JvmRouteBinderValve"/>

<Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer"

tempDir="/tmp/war-temp/"

deployDir="/tmp/war-deploy/"

watchDir="/tmp/war-listen/"

watchEnabled="false"/>

<ClusterListener className="org.apache.catalina.ha.session.JvmRouteSessionIDBinderListener"/>

<ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/>

</Cluster>

***配置应用的web.xml

***在每个webapps应用中,修改配置文件web.xml文件添加元素<distributable/>

在web.xml文件中<web-app>元素下增加以下内容:

<!--此应用将与群集服务器复制Session-->

<distributable/>

具体修改如下:

修改前:

<?xml version="1.0" encoding="ISO-8859-1"?>

<web-app xmlns=""

xmlns:xsi=""

xsi:schemaLocation=" "

version="2.5">

</web-app>

修改后:

<?xml version="1.0" encoding="ISO-8859-1"?>

<web-app xmlns=""

xmlns:xsi=""

xsi:schemaLocation=" "

version="2.5">

<!--此应用将与群集服务器复制Session-->

<distributable/>

</web-app>

4.配置apache的ajp负载均衡功能,这里请务必启用反向代理。

******************************

至于其中的原理请参考官方文档说明。

正向代理的典型用途是为在防火墙内的局域网客户端提供访问Internet的途径。

正向代理还可以使用缓冲特性(由mod_cache提供)减少网络使用率。

反向代理的典型用途是将防火墙后面的服务器提供给Internet用户访问。

反向代理还可以为后端的多台服务器提供负载平衡,或为后端较慢的服务器提供缓冲服务。

另外,还可以启用高级URL策略和管理技术,从而使处于不同web服务器系统的web页面同时

存在于同一个URL空间下。

*****************************

参考文档:

tomcat6官方文档

apache中文版本

apache官方英文版本

***配置apache

***修改/usr/local/apache2/conf/httpd.conf文件

确保将以下Module的注释去掉

LoadModule proxy_module modules/mod_proxy.so

LoadModule proxy_connect_module modules/mod_proxy_connect.so

LoadModule proxy_ftp_module modules/mod_proxy_ftp.so

LoadModule proxy_http_module modules/mod_proxy_http.so

LoadModule proxy_ajp_module modules/mod_proxy_ajp.so

LoadModule proxy_balancer_module modules/mod_proxy_balancer.so

LoadModule status_module modules/mod_status.so

并在最后面,增加

<Location/server-status>

SetHandler server-status

Order Deny,Allow

Deny from all

Allow from all

</Location>

<Location/balancer-manager>

SetHandler balancer-manager

Order Deny,Allow

Deny from all

Allow from all

</Location>

ProxyRequests Off

ProxyPass/test balancer://tomcatcluster/ stickysession=jsessionid nofailover=On

<Proxy balancer://tomcatcluster>

BalancerMember ajp://192.168.1.30:8009 loadfactor=1

BalancerMember ajp://192.168.1.31:8009 loadfactor=2

BalancerMember ajp://192.168.1.32:8009 loadfactor=3

</Proxy>

注释:

ProxyRequests Off表示启用反向代理。

ProxyPass为代理转发的Url,即将所有访问/的请求转发到

群集balancer://tomcatcluster,这里为/test即将所有访问/的请求转发到群集balancer://tomcatcluster的/test目录

BalancerMember为群集的成员,

即群集服务器1或2或3,负载均衡服务器会根据均衡规则来将请求转发给BalancerMember。

配置好后,启动Apahce服务器,访问localhost就会看到群集服务器中应用返回的结果。

访问,显示负载均衡有关信息

5.调试负载均衡集群系统

调试前务必:

先开启三台tomcat6服务器的tomcat服务!

再开启apache服务器的apache服务,切记!

a.开启tomcat服务

# cd/usr/local/tomcat6/bin

#./shutdown.sh//停止tomcat

#./start.sh//启动tomcat

查看tomcat的进程:

# ps-e| grep java

出现了java这个进程的话,说明你的tomcat起来了。

b.开启apache服务

# cd/usr/local/apache2/bin

#./apachectl configtest

//命令检查一下配置是否有误,显示Syntax OK,说明配置正确

#./apachectl stop//停止apache

#./apachectl start//启动apache

6.检验是否负载均衡集群系统成功

访问apache服务器的web服务

如果显示负载均衡有关信息则说明成功了。

接着可以访问即访问到了tomcat的test应用

7.具体的tomcat集群负载均衡优化请参考文档自行设置相关参数

具体的apache优化请参考文档自行设置相关参数

openstack neutron网络介绍

由于网络部分出现了许多得新名词。将从整体到分部细致讲解。

来源于网络得一张图

如图所示,连成了一条线。重要得如何实现互联,接下来以表象论证这张图。

最好将图放在一边,边看边对照图。

这里先介绍从虚拟机访问外网。端口A开始:

表现出来就是虚拟机有张网卡A。

查询此虚拟机得子网ip为 10.1.1.5,以及所在节点,记住这个节点。

通过子网ip查询到端口id为 b65c1085-a971-4333-82dc-57012e9be490

记住这个id

图中A与B互联,意味着A与B一定具有某种映射关系。

若没有此命令则安装: yum install-y bridge-utils

可以看到这个id对应的tap设备!

veth pair是什么?后面再介绍。

由图可知,端口B(qvbXXX)和端口C(tapXXX)在同一个linux网桥上。它们俩互通了。

端口D在ovs网桥上。C和D的互联是veth pair的特性。

由图可以看出,qvoXXX在ovs网桥上,qvb在linux网桥上。它们之间的互联是veth pair的特性,它们就像一根导线的两端。

ovs查询命令:

这里可以看到3种网桥: br-int、br-tun、br-ex。这里有个印象就好。

仔细的查看一下,可以看到qvoXXX在br-int网桥上。

至此D端口也找到了

E、F端口通过ovs网桥自身连接。

ovs-vsctl show可以看到两个patch类型的端口,用于连接br-int和br-tun。类似于veth pair。

ovs-vsctl show可以在br-tun网桥上看到vxlan类型的端口,并注明本地ip和remote ip,通过此类型端口,将不同的物理环境互联,对于上层好似就一个网桥。再者br-tun网桥还与br-int互联,这意味,对于再上一层的应用,似乎只有一个br-int。

和【E】【F】相同。

此时携带源ip为子网的流量到达M端口,而L端口得网段为外网网段,因此M网段的流量此时无法直接进入L端口。借助router(网络命名空间),使用iptables,将M端口流量的源ip转换为外网网段。此时流量可进入L端口从而访问外网。(M与N之间连通性非网络对实现,而是ovs tap设备实现。网络对的一个明显特征为 ip a可以看到@符号连接两个端口)

找到虚拟机所在租户的路由id

本机为 894699dc-bc60-4b5e-b471-e95afa20f1d7

根据路由id找到网络命名空间

在所有节点上执行如下命令,找到对应id的qrouter

ip netns

本环境为:qrouter-894699dc-bc60-4b5e-b471-e95afa20f1d7

在此网络命名空间的节点上执行(如下命令意义为进入网络命名空间):

此时已进入网络命名空间。

查看ip

可以看到qg和qr开头的网卡名称。qg为弹性ip地址组,qr为子网网关。此时在虚拟机所在节点上查询ovs网桥,可以在br-int看到与此同名的qg和qr端口。

由于是源地址转换,因此先路由再转换源ip(iptables规则)。

查看路由规则:

route-n

第一条可以看到外网的网关,通过qg网卡发送,规则正好匹配。

选好路由规则之后,进行更改源ip。

可以看到 neutron-l3-agent-float-snat(配置了弹性ip才会出现)、neutron-l3-agent-snat。因为neutron-l3-agent-float-snat优先级高于neutron-l3-agent-snat,如果没有配置弹性ip,则会将源ip改为该路由的外网ip;如果配置了弹性ip则会将源ip改为弹性ip。

总的来说,流量从qr出去绕了一圈(网络命名空间)改变了源ip又从qg进入,然后通过ovs patch进入br-ex。

br-ex如何与外网连接的呢?进入网络节点查看ovs网桥:

可以看到 br-ex与em3网卡互联。因此流量直接走em3出去。还记得你这张网卡是干嘛的吗?是那张不配置ip的物理网卡!

通过iptables的prerouting可以看出,在进入之前修改了目的弹性ip为子网ip,后经路由转发。另,网络命名空间可以通过arp发现子网ip与mac地址的对应关系。

lbaas,负载均衡

dhcp,dhcp服务。

通过前面说的br-tun实现。如果没有单独划分网络,则使用管理网网段。若单独配置了tunnel网络,则br-tun里的网络使用tunnel网络。

br-tun里定义了vxlan,并且指定了 local_ip、remote_ip。根据这两个ip以及路由信息,可以确定 br-tun通过哪张网卡与外部通信。也是因此可以为tunnel配置专用网卡。

都是通过iptables实现。

防火墙:qrouter网络命名空间中得iptables实现。

安全组:虚拟机所在得宿主机得iptables实现。

可以看到防火墙规则。

可以看到对应端口id得安全组规则。

已经知道了qrouter利用nat表实现弹性ip与子网ip之间的映射,但是如何从外部访问到qg网卡的?

这里做了一个简单的模拟操作:

dnsmasq实现。

kolla-ansible的dnsmasq日志相对路径参考:neutron/dnsmasq.log(可通过dnsmasq.conf找到日志路径)

日志中可以看到dhcp的详细过程。过程参考如下:

文档参考:

dhcp也通过网络命名空间实现,名称由网络id决定。dhcp可以拥有多个,通过neutron.conf中 dhcp_agents_per_network决定。

另:centos7虚拟机中的/var/log/messages也记录了dhcp相关操作。

network qos可以理解为网络流量限制,官方名称:网络质量即服务

本环境通过openvswitch实现的qos。

如上图为设置的带宽限制规则。

根据端口号查看流表,命令参考:

上图标记的104就为dscp mark乘 4的结果,乘4是一种规范。

Qt实用技巧:在CentOS上使用linuxdeployqt打包发布qt程序

在CentOS上使用linuxdeployqt打包发布Qt程序,这一过程与Ubuntu或麒麟系统有相似之处,但也存在系统兼容性问题。文章详细介绍了CentOS8.2和CentOS7.5的发布流程,并强调了使用linuxdeployqt的好处。该工具能将应用程序所需的资源(如库、图形和插件)复制到一个包中,使其成为自包含的程序,可以作为AppDir或AppImage分发,也可以放入交叉分发包中。为了确保在不同系统上的一致性,linuxdeployqt特别适用于Qt应用程序的部署。

使用linuxdeployqt需要访问其源代码下载地址。对于CentOS系统,文章提供了详细的编译步骤。首先,需要下载源码并解压。接着,修改源码,移除版本检查部分,以避免潜在的兼容性问题。确保系统中安装了CMake,这对于构建linuxdeployqt至关重要。在CentOS8.2中,CMake通常是预装的,而在CentOS7.5中,可能需要卸载系统自带的较旧版本,并使用源码安装较新版本,以确保正确编译。

为了支持Qt的依赖环境,步骤包括指定Qt库的路径,以及使用cmake-gui来配置依赖。这确保了linuxdeployqt能正确识别并打包Qt相关的库,避免运行时错误。配置完成后,通过生成generate文件和执行make命令完成编译。随后,将linuxdeployqt安装到系统目录,并进行测试以确认其正确性。

打包Qt程序时,确保应用可执行文件和一个空目录准备就绪。使用环境变量设置,特别是通过source env.sh引入QT_DIR到系统路径中,确保打包过程能正确识别和使用Qt库。打包命令使用linuxdeployqt可执行程序-appimage,这一步骤将程序及其依赖库打包成一个独立的可执行文件。测试表明,使用此方法打包的Qt程序能在不同CentOS版本上成功运行,无需额外的库加载。

为了验证这一过程在不同环境中的可靠性,文章介绍了在全新CentOS8.2系统上进行测试的过程。通过对比发现,使用linuxdeployqt-appimage打包的Qt程序能有效解决依赖库问题,确保程序在不同操作系统环境下均可正常运行。

阅读剩余
THE END