apache tomcat 负载均衡集群和session复制 基于jk
星期三, 2012-02-08 | Author: Lee | JAVA-and-J2EE | 8,345 views
apache服务器和tomcat的连接方法其实有三种:JK、http_proxy和ajp_proxy。
本文主要介绍最为常见的JK。
基于centos5.5 linux下配置:
1.安装tomcat7、apache2.2.22服务器及版本对应的JK
这里需要注意的是JK版本必须与apache服务器版本号对应。apache下载
对应的linux的编译的jk版本可以去 mod_jk.so去下载
注意点:如果你安装的apache是2.0.63版本或者说是2.0.X版本做好选用 mod_jk-1.2.26-httpd-2.0.61.so
如果是最新版2.2.22,可以选用最用mod_jk-1.2.31-httpd-2.2.x.so
,总之不成功的时候自己去试试so,我就实验好多,一开始机器装的是2.0.63的apache让人崩溃的老版本.
下载对应的so文件到apache下的modules目录中.
apache_home表示apache服务器安装目录.
2.配置apache服务器
2.1 httpd.conf文件
apache_home目录下的conf/httpd.conf文件中添加 复杂配置
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 | LoadModule jk_module modules/mod_jk-1.2.31-httpd-2.2.x.so JkWorkersFile conf/workers.properties JkMountFile conf/uriworkermap.properties #加载workers的请求处理分配文件 可以不需要 JkLogFile logs/mod_jk.log #指定jk的日志输出文件 可以不需要 JkLogLevel warn #指定日志级别可以不需要 JkMount /* lbcontroller #根据需要可以配置多个 设置apache分发器,/*表示apache将所有文件都由分发器lbcontroller 进行分发,你可以自行设置*.jsp,*.do等 uriworkermap.properties文件,内容如下 /*=lbcontroller #所有请求都由controller这个server处理 /jkstatus=status #所有包含jkstatus请求的都由status这个server处理 !/*.gif=lbcontroller #所有以.gif结尾的请求都不由controller这个server处理,以下几个都是一样的意思 !/*.jpg=lbcontroller !/*.png=lbcontroller !/*.css=lbcontroller !/*.js=lbcontroller !/*.htm=lbcontroller !/*.html=lbcontroller |
简单配置:apache文件加 Include “/usr/local/apache/conf/mod.conf”
在”/usr/local/apache/conf/目录下创建mod.conf内容:
1 2 3 4 5 | LoadModule jk_module modules/mod_jk-1.2.31-httpd-2.2.x.so JkWorkersFile conf/workers.properties #JkMount /*.jsp lbcontroller #JkMount /*.do lbcontroller JkMount /* lbcontroller #根据需要可以配置多个 设置apache分发器,/*表示apache将所有文件都由分发器lbcontroller 进行分发,你可以自行设置*.jsp,*.do等 |
2.2 workers.properties文件
在apache_home下conf目录中新建workers.properties文件,输入以下内容
Xml代码
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 | worker.list=lbcontroller #Tomcat1实例配置 worker.tomcat1.host=localhost #此处可以是你的ip地址 worker.tomcat1.port=8009 worker.tomcat1.type=ajp13 #分发权重 值越大负载越大 worker.tomcat1.lbfactor = 1 #Tomcat2实例配置 worker.tomcat2.host=localhost #此处可以是你的ip地址 worker.tomcat2.port=9009 worker.tomcat2.type=ajp13 #分发权重 值越大负载越大 worker.tomcat2.lbfactor = 1 #负载均衡分发控制器 worker.lbcontroller.type=lb worker.lbcontroller.balance_workers=tomcat1,tomcat2 worker.lbcontroller.sticky_session=True |
在这里
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 | worker.list=lbcontroller 内容即为httpd.conf文件中的分发器名称。需要注意的内容是,tomcat实例名称 Xml代码 worker.tomcat1.host=.... ... worker.tomcat2.host=.... ... 在这里就是tomcat1和tomcat2必须与之后tomcat中的server.xml中jvmRoute值一致。 <pre> 更多的work.properties可以参考: <pre lang="java" line="1"> worker.list=loadbalancer #定义负载均衡的名称 worker.loadbalancer.type=lb #定义负载均衡的类型,为lb worker.loadbalancer.error_escalation_time=0 #切换错误状态时间 worker.loadbalancer.max_reply_timeouts=10 worker.loadbalancer.sticky_session=1 #1代表为true,0代表为false。 #worker.loadbalancer.sticky_session_force=true worker.loadbalancer.balance_workers=lb1,lb2 #负载均衡的工作者名称 worker.lb1.reference=worker.template #lb1参考worker.template工作模板 worker.lb1.host=localhost #lb1的ip地址 worker.lb1.port=8009 #lb1端口,这里是ajp端口,不是网站端口 worker.lb1.activation=A #A:active模式 D:sticky模式 S:不使用 worker.lb2.reference=worker.template worker.lb2.host=localhost worker.lb2.port=9009 worker.lb2.activation=A worker.template.type=ajp13 #上面lb1,lb2参考下面的值worker.template,协议ajp13 worker.template.socket_connect_timeout=5000 #套接字连接超时为5000毫秒,默认为0 worker.template.socket_keepalive=true #开启保持为真,默认为false worker.template.ping_mode=A #使用cping/cpong模式,有C,P,I,A四个模式。A全选 worker.template.ping_timeout=10000 #探测cping/cpong超时间默认10000毫秒 worker.template.connection_pool_minsize=0 #连接池关闭最小时间 worker.template.connection_pool_timeout=600 #连接池600秒 worker.template.reply_timeout=300000 #答复超时300000毫秒 worker.template.recovery_options=3 #重试次数 |
3.tomcat集群配置
配置每个tomcat目录下的server.xml文件,具体修改内容如下
3.1 Engine配置
1 2 3 4 5 6 7 8 9 10 11 12 13 14 | 修改前 Xml代码 <Engine name="Catalina" defaultHost="localhost"> 修改后 Xml代码 <Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat1" > 具体tomcat中jvmRoute的值根据在workers.properties的配置,注意IP地址、tomcat实例名称和jvmRoute值必须一一对应。 3.2 Connector配置 修改前 Xml代码 <Connector port="8009" protocol="AJP/1.3" redirectPort="8443" /> 修改后 Xml代码 <Connector port="9009" protocol="AJP/1.3" redirectPort="8443" /> |
这里tomcat的port值必须与在workers.properties中的port值一致。
3.3 Cluster配置
修改前
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 | Xml代码 <!-- <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster" > --> 修改后,去掉注释并添加一些内容如下 Xml代码 <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster" channelSendOptions="8"> <Manager className="org.apache.catalina.ha.session.DeltaManager" expireSessionsOnShutdown="false" notifyListenersOnReplication="true"/> <Channel className="org.apache.catalina.tribes.group.GroupChannel"> <Membership className="org.apache.catalina.tribes.membership.McastService" address="228.0.0.4" port="45564" frequency="500" dropTime="3000"/> <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver" address="auto" port="4001" autoBind="100" selectorTimeout="5000" maxThreads="6"/> <!-- timeout="60000"--> <Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter"> <Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender" /> </Sender> <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/> <Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/> <Interceptor className="org.apache.catalina.tribes.group.interceptors.ThroughputInterceptor"/> </Channel> <Valve className="org.apache.catalina.ha.tcp.ReplicationValve" filter=""/> <Valve className="org.apache.catalina.ha.session.JvmRouteBinderValve"/> <ClusterListener className="org.apache.catalina.ha.session.JvmRouteSessionIDBinderListener"/> <ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/> </Cluster> 上述配置跟tomcat官方建议的配置,去掉了 Xml代码 <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer" tempDir="/tmp/war-temp/" deployDir="/tmp/war-deploy/" watchDir="/tmp/war-listen/" watchEnabled="false"/> 如果不去掉这部分,则tomcat启动会报"FarmWarDeployer can only work as host cluster subelement!." |
3.4 session复制配置
tomcat集群中的session管理,主要有两种方式:
1).粘性session
表示从同一窗口发来的请求都将有集群中的同一个tomcat进行处理。配置方式是在上面workers.properties文件中
Xml代码
worker.lbcontroller.sticky_session=True
粘性session的好处在不会在不同的tomcat上来回跳动处理请求,但是坏处是如果处理该session的tomcat崩溃,那么之后的请求将由其他tomcat处理,原有session失效而重新新建一个新的session,这样如果继续从session取值,会抛出nullpointer的访问异常。
2).session复制
session复制是指tomcat彼此之间通过组播方式将session发到各个tomcat实例上,如果其中一个访问出错,则另外tomcat仍然具有有效的session内容,从而能正常接管其session。坏处是当tomcat实例很多,或者用户在session中有大量操作时,组播发送的信息量十分惊人。session复制配置则是在发布的web应用程序中的web.xml中添加
Xml代码
此外,session复制所需的JDK必须是JDK 5.0及其以上版本。
4.测试
1) 先启动apache服务器httpd
2) 启动名为tomcat2的服务器 此处使用的tomcat7,新建的webapps功能里面即 test里面要带WEB-INF/classes 否则启动报错;
创建session.jsp文件:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 | <%@ page language="java" contentType="text/html; charset=ISO-8859-1" pageEncoding="ISO-8859-1"%> <!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd"> <html> <head> <meta http-equiv="Content-Type" content="text/html; charset=ISO-8859-1"> <title>session-test</title> </head> <body> <% String s=session.getId(); out.println("session id="+s); System.out.println("session id="+s); //Log loger=LogFactory.getLog("nice"); //loger.info("session id="+s); %> </body> </html> |
在浏览器中输入访问地址http://localhost/test/session.jsp查看输出
可以看到请求被转发到了tomcat2进行处理
3)启动tomcat 1
可以发现,tomcat1启动后搜索到了tomcat2实例,并进行了session复制。在tomcat2的控制台也可以找到如下输出
4)关闭tomcat 2,后继续刷新url访问。tomcat1控制台中输出的session 依然与之前tomcat2中的一致,并且在session中保存的属性值仍然有效。
本文主要参考:http://jackandroid.iteye.com/blog/627147
http://www.ibm.com/developerworks/cn/opensource/os-lo-apache-tomcat/index.html
文章作者: Lee
本文地址: https://www.pomelolee.com/901.html
除非注明,Pomelo Lee文章均为原创,转载请以链接形式标明本文地址
一条评论 to apache tomcat 负载均衡集群和session复制 基于jk
关于其中使用的命令和异常信息处理代码:
./configure –prefix=/usr/local/apache2 –enable-mods-shared=all –with-included-apr
此处为环境不支持多播技术
SEVERE: Unable to start cluster.
org.apache.catalina.tribes.ChannelException: java.io.IOException: Operation not permitted; No faulty members identified
http://www.dancres.org/bjspj/docs/docs/linux.html
route add -net 127.0.0.0 netmask 255.0.0.0 dev venet0
worker.list=lbcontroller
worker.tomcat1.host=localhost
worker.tomcat1.port=8009
worker.tomcat1.type=ajp13
worker.tomcat1.lbfactor = 1
worker.tomcat2.host=localhost
worker.tomcat2.port=9009
worker.tomcat2.type=ajp13
worker.tomcat2.lbfactor = 1
worker.lbcontroller.type=lb
worker.lbcontroller.balance_workers=tomcat1,tomcat2
worker.lbcontroller.sticky_session=True
Leave a comment
Search
相关文章
热门文章
最新文章
文章分类
- ajax (10)
- algorithm-learn (3)
- Android (6)
- as (3)
- computer (85)
- Database (30)
- disucz (4)
- enterprise (1)
- erlang (2)
- flash (5)
- golang (3)
- html5 (18)
- ios (4)
- JAVA-and-J2EE (186)
- linux (143)
- mac (10)
- movie-music (11)
- pagemaker (36)
- php (50)
- spring-boot (2)
- Synology群晖 (2)
- Uncategorized (6)
- unity (1)
- webgame (15)
- wordpress (33)
- work-other (2)
- 低代码 (1)
- 体味生活 (40)
- 前端 (21)
- 大数据 (8)
- 游戏开发 (9)
- 爱上海 (19)
- 读书 (4)
- 软件 (3)
2012 年 02 月 08 日