`
wuce7758
  • 浏览: 177101 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论
  • YTT1121: 有网络拓扑发现的源代码么?能不能发我一份学习一下,现在我正要做 ...
    java拓扑图
  • YTT1121: 大神,有网络拓扑发现的源代码么?或者您会编写么?我需要做科研改 ...
    java拓扑图
  • YTT1121: 大神,有网络拓扑发现的源代码么?或者您会编写么?我需要做科研改 ...
    java拓扑图
  • poettang: 求代码分享学习,谢谢!膜拜大神!258026921@qq.co ...
    java拓扑图
  • oiqio: 87836238@qq.com,感谢楼主,来一份~
    java拓扑图

利用nginx+tomcat+memcached组建web服务器负载均衡

    博客分类:
  • ngix
阅读更多

1 起因

    最近对新开发的web系统进行了压力测试,发现tomcat默认配置下压到600人的并发登录首页响应速度就有比较严重的影响,一轮出现2000多个的500和502错误。我把登录的时间统计做了一下,把服务器处理总时间打印出来,看了一下发现有个别响应确实在20秒,但平均时间和lr测试出来的还是相差很远。所以可以断定不是程序处理处理花费了这么多时间,由于在局域网测试,所以也可以排除网络问题。这就把问题圈定在tomcat的请求响应能力上了。先把tomcat线程数提升到1000,发现500和502的报错降到几十个,但是响应时间上还没什么提高。后来启动了2个tomcat,用nginx做负载均衡,响应时间下降了40%,两个tomcat的处理时长都保持在1秒左右。

    看来tomcat性能确实是系统的一个瓶颈,很有必要假设多个服务器来加强响应能力。之前由于只是测试登录,多个tomcat还不用共享session,但真正使用时是必须要能一起工作的。现记录一下负载均衡的安装配置过程。

 

2 解决方案的选择

    多个tomcat要一起协同工作有几种办法,可以考虑的方案有以下几个:

  1. 使用tomcat自带的cluster方式,多个tomcat见自动实时复制session信息,配置起来很简单。但这个方案的效率比较低,在大并发下表现并不好。

  2. 利用nginx的基于访问ip的hash路由策略,保证访问的ip始终被路由到同一个tomcat上,这个配置更简单。但是我们的应用很可能是某一个局域网大量用户同时登录,这样负载均衡就没什么作用了。

  3. 利用memcached把多个tomcat的session集中管理,这是最直接的解决方案,但是操作起来也最为复杂。

    我们的系统既要求性能,又要比较好的利用上负载均衡,所以第3个方案是首选。接下来就是安装搭建之路了。

3 安装配置

3.1 memcached的安装

  1)先下载libevent-1.4.14b-stable.tar.gz和memcached-1.4.7.tar.gz的源码包,前者是后者的依赖包,就是一个事件驱动的包。

  2)安装非常顺利,还是经典的那几个编译安装命令:

 

Linux代码 复制代码 收藏代码
  1. tar zxvf libevent-1.4.14b-stable.tar.gz    
  2.   
  3. cd libevent-1.4.14b-stable    
  4.   
  5. ./configure --prefix=/usr/local/libevent-1.4.14b    
  6.   
  7. make    
  8.   
  9. make install    
  10.   
  11. tar zxvf memcached-1.4.7.tar.gz    
  12.   
  13. cd memcached-1.4.7    
  14.   
  15. ./configure --prefix=/usr/local/memcached-1.4.7 --with-libevent=/usr/local/libevent-1.4.14b/    
  16.   
  17. make    
  18.   
  19. make install   
tar zxvf libevent-1.4.14b-stable.tar.gz 

cd libevent-1.4.14b-stable 

./configure --prefix=/usr/local/libevent-1.4.14b 

make 

make install 

tar zxvf memcached-1.4.7.tar.gz 

cd memcached-1.4.7 

./configure --prefix=/usr/local/memcached-1.4.7 --with-libevent=/usr/local/libevent-1.4.14b/ 

make 

make install 

 

 

  3)启动memcached:

  ./bin/memcached -d -m 256 -u root -p 11211 -c 1024 -P /tmp/memcached.pid

 

3.2 memcached-session-manager配置

    让tomcat调用memcached来存储session早就是一个很成熟的解决方案了,开源的msm就可以解决这个问题。比较折腾的就是要用到的jar包,官方文档说的也比较含糊,我这里用的是kryo的序列化方案,所以用到的包多一些,分别是:

kryo-1.03.jar

kryo-serializers-0.8.jar 

memcached-2.5.jar(我在官方看最新已经到2.7了,但是msm官方说用2.5,可能新包没测试过,特别是2.6版本changelog里面提到api有调整,还是不要乱升的好)

memcached-session-manager-1.5.1.jar

memcached-session-manager-tc7-1.5.1.jar

minlog-1.2.jar

msm-kryo-serializer-1.5.1.jar

reflectasm-0.9.jar

    以上这些包都放在$CATALINA_HOME/lib目录下。

    另外提一下,官方给出的4种序列化方案,其中kryo是效率最高的,具体比较看http://code.google.com/p/memcached-session-manager/wiki/SerializationStrategies。

    接下来是修改tomcat的配置文件$CATALINA_HOME/conf/context.xml,调整成新的session存储方式。配置文件中加入以下内容:

 

Xml代码 复制代码 收藏代码
  1. <Manager className="de.javakaffee.web.msm.MemcachedBackupSessionManager"    
  2.   
  3.      memcachedNodes="n1:127.0.0.1:11211"    
  4.   
  5.      sticky="false"    
  6.   
  7.      lockingMode="auto"    
  8.   
  9.      sessionBackupAsync="false"      
  10.   
  11.      sessionBackupTimeout="1000"     
  12.   
  13.      transcoderFactoryClass="de.javakaffee.web.msm.serializer.kryo.KryoTranscoderFactory"    
  14.   
  15.      />   
 <Manager className="de.javakaffee.web.msm.MemcachedBackupSessionManager" 

      memcachedNodes="n1:127.0.0.1:11211" 

      sticky="false" 

      lockingMode="auto" 

      sessionBackupAsync="false"   

      sessionBackupTimeout="1000"  

      transcoderFactoryClass="de.javakaffee.web.msm.serializer.kryo.KryoTranscoderFactory" 

      /> 

 

 

    在$CATALINA_HOME/conf/logging.properties文件中添加de.javakaffee.web.msm.level=FINE,就可以在catalina.out的日志中看到详细的session存取情况。

    另外在Manager配置中加上requestUriIgnorePattern=".*\.(png|gif|jpg|css|js)$",用chrome浏览器测试发现居然sessionID会突然变掉,然后就被拦截器给跳回首页了。去掉就一切正常,但拦截器只会去检测action的,按理说应该完全没关系,望高人指点!

3.3 nginx配置

    nginx非常简单,只要在upstream里面多配置几个server就可以了,这里把我的配置贴出来:#user nobody; 

Linux代码 复制代码 收藏代码
  1. worker_processes  16;    
  2.   
  3. events {    
  4.   
  5.     use epoll;    
  6.   
  7.     worker_connections  65535;    
  8.   
  9. }    
  10.   
  11. http {    
  12.   
  13.     include       mime.types;    
  14.   
  15.     default_type  application/octet-stream;    
  16.   
  17.     
  18.   
  19.     #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '    
  20.   
  21.     #                  '$status $body_bytes_sent "$http_referer" '    
  22.   
  23.     #                  '"$http_user_agent" "$http_x_forwarded_for"';    
  24.   
  25.     #access_log  logs/access.log  main;    
  26.     
  27.     client_header_buffer_size 32k;    
  28.   
  29.     large_client_header_buffers 4 32k;    
  30.   
  31.     client_max_body_size 8m;    
  32.   
  33.     client_body_buffer_size 128k;    
  34.   
  35.     sendfile        on;    
  36.   
  37.     tcp_nopush     on;    
  38.   
  39.     
  40.   
  41.     #keepalive_timeout  0;    
  42.   
  43.     keepalive_timeout  65;    
  44.   
  45.     
  46.   
  47.     gzip  on;    
  48.   
  49.     gzip_types       text/javascript text/plain text/css application/xml application/x-javascript;   
  50.   
  51.     gzip_disable     "MSIE [1-6]\.(?!.*SV1)";    
  52.   
  53.     
  54.   
  55.     proxy_connect_timeout 300;    
  56.   
  57.     proxy_send_timeout 300;    
  58.   
  59.     proxy_read_timeout 300;    
  60.   
  61.     proxy_buffer_size 16k;    
  62.   
  63.     proxy_buffers 4 32k;    
  64.   
  65.     
  66.   
  67.     proxy_set_header X-Forwarded-For $remote_addr;    
  68.   
  69.     proxy_set_header Connection Close;    
  70.   
  71.     server_names_hash_max_size 1024;    
  72.   
  73.     server_names_hash_bucket_size 1024;    
  74.   
  75.     
  76.   
  77.     # Default cache parameters for use by virtual hosts    
  78.   
  79.     # Set the cache path to tmpfs mounted disk, and the zone name    
  80.   
  81.     # Set the maximum size of the on disk cache to less than the tmpfs file system size    
  82.   
  83.     proxy_cache_path  ./cache  levels=1:2  keys_zone=pscms:100m max_size=800m;    
  84.   
  85.     proxy_temp_path   ./proxy;    
  86.   
  87.     
  88.   
  89.     #配置后端服务器信息    
  90.   
  91.     upstream web_server {    
  92.   
  93.         #ip_hash;    
  94.   
  95.         server localhost:8080 max_fails=3  fail_timeout=30s;    
  96.   
  97.         server localhost:8180 max_fails=3  fail_timeout=30s;    
  98.   
  99.     }    
  100.   
  101.     
  102.   
  103.     server {    
  104.   
  105.         listen   8888; ## listen for ipv4    
  106.   
  107.         #listen   [::]:80 default ipv6only=on; ## listen for ipv6    
  108.   
  109.         server_name  localhost;    
  110.   
  111.     
  112.   
  113.         charset utf-8;    
  114.   
  115.         log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '    
  116.   
  117.                           '$status $body_bytes_sent "$http_referer" '    
  118.   
  119.                           '"$http_user_agent" "$http_x_forwarded_for"';    
  120.   
  121.         access_log  logs/host.access.log  main;    
  122.   
  123.         #access_log off;    
  124.   
  125.     
  126.   
  127.         location ~ .*\.(jsp|action)?$ {    
  128.   
  129.             proxy_set_header Host $http_host;    
  130.   
  131.             proxy_redirect     off;    
  132.   
  133.             proxy_pass         http://web_server;    
  134.   
  135.             proxy_set_header   Host             $host;    
  136.   
  137.             proxy_set_header   X-Real-IP        $remote_addr;    
  138.   
  139.             proxy_set_header   X-Forwarded-For $proxy_add_x_forwarded_for;    
  140.   
  141.         }    
  142.   
  143.     
  144.   
  145.         location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|js|css)$ {    
  146.   
  147.             #如果后端的服务器返回502504、执行超时等错误,自动将请求转发到upstream负载均衡池中的另一台服务器,实现故障转移。    
  148.   
  149.             proxy_next_upstream http_502 http_504 error timeout invalid_header;    
  150.   
  151.     
  152.   
  153.             proxy_cache pscms;                   #进行缓存,使用Web缓存区cache_one    
  154.   
  155.             proxy_cache_valid 200 304 1h;           #对不同的HTTP状态码设置不同的缓存时间    
  156.   
  157.             proxy_cache_valid 301 302 5m;    
  158.   
  159.             proxy_cache_valid any 1m;    
  160.   
  161.             proxy_set_header  Host $host;    
  162.   
  163.             proxy_set_header  X-Real-IP  $remote_addr;    
  164.   
  165.             proxy_set_header X-Forwarded-For $remote_addr;    
  166.   
  167.             proxy_set_header Accept-Encoding "";  #(或是后台服务器关闭gzip),这样这台机器才不会缓存被压缩的文件,造成乱码    
  168.   
  169.             proxy_ignore_headers "Cache-Control" "Expires"; #这段配置加上后,proxy_cache就能支持后台设定的expires。    
  170.   
  171.             proxy_pass http://web_server;    
  172.   
  173.             expires  15m;    
  174.   
  175.         }    
  176.   
  177.     
  178.   
  179.         location / {    
  180.   
  181.             proxy_set_header Host $http_host;    
  182.   
  183.             proxy_redirect     off;    
  184.   
  185.             proxy_pass         http://web_server;    
  186.   
  187.             proxy_set_header   Host             $host;    
  188.   
  189.             proxy_set_header   X-Real-IP        $remote_addr;    
  190.   
  191.             proxy_set_header   X-Forwarded-For $proxy_add_x_forwarded_for;    
  192.   
  193.         }    
  194.   
  195.     }    
  196.   
  197. }   
worker_processes  16; 

events { 

    use epoll; 

    worker_connections  65535; 

} 

http { 

    include       mime.types; 

    default_type  application/octet-stream; 

 

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" ' 

    #                  '$status $body_bytes_sent "$http_referer" ' 

    #                  '"$http_user_agent" "$http_x_forwarded_for"'; 

    #access_log  logs/access.log  main; 
 
    client_header_buffer_size 32k; 

    large_client_header_buffers 4 32k; 

    client_max_body_size 8m; 

    client_body_buffer_size 128k; 

    sendfile        on; 

    tcp_nopush     on; 

 

    #keepalive_timeout  0; 

    keepalive_timeout  65; 

 

    gzip  on; 

    gzip_types       text/javascript text/plain text/css application/xml application/x-javascript;

    gzip_disable     "MSIE [1-6]\.(?!.*SV1)"; 

 

    proxy_connect_timeout 300; 

    proxy_send_timeout 300; 

    proxy_read_timeout 300; 

    proxy_buffer_size 16k; 

    proxy_buffers 4 32k; 

 

    proxy_set_header X-Forwarded-For $remote_addr; 

    proxy_set_header Connection Close; 

    server_names_hash_max_size 1024; 

    server_names_hash_bucket_size 1024; 

 

    # Default cache parameters for use by virtual hosts 

    # Set the cache path to tmpfs mounted disk, and the zone name 

    # Set the maximum size of the on disk cache to less than the tmpfs file system size 

    proxy_cache_path  ./cache  levels=1:2  keys_zone=pscms:100m max_size=800m; 

    proxy_temp_path   ./proxy; 

 

    #配置后端服务器信息 

    upstream web_server { 

        #ip_hash; 

        server localhost:8080 max_fails=3  fail_timeout=30s; 

        server localhost:8180 max_fails=3  fail_timeout=30s; 

    } 

 

    server { 

        listen   8888; ## listen for ipv4 

        #listen   [::]:80 default ipv6only=on; ## listen for ipv6 

        server_name  localhost; 

 

        charset utf-8; 

        log_format  main  '$remote_addr - $remote_user [$time_local] "$request" ' 

                          '$status $body_bytes_sent "$http_referer" ' 

                          '"$http_user_agent" "$http_x_forwarded_for"'; 

        access_log  logs/host.access.log  main; 

        #access_log off; 

 

        location ~ .*\.(jsp|action)?$ { 

            proxy_set_header Host $http_host; 

            proxy_redirect     off; 

            proxy_pass         http://web_server; 

            proxy_set_header   Host             $host; 

            proxy_set_header   X-Real-IP        $remote_addr; 

            proxy_set_header   X-Forwarded-For $proxy_add_x_forwarded_for; 

        } 

 

        location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|js|css)$ { 

            #如果后端的服务器返回502、504、执行超时等错误,自动将请求转发到upstream负载均衡池中的另一台服务器,实现故障转移。 

            proxy_next_upstream http_502 http_504 error timeout invalid_header; 

 

            proxy_cache pscms;                   #进行缓存,使用Web缓存区cache_one 

            proxy_cache_valid 200 304 1h;           #对不同的HTTP状态码设置不同的缓存时间 

            proxy_cache_valid 301 302 5m; 

            proxy_cache_valid any 1m; 

            proxy_set_header  Host $host; 

            proxy_set_header  X-Real-IP  $remote_addr; 

            proxy_set_header X-Forwarded-For $remote_addr; 

            proxy_set_header Accept-Encoding "";  #(或是后台服务器关闭gzip),这样这台机器才不会缓存被压缩的文件,造成乱码 

            proxy_ignore_headers "Cache-Control" "Expires"; #这段配置加上后,proxy_cache就能支持后台设定的expires。 

            proxy_pass http://web_server; 

            expires  15m; 

        } 

 

        location / { 

            proxy_set_header Host $http_host; 

            proxy_redirect     off; 

            proxy_pass         http://web_server; 

            proxy_set_header   Host             $host; 

            proxy_set_header   X-Real-IP        $remote_addr; 

            proxy_set_header   X-Forwarded-For $proxy_add_x_forwarded_for; 

        } 

    } 

} 

 

   以上转载 http://passover.blog.51cto.com/2431658/648182

 

   关于多tomcat之间的session共享问题,我们的实现是放弃了使用session,通过写cookie的方式,在过滤器中检测是否有相应的cookie,然后放入到request里面。后来发现再多个环境切换的时候,会出现混乱。进而使用过了ThreadLocal,如果有相应的cookie,则将数据放入ThreadLocal中,而ThreadLocal为每一个线程都提供了变量的副本,使得每个线程在某一时间访问到的并不是同一个对象,这样就隔离了多个线程对数据的数据共享

 

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics