CentOS7,Ngnix+Tomcat负载均衡实验(Nginx负载均衡、Tomcat负载均衡、Nginx反向代理、Web负载均衡)
本次实验的目标
搭建一台nginx,两台tomcat服务器,用户访问nginx的时候负载均衡到两台tomcat上。
实验环境
软件版本:JDK1.8 + Tomcat8.5 + Nginx1.12
用户直接访问Nginx(192.168.1.231),由Nginx决定访问两台Tomcat中的一台;
1、搭建好Tomcat和Nginx
具体的tomcat和nginx安装步骤这里不讨论!
搭建好的两台Tomcat如下:
为了方便测试,分别在tomcat上放了一个test.html页面,返回内容是它的IP,如下:
搭建好的nginx如下:
2、修改nginx配置文件实现负载均衡
修改nginx的配置文件,我这里是 /usr/local/nginx/conf/nginx.conf,
在http内添加,
upstream mytomcat{
server 192.168.1.235:8080 weight=5;
server 192.168.1.236:8080 weight=10;
}
如下:
在相应的server那里添加:
proxy_pass http://mytomcat;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_connect_timeout 1;
#proxy_read_timeout 1;
#proxy_send_timeout 1;
如下:
注意 “mytomcat” 是上面upstream那里写的,要一样,具体的配置说明,请看文章后面“附录”。
3、重启nginx确认结果
#如果nginx已启动,用下面这个关闭
/usr/local/nginx/sbin/nginx -s stop
#下面是启动nginx
/usr/local/nginx/sbin/nginx
nginx重启后,访问 test.html页面,看到,同样是访问
http://192.168.1.231/test.html,
不断的刷新,会看到有时候访问到192.168.1.235,有时候访问到192.168.1.236,实现了负载均衡!
如图:
附录1:upstream的分配方式介绍
Nginx的upstream支持5种分配方式,下面将会详细介绍,其中,前三种为Nginx原生支持的分配方式,后两种为第三方支持的分配方式:
1、轮询
轮询是upstream的默认分配方式,即每个请求按照时间顺序轮流分配到不同的后端服务器,如果某个后端服务器down掉后,能自动剔除。
upstream backend {
server 192.168.1.101:8888;
server 192.168.1.102:8888;
server 192.168.1.103:8888;
}
2、weight
轮询的加强版,即可以指定轮询比率,weight和访问几率成正比,主要应用于后端服务器异质的场景下。
upstream backend {
server 192.168.1.101 weight=1;
server 192.168.1.102 weight=2;
server 192.168.1.103 weight=3;
}
3、ip_hash
每个请求按照访问ip(即Nginx的前置服务器或者客户端IP)的hash结果分配,这样每个访客会固定访问一个后端服务器,可以解决session一致问题。
upstream backend {
ip_hash;
server 192.168.1.101:7777;
server 192.168.1.102:8888;
server 192.168.1.103:9999;
}
4、fair
fair顾名思义,公平地按照后端服务器的响应时间(rt)来分配请求,响应时间短即rt小的后端服务器优先分配请求。
upstream backend {
server 192.168.1.101;
server 192.168.1.102;
server 192.168.1.103;
fair;
}
5、url_hash
与ip_hash类似,但是按照访问url的hash结果来分配请求,使得每个url定向到同一个后端服务器,主要应用于后端服务器为缓存时的场景下。
upstream backend {
server 192.168.1.101;
server 192.168.1.102;
server 192.168.1.103;
hash $request_uri;
hash_method crc32;
}
其中,hash_method为使用的hash算法,需要注意的是:此时,server语句中不能加weight等参数。
关于,如何在负载均衡中使用upstream请参看这里。
附录2:upstream的设备参数介绍
从上面实例不难看出upstream中server指令语法如下:
server address [parameters]
关键字server必选。
address也必选,可以是主机名、域名、ip或unix socket,也可以指定端口号。
parameters是可选参数,可以是如下参数:
down:表示当前server已停用
backup:表示当前server是备用服务器,只有其它非backup后端服务器都挂掉了或者很忙才会分配到请求。
weight:表示当前server负载权重,权重越大被请求几率越大。默认是1.
max_fails和fail_timeout一般会关联使用,如果某台server在fail_timeout时间内出现了max_fails次连接失败,那么Nginx会认为其已经挂掉了,从而在fail_timeout时间内不再去请求它,fail_timeout默认是10s,max_fails默认是1,即默认情况是只要发生错误就认为服务器挂掉了,如果将max_fails设置为0,则表示取消这项检查。
举例说明如下:
upstream backend {
server backend1.example.com weight=5;
server 127.0.0.1:8080 max_fails=3 fail_timeout=30s;
server unix:/tmp/backend3;
}
参考:
1、Nginx负载均衡配置实例详解:http://www.linuxidc.com/Linux/2015-07/120738.htm
2、Nginx深入详解之upstream分配方式 : http://blog.chinaunix.net/uid-664509-id-4082804.html
3、官方文档:http://nginx.org/en/docs/
(完)