RJ博客

单机模拟nginx负载均衡配置

本文目录

负载均衡,单从字面上的意思来理解就可以解释N台服务器平均分担负载,不会因为某台服务器负载高宕机和某台服务器闲置的情况。那么负载均衡的前提就是要2台以上服务器才能实现。

由于没有服务器,所以本次测试直接host指定域名,服务器不够,我们用nodejs监听了三个端口(8881,8882,8888)来模拟多台服务器。nginx监听80端口作为主服务器。

创建文件如下:

server1.js

var http = require('http');

http.createServer(function (request, response) {

    response.writeHead(200, {'Content-Type': 'text/plain'});
    response.end('server 8881');

}).listen(8881);

// 终端打印如下信息
console.log('Server running at http://127.0.0.1:8881/');

server2.js

var http = require('http');

http.createServer(function (request, response) {

    response.writeHead(200, {'Content-Type': 'text/plain'});
    response.end('server 8882');

}).listen(8882);

// 终端打印如下信息
console.log('Server running at http://127.0.0.1:8882');

server3.js

var http = require('http');

http.createServer(function (request, response) {

    response.writeHead(200, {'Content-Type': 'text/plain'});
    response.end('server 8888');

}).listen(8888);

// 终端打印如下信息
console.log('Server running at http://127.0.0.1:8888/');

然后分别用nodejs启动:

node server1.js
node server2.js
node server3.js

测试域名:load-balance.com

A服务器监听80端口(主)
B服务器监听8881端口(从)
C服务器监听8882端口(从)
D服务器监听8888端口(从)

A服务器做为主服务器,域名直接解析到A服务器( 127.0.0.1:80)上,由A服务器负载均衡到B服务器( 127.0.0.1:8881)、C服务器( 127.0.0.1:8882)和D服务器( 127.0.0.1:8888)上。

A服务器nginx.conf设置打开nginx.conf,文件位置在nginx安装目录的conf目录下。在http段加入以下代码

upstream load-balance.com {
      server 127.0.0.1:8881;
      server 127.0.0.1:8882;
      server 127.0.0.1:8888;
}

server{ 
    listen 80; 
    server_name load-balance.com; 
    location / { 
        proxy_pass         http://load-balance.com; 
        proxy_set_header   Host             $host; 
        proxy_set_header   X-Real-IP        $remote_addr; 
        proxy_set_header   X-Forwarded-For  $proxy_add_x_forwarded_for; 
    } 
}

本机host绑定:

127.0.0.1  load-balance.com;

保存重启nginx即可完成负载均衡

我们把域名解析到A服务器,然后由A服务器转发到B服务器C服务器与D服务器,那么A服务器只做一个转发功能,现在我们让A服务器也提供站点服务。
如果添加主服务器到upstream中,那么可能会有以下两种情况发生:
1、主服务器转发到了其它IP上,其它IP服务器正常处理;
2、主服务器转发到了自己IP上,然后又进到主服务器分配IP那里,假如一直分配到本机,则会造成一个死循环。
怎么解决这个问题呢?因为80端口已经用来监听负载均衡的处理,那么本服务器上就不能再使用80端口来处理load-balance.com的访问请求,必须重新监听一个新的端口。于是我们把主服务器的nginx.conf加入以下一段代码:

server {
    listen       8000;
    server_name  load-balance.com;
    location / {
        root   html;
        index  index.html index.htm;
    }
}

把主服务器添加到upstream中

upstream load-balance.com {
        server 127.0.0.1:8881;
        server 127.0.0.1:8882;
        server 127.0.0.1:8888;
        server 127.0.0.1:8000;
    }

到这里我们就完成了把主服务器也加入到了负载均衡中。


nginx负载均衡的5种策略

1、轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

upstream backserver {    
    server 192.168.0.14;
    server 192.168.0.15;
}

2、weight

指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的 
情况。

upstream backserver {
    server 192.168.0.14 weight=3;
    server 192.168.0.15 weight=7;
}

权重越高,在被访问的概率越大,如上例,分别是30%,70%。

3、ip_hash

上述方式存在一个问题就是说,在负载均衡系统中,假如用户在某台服务器上登录了,那么该用户第二次请求的时候,因为我们是负载均衡系统,每次请求都会重新定位到服务器集群中的某一个,那么已经登录某一个服务器的用户再重新定位到另一个服务器,其登录信息将会丢失,这样显然是不妥的
我们可以采用ip_hash指令解决这个问题,如果客户已经访问了某个服务器,当用户再次访问时,会将该请求通过哈希算法,自动定位到该服务器
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题

upstream backserver {
    ip_hash;
    server 192.168.0.14:88;
    server 192.168.0.15:80;
}

4、fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream backserver {
    server server1;
    server server2;
    fair;
}

5、url_hash(第三方)

按访问url的hash结果来分配请求,使每个url定向到同一个(对应的)后端服务器,后端服务器为缓存时比较有效。

upstream backserver {
    server squid1:3128;
    server squid2:3128;
    hash $request_uri;
    hash_method crc32;
}

在需要使用负载均衡的server中增加

upstream backserver{ 
    ip_hash; 
    server 127.0.0.1:9090 down; (down 表示单前的server暂时不参与负载) 
    server 127.0.0.1:8080 weight=2; (weight 默认为1.weight越大,负载的权重就越大) 
    server 127.0.0.1:6060; 
    server 127.0.0.1:7070 backup; (其它所有的非backup机器down或者忙的时候,请求backup机器) 
}

配置实例:

#user  nobody;worker_processes  4;
events {# 最大并发数worker_connections  1024;
}
http{    # 待选服务器列表
    upstream myproject{        # ip_hash指令,将同一用户引入同一服务器。
        ip_hash;
        server 125.219.42.4 fail_timeout=60s;
        server 172.31.2.183;
    }

    server{        # 监听端口
        listen 80;        # 根目录下
        location / {        # 选择哪个服务器列表
            proxy_pass http://myproject;
        }

    }
}

weight=1; (weight 默认为1.weight越大,负载的权重就越大)
down; (down 表示单前的server暂时不参与负载)
backup; (其它所有的非backup机器down或者忙的时候,请求backup机器)
max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误
fail_timeout: max_fails次失败后,暂停的时间


Refer:

https://www.jianshu.com/p/ac8956f79206

https://segmentfault.com/a/1190000014483200

https://www.jianshu.com/p/4af1940bd251

https://blog.51cto.com/825536458/1784794  两台服务器做nginx负载均衡

相关推荐

发表评论