Nginx的负载均衡利用upstream定义做事器组,后面随着组名,组名后面是大括号包起来的做事器列表,每个做事器利用server开头,后面跟定义的做事器名字、做事器ip:port、参数;一个基本的upstream模块如下:

upstream[做事器组名称]{  server[IP地址]:[端口号];  server[IP地址]:[端口号];  ....}

在upstream模块定义完成后,要让指定的访问反向代理到做事器列表,格式如下:

location~.${  indexindex.jspindex.html;  proxy_passhttp://[做事器组名称];}

apache负载均衡jspNginx系列负载平衡 React

0x02:SpringBoot项目准备

在进行Nginx负载均衡配置前,先搭建一个大略的后端运用项目:nginx-upstream

pom.xml文文件

<projectxmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0http://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><groupId>com.sentinel</groupId><artifactId>nginx-upstream</artifactId><version>0.0.1-SNAPSHOT</version><packaging>jar</packaging><parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>2.1.3.RELEASE</version><relativePath/><!--lookupparentfromrepository--></parent><name>nginx-upstream</name><url>http://maven.apache.org</url><properties><project.build.sourceEncoding>UTF-8</project.build.sourceEncoding><java.version>1.8</java.version></properties><dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency></dependencies><dependencyManagement><dependencies><dependency><groupId>org.springframework.cloud</groupId><artifactId>spring-cloud-dependencies</artifactId><version>Greenwich.SR3</version><type>pom</type><scope>import</scope></dependency></dependencies></dependencyManagement></project>掌握器controllerapplication.yml配置文件

server:port:8866#port:8867spring:application:name:nginx-upstreamSpringBoot启动类

packagecom.olive;importorg.springframework.boot.SpringApplication;importorg.springframework.boot.autoconfigure.SpringBootApplication;@SpringBootApplicationpublicclassApplication{publicstaticvoidmain(String[]args){SpringApplication.run(Application.class,args);}}

由于只有一台电脑,为了演示Nginx负载均衡,后文会通过修正application.yml配置文件的端口和掌握器controller的返回值来标识不同的运用做事器。

验证项目是否搭建成功

http://127.0.0.1:8866/getUser

http://127.0.0.1:8867/getUser

0x03:配置负载均衡

以下命令均在root用户下操作

进入Nginx的配置文件目录

cd/usr/local/nginx/conf/增加upstream模块配置

upstreammyserver{server192.168.56.1:8866;server192.168.56.1:8867;}

把稳在http模块添加upstream

upstream可以有多个,名称不同即可。

配置location转发规则

location/{#首页负载之后端做事器proxy_passhttp://myserver;#通过upstrean定义的做事器组名调用后端做事器proxy_set_headerX-Real-IP$remote_addr;#通报客户真个ip地址}

配置完成后可以利用如下命令启动Nginx

/usr/local/nginx/sbin/nginx-c\/usr/local/nginx/conf/nginx.conf

0x04:验证

利用命令ifconfig查下CentOS系统的ip地址

从上图可以看出CentOS和Windows的ip地址分别为

192.168.56.9#CentOS192.168.56.1 #Windows

访问http://192.168.56.9/getUser

返回涌现的结果是随意的,有可能访问192.168.56.1:8866,可有可能192.168.56.1:8867。

0x05: 知识扩展

 这样就完成了最基本的负载均衡,但是这并不能知足实际需求。
目前Nginx的upstream模块支持6种办法的负载均衡策略(算法):轮询(默认办法)、weight(权重办法)、ip_hash(依据ip分配办法)、least_conn(最少连接办法)、fair(第三方供应的相应韶光办法)、url_hash(第三方通过的依据URL分配办法)。

1)轮询

  最基本的配置方法,是upstream模块默认的负载均衡策略。
每个要求会按韶光顺序均匀分配到不同的后端做事器。
有如下参数:

fail_timeout: 与max_fails结合利用max_fails: 在fail_timeout参数设置的韶光内最大失落败次数。
如果在这个韶光内,所有该做事器的要求都失落败了,那么认为该做事器停机fail_time: 做事器被认为停机的时长,默认10s(被认为停机的做事器考试测验间隔?)backup: 标记该做事器为备用做事器。
当主理事器停滞时,要求会被发送到它这里down: 标记做事器永久停机

把稳:

down标记的做事器会自动剔除;缺省便是轮询;此策略适宜做事器配置无状态且短平块的做事利用

2)weight

权重办法,在轮询策略的根本上指定轮询的几率。
也可以认为是在轮询的根本上新增了一个weight的参数,此参数指定轮询的几率,值为number。
upstream模块配置模板如下:

upstream[做事器组名称]{  server[IP地址]:[端口号]weight=2;  server[IP地址]:[端口号];  ....}

在该例子中,没有weight参数的做事器默认为1,weight的数值与访问比例成正比,所有weight值的总和为一个循环单位,做事器自身的weight值为循环单位内的轮询次数。

把稳:

权重越高分配到的要求越多;此策略可以和least_conn策略、iphash策略结合利用;此策略比较适宜做事器硬件配置差距较大的情形。

3)ip_hash

  依据ip分配办法,指定负载均衡器按照基于客户端IP的分配办法,这个方法确保了相同的客户端要求同等发送到相同的做事器,以担保session会话。
这样每个访客都固定访问一个后端做事器,可以办理session不能跨做事器的问题。
upstream模块配置模板如下:

upstream[做事器组名称]{  ip_hash;  server[IP地址]:[端口号]weight=2;  server[IP地址]:[端口号];  ....}

把稳:

nginx1.3.1之前的版本不能在ip_hash中利用权重(weight);ip_hash不能与backup同时利用;此策略适宜有状态做事的程序,比如session;当有做事器须要剔除,必须手动down掉。

4)least_conn

  最少连接办法,把要求发给链接数最少的后端做事器。
轮询是把要求均匀分配给各个后端,使它们的负载大致相同。
但是,有些要求占用的韶光很长,会导致其所在的后端负载较高。
这种情形下,least_conn这种办法就可以达到更好的负载均衡效果。
upstream模块配置模板如下:

upstream[做事器组名称]{  least_conn;  server[IP地址]:[端口号]weight=2;  server[IP地址]:[端口号];  ....}

把稳:

此策略适宜要求处理韶光长短不一造成的做事器过载情形;

5)fair

  相应韶光办法,按照做事器真个相应韶光来分配要求,相应韶光短的优先分配。
upstream模块配置模板如下:

upstream[做事器组名称]{  server[IP地址]:[端口号]weight=2;  server[IP地址]:[端口号];  ....  fair;}

把稳:

须要安装第三方插件';

6)url_hash

  url分配办法,按访问url的hash结果来分配要求,使每个url定向到同一个后端做事器,要合营缓存命中来利用。
同一个资源多次要求可能会到达不同的做事器上,导致不必要的多次下载,缓存命中率不高,以及一些资源韶光的摧残浪费蹂躏。
而利用url_hash,可以使得同一个url(也便是同一个资源要求)会到达同一台做事器,一旦缓存住了资源,再次收到要求,就可以在缓存中读取。
upstream模块配置模板如下:

upstream[做事器组名称]{  hash$request_uri;  server[IP地址]:[端口号]weight=2;  server[IP地址]:[端口号];  ....}

把稳:

须要安装第三方插件;uri,是i,不是小写的L。