Linux集群架构

目录

 

一、Linux集群概述

二、keepalived介绍

三、用keepalived配置高可用集群

四、负载均衡集群介绍

五、LVS介绍

六、 LVS调度算法

七、LVS NAT模式搭建

扩展


一、Linux集群概述

根据功能划分为两大类:高可用和负载均衡
 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务
 实现高可用的开源软件有:heartbeat、keepalived
 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2
 实现负载均衡的开源软件有LVS、keepalived、haproxy、nginx,商业的有F5、Netscaler

 


二、keepalived介绍

在这里我们使用keepalived来实现高可用集群,因为heartbeat在centos6上有一些问题,影响实验效果
keepalived通过VRRP(Virtual Router Redundancy Protocl)来实现高可用。
在这个协议里会将多台功能相同的路由器组成一个小组,这个小组里会有1个master角色和N(N>=1)个backup角色。
master会通过组播的形式向各个backup发送VRRP协议的数据包,当backup收不到master发来的VRRP数据包时,就会认为master宕机了。此时就需要根据各个backup的优先级来决定谁成为新的master。
Keepalived要有三个模块,分别是core、check和vrrp。其中core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析,check模块负责健康检查,vrrp模块是来实现VRRP协议的。

 

 


三、用keepalived配置高可用集群

准备两台机器,分别作为master和backup
在两台机器上都安装keepalived:yum install -y keepalived
使用Nginx测试高可用集群(在实际工作者nginx常作为负载均衡器,它是不允许出现单点错误),在两台机器上都安装nginx。
修改master主机上的keepalived配置文件:vim /etc/keepalived/keepalived.conf    
写入一下内容覆盖原配置,参考:https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_keepalived.conf
global_defs {

   notification_email {

#告警邮箱

     [email protected]                    

   }

   notification_email_from [email protected]

   smtp_server 127.0.0.1

   smtp_connect_timeout 30

   router_id LVS_DEVEL

}


vrrp_script chk_nginx {

   #检查服务的检测脚本

 script "/usr/local/sbin/check_ng.sh"         

    interval 3

}


vrrp_instance VI_1 {

    #担任的角色

state MASTER                           

    interface ens33

    virtual_router_id 51

      #权重

    priority 100                               

    advert_int 1

    authentication {

         #认证形式:密码形式

        auth_type PASS

                #定义密码  

        auth_pass aminglinux>com       

    }

    virtual_ipaddress {

        #虚拟ip

        192.168.157.100                              

    }


    track_script {

        chk_nginx

    }


}


在master主机上编辑监控nginx脚本,并写入一下内容:vim /usr/local/sbin/check_ng.sh        
参考网址:https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_check_ng.sh
#!/bin/bash

#时间变量,用于记录日志

d=`date --date today +%Y%m%d_%H:%M:%S`

#计算nginx进程数量

n=`ps -C nginx --no-heading|wc -l`

#如果进程为0,则启动nginx,并且再次检测nginx进程数量,

#如果还为0,说明nginx无法启动,此时需要关闭keepalived

if [ $n -eq "0" ]; then

        /etc/init.d/nginx start

        n2=`ps -C nginx --no-heading|wc -l`

        if [ $n2 -eq "0"  ]; then

                echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log

                systemctl stop keepalived

        fi

fi


修改脚本权限:chmod 755 /usr/local/sbin/check_ng.sh
启动keepalived服务:systemctl start keepalived
此时关闭master上的nginx服务,系统会再次启动nginx服务
keepalived的相关日志:/var/log/messges
使用命令ip add 可以查看keepalived中配置的虚拟ip:
Linux集群架构

在配置backup前,关闭两台机器上的防火墙和SElinux
修改backup主机上的keepalived配置文件:vim /etc/keepalived/keepalived.conf
写入一下内容覆盖原配置,参考:https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/backup_keepalived.conf
global_defs {

   notification_email {

     [email protected]

   }

   notification_email_from [email protected]

   smtp_server 127.0.0.1

   smtp_connect_timeout 30

   router_id LVS_DEVEL

}


vrrp_script chk_nginx {

    script "/usr/local/sbin/check_ng.sh"

    interval 3

}


vrrp_instance VI_1 {

    state BACKUP

    interface ens33

    virtual_router_id 51                  需要与master一直

    priority 90                                 比master权重低

    advert_int 1

    authentication {

        auth_type PASS

        auth_pass aminglinux>com

    }

    virtual_ipaddress {

        192.168.157.100                   需要与master一直

    }


    track_script {

        chk_nginx

    }


}


在backup主机上编辑监控nginx脚本,并写入一下内容:vim /usr/local/sbin/check_ng.sh        
参考网址:https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/backup_check_ng.sh
#!/bin/bash

#时间变量,用于记录日志

d=`date --date today +%Y%m%d_%H:%M:%S`

#计算nginx进程数量

n=`ps -C nginx --no-heading|wc -l`

#如果进程为0,则启动nginx,并且再次检测nginx进程数量,

#如果还为0,说明nginx无法启动,此时需要关闭keepalived

if [ $n -eq "0" ]; then

#yum安装使用systemctl,编译安装使用/etc/init.d/nginx

        /etc/init.d/nginx start

        n2=`ps -C nginx --no-heading|wc -l`

        if [ $n2 -eq "0"  ]; then

                echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log

                systemctl stop keepalived

        fi

fi


backup上修改脚本权限:chmod 755 /usr/local/sbin/check_ng.sh
backup上启动服务: systemctl start keepalived
测试keepalived服务
在游览器远程访问:192.168.157.100   显示在master主机上
Linux集群架构

  • 模拟宕机,关闭master主机上的keepalived服务:systemctl stop keepalived
  • 在游览器远程访问:192.168.15100   显示已经切换到backup上

Linux集群架构

  • 再次启动master主机上的keepalived服务,游览器访问192.16157.100,再次回到master主机上。(因为master设置的权重比backup高)

Linux集群架构

 

 

 

四、负载均衡集群介绍

主流开源软件LVS、keepalived、haproxy、nginx等
 其中LVS属于4层(网络OSI 7层模型),nginx属于7层,haproxy既可以认为是4层,也可以当做7层使用
 keepalived的负载均衡功能其实就是lvs
 lvs这种4层的负载均衡是可以分发除80外的其他端口通信的,比如MySQL的,而nginx仅仅支持http,https,mail,haproxy也支持MySQL这种
 相比较来说,LVS这种4层的更稳定,能承受更多的请求,而nginx这种7层的更加灵活,能实现更多的个性化需求

 

 

 

五、LVS介绍

 LVS是由国人章文嵩开发
 流行度不亚于apache的httpd,基于TCP/IP做的路由和转发,稳定性和效率很高
 LVS最新版本基于Linux内核2.6,有好多年不更新了
 LVS有三种常见的模式:NAT、DR、IP Tunnel
 LVS架构中有一个核心角色叫做分发器(Load balance),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称rs)
LVS NAT模式
这种模式借助iptables的nat表来实现,
用户的请求到分发器后,通过预设的iptables规则,把请求的数据包转发到后端的rs上去,
rs需要设定网关为分发器的内网ip。
用户请求的数据包和返回给用户的数据包全部经过分发器,所以分发器成为瓶颈,在nat模式中,只需要分发器有公网ip即可,所以比较节省公网ip资源

Linux集群架构

LVS IP Tunnel模式
这种模式,需要有一个公共的IP配置在分发器和所有rs上,我们把它叫做vip
客户端请求的目标IP为vip,分发器接收到请求数据包后,会对数据包做一个加工,会把目标IP改为rs的IP,这样数据包就到了rs上
rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己
Linux集群架构

LVS DR模式
这种模式,也需要有一个公共的IP配置在分发器和所有rs上,也就是vip
和IP Tunnel不同的是,它会把数据包的MAC地址修改为rs的MAC地址
rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己

Linux集群架构

 

 

 

六、 LVS调度算法

轮询 Round-Robin  rr :调度器通过"轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。     
 加权轮询 Weight Round-Robin wrr :调度器通过"加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
 最小连接 Least-Connection lc:调度器通过"最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好地均衡负载。
 加权最小连接 Weight Least-Connection wlc :在集群系统中的服务器性能差异较大的情况下,调度器采用"加权最少链接"调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
 基于局部性的最小链接 Locality-Based Least Connections lblc :"基于局部性的最少链接" 调度算法是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。该算法根据请求的目标IP地址找出该目标IP地址最近使用的服务器,若该服务器 是可用的且没有超载,将请求发送到该服务器;若服务器不存在,或者该服务器超载且有服务器处于一半的工作负载,则用"最少链接"的原则选出一个可用的服务 器,将请求发送到该服务器。
 带复制的基于局部性最小链接 Locality-Based Least Connections with Replication  lblcr :"带复制的基于局部性最少链接"调度算法也是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。它与LBLC算法的不同之处是它要维护从一个 目标IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP地址到一台服务器的映射。该算法根据请求的目标IP地址找出该目标IP地址对应的服务 器组,按"最小连接"原则从服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器,若服务器超载;则按"最小连接"原则从这个集群中选出一 台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的 程度。
 目标地址散列调度 Destination Hashing dh :"目标地址散列"调度算法根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
 源地址散列调度 Source Hashing  sh :"源地址散列"调度算法根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。

 

 

七、LVS NAT模式搭建

实验环境,设置三台虚拟机
分发器,也叫调度器(简写为dir)内网:192.168.157.128(仅主机),外网:192.168.88.88
lvs-rs1  内网:192.168.157.130(仅主机),设置网关(分发器的内网IP):192.168.157.128
lvs-rs2  内网:192.168.157.129(仅主机),设置网关(分发器的内网IP):192.168.157.128
分别关闭三台主机上的firewalld和selinux,并开启iptables
关闭firewalld:systemctl stop firewalld
禁止开启启动firewalld:systemctl disable firewalld
开启iptables:systemctl start  iptables
开机启动iptables:systemctl enable iptables
清空iptables规则:iptables -F
保存iptables规则:service iptables save
关闭selinux:setenforce 0
在分发器dir上安装ipvsdam:yum install -y ipvsadm
在分发器dir上编写脚本,vim /usr/local/sbin/lvs_nat.sh 内容如下
#! /bin/bash

# director 服务器上开启路由转发功能

echo 1 > /proc/sys/net/ipv4/ip_forward

# 关闭icmp的重定向

echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects

echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects

# 注意区分网卡名字,阿铭的两个网卡分别为ens33和ens37

echo 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects

echo 0 > /proc/sys/net/ipv4/conf/ens37/send_redirects

# director 设置nat防火墙

iptables -t nat -F

iptables -t nat -X

iptables -t nat -A POSTROUTING -s 192.168.157.0/24  -j MASQUERADE

# director设置ipvsadm

IPVSADM='/usr/sbin/ipvsadm'

$IPVSADM -C

#选项-s选择算法,选项-p持续分发时间参数不能为0

$IPVSADM -A -t 192.168.88.88:80 -s rr -p 3

#选项-m模式nat,选项-w权重

$IPVSADM -a -t 192.168.88.88:80 -r 192.168.157.130:80 -m -w 1

$IPVSADM -a -t 192.168.88.88:80 -r 192.168.157.129:80 -m -w 1

修改脚本权限:chmod 755 /usr/local/sbin/lvs_nat.sh
启动ipvsadm脚本:sh /usr/local/sbin/lvs_nat.sh
查看ipvsadm当前策略:ipvsadm -l
Linux集群架构

  • 测试(算法为rr,轮询模式):结果依次访问两个sr服务器

Linux集群架构

  • 测试(算法为wrr,加权轮询 ):结果访问两次sr1(权重设置为2)后访问一次sr2(权重设置为1)

Linux集群架构

 

 

扩展

2 高可用架构的意义

3 Keepalived的实现原理
VRRP协议
https://blog.csdn.net/u013920085/article/details/21184143

4 LVS 三种模式图解
http://blog.51cto.com/jiekeyang/1839583

5 fullnat模式
https://ieevee.com/tech/2015/12/08/fullnat.html