LVS+Keepalived实现高可用集群,lvskeepalived


一、LVS(Linux Virtual Server,即Linux虚拟服务器

1、概述

     LVS是一个虚机的服务器集群系统,它通过使用集群技术和Linux操作系统实现一个高性能、高可用的服务器,具有很好的可伸缩性、可靠性、可管理性。

2、原理

     LVS集群采用IP负载均衡技术和基于内容请求分发技术。调度器具有很好的吞吐率,将请求均衡地转移到不同的服务器上执行,且调度器自动屏蔽掉服务器的故障,从而将一组服务器构成一个高性能的、高可用的虚拟服务器。整个服务器集群的结构对客户是透明的,而且无需修改客户端和服务器端的程序。

3、架构

LVS集群采用三层结构,其主要组成部分为: A、负载调度器(load balancer),它是整个集群对外面的前端机,负责将客户的请求发送到一组服务器上执行,而客户认为服务是来自一个IP地址(我们可称之为虚拟IP地址)上的。 B、服务器池(server pool),是一组真正执行客户请求的服务器,执行的服务有WEB、MAIL、FTP和DNS等。 C、共享存储(shared storage),它为服务器池提供一个共享的存储区,这样很容易使得服务器池拥有相同的内容,提供相同的服务。

A) 负载调度器

调度器是服务器集群系统的唯一入口点(Single Entry Point),它可以采用IP负载均衡技术基于内容请求分发技术或者两者相结合。

IP负载均衡技术中,需要服务器池拥有相同的内容提供相同的服务。当客户请求到达时,调度器只根据服务器负载情况和设定的调度算法从服务器池中选出一个服务器,将该请求转发到选出的服务器,并记录这个调度;当这个请求的其他报文到达,也会被转发到前面选出的服务器。在LVS集群中有三种IP负载均衡技术VS/NAT、VS/TUN和VS/DR技术。VS/NAT技术(Virtual Server via Network Address Translation)是通过网络地址转换(Network Address Translation)将一组服务器构成一个高性能的、高可用的虚拟服务器;VS/TUN (Virtual Server via IP Tunneling)是通过IP隧道实现虚拟服务器的方法;VS/DR(Virtual Server via Direct Routing)是通过直接路由实现虚拟服务器的方法

基于内容请求分发技术中,服务器可以提供不同的服务,当客户请求到达时,调度器可根据请求的内容选择服务器执行请求。因为所有的操作都是在Linux操作系统核心空间中完成的,它的调度开销很小,所以它具有很高的吞吐率。服务器池的结点数目是可变的。当整个系统收到的负载超过目前所有结点的处理能力时,可以在服务器池中增加服务器来满足不断增长的请求负载。

B)服务器池

对大多数网络服务来说,请求间不存在很强的相关性,请求可以在不同的结点上并行执行,所以整个系统的性能基本上可以随着服务器池的结点数目增加而线性增长。

C)共享存储

共享存储通常是数据库、网络文件系统或者分布式文件系统。服务器结点需要动态更新的数据一般存储在数据库系统中,同时数据库会保证并发访问时数据的一致性。静态的数据可以存储在网络文件系统(如NFS/CIFS)中,但网络文件系统的伸缩能力有限,一般来说,NFS/CIFS服务器只能支持3~6个繁忙的服务器结点。对于规模较大的集群系统,可以考虑用分布式文件系统,如AFS、GFS、Coda和Intermezzo等。分布式文件系统可为各服务器提供共享的存储区,它们访问分布式文件系统就像访问本地文件系统一样,同时分布式文件系统可提供良好的伸缩性和可用性。

4、优缺点

优点: 1、开源,免费 2、在网上能找到一些相关技术资源 3、具有软件负载均衡的一些优点 缺点: 1、最核心的就是没有可靠的支持服务,没有人对其结果负责; 2、功能比较简单,支持复杂应用的负载均衡能力较差,如算法较少等; 3、开启隧道方式需重编译内核; 4、配置复杂; 5、主要应用于LINUX,目前没有专门用于WINDOWS的版本,不过可以通过配置,使windows成为LVS集群中的real server(win2003、win2008中)。     二、Keepalived 1、概述      Keepalived的作用是通过类似Layer3、4、7交换机制的软件来检测web服务器的状态,如果有一台web服务器死机,或工作出现故障,Keepalived将检测到,并将有故障的web服务器从系统中剔除,当web服务器工作正常后 Keepalived自动将web服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的web服务器。 2、工作原理 检测机制: Layer3(IP层):Keepalived使用Layer3的方式工作式时,Keepalived会定期向服务器群中的服务器发送一个ICMP的数据包(既我们平时用的Ping程序),如果发现某台服务的IP地址没有激活,Keepalived便报告这台服务器失效,并将它从服务器群中剔除,这种情况的典型例子是某台服务器被非法关机。Layer3的方式是以服务器的IP地址是否有效作为服务器工作正常与否的标准。 Layer4(TCP层):Layer4主要以TCP端口的状态来决定服务器工作正常与否。如web server的服务端口一般是80,如果Keepalived检测到80端口没有启动,则Keepalived将把这台服务器从服务器群中剔除。 Layer7(应用层):Layer7就是工作在具体的应用层了,比Layer3,Layer4要复杂一点,在网络上占用的带宽也要大一些。Keepalived将根据用户的设定检查服务器程序的运行是否正常,如果与用户的设定不相符,则Keepalived将把服务器从服务器群中剔除。 3、应用场景 主要用作RealServer的健康状态检查以及LoadBalance主机和BackUP主机之间failover的实现。 高可用web架构: LVS+keepalived+nginx+apache+php+eaccelerator(+nfs可选 可不选)   三、LVS+Keepalived实现高可用集群 IP配置信息:
  • LVS-DR-Master          192.168.2.166
  • LVS-DR-BACKUP          192.168.2.167
  • LVS-DR-VIP             192.168.2.170        
  • WEB1-Realserver        192.168.2.171
  • WEB2-Realserver        192.168.2.172
  • GateWay                192.168.2.253
    安装LVS和Keepalvied软件包
       
    1. 下载相关软件包
    #mkdir /usr/local/src/lvs
    #cd /usr/local/src/lvs
    #wget  http://www.linuxvirtualserver.org/software/kernel-2.6/ipvsadm-1.24.tar.gz
    #wget  http://www.keepalived.org/software/keepalived-1.1.15.tar.gz

    2. 安装LVS和Keepalived
  • #lsmod |grep ip_vs
  • #uname -r
  • 2.6.18-53.el5PAE
  • #ln -s /usr/src/kernels/2.6.18-53.el5PAE-i686/  /usr/src/linux

  • #tar zxvf ipvsadm-1.24.tar.gz
  • #cd ipvsadm-1.24
  • #make && make install
  • #find / -name ipvsadm  # 查看ipvsadm的位置

  • #tar zxvf keepalived-1.1.15.tar.gz
  • #cd keepalived-1.1.15
  • #./configure  && make && make install
  • #find / -name keepalived  # 查看keepalived位置               
  •    
  • #cp /usr/local/etc/rc.d/init.d/keepalived /etc/rc.d/init.d/
  • #cp /usr/local/etc/sysconfig/keepalived /etc/sysconfig/
  • #mkdir /etc/keepalived
  • #cp /usr/local/etc/keepalived/keepalived.conf /etc/keepalived/
  • #cp /usr/local/sbin/keepalived /usr/sbin/
  • #service keepalived start|stop     #做成系统启动服务方便管理.
    四. 配置LVS实现负载均衡

      1. LVS-DR,配置LVS脚本实现负载均衡

    vi /usr/local/sbin/lvs-dr.sh

    #!/bin/bash
    # description: start LVS of DirectorServer
    #Written by :NetSeek
    http://www.linuxtone.org
    GW=192.168.2.253

    # website director vip.
    WEB_VIP=192.168.2.170
    WEB_RIP1=192.168.2.171
    WEB_RIP2=192.168.2.172
    . /etc/rc.d/init.d/functions

    logger $0 called with $1

    case "$1" in

    start)
            # Clear all iptables rules.
            /sbin/iptables -F
            # Reset iptables counters.
            /sbin/iptables -Z
            # Clear all ipvsadm rules/services.
            /sbin/ipvsadm -C

    #set lvs vip for dr
            /sbin/ipvsadm --set 30 5 60
            /sbin/ifconfig eth0:0 $WEB_VIP broadcast $WEB_VIP netmask 255.255.255.255 up
            /sbin/route add -host $WEB_VIP dev eth0:0
            /sbin/ipvsadm -A -t $WEB_VIP:80 -s wrr -p 3
            /sbin/ipvsadm -a -t $WEB_VIP:80 -r $WEB_RIP1:80 -g -w 1
            /sbin/ipvsadm -a -t $WEB_VIP:80 -r $WEB_RIP2:80 -g -w 1
            touch /var/lock/subsys/ipvsadm >/dev/null 2>&1
            
            # set Arp
            /sbin/arping -I eth0 -c 5 -s $WEB_VIP $GW >/dev/null 2>&1
           ;;
    stop)
            /sbin/ipvsadm -C
            /sbin/ipvsadm -Z
            ifconfig eth0:0 down
            route del $WEB_VIP  >/dev/null 2>&1
            rm -rf /var/lock/subsys/ipvsadm >/dev/null 2>&1
            /sbin/arping -I eth0 -c 5 -s $WEB_VIP $GW
            echo "ipvsadm stoped"
           ;;

    status)

            if [ ! -e /var/lock/subsys/ipvsadm ];then
                    echo "ipvsadm is stoped"
                    exit 1
            else
                    ipvsadm -ln
                    echo "..........ipvsadm is OK."
            fi
          ;;

    *)
            echo "Usage: $0 {start|stop|status}"
            exit 1
    esac

    exit 0
    2. 配置Realserver脚本.

    #!/bin/bash
    # Written by NetSeek
    # description: Config realserver lo and apply noarp
    WEB_VIP=192.168.2.170

    . /etc/rc.d/init.d/functions

    case "$1" in
    start)
           ifconfig lo:0 $WEB_VIP netmask 255.255.255.255 broadcast $WEB_VIP
           /sbin/route add -host $WEB_VIP dev lo:0
           echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
           echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
           echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
           echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
           sysctl -p >/dev/null 2>&1
           echo "RealServer Start OK"

           ;;
    stop)
           ifconfig lo:0 down
           route del $WEB_VIP >/dev/null 2>&1
           echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore
           echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce
           echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore
           echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce
           echo "RealServer Stoped"
           ;;
    status)
            # Status of LVS-DR real server.
            islothere=`/sbin/ifconfig lo:0 | grep $WEB_VIP`
            isrothere=`netstat -rn | grep "lo:0" | grep $web_VIP`
            if [ ! "$islothere" -o ! "isrothere" ];then
                # Either the route or the lo:0 device
                # not found.
                echo "LVS-DR real server Stopped."
            else
                echo "LVS-DR Running."
            fi
    ;;
    *)
            # Invalid entry.
            echo "$0: Usage: $0 {start|status|stop}"
            exit 1
    ;;
    esac
    exit 0

    附上realserver机上的/etc/sysctl.conf:

    # Kernel sysctl configuration file for Red Hat Linux
    #
    # For binary values, 0 is disabled, 1 is enabled.  See sysctl(8) and
    # sysctl.conf(5) for more details.
    # Controls IP packet forwarding
    net.ipv4.ip_forward = 1
    # Controls source route verification
    net.ipv4.conf.default.rp_filter = 1
    # Do not accept source routing
    net.ipv4.conf.default.accept_source_route = 0
    # Controls the System Request debugging functionality of the kernel
    kernel.sysrq = 0
    # Controls whether core dumps will append the PID to the core filename.
    # Useful for debugging multi-threaded applications.
    kernel.core_uses_pid = 1
    net.ipv4.conf.lo.arp_ignore = 1
    net.ipv4.conf.lo.arp_announce = 2
    net.ipv4.conf.all.arp_ignore = 1
    net.ipv4.conf.all.arp_announce = 2
    或者采用secondary ip address方式配置
    # vi /etc/sysctl.conf

    添加以下内容如上所示:

    net.ipv4.conf.lo.arp_ignore = 1
    net.ipv4.conf.lo.arp_announce = 2
    net.ipv4.conf.all.arp_ignore = 1
    net.ipv4.conf.all.arp_announce = 2
    #sysctl –p
    #ip addr add 61.164.122.8/32 dev lo
    #ip add list 查看是否绑定
    3. 启动lvs-dr脚本和realserver启本,在DR上可以查看LVS当前状态:
    #watch ipvsadm –ln

    五.利用Keepalvied实现负载均衡和和高可用性

    1.配置在主负载均衡服务器上配置keepalived.conf
    #vi /etc/keepalived/keepalived.conf (主调度器)
    ! Configuration File for keepalived
    global_defs {
       notification_email {
         
    acassen@firewall.loc
         
    failover@firewall.loc
         
    sysadmin@firewall.loc
       }
       notification_email_from
    Alexandre.Cassen@firewall.loc
       smtp_server 127.0.0.1
       smtp_connect_timeout 30
       router_id LVS_DEVEL
    }
    vrrp_instance VI_1 {
        state MASTER
        interface eth0
        virtual_router_id 51
        priority 100
        advert_int 1
        authentication {
            auth_type PASS
            auth_pass 1111
        }
        virtual_ipaddress {
            192.168.2.170
        }
    }
    virtual_server 192.168.2.170 80 {
        delay_loop 6
        lb_algo wrr
        lb_kind DR
        persistence_timeout 60
        protocol TCP
       
        real_server 192.168.2.171 80 {
            weight 3            
            TCP_CHECK {
            connect_timeout 10   
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
    }
        }
        real_server 192.168.2.172 80 {
            weight 3
            TCP_CHECK {
            connect_timeout 10
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
            }
         }
    }

    在备用调度器上:
    #vi /etc/keepalived/keepalived.conf (备用调度器)
    ! Configuration File for keepalived
    global_defs {
       notification_email {
         
    acassen@firewall.loc
         
    failover@firewall.loc
         
    sysadmin@firewall.loc
       }
       notification_email_from
    Alexandre.Cassen@firewall.loc
       smtp_server 127.0.0.1
       smtp_connect_timeout 30
       router_id LVS_DEVEL
    }
    vrrp_instance VI_1 {
        state BACKUP
        interface eth0
        virtual_router_id 51
        priority 99
        advert_int 1
        authentication {
            auth_type PASS
            auth_pass 1111
        }
        virtual_ipaddress {
            192.168.2.170
        }
    }
    virtual_server 192.168.2.170 80 {
        delay_loop 6
        lb_algo wrr
        lb_kind DR
        persistence_timeout 60
        protocol TCP
       
        real_server 192.168.2.171 80 {
            weight 3            
            TCP_CHECK {
            connect_timeout 10   
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
    }
        }
        real_server 192.168.2.172 80 {
            weight 3
            TCP_CHECK {
            connect_timeout 10
            nb_get_retry 3
            delay_before_retry 3
            connect_port 80
            }
         }
    }

    2. BACKUP服务器同上配置,先安装lvs再按装keepalived,仍后配置/etc/keepalived/keepalived.conf,只需将红色标示的部分改一下即可.
    3. vi /etc/rc.local
       #/usr/local/sbin/lvs-dr.sh  将lvs-dr.sh这个脚本注释掉。
       #/usr/local/sbin/lvs-dr.sh stop 停止lvs-dr脚本

       #/etc/init.d/keepalived start  启动keepalived 服务,keepalived就能利用keepalived.conf 配
       置文件,实现负载均衡和高可用.
    4. 查看lvs服务是否正常
      
    #watch ipvsadm –ln
    IP Virtual Server version 1.2.1 (size=4096)
    Prot LocalAddressort Scheduler Flags
      -> RemoteAddressort           Forward Weight ActiveConn InActConn
    TCP  61.164.122.8:80 wrr persistent 60
      -> 61.164.122.10:80            Route   3      0          0
      -> 61.164.122.9:80             Route   3      0          0
    复制代码
    #tail –f /var/log/message  监听日志,查看状态,测试LVS负载均衡及高可用性是否有效。
    5.停Master服务器的keepalived服务,查看BAKCUP服务器是否能正常接管服务。
  •  

    参考 http://linux.chinaunix.net/techdoc/net/2009/07/21/1125256.shtml

     

    相关内容