codecamp

Linux LVS负载均衡集群

防伪码:出淤泥而不染,濯清涟而不妖

                   第五章 LVS负载均衡群集

前言:在各种互联网应用中,随着站点对硬件性能、相应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器将难以承担所有的访问,除了使用价格昂贵的大型机、专用负载分流设备以外,企业还有另外一种选择来解决难题,那就是构建集群服务器——通过整合多台相对廉价的普通服务器,以同一个地址对外提供相同的服务。本章我们将学习企业中常用的群集技术——LVS。

一、 群集技术概述

1、 群集的类型

1) 负载均衡群集:主要的功能将来自客户机的访问请求分流给多台服务器,从而缓单台服务器的负载压力,例如京东淘宝的购物节的时候,当天的并发量是分常大的,单台服务器是无法承载的。

2) 高可用群集:高可用群集和hsrp原理基本一样,服务器有主从之分,实现故障切换,当一台服务器发生故障的时候,另一台服务器马上提供工作。

3) 高性能运算群集:这种群集主要用在“云计算”中,就是将多台服务器的硬件整合到一起,实现高性能运算能力

2、 负载均衡的分层结构

第一层:负载调度器,是群集系统的唯一入口,对外使用所有服务器共有的虚拟ip地址,通常会配置主从两台调度器实现热备份,确保高可用性。

第二层:服务器池,也就是提供各种服务的服务器,例如web服务器,ftp服务器,数据库服务器等,处理调度器发来的请求。

第三层:共享存储,主要存储服务器池中应用程序的数据,一般会采用nas或者san设备,我们今天就使用NFS搭建一台nas服务器,工作中也可以购买硬件nas和san。

3、 负载均衡的工作模式

1) 地址转换,简称nat模式,负载均衡调度器作为网关,服务器和负载调度器在同一个私有网络,安全性较好。

2) Ip隧道,简称tun模式,负载调度器仅作为客户机的访问入口,各节点通过各自的internet连接直接回应客户机,不在经过负载调度器,服务器的节点分散在互联网的不同位置,具有独立的共有ip地址,通过专用的ip隧道与负载调度器相互通信。

3) 直接路由,简称DR模式,与TUN模式类似,但各节点不是分散在各地,而是与调度器位于同一个物理网络,负载调度器与各节点服务器通过本地网络连接,不需要建立专用的ip隧道。

以上三种模式中,nat方式只需要一个公网地址,从而成为最容易的一种负载均衡模式,安全性也比较好,许多硬件负载均衡设备就是采用这种方式,性比较而言,DR模式和TUN模式的负载能力更强大,使用范围更广,但节点的安全性要稍差一些。

 二、 LVS虚拟服务器

Lvs是linux内核的一部分,由我国的章文嵩博士在1998年创建,也是极少数由中国人开发的优秀软件之一,我们可以直接手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息,命令如下:


1、 lvs的负载调度算法

1) 轮询(rr):将受到的访问请求按顺序轮流分配给群集中的各节点,不管服务器的连接数和系统负载。

2) 加权轮询(wrr):也是轮流分配,但是可以调整权重,让处理性能强的服务器承担更多的访问流量。

3) 最少连接(lc):根据连接数分配,分配给连接数少的节点。

4) 加权最少连接(wlc):权重高的节点将承担更大比例的负载

2、 使用ipvsadm管理工具

Ipvsadm是在负载调度器上使用的lvs群集管理工具,通过调用ip_vs模块来添加、删除服务器节点。需要手动安装。

其它的命令接下来用一个综合实验给大家说明,这样思路比较清晰。

3、 NFS共享存储服务

NFS与我们之前讲过的openfiler、nas、san设备相似,都是属于存储设备,其实NFS就是一种nas存储。

我们在学习虚拟化的时候就使用过openfiler搭建过存储,其实在exsi上也可以使用NFS作为存储。

接下来用一个综合实验详细介绍安装和使用。

三、 综合案例:搭建LVS群集(NAT模式)

实验目标:搭建lvs群集,lvs负载调度器有两块网卡,是所有内部web服务器的网关服务器,需要为负载调度器配置SNAT,以便内部的服务器可以访问internet,所有的节点服务器、共享存储位于私有网络,网关指向负载调度器的192.168.7.254

实验步骤:

1、 搭建NFS服务器

1) 安装nfs-utils(用来发布共享和访问)和rpcbind(用于RPC支持)

2) 设置共享目录

将文件夹/opt/wwwroot共享给内部的web服务器节点使用,命令如下:

打开/etc/exports文件,在里面设置共享

rw:读写,sync:允许同步写入,no_root_squash:客户机以root身份访问时赋予本地root权限。

3) 启动NFS服务程序

4) 查看本机发布的NFS共享目录

5) 在web节点A上访问NFS共享资源

若要正常访问NFS共享资源,客户机中也需要安装rpcbind软件包,并启动服务器,如果想使用showmount查询共享,也需要安装nfs-utils软件包,总之和服务器一样都装上吧。

然后在NFS上面关闭防火墙

在web节点A上连接

可以看到/opt/wwwroot就说明连接成功了。

6)在两台节点服务器上安装nginx,并开启nginx服务

7)在NFS服务器的/opt/wwwroot里面制作网页index.html,然后到web节点A的/usr/local/nginx/html中查看,如果有index.html就说明挂载成功。

8)设置自动挂载

Vi  /etc/fstab(末行添加,如下所示)

注:文件系统类型为nfs、挂载参数_netdev(设备需要网络)

然后重启电脑,查看是否自动挂载

注意:在web节点B上做和web节点A相同的操作,这里就不截图说明了。

2、 配置负载调度器

1) 在调度器上安装ipvsadm软件包(通过调用ip_vs模块来添加,删除服务器节点,以及查看群集的运行状态)

2) 配置SNAT转发规则

首先开启路由转发

做一条SNAT策略

3) 配置负载分配策略,主要目的是把web节点添加到调度器里面

详解:

[root@yangwen ~]# service ipvsadm stop

创建虚拟服务器:

[root@yangwen ~]# ipvsadm -A -t 172.16.16.172:80 -s rr            //-A表示添加虚拟服务器,-t表示用来指定VIP地址及TCP端口

                                                                                                                -s表示负载调度算法类型,rr表示轮询

添加服务器节点:

[root@yangwen ~]# ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.21:80 -m -w 1            //-a表示添加真实服务器,-t同上,-r表示用来指定RIP地址及

                                                                                                                                                      TCP端口号,-m表示使用NAT群集模式(-g表示DR模式,-表示

                                                                                                                                                        TUN模式),-w表示设置权重(权重为0时表示暂停节点)

[root@yangwen ~]# ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.22:80 -m -w 1

保存:

[root@yangwen ~]# service ipvsadm save

3、 测试LVS群集

查看负载调度器

 注意:为了方便测试效果,web节点B的就不挂载NFS了,保持默认的nginx主页,然后在客户端上测试,访问两次,网页都不一样,实现了负载均衡群集。注意测试的时候把两台web节点的网关指向调度器,防火墙开启80端口或者关闭,然后把调度器的防火墙开启FORWARD和INPUT允许80端口。

在客户端上访问

客户端IP地址如下所示:

四、 综合案例:路由模式的负载均衡群集

LVS调度器只作为Web访问入口

Web访问出口由各节点服务器分别承担


实验步骤:

服务器节点采用双网卡,一块用于应答客户端请求,一块连接共享存储。

在实验中使简化为下面的环境:

注意web节点A有两块网卡,一块192.168.7.21,另一块172.16.16.177,web节点B有两块网卡,一块192.168.7.22,另一块172.16.16.178,

调度器一块网卡172.16.16.173,NFS一块网卡192.168.7.250,注意网卡的对应。

 

1、 配置调度器

1) 配置虚拟ip地址(vip)

执行:ifup  eth0:0并重启服务

2) 调整/proc响应参数

因为lvs负载调度器和各节点需要共用vip地址,应该关闭linux内核重定向参数响应,打开vi /etc/sysctl.conf,增加三行(防止ARP解析冲突)。

执行Sysctl  -p

3) 配置负载分配策略

2、 配置节点服务器

使用DR模式时,节点服务器也需要配置VIP地址,因为客户端请求的是群集IP地址,目标MAC地址是LVS的,节点服务器回应时应该以群集IP回应,否则客户端不能成功接收。还需要调整内核的ARP响应参数阻止更新VIP的MAC地址,因为客户端在发送ARP请求的时候IP地址是群集地址,这是所有的节点都配置了VIP,这时客户端的ARP缓存内就会出现多条重复的IP地址对应的MAC地址确不相同,这回导致客户端无法正确找到调度器。

1) 在节点B上配置虚拟ip地址

Vi  /etc/sysconfig/network-scripts/ifcfg-lo:0

添加vip本地访问路由

[root@yangwen ~]# vim /etc/rc.d/

/sbin/route add -host 172.16.16.172 dev lo:0            //永久生效

或者

[root@yangwen ~]# route add -host 172.16.16.172 dev lo:0            //临时生效

2) 调整/proc响应参数

vim /etc/sysctl.conf,添加6行

 

执行:sysctl  -p

然后再另一台节点A上做相同的操作,这里就不再截屏了,大家参考上面,如果不想去打一遍,可以使用scp命令拷贝节点B上面的文件。

3、 在客户端上测试,每次打开浏览器访问的页面在两台web服务器之间切换就对了。在实际工作中两个web节点上的网页要保持一致,这样就能始终访问一个相同的网站,从而能实现负载均衡。

客户端IP地址如下所示:

查看当前的负载分配情况:

 谢谢观看,真心的希望能帮到您!

本文出自 “一盏烛光” 博客,谢绝转载!

Linux 部署KVM虚拟化平台
Linux 构建LVS+Keepalived高可用群集
温馨提示
下载编程狮App,免费阅读超1000+编程语言教程
取消
确定
目录

关闭

MIP.setData({ 'pageTheme' : getCookie('pageTheme') || {'day':true, 'night':false}, 'pageFontSize' : getCookie('pageFontSize') || 20 }); MIP.watch('pageTheme', function(newValue){ setCookie('pageTheme', JSON.stringify(newValue)) }); MIP.watch('pageFontSize', function(newValue){ setCookie('pageFontSize', newValue) }); function setCookie(name, value){ var days = 1; var exp = new Date(); exp.setTime(exp.getTime() + days*24*60*60*1000); document.cookie = name + '=' + value + ';expires=' + exp.toUTCString(); } function getCookie(name){ var reg = new RegExp('(^| )' + name + '=([^;]*)(;|$)'); return document.cookie.match(reg) ? JSON.parse(document.cookie.match(reg)[2]) : null; }