Day3 SLB负载均衡实践

本文涉及的产品
传统型负载均衡 CLB,每月750个小时 15LCU
应用型负载均衡 ALB,每月750个小时 15LCU
网络型负载均衡 NLB,每月750个小时 15LCU
简介: 使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,解决服务器响应速度慢的问题。

一、主要内容

使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,解决服务器响应速度慢的问题。

1、配置负载均衡SLB的监听规则,并将ECS实例部署到SLB后端;

2、通过设置负载均衡SLB后端服务器ECS的权重值,分配用户访问后端ECS实例的比例。

实验的主要结构:

image-20200925181302091.png

二、背景介绍

在高并发的情况下,经常服务器响应速度慢,严重会导致服务器停止服务,导致业务中断,影响客户的正常访问。

负载均衡(Server Load Balancer)

1)负载均衡服务通过设置虚拟服务地址(IP),将位于同一地域(Region)的多台云服务器(Elastic Compute Service,简称ECS)资源虚拟成一个高性能、高可用的应用服务池;根据应用指定的方式,将来自客户端的网络请求分发到云服务器池中。

2)负载均衡服务会检查云服务器池中ECS的健康状态,自动隔离异常状态的ECS,从而解决了单台ECS的单点问题,同时提高了应用的整体服务能力。在标准的负载均衡功能之外,负载均衡服务还具备TCP与HTTP抗DDoS攻击的特性,增强了应用服务器的防护能力。

3)负载均衡服务是ECS面向多机方案的一个配套服务,需要同ECS结合使用。

三个核心概念

负载均衡实例(Server Load Balancer instances)

一个负载均衡实例是一个运行的负载均衡服务,用来接收流量并将其分配给后端服务器。要使用负载均衡服务,必须创建一个负载均衡实例,并至少添加一个监听和两台ECS实例。

监听(Listeners)

监听用来检查客户端请求并将请求转发给后端服务器。监听也会对后端服务器进行健康检查。

后端服务器(Backend Servers)

一组接收前端请求的ECS实例。您可以单独添加ECS实例到服务器池,也可以通过虚拟服务器组或主备服务器组来批量添加和管理。

相关架构

image-20200925181937560.png

负载均衡优势

高可用:采用全冗余设计,无单点,支持同城容灾。搭配DNS可实现跨地域容灾,可用性高达99.95%。

可扩展:可以根据业务的需要,随时增加或减少后端服务器的数量,扩展应用的服务能力。

低成本:与传统硬件负载均衡系统高投入相比,成本可下降60%。

安全:结合云盾,可提供5Gbps的防DDOS攻击能力。

三、实验步骤

1、使用两台(或者多台ECS)

部署一致的应用,这里为了测试,可以在网页上标注服务器地址,来进行测试。

2、负载均衡配置

将两台服务器挂载到负载均衡的后端,这样只需访问一个IP地址或域名,负载均衡服务器将会根据权重自动转发用户请求到相应的后端服务器上。

首先查看阿里云负载均衡控制台,点击左侧导航栏的产品与服务,在弹性计算条目下选择负载均衡,然后点击实例管理,点我开始配置。

image-20200925182720546.png

通过负载均衡业务配置向导,配置负载均衡的监听端口后端服务器健康检查

1)在协议&监听页面,设置负载均衡协议HTTP,监听端口80,其他不变,点击下一步。

image-20200925182917841.png

2)在后端服务器页面,监听请求转发至默认服务器组,然后添加服务器,端口都设置为80(对应的服务端口)。

image-20200925183120768.png

3)在健康检查配置中,开启健康检查按钮为绿色,下一步。

4)配置审核页面,确认上述配置,提交,然后点击知道了。

image-20200925183445525.png

5)此时,页面将显示一个状态为运行中的负载均衡监听实例,后端服务器组已添加完成两台ECS服务器,通常等待1分钟左右健康检查状态也变为正常。

3、负载均衡验证

主要内容:

验证负载均衡的工作原理;

验证通过配置不同后端服务器权重,将用户的请求按比例分发到不同后端服务器;

验证在一台后端服务器开启会话请求时,请求在会话开启的时间内只会分发到这一台服务器。

1)在实例管理界面获得负载均衡的服务地址,然后访问,界面显示的地址为内网地址,这是因为负载均衡访问后端ECS实例,是通过内网访问的。
image-20200925184113464.png
image-20200925184144289.png
刷新浏览页面,显示的后端服务器IP将发生变化,重复刷新操作,观察后端服务器IP是在两个云服务器的内网地址间轮流更换。以上结果证明:负载均衡会将用户的请求发送到后端不同的服务器进行处理。这样,可以减轻单台服务器的负载压力,从而确保业务的持续性。

2)修改后端服务器权重,验证负载均衡向后端服务器发送请求的比例是按照权重的比例调整的。

image-20200925184450839.png

设置后,大概1/3的用户请求发送到一台后端服务器中,2/3的请求发送到另一台后端服务器中。

用户可以根据实际情况调整负载均衡器的请求分发,一般将配置高的服务器设置的权重调高,配置较低的服务器设置的权重调低。这样可以避免在高并发时,配置较低的服务器因为压力较大服务异常的发生。

3)开启负载均衡的会话保持功能。

选择监听栏,监听页面点击右侧的修改监听配置。

image-20200925184723540.png

image-20200925184830064.png

开启会话保持,超时时间输入180;完成后点击 下一步
image-20200925184907943.png

下面的后端服务器、健康检查和配置审核页面都采用默认值 ,依次完成配置。

再次在浏览器中输入负载均衡的IP地址,多次刷新,发现在会话保持的超时时间内请求只会分发到某一台 ECS 上,时间超出后,重新按照权重比例分发。

如果我们关闭开启会话保持的那台ECS ,也就是模拟宕机,会发现能自动切换到另一台ECS。

结果证明,当某一台 ECS 出现异常后,负载均衡会自动将请求发送到健康检查状态正常的 ECS 上。

相关实践学习
SLB负载均衡实践
本场景通过使用阿里云负载均衡 SLB 以及对负载均衡 SLB 后端服务器 ECS 的权重进行修改,快速解决服务器响应速度慢的问题
负载均衡入门与产品使用指南
负载均衡(Server Load Balancer)是对多台云服务器进行流量分发的负载均衡服务,可以通过流量分发扩展应用系统对外的服务能力,通过消除单点故障提升应用系统的可用性。 本课程主要介绍负载均衡的相关技术以及阿里云负载均衡产品的使用方法。
目录
相关文章
|
10天前
|
负载均衡 网络协议 Unix
Nginx负载均衡与故障转移实践
Nginx通过ngx_http_upstream_module模块实现负载均衡与故障转移,适用于多服务器环境。利用`upstream`与`server`指令定义后端服务器组,通过`proxy_pass`将请求代理至这些服务器,实现请求分发。Nginx还提供了多种负载均衡策略,如轮询、权重分配、IP哈希等,并支持自定义故障转移逻辑,确保系统稳定性和高可用性。示例配置展示了如何定义负载均衡设备及状态,并应用到具体server配置中。
|
28天前
|
消息中间件 负载均衡 Kafka
Kafka 实现负载均衡与故障转移:深入分析 Kafka 的架构特点与实践
【8月更文挑战第24天】Apache Kafka是一款专为实时数据处理和流传输设计的高性能消息系统。其核心设计注重高吞吐量、低延迟与可扩展性,并具备出色的容错能力。Kafka采用分布式日志概念,通过数据分区及副本机制确保数据可靠性和持久性。系统包含Producer(消息生产者)、Consumer(消息消费者)和Broker(消息服务器)三大组件。Kafka利用独特的分区机制实现负载均衡,每个Topic可以被划分为多个分区,每个分区可以被复制到多个Broker上,确保数据的高可用性和可靠性。
39 2
|
26天前
|
负载均衡
alb负载均衡按量降价了,资源包抵扣已经比按量付费的贵了,结果还是在走资源包抵扣。
ALB实例按量付费已降价,1万LCU资源包单价现为0.0485,3LCU可抵一小时标准版实例费用(原0.147现降至0.125),单LCU价格也下调至0.042。资源包价格保持不变,旧购资源包仍在抵扣中,建议调整为降价时不进行抵扣。同时,附上与不太了解情况的客服交流记录供参考。
|
2月前
|
缓存 负载均衡 算法
(四)网络编程之请求分发篇:负载均衡静态调度算法、平滑轮询加权、一致性哈希、最小活跃数算法实践!
先如今所有的技术栈中,只要一谈关于高可用、高并发处理相关的实现,必然会牵扯到集群这个话题,也就是部署多台服务器共同对外提供服务,从而做到提升系统吞吐量,优化系统的整体性能以及稳定性等目的。
|
1月前
|
负载均衡 Cloud Native 容灾
阿里云负载均衡SLB价格_ALB、NLB和CLB区别_负载均衡详细介绍
阿里云负载均衡SLB提供ALB、NLB和CLB三种类型,分别适用于7层和4层的不同场景。ALB与NLB仅支持按量付费,而CLB则额外提供包年包月选项。ALB强调7层应用处理与高级路由,NLB聚焦4层的大流量处理与SSL卸载。两者均支持自动弹性伸缩,确保高可用性和性能。CLB作为传统负载均衡,适用于特定需求。每种类型依据实例规格与使用量收费,其中公网实例还需支付网络费用。通过这些服务,用户可以实现流量分发、故障转移及提升应用系统的稳定性和扩展性。
|
1月前
|
负载均衡 前端开发 数据处理
"揭秘!ALB负载均衡器如何赋能Airflow,让数据处理命令请求在云端翩翩起舞,挑战性能极限,你不可不知的秘密!"
【8月更文挑战第20天】在现代云计算环境中,负载均衡ALB作为七层HTTP/HTTPS流量分发器,能显著提升系统的可用性和扩展性。结合Airflow这一开源工作流管理平台,ALB可以有效分发其REST API命令请求。通过配置ALB实例监听HTTP/S请求,并将多个Airflow实例加入目标组,再配合健康检查确保实例稳定,即可实现对Airflow命令的高效负载均衡,进而增强数据处理任务的可靠性和性能。
21 0
|
1月前
|
负载均衡 Cloud Native 容灾
阿里云负载均衡SLB价格_ALB、NLB和CLB区别_负载均衡功能和使用场景说明
阿里云负载均衡SLB分为应用型ALB、网络型NLB及传统型CLB。ALB与NLB仅支持按量付费,而CLB则提供包年包月和按量付费选项。ALB专长于7层HTTP/HTTPS/QUIC协议处理,支持丰富的内容路由功能;NLB聚焦于4层TCP/UDP/TCPSSL协议,擅长处理大规模并发连接。两者均基于NFV技术,支持自动弹性伸缩,并与云原生环境如ACK/SAE/K8S深度集成。此外,SLB提供多协议支持、多级容灾、安全防护等功能,确保服务的高可用性和安全性。具体收费方面,ALB的基础版实例费为0.049元/小时起,NLB实例费限时免费,两者还需支付性能容量单位LCU费及公网网络费(仅公网实例)
|
3月前
|
负载均衡 算法 Nacos
SpringCloud之LoadBalancer自定义负载均衡算法,基于nacos权重
ReactorLoadBalancer接口,实现自定义负载算法需要实现该接口,并实现choose逻辑,选取对应的节点。
277 0
|
3月前
|
Java Nacos Spring
SpringCloud之LoadBalancer负载均衡器的简单使用
RoundRobin: 轮询策略,意思循环往复的的服务进行选取。
98 0
|
4月前
|
负载均衡 关系型数据库 分布式数据库
【PolarDB开源】PolarDB读写分离实践:优化读取性能与负载均衡策略
【5月更文挑战第26天】PolarDB是云原生关系型数据库,通过读写分离优化性能和扩展性。它设置主节点处理写操作,从节点处理读操作,异步复制保证数据一致性。优化读取性能的策略包括增加从节点数量、使用只读实例和智能分配读请求。负载均衡策略涉及基于权重、连接数和地理位置的分配。实践示例中,电商网站通过主从架构、只读实例和负载均衡策略提升商品查询效率。PolarDB的读写分离与负载均衡为企业应对大数据和高并发提供了有效解决方案。
196 0