GreatSQL MGR优化参考

简介: GreatSQL MGR优化参考

0. 前言

1. GreatSQL的优势

GreatSQL的优势在于提升了MGR的性能及可靠性,及修复了众多bug。主要有以下几点:

  • 提升大事务并发性能及稳定性
  • 优化MGR队列garbage collect机制、改进流控算法,以及减少每次发送数据量,避免性能抖动
  • 解决了AFTER模式下,存在节点加入集群时容易出错的问题
  • 在AFTER模式下,强一致性采用多数派原则,以适应网络分区的场景
  • 当MGR节点崩溃时,能更快发现节点异常状态,有效减少切主和异常节点的等待时间
  • 修复了可能导致数据丢失、性能抖动等多个缺陷/bug问题

2. GreatSQL MGR优化建议

为了能更好的发挥出GreatSQL运行MGR的优势,有几个优化建议

2.1 关闭流控

GreatSQL MGR相较于官方版本,在从库回放速度控制方面做得更优雅、更完善。因此,建议直接在事务并发量不是太高的场景下,关闭流控模式,让GreatSQL发挥出更大性能优势。

# QUOTA => 开启流控(默认)
# DISABLED => 关闭流控
group_replication_flow_control_mode = "DISABLED"

通常来说,不建议开启流控。当然了,如果实际生产环境中,已经快达到了服务器的硬件性能极限,这种情况下,还是要开启流控的,只不过可以把默认的流控阈值调高一些,比如设置为原来的10倍或更高。此外,在正式上线前的压测环境下,也最好关闭流控,通过压测得到事务性能指标和服务器性能的一个平衡点。这就类似另一个参数 innodb_thread_concurrency,通常也不建议设置为非0,以避免在高并发场景下,InnoDB线程总是要等待排队,反倒影响并发性能。

2.1 修改从库回放并发度

为了提高MGR从库的回放效率,降低从库延迟,需要提高从库回放线程数。

slave_parallel_type = LOGICAL_CLOCK

slave_parallel_workers = 128 #回放线程数可以设置为逻辑CPU的4倍甚至更高

通常来说,不建议开启流控。当然了,如果实际生产环境中,已经快达到了服务器的硬件性能极限,这种情况下,还是要开启流控的,只不过可以把默认的流控阈值调高一些,比如设置为原来的10倍或更高。此外,在正式上线前的压测环境下,也最好关闭流控,通过压测得到事务性能指标和服务器性能的一个平衡点。这就类似另一个参数 innodb_thread_concurrency,通常也不建议设置为非0,以避免在高并发场景下,InnoDB线程总是要等待排队,反倒影响并发性能。

2.1 修改从库回放并发度

为了提高MGR从库的回放效率,降低从库延迟,需要提高从库回放线程数。

slave_parallel_type = LOGICAL_CLOCK
slave_parallel_workers = 128 #回放线程数可以设置为逻辑CPU的4倍甚至更高

剩下的就是正常的MySQL优化套路了,下面是几个关键参数列表,建议根据硬件配置级别适当调整:

innodb_buffer_pool_size = 128G
innodb_buffer_pool_instances = 8
innodb_log_file_size = 2G
innodb_log_files_in_group = 3
innodb_io_capacity = 20000
innodb_io_capacity_max = 40000
innodb_flush_sync = OFF

此外,也强烈建议采用 jemalloc 代替系统自带的内存分配机制。

最后放一张在大流量、高负载的业务场景下的压测对比图,充分体现了GreatSQL的优势(由不愿透露姓名的社区朋友提供)

image.png

我们再次诚邀更多的朋友们一起使用GreatSQL,更放心的用上MGR,提高数据库服务可用时间,保证业务可靠性。

3. 关于GreatSQL

GreatSQL是源于Percona server的分支版本,除了Percona Server已有的稳定可靠、高效、管理更方便等优势外,特别是进一步提升了MGR(MySQL Group Replication)的性能及可靠性,以及众多bug修复。

GreatSQL可以作为MySQL或Percona server的可选替代方案,用于线上生产环境。

            </div>
相关文章
|
7天前
|
数据采集 人工智能 安全
|
17天前
|
云安全 监控 安全
|
3天前
|
机器学习/深度学习 人工智能 前端开发
构建AI智能体:七十、小树成林,聚沙成塔:随机森林与大模型的协同进化
随机森林是一种基于决策树的集成学习算法,通过构建多棵决策树并结合它们的预测结果来提高准确性和稳定性。其核心思想包括两个随机性:Bootstrap采样(每棵树使用不同的训练子集)和特征随机选择(每棵树分裂时只考虑部分特征)。这种方法能有效处理大规模高维数据,避免过拟合,并评估特征重要性。随机森林的超参数如树的数量、最大深度等可通过网格搜索优化。该算法兼具强大预测能力和工程化优势,是机器学习中的常用基础模型。
285 164
|
2天前
|
机器学习/深度学习 自然语言处理 机器人
阿里云百炼大模型赋能|打造企业级电话智能体与智能呼叫中心完整方案
畅信达基于阿里云百炼大模型推出MVB2000V5智能呼叫中心方案,融合LLM与MRCP+WebSocket技术,实现语音识别率超95%、低延迟交互。通过电话智能体与座席助手协同,自动化处理80%咨询,降本增效显著,适配金融、电商、医疗等多行业场景。
291 155
|
4天前
|
机器学习/深度学习 人工智能 前端开发
构建AI智能体:六十九、Bootstrap采样在大模型评估中的应用:从置信区间到模型稳定性
Bootstrap采样是一种通过有放回重抽样来评估模型性能的统计方法。它通过从原始数据集中随机抽取样本形成多个Bootstrap数据集,计算统计量(如均值、标准差)的分布,适用于小样本和非参数场景。该方法能估计标准误、构建置信区间,并量化模型不确定性,但对计算资源要求较高。Bootstrap特别适合评估大模型的泛化能力和稳定性,在集成学习、假设检验等领域也有广泛应用。与传统方法相比,Bootstrap不依赖分布假设,在非正态数据中表现更稳健。
219 113
|
10天前
|
SQL 自然语言处理 调度
Agent Skills 的一次工程实践
**本文采用 Agent Skills 实现整体智能体**,开发框架采用 AgentScope,模型使用 **qwen3-max**。Agent Skills 是 Anthropic 新推出的一种有别于mcp server的一种开发方式,用于为 AI **引入可共享的专业技能**。经验封装到**可发现、可复用的能力单元**中,每个技能以文件夹形式存在,包含特定任务的指导性说明(SKILL.md 文件)、脚本代码和资源等 。大模型可以根据需要动态加载这些技能,从而扩展自身的功能。目前不少国内外的一些框架也开始支持此种的开发方式,详细介绍如下。
762 5