MySQL:5.6 大事务show engine innodb status故障一例

本文涉及的产品
RDS MySQL DuckDB 分析主实例,集群系列 4核8GB
简介: MySQL:5.6 大事务show engine innodb status故障一例

今天遇到一个朋友的线上问题,大概意思就是说,我有一个线上的大事务大概100G左右,正在做回滚,当前看起来似乎影响了线上的业务,并且回滚很慢,是否可以减轻对线上业务的影响。并且朋友已经取消了双1设置,但是没有任何改观。版本MySQL 5.6首先我们需要知道的是,MySQL并不适合大事务,大概列举一些MySQL中大事务的影响:

  • binlog文件作为一次写入,会在sync阶段消耗大量的IO,会导致全库hang主,状态大多为query end。
  • 大事务会造成导致主从延迟。
  • 大事务可能导致某些需要备份挂起,原因在于flush table with read lock,拿不到MDL GLOBAL 级别的锁,等待状态为 Waiting for global read lock。
  • 大事务可能导致更大Innodb row锁加锁范围,导致row锁等待问题。
  • 回滚困难。

基于如上一些不完全的列举,我们应该在线上尽可能的避免大事务。好了我们下面来进行问题讨论。


一、问题前面已经说了,我们已经取消了双1设置,所谓的双1就是 sync_binlog=1和 innodb_flush_log_at_trx_commit=1。这两个参数线上要保证为1,前者保证binlog的安全,后者保证redo的安全,它们在数据库crash recovery的时候起到了关键做用,不设置为双1可能导致数据丢失。具体的参数含义不做过多讨论。但是这里的问题是即便取消了双1,没有任何改观,因此似乎说明IO问题不是主要瓶颈呢?下面我们来看几个截图:

  • vmstat 截图

image.png

  • iostat 截图


image.png

image.png

  • top -Hu截图

image.png

我们重点观察vmstat的r 和 b列发现,IO队列没有有什么问题 并且wa%并不大。我们观察iostat中的%util和读写数据大小来看问题不大,并且tps远没达到极限(SSD盘)。我们top -Hu 可以观察到 %us不小,并且有线程已经打满了(99.4%CPU)一个CPU核。

因此我们可以将方向转为研究CPU瓶颈的产生,希望能够对问题有帮助,然后从提供的perf top中我们有如下发现:

image.png

好了我们将问题先锁定到lock_number_of_rows_locked这个函数上。


二、函数lock_number_of_rows_locked的作用朋友用的5.6,但是我这里以5.7.26的版本进行描述。然后下一节描述5.6和5.7算法上的关键差异。不知道大家是否注意过show engine innodb status中的这样一个标志:

image.png

这个标记就来自函数lock_number_of_rows_locked,含义为当前事务加行锁的行数。而这个函数包裹在函数lock_print_info_all_transactions下面,lock_print_info_all_transactions函数是打印我们通常看到show engine innodb status中事务部分的核心参数。我们来看一下简单的流程:

  1. PrintNotStarted print_not_started(file);//建立一个结构体,目的是做not start 事务的打印
  2. ut_list_map(trx_sys->mysql_trx_list, print_not_started); //这个地方打印出那些事务状态是no start的事务。mysql_trx_list是全事务。

  3. const trx_t* trx;
  4. TrxListIterator trx_iter; //这个迭代器是trx_sys->rw_trx_list 这个链表的迭代器
  5. const trx_t* prev_trx = 0;

  6. /* Control whether a block should be fetched from the buffer pool. */
  7. bool load_block = true;
  8. bool monitor = srv_print_innodb_lock_monitor && (srv_show_locks_held != 0);

  9. while ((trx = trx_iter.current()) != 0) { //通过迭代器进行迭代 ,显然这里不会有只读事务的信息,全部是读写事务。

  10. ...
  11. /* If we need to print the locked record contents then we
  12. need to fetch the containing block from the buffer pool. */
  13. if (monitor) {

  14. /* Print the locks owned by the current transaction. */
  15. TrxLockIterator& lock_iter = trx_iter.lock_iter();

  16. if (!lock_trx_print_locks( //打印出锁的详细信息
  17. file, trx, lock_iter, load_block))

简单的说就是先打印哪些处于not start的事务,然后打印那些读写事务的信息,当然我们的回滚事务肯定也包含在其中了,需要注意的是只读事务show engine不会打印。对于处于回滚状态的事务我们可以在show engine中观察到如下信息:

image.png

函数trx_print_low可以看到大部分的信息,这里就不详细解释了。既然如此我们需要明白lock_number_of_rows_locked是如何计算的,下面进行讨论。

三、函数lock_number_of_rows_locked的算法变化上面我们说了函数lock_number_of_rows_locked函数会打印出当前事务加行锁的行数。那么我们来看一下5.6和5.7算法的不同。

  • 5.7.26

实际上只有如下一句话:

  1. return(trx_lock->n_rec_locks);

我们可以看到这是返回了一个计数器,而这个计数器的递增就是在每行记录加锁后完成的,在函数lock_rec_set_nth_bit的末尾可以看到 ++lock->trx->lock.nreclocks ,因此这是一种预先计算的机制。因此这样的计算代价很低,也不会由于某个事务持有了大量的锁,而导致计算代价过高。

  • 5.6.22

随后我翻了一下5.6.22的代码,发现完全不同如下:

  1. for (lock = UT_LIST_GET_FIRST(trx_lock->trx_locks); //使用for循环每个获取的锁结构
  2. lock != NULL;
  3. lock = UT_LIST_GET_NEXT(trx_locks, lock)) {

  4. if (lock_get_type_low(lock) == LOCK_REC) { //过滤为行锁
  5. ulint n_bit;
  6. ulint n_bits = lock_rec_get_n_bits(lock);

  7. for (n_bit = 0; n_bit < n_bits; n_bit++) { //开始循环每一个锁结构的每一个bit位进行统计
  8. if (lock_rec_get_nth_bit(lock, n_bit)) {
  9. n_records++;
  10. }
  11. }
  12. }
  13. }

  14. return(n_records);

我们知道循环本身是一种CPU密集型的操作,这里使用了嵌套循环实现。因此如果在5.6中如果出现大事务操作了大量的行,那么获取行锁记录的个数的时候,将会出现高耗CPU的情况。

四、原因总结和解决有了上面的分析我们很清楚了,触发的原因有如下几点:

  • MySQL 5.6版本
  • 有大事务的存在,大概100G左右的数据加行锁了
  • 使用了show engine innodb status

这样当在统计这个大事务行锁个数的时候,就会进行大量的循环操作。从现象上看就是线程消耗了大量的CPU资源,并且处于perf top的第一位。

知道了原因就很简单了,找出为频繁使用show engine innodb status的监控工具,随后业务全部恢复正常,IO利用率也上升了如下:

image.png

当然如果能够使用更新的版本比如5.7及8.0 版本将不会出现这个问题,可以考虑使用更高版本。分析性能问题需要首先找到性能的瓶颈然后进行集中突破,比如本例中CPU资源消耗更加严重。也许解决问题就在一瞬间。

五、其他最后通过朋友后面查询的bug如下:https://bugs.mysql.com/bug.php?id=68647 发现印风(翟卫翔)已经在多年前提出过了这个问题,并且做出了修改意见,并且这个修改意见官方采纳了,也就是上面我们分析的算法改变。经过印风(翟卫翔)的测试有bug中有如下描述:

  • From perf top, function locknumberofrowslocked may occupy more than 20% of CPU sometimes

也就是CPU消耗会高达20%。

下面是5.7.26调用栈帧:

image.png

            </div>
相关实践学习
每个IT人都想学的“Web应用上云经典架构”实战
本实验从Web应用上云这个最基本的、最普遍的需求出发,帮助IT从业者们通过“阿里云Web应用上云解决方案”,了解一个企业级Web应用上云的常见架构,了解如何构建一个高可用、可扩展的企业级应用架构。
MySQL数据库入门学习
本课程通过最流行的开源数据库MySQL带你了解数据库的世界。 &nbsp; 相关的阿里云产品:云数据库RDS MySQL 版 阿里云关系型数据库RDS(Relational Database Service)是一种稳定可靠、可弹性伸缩的在线数据库服务,提供容灾、备份、恢复、迁移等方面的全套解决方案,彻底解决数据库运维的烦恼。 了解产品详情:&nbsp;https://www.aliyun.com/product/rds/mysql&nbsp;
相关文章
|
2月前
|
SQL 监控 关系型数据库
【紧急救援】MySQL CPU 100%!一套组合拳教你快速定位并解决!
凌晨三点MySQL CPU飙至100%,业务瘫痪!本文亲历30分钟应急排障全过程:从紧急止血、定位慢查询、分析锁争用,到优化SQL与索引,最终恢复服务。总结一套可复用的排查路径与预防方案,助你告别深夜救火。
|
存储 算法
【算法基础】高精度运算
【算法基础】高精度运算
179 0
|
5月前
|
消息中间件 缓存 监控
MQ消息积压 / Rocketmq 积压 最全的处理方案。 (秒懂+图解+史上最全)
MQ消息积压 / Rocketmq 积压 最全的处理方案。 (秒懂+图解+史上最全)
MQ消息积压 / Rocketmq 积压 最全的处理方案。 (秒懂+图解+史上最全)
|
6月前
|
存储 DataX C语言
vector与list的简单介绍
vector是表示大小可以变化的数组的序列容器。就像数组一样,vector对其元素使用连续的存储位置,这意味着也可以使用指向其元素的常规指针上的偏移量来访问其元素,并且与数组中的元素一样高效。但与数组不同的是,它们的大小可以动态变化,它们的存储由容器自动处理。在内部,vector使用动态分配的数组来存储其元素。当插入新元素时,可能需要重新分配此数组才能增大大小,这意味着分配一个新数组并将所有元素移动到该数组。
295 0
vector与list的简单介绍
|
4月前
|
存储 NoSQL Shell
MongoDB 安装与启动指南
本文档为MongoDB安装与启动指南,涵盖Windows及Linux系统的安装步骤、配置文件设置、服务启动与连接方法,以及服务停止操作。内容包括MongoDB下载、目录创建、命令行及配置文件启动方式,同时提供Shell连接、图形化工具Compass使用说明,并详解Linux环境下生产部署与防火墙设置,确保服务安全启动与关闭。
923 0
|
JSON Java API
哇塞!Spring Boot 中的 @DateTimeFormat 和 @JsonFormat,竟能引发数据时间大变革!
【8月更文挑战第29天】在Spring Boot开发中,正确处理日期时间至关重要。
560 1
|
消息中间件 缓存 NoSQL
15)如何保证缓存和数据库之间的数据一致性
15)如何保证缓存和数据库之间的数据一致性
282 1
|
存储 监控 关系型数据库
DataX 概述、部署、数据同步运用示例
DataX是阿里巴巴开源的离线数据同步工具,支持多种数据源之间的高效传输。其特点是多数据源支持、可扩展性、灵活配置、高效传输、任务调度监控和活跃的开源社区支持。DataX通过Reader和Writer插件实现数据源的读取和写入,采用Framework+plugin架构。部署简单,解压即可用。示例展示了如何配置DataX同步MySQL到HDFS,并提供了速度和内存优化建议。此外,还解决了NULL值同步问题及配置文件变量传参的方法。
9381 5
|
存储 Oracle 关系型数据库
RAC创建ASM磁盘组时配置多路径和UDEV
RAC创建ASM磁盘组时配置多路径和UDEV
3249 7
|
监控 测试技术 Linux
性能测试(22)——性能监控
Concurrency Thread Group 线程组 Transactions per Second 每秒事务数 Bytes Throughput Over Time 吞吐量 PerfMon Metrics Collector 性能指标收集器 Concurrency Thread Group 线程组
447 1

热门文章

最新文章