机票业务(单实例 2700万行/s return)数据库架构设计 - 阿里云RDS PostgreSQL最佳实践

本文涉及的产品
云数据库 RDS SQL Server,基础系列 2核4GB
RDS PostgreSQL Serverless,0.5-4RCU 50GB 3个月
推荐场景:
对影评进行热评分析
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
简介:

背景

机票业务的某个模块,数据量10亿+,写、更新、删除量较低。根据KEY查询一些数据,每次查询返回1万条左右的记录。

就是这样简单的需求,业务方发现读成为了巨大的瓶颈,每次返回1万条,100个并发请求,每秒就是100万条(500MB左右),主要的瓶颈:

1、网络是个较大的开销。

2、不同KEY的数据可能是分散存放的,存在查询时的IO放大,可能有一定的性能影响。

3、每次请求的返回记录数较多,数据库search buffer调用可能开销会上升。

就这几个问题,我们来看看如何优化或解决业务方的问题。

建模

1、建表

create table test(    
  id int,       
  info text,    -- 一些属性,我这里用一个字段代表它     
  typeid int,   -- 类别,也是用户的查询过滤条件,约10万个类别,每个类别1万条记录,总共10亿记录。    
  crt_time timestamp,  -- 创建时间    
  mod_time timestamp  -- 修改时间    
);    

2、灌入测试数据

insert into test select generate_series(1,1000000000), 'test', random()*99999, now();    

3、创建索引

create index idx_test_typeid on test (typeid);    

4、原始SQL请求

select * from test where typeid=?;    
    
约返回1万记录。    

了解数据分布

postgres=# select schemaname, tablename, attname, correlation from pg_stats where tablename='test';    
 schemaname | tablename | attname  | correlation     
------------+-----------+----------+-------------    
 postgres   | test      | id       |           1    
 postgres   | test      | info     |           1    
 postgres   | test      | typeid   |   0.0122783    
 postgres   | test      | crt_time |           1    
 postgres   | test      | mod_time |                
(5 rows)    

通过pg_stats可以看到typeid和物理存储的线性相关性才0.012,非常分散。

按TYPEID访问时,IO放大很严重,也就是说1万条记录可能分散在1万个数据块中。

postgres=# explain (analyze,verbose,timing,costs,buffers) select * from test where typeid =1;    
                                                                 QUERY PLAN                                                                     
--------------------------------------------------------------------------------------------------------------------------------------------    
 Index Scan using idx_test_typeid on postgres.test  (cost=0.57..13343.21 rows=10109 width=29) (actual time=0.029..14.283 rows=9935 loops=1)    
   Output: id, info, typeid, crt_time, mod_time    
   Index Cond: (test.typeid = 1)    
   Buffers: shared hit=9959   -- typeid=1的记录分散在9959个数据块中    
 Planning time: 0.085 ms    
 Execution time: 14.798 ms    
(6 rows)    

原始SQL性能评估、瓶颈分析

1、压测

vi test.sql    
    
\set typeid random(0,99999)    
select * from test where typeid=:typeid;    

压测结果,TPS 1653。

pgbench -M prepared -n -r -P 1 -f ./test.sql -c 64 -j 64 -T 120    
    
transaction type: ./test.sql    
scaling factor: 1    
query mode: prepared    
number of clients: 64    
number of threads: 64    
duration: 120 s    
number of transactions actually processed: 198445    
latency average = 38.699 ms    
latency stddev = 7.898 ms    
tps = 1653.239177 (including connections establishing)    
tps = 1653.525600 (excluding connections establishing)    
script statistics:    
 - statement latencies in milliseconds:    
         0.002  \set typeid random(0,99999)    
        38.697  select * from test where typeid=:typeid;    

2、perf 观察瓶颈

perf top -ag    
    
  Children      Self  Shared Object              Symbol                             
+   15.31%    15.19%  postgres                   [.] hash_search_with_hash_value    
+   14.48%     8.78%  postgres                   [.] heap_hot_search_buffer         
+    9.95%     2.26%  [kernel]                   [k] page_fault                     
+    9.44%     8.24%  postgres                   [.] heap_page_prune_opt            
+    7.67%     0.02%  [kernel]                   [k] do_page_fault                  
+    7.62%     0.21%  [kernel]                   [k] __do_page_fault                
+    6.89%     0.41%  [kernel]                   [k] handle_mm_fault                
+    6.87%     6.80%  postgres                   [.] PinBuffer                      
+    4.32%     0.18%  [kernel]                   [k] __do_fault                     
+    4.03%     4.00%  postgres                   [.] LWLockAcquire                  
+    3.83%     0.00%  [kernel]                   [k] system_call_fastpath           
+    3.17%     3.15%  libc-2.17.so               [.] __memcpy_ssse3_back            
+    3.01%     0.16%  [kernel]                   [k] shmem_fault                    
+    2.85%     0.13%  [kernel]                   [k] shmem_getpage_gfp    

优化手段1,cluster化

1、PostgreSQL提供了一个cluster的功能,可以将表按索引进行CLUSTER,即重排。

效果是这个索引对应列(或多列)与物理顺序的线性相关性变成1或-1,也就是线性完全一致,那么在按这个字段或这些字段进行条件过滤时,扫描的堆表数据块大幅度降低。

postgres=# cluster test using idx_test_typeid;    
    
postgres=# \d test    
                          Table "postgres.test"    
  Column  |            Type             | Collation | Nullable | Default     
----------+-----------------------------+-----------+----------+---------    
 id       | integer                     |           |          |     
 info     | text                        |           |          |     
 typeid   | integer                     |           |          |     
 crt_time | timestamp without time zone |           |          |     
 mod_time | timestamp without time zone |           |          |     
Indexes:    
    "idx_test_typeid" btree (typeid) CLUSTER    

2、测试cluster后,按typeid过滤数据,只需要扫描96个数据块了。SQL的响应时间也从14.8毫秒降到了1.9毫秒。

postgres=# explain (analyze,verbose,timing,costs,buffers) select * from test where typeid =1;    
                                                                QUERY PLAN                                                                     
-------------------------------------------------------------------------------------------------------------------------------------------    
 Index Scan using idx_test_typeid on postgres.test  (cost=0.57..13343.21 rows=10109 width=29) (actual time=0.011..1.413 rows=9935 loops=1)    
   Output: id, info, typeid, crt_time, mod_time    
   Index Cond: (test.typeid = 1)    
   Buffers: shared hit=96    
 Planning time: 0.039 ms    
 Execution time: 1.887 ms    
(6 rows)    

3、压测,TPS 2715。相比原始性能提升了 64%。

pgbench -M prepared -n -r -P 1 -f ./test.sql -c 64 -j 64 -T 120    
    
transaction type: ./test.sql    
scaling factor: 1    
query mode: prepared    
number of clients: 64    
number of threads: 64    
duration: 120 s    
number of transactions actually processed: 326188    
latency average = 23.546 ms    
latency stddev = 7.793 ms    
tps = 2715.409760 (including connections establishing)    
tps = 2715.677062 (excluding connections establishing)    
script statistics:    
 - statement latencies in milliseconds:    
         0.002  \set typeid random(0,99999)    
        23.543  select * from test where typeid=:typeid;    

4、perf 观察瓶颈

用户态的调用不在TOP里面。    
    
+   14.30%     0.00%  [kernel]                      [k] system_call_fastpath       
+    9.62%     1.26%  [kernel]                      [k] page_fault                 
+    8.35%     0.01%  [kernel]                      [k] do_page_fault              
+    8.27%     0.14%  [kernel]                      [k] __do_page_fault            
+    6.81%     0.37%  libc-2.17.so                  [.] sysmalloc                  
+    6.48%     0.10%  [kernel]                      [k] __alloc_pages_nodemask     
+    5.84%     0.40%  [kernel]                      [k] handle_mm_fault            
+    5.84%     0.05%  libpthread-2.17.so            [.] __libc_send                
+    5.83%     5.79%  libc-2.17.so                  [.] __memcpy_ssse3_back        
+    5.74%     0.03%  libpthread-2.17.so            [.] __libc_recv               

优化1小结

1、优化手段1没有涉及到降低网络开销的优化。

2、使用cluster后,完全规避了IO放大的问题。

3、但是每次请求返回的记录数与原来一样,对数据库search buffer没有起到效果。

4、聚集操作是静态操作,数据库并不会一直维持这个状态。

不过PG可以设置fillfactor,使得更新后的版本尽量在当前数据块。这种方法对于更新很有效,只要对应的搜索KEY不变更,那么线性相关性可以一直被维持。对于新增数据无效。所以cluster特别适合相对静态的数据,或者时间维度上,旧的数据基本不变更的场景,可以使用时间分区表,对旧数据实施CLUSTER,保证就数据的线性相关性。

alter table test set (fillfactor=80);      

优化手段2,聚集化

优化2的目标和1类似,但是将数据聚集为单条,同时提升数据的压缩比,不过是数据库端压缩,所以对网络需求的降低并没有效果。

1、聚集,因为更新少,所以我们可以将多条记录聚集为一条记录。

create table test_agg (typeid int, content jsonb);    
    
insert into test_agg select typeid, jsonb_agg(jsonb_build_object('id',id,'info',info,'crt_time',crt_time,'mod_time',mod_time)) from test group by typeid;    
    
create index idx_test_agg_1 on test_agg(typeid);    

2、查询请求

select * from test_agg where typeid=?    

3、增、删、改

JSON类型的操作函数如下:

https://www.postgresql.org/docs/10/static/functions-json.html

4、优化后的性能指标

压测,性能并没有提升

vi test1.sql    
    
\set typeid random(0,99999)    
select * from test_agg where typeid=:typeid;    
    
pgbench -M prepared -n -r -P 1 -f ./test1.sql -c 64 -j 64 -T 120    
    
transaction type: ./test1.sql    
scaling factor: 1    
query mode: prepared    
number of clients: 64    
number of threads: 64    
duration: 120 s    
number of transactions actually processed: 151156    
latency average = 50.803 ms    
latency stddev = 2.913 ms    
tps = 1258.934362 (including connections establishing)    
tps = 1259.301582 (excluding connections establishing)    
script statistics:    
 - statement latencies in milliseconds:    
         0.002  \set typeid random(0,99999)    
        50.801  select * from test_agg where typeid=:typeid;    

优化2小结

性能并没有提升,转换为JSONB类型后,每个ELEMETE都增加了头部信息,所以网络传输的空间实际变大了。

......    
{"id": 172264479, "info": "test", "crt_time": "2017-07-27T20:41:32.365209", "mod_time": null},     
{"id": 172304687, "info": "test", "crt_time": "2017-07-27T20:41:32.365209", "mod_time": null},    
......    

这个优化方法并没有赚到。

优化手段3,网络传输压缩优化

PostgreSQL支持SSL链接,通过SSL支持压缩和加密传输。

如果传输带宽有限,使用这种链路是非常不错的选择,但是会消耗一部分客户端和数据库端的CPU资源。

有一些例子:

《PostgreSQL SSL链路压缩例子》

《PostgreSQL ssl ciphers performance 比较》

优化手段4,只读节点

这个优化方法简单有效,但是需要投入一些资源,PostgreSQL支持两种备库,物理、逻辑备库。

物理备库只读,延迟低,不管事务多大,延迟都在毫秒级。但是物理备库只能全库复制。

逻辑备库可写,同时可以订阅部分数据,但是延迟较高(通常一个订阅通道的速率在3万行/s,一个实例可以支持多个订阅通道,比如每个表一个订阅通道)。

同时建议数据库节点与APPLICATION节点的网络尽量靠近,甚至将备库部署在业务服务器都是赞许的。

参考文档:

《PostgreSQL 10 流式物理、逻辑主从 最佳实践》

优化手段5,按用户切分,sharding。

按用户切分,将数据切分到多个数据库实例。

按照优化手段1的指标,每个节点可以提供1.3GB/s的输出流量,如果切分到16个节点,可以支持21GB/s的输出流量。完全不用考虑备库。

中间层可以考虑使用plproxy,中间件等方法。

《PostgreSQL 最佳实践 - 水平分库(基于plproxy)》

https://github.com/go-pg/sharding

参考文档

《PostgreSQL 9.6 sharding based on FDW & pg_pathman》

小结

1、原来单条的存储,用户每次请求,返回1万条记录,所以主机的网络带宽,数据库的数据访问离散IO的放大都是较大的性能阻碍因素。

使用cluster的方法,将数据按KEY存放,完全消除IO放大的问题,性能提升非常明显。

使用FILLFACTOR,可以让数据的更新尽量在当前数据块完成,从而不破坏cluster的顺序。解决UPDATE引入的破坏线性相关性问题。

2、通过聚集(cluster)的方法,将用户需要访问的数据合并成单行(或者按顺序存放),减少扫描的数据块。查询效率有大幅提升。

通过扩展带宽或者加入少量的备库就可以满足业务方的需求。

3、PostgreSQL支持多种聚合方法,数组、KV、JSON。

但是聚合的方法带来另一个问题,数据的DML变得很麻烦。

4、通过聚集,被查询的数据靠在一起了,使得数据压缩比更高,同时消除了原来的IO放大的问题,还可以减少多条记录引入的代码跳转额外开销。

5、聚集后,数据的增、删、改可以通过UDF来实现。PostgreSQL的plpgsql功能很强大,类似Oracle的PL/SQL。同时PostgreSQL还支持pljava, plpython等UDF语言,方便更多的开发者使用。

最后,推荐的优化方法:

1、cluster

2、网络压缩

3、读写分离

4、sharding

建议的优化组合1+4,或者1+3。

一些可供选择的架构:

1、一个数据库存储全量数据,提供读写。使用逻辑订阅,将数据分身,拆成多份,提供读写。

pic

2、一个数据库存储全量数据,提供读写。使用逻辑订阅,将数据分身,拆成多份,提供读写。采用级联逻辑订阅方式,创建更多读写逻辑订阅库。

pic

3、一个数据库存储全量数据,提供读写。使用逻辑订阅,将数据分身,拆成多份,提供读写。采用级联物理流复制方式,创建更多镜像只读备库。

pic

4、一个数据库存储全量数据,提供读写。采用物理流复制方式,创建一堆镜像只读备库。

pic

5、一个数据库存储全量数据,提供读写。采用物理流复制方式,创建一堆镜像只读备库。采用级联物理流复制方式,创建更多镜像只读备库。

pic

6、前端shard,多个数据库存储全量数据,提供读写。使用逻辑订阅,完全镜像,提供读写。

pic

7、前端shard,多个数据库存储全量数据,提供读写。使用逻辑订阅,完全镜像,提供读写。采用级联逻辑订阅方式,创建更多读写逻辑订阅库。

pic

8、前端shard,多个数据库存储全量数据,提供读写。采用物理流复制方式,创建只读备库。采用级联物理流复制方式,创建更多镜像只读备库。

pic

9、前端shard,多个数据库存储全量数据,提供读写。采用物理流复制方式,创建一堆只读备库。

pic

参考

《PostgreSQL 聚集存储 与 BRIN索引 - 高并发行为、轨迹类大吞吐数据查询场景解说》

《PostgreSQL 10 流式物理、逻辑主从 最佳实践》

sharding 中间件

https://github.com/dangdangdotcom/sharding-jdbc

https://github.com/go-pg/sharding/

《PostgreSQL 最佳实践 - 水平分库(基于plproxy)》

相关实践学习
如何快速连接云数据库RDS MySQL
本场景介绍如何通过阿里云数据管理服务DMS快速连接云数据库RDS MySQL,然后进行数据表的CRUD操作。
全面了解阿里云能为你做什么
阿里云在全球各地部署高效节能的绿色数据中心,利用清洁计算为万物互联的新世界提供源源不断的能源动力,目前开服的区域包括中国(华北、华东、华南、香港)、新加坡、美国(美东、美西)、欧洲、中东、澳大利亚、日本。目前阿里云的产品涵盖弹性计算、数据库、存储与CDN、分析与搜索、云通信、网络、管理与监控、应用服务、互联网中间件、移动服务、视频服务等。通过本课程,来了解阿里云能够为你的业务带来哪些帮助     相关的阿里云产品:云服务器ECS 云服务器 ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,助您降低 IT 成本,提升运维效率,使您更专注于核心业务创新。产品详情: https://www.aliyun.com/product/ecs
目录
相关文章
|
3天前
|
运维 关系型数据库 MySQL
体验领礼啦!体验自建数据库迁移到阿里云数据库RDS,领取桌面置物架!
「技术解决方案【Cloud Up 挑战赛】」上线!本方案介绍如何将自建数据库平滑迁移至云数据库RDS,解决业务增长带来的运维难题。通过使用RDS MySQL,您可获得稳定、可靠和安全的企业级数据库服务,专注于核心业务发展。完成任务即可领取桌面置物架,每个工作日限量50个,先到先得。
|
17天前
|
存储 Oracle 关系型数据库
数据库传奇:MySQL创世之父的两千金My、Maria
《数据库传奇:MySQL创世之父的两千金My、Maria》介绍了MySQL的发展历程及其分支MariaDB。MySQL由Michael Widenius等人于1994年创建,现归Oracle所有,广泛应用于阿里巴巴、腾讯等企业。2009年,Widenius因担心Oracle收购影响MySQL的开源性,创建了MariaDB,提供额外功能和改进。维基百科、Google等已逐步替换为MariaDB,以确保更好的性能和社区支持。掌握MariaDB作为备用方案,对未来发展至关重要。
42 3
|
17天前
|
安全 关系型数据库 MySQL
MySQL崩溃保险箱:探秘Redo/Undo日志确保数据库安全无忧!
《MySQL崩溃保险箱:探秘Redo/Undo日志确保数据库安全无忧!》介绍了MySQL中的三种关键日志:二进制日志(Binary Log)、重做日志(Redo Log)和撤销日志(Undo Log)。这些日志确保了数据库的ACID特性,即原子性、一致性、隔离性和持久性。Redo Log记录数据页的物理修改,保证事务持久性;Undo Log记录事务的逆操作,支持回滚和多版本并发控制(MVCC)。文章还详细对比了InnoDB和MyISAM存储引擎在事务支持、锁定机制、并发性等方面的差异,强调了InnoDB在高并发和事务处理中的优势。通过这些机制,MySQL能够在事务执行、崩溃和恢复过程中保持
47 3
|
17天前
|
SQL 关系型数据库 MySQL
数据库灾难应对:MySQL误删除数据的救赎之道,技巧get起来!之binlog
《数据库灾难应对:MySQL误删除数据的救赎之道,技巧get起来!之binlog》介绍了如何利用MySQL的二进制日志(Binlog)恢复误删除的数据。主要内容包括: 1. **启用二进制日志**:在`my.cnf`中配置`log-bin`并重启MySQL服务。 2. **查看二进制日志文件**:使用`SHOW VARIABLES LIKE 'log_%';`和`SHOW MASTER STATUS;`命令获取当前日志文件及位置。 3. **创建数据备份**:确保在恢复前已有备份,以防意外。 4. **导出二进制日志为SQL语句**:使用`mysqlbinlog`
60 2
|
30天前
|
关系型数据库 MySQL 数据库
Python处理数据库:MySQL与SQLite详解 | python小知识
本文详细介绍了如何使用Python操作MySQL和SQLite数据库,包括安装必要的库、连接数据库、执行增删改查等基本操作,适合初学者快速上手。
205 15
|
24天前
|
SQL 关系型数据库 MySQL
数据库数据恢复—Mysql数据库表记录丢失的数据恢复方案
Mysql数据库故障: Mysql数据库表记录丢失。 Mysql数据库故障表现: 1、Mysql数据库表中无任何数据或只有部分数据。 2、客户端无法查询到完整的信息。
|
1月前
|
关系型数据库 MySQL 数据库
数据库数据恢复—MYSQL数据库文件损坏的数据恢复案例
mysql数据库文件ibdata1、MYI、MYD损坏。 故障表现:1、数据库无法进行查询等操作;2、使用mysqlcheck和myisamchk无法修复数据库。
|
1月前
|
SQL 关系型数据库 MySQL
MySQL导入.sql文件后数据库乱码问题
本文分析了导入.sql文件后数据库备注出现乱码的原因,包括字符集不匹配、备注内容编码问题及MySQL版本或配置问题,并提供了详细的解决步骤,如检查和统一字符集设置、修改客户端连接方式、检查MySQL配置等,确保导入过程顺利。
|
2月前
|
关系型数据库 MySQL 数据库
GBase 数据库如何像MYSQL一样存放多行数据
GBase 数据库如何像MYSQL一样存放多行数据
|
2月前
|
SQL 关系型数据库 MySQL
12 PHP配置数据库MySQL
路老师分享了PHP操作MySQL数据库的方法,包括安装并连接MySQL服务器、选择数据库、执行SQL语句(如插入、更新、删除和查询),以及将结果集返回到数组。通过具体示例代码,详细介绍了每一步的操作流程,帮助读者快速入门PHP与MySQL的交互。
55 1

相关产品

  • 云数据库 RDS
  • 云数据库 RDS PostgreSQL 版
  • 云数据库 RDS MySQL 版
  • 下一篇
    开通oss服务