本文将主要从背景、分库分表带来的后遗症、分表策略以及一些注意事项等方面对数据库分表来进行小结。
一、背景
最近一段时间内结束了数据库表拆分项目,本次拆分主要包括订单和优惠券两大块,这两块都是覆盖全集团所有分子公司所有业务线。随着公司的业务飞速发展,不管是存储的要求,还是写入、读取的性能都基本上到了警戒水位。
订单是交易的核心,优惠券是营销的核心,这两块基本上是整个平台的正向最核心部分。为了支持未来三到五年的快速发展,我们需要对数据进行拆分。
数据库表拆分业内已经有很多成熟方案,已经不是什么高深的技术,基本上是纯工程化的流程,但是能有机会进行实际的操刀一把,机会还是难得,所以非常有必要做个总结。
由于分库分表包含的技术选型和方式方法多种多样,这篇文章不是罗列和汇总介绍各种方法,而是总结我们在实施分库分表过程中的一些经验。
根据业务场景判断,我们主要是做水平拆分,做逻辑DB拆分,考虑到未来数据库写入瓶颈可以将一组Sharding表直接迁移进分库中。
二、分库、分表带来的后遗症
分库、分表会带来很多的后遗症,会使整个系统架构变的复杂。分的好与不好最关键就是如何寻找那个Sharding key,如果这个Sharding key刚好是业务维度上的分界线就会直接提升性能和改善复杂度,否则就会有各种脚手架来支撑,系统也就会变得复杂。
比如订单系统中的用户__ID__、订单__type__、商家__ID__、渠道__ID__,优惠券系统中的批次__ID__、渠道__ID__、机构__ID__ 等,这些都是潜在的Sharding key。
如果刚好有这么一个Sharding key存在后面处理路由(routing)就会很方便,否则就需要一些大而全的索引表来处理OLAP的查询。
一旦Sharding之后首先要面对的问题就是查询时排序分页问题。
1、归并排序
原来在一个数据库表中处理排序分页是比较方便的,Sharding之后就会存在多个数据源,这里我们将多个数据源统称为分片。
想要实现多分片排序分页就需要将各个片的数据都汇集起来进行排序,就需要用到归并排序算法。这些数据在各个分片中可以做到有序的(输出有序),但是整体上是无序的。
我们看个简单的例子:
shard node 1: {1、3、5、7、9}
shard node 2: {2、4、6、8、10}
这是做奇偶Sharding 的两个分片,我们假设分页参数设置为每页4条,当前第1页,参数如下:
pageParameter:pageSize:4、currentPage:1
最乐观情况下我们需要分别读取两个分片节点中的前两条:
shard node 1: {1、3}
shard node 2: {2、4}
排序完刚好是{1、2、3、4},但是这种场景基本上不太可能出现,假设如下分片节点数据:
shard node 1: {7、9、11、13、15}
shard node 2: {2、4、6、8、10、12、14}
我们还是按照读取每个节点前两条肯定是错误的,因为最悲观情况下(也是最真实的情况)就是排序完后所有的数据都来自一个分片。所以我们需要读取每个节点的pageSize大小的数据出来才有可能保证数据的正确性。
这个例子只是假设我们的查询条件输出的数据刚好是均等的,真实的情况一定是各种各样的查询条件筛选出来的数据集合,此时这个数据一定不是这样的排列方式,最真实的就是最后者这种结构。
我们以此类推,如果我们的currentPage:1000,那么会出现什么问题?我们需要每个Sharding node读取 4000(1000*4=4000) 条数据出来排序,因为最悲观情况下有可能所有的数据均来自一个Sharding node 。
这样无限制的翻页下去,处理排序分页的机器肯定会内存撑爆,就算不撑爆一定会触发性能瓶颈。
这个简单的例子用来说明分片之后,排序分页带来的现实问题,这也有助于我们理解分布式系统在做多节点排序分页时为什么有最大分页限制。
2、深分页性能问题
面对这种问题,我们需要改变查询条件重新分页。一个庞大的数据集会通过多种方式进行数据拆分,按机构、按时间、按渠道等等,拆分在不同的数据源中。一般的深分页问题我们可以通过改变查询条件来平滑解决,但是这种方案并不能解决所有的业务场景。
比如,我们有一个订单列表,从C端用户来查询自己的订单列表数据量不会很大,但是运营后台系统可能面对全平台的所有订单数据量,所以数据量会很大。
改变查询条件有两种:
第一种条件是显示设置,尽量缩小查询范围,这种设置一般都会优先考虑如时间范围、支付状态、配送状态等等,通过多个叠加条件就可以横竖过滤出很小一部分数据集;
第二种条件为隐式设置,比如订单列表通常是按照订单创建时间来排序,那么当翻页到限制的条件时,我们可以改变这个时间。
Sharding node 1:orderID createDateTime
100000 2018-01-10 10:10:10
200000 2018-01-10 10:10:11
300000 2018-01-10 10:10:12
400000 2018-01-10 10:10:13
500000 2018-01-20 10:10:10
600000 2018-01-20 10:10:11
700000 2018-01-20 10:10:12
Sharding node 2:orderID createDateTime
110000 2018-01-11 10:10:10
220000 2018-01-11 10:10:11
320000 2018-01-11 10:10:12
420000 2018-01-11 10:10:13
520000 2018-01-21 10:10:10
620000 2018-01-21 10:10:11
720000 2018-01-21 10:10:12
我们假设上面是一个订单列表,orderID订单号大家就不要在意顺序性了。因为Sharding之后所有的orderID都会由发号器统一发放,多个集群多个消费者同时获取,但是创建订单的速度是不一样的,所以顺序性已经不存在了。
上面的两个Sharding node基本上订单号是交叉的,如果按照时间排序node 1和node 2是要交替获取数据。
比如我们的查询条件和分页参数:
where createDateTime>'2018-01-11 00:00:00'
pageParameter:pageSize:5、currentPage:1
获取的结果集为:
orderID createDateTime
100000 2018-01-10 10:10:10
200000 2018-01-10 10:10:11
300000 2018-01-10 10:10:12
400000 2018-01-10 10:10:13
110000 2018-01-11 10:10:10
前面4条记录来自node 1后面1条数据来自node 2 ,整个排序集合为:
Sharding node 1:orderID createDateTime
100000 2018-01-10 10:10:10
200000 2018-01-10 10:10:11
300000 2018-01-10 10:10:12
400000 2018-01-10 10:10:13
500000 2018-01-20 10:10:10
Sharding node 2:orderID createDateTime
110000 2018-01-11 10:10:10
220000 2018-01-11 10:10:11
320000 2018-01-11 10:10:12
420000 2018-01-11 10:10:13
520000 2018-01-21 10:10:10
按照这样一直翻页下去每翻页一次就需要在node 1 、node 2多获取5条数据。这里我们可以通过修改查询条件来让整个翻页变为重新查询。
where createDateTime>'2018-01-11 10:10:13'
因为我们可以确定在‘2018-01-11 10:10:13’时间之前所有的数据都已经查询过,但是为什么时间不是从‘2018-01-21 10:10:10’开始,因为我们要考虑并发情况,在1s内会有多个订单进来。
这种方式是实现最简单,不需要借助外部的计算来支撑。这种方式有一个问题就是要想重新计算分页的时候不丢失数据就需要保留原来一条数据,这样才能知道开始的时间在哪里,这样就会在下次的分页中看到这条时间。但是从真实的深分页场景来看也可以忽略,因为很少有人会一页一页一直到翻到500页,而是直接跳到最后几页,这个时候就不存在那个问题。
如果非要精准控制这个偏差就需要记住区间,或者用其他方式来实现了,比如全量查询表、Sharding索引表、最大下单tps值之类的,用来辅助计算。(可以利用数据同步中间件建立单表多级索引、多表多维度索引来辅助计算。我们使用到的数据同步中间件有datax、yugong、otter、canal可以解决全量、增量同步问题)。
三、分表策略
分表有多种方式,mod、rang、preSharding、自定义路由,每种方式都有一定的侧重。
我们主要使用mod + preSharding的方式,这种方式带来的最大的一个问题就是后期的节点变动数据迁移问题,可以通过参考一致性Hash算法的虚拟节点来解决。
数据表拆分和Cache Sharding有一些区别,cache能接受cache miss ,通过被动缓存的方式可以维护起cache数据。但是数据库不存在select miss这种场景。
在Cache Sharding场景下一致性Hash可以用来消除减少、增加Sharding node时相邻分片压力问题。但是数据库一旦出现数据迁移,一定是不能接受数据查询不出来的。所以我们为了将来数据的平滑迁移,做了一个虚拟节点 + 真实节点mapping 。
physics node : node 1 node 2 node 3 node 4
virtual node : node 1 node 2 node 3.....node 20
node mapping :
virtual node 1 ~ node 5 {physics node 1}
virtual node 6 ~ node 10 {physics node 2}
virtual node 11 ~ node 15 {physics node 3}
virtual node 16 ~ node 20 {physics node 4}
为了减少将来迁移数据时rehash的成本和延迟的开销,将Hash后的值保存在表里,将来迁移直接查询出来快速导入。
Hash片2的次方问题
在我们熟悉的HashMap里,为了减少冲突和提供一定的性能将Hash桶的大小设置成2的n次方,然后采用Hash&(legnth-1)位与的方式计算,这样主要是大师们发现2的n次方的二进制除了高位是0之外所有地位都是1,通过位与可以快速反转二进制然后地位加1就是最终的值。
我们在做数据库Sharding的时候不需要参考这一原则,这一原则主要是为了程序内部Hash表使用,外部我们本来就是要Hash mod确定Sharding node 。
通过mod取模的方式会出现不均匀问题,在此基础上可以做个自定义奇偶路由,这样可以均匀两边的数据。
四、一些注意事项
1、在现有项目中集成Sharding-JDBC有一些小问题,Sharding-JDBC不支持批量插入,如果项目中已经使用了大量的批量插入语句就需要改造,或者使用辅助hash计算物理表名,再批量插入。
2、原有项目数据层使用Druid + MyBatis,集成了Sharding-JDBC之后Sharding-JDBC包装了Druid ,所以一些Sharding-JDBC不支持的SQL语句基本就过不去了。
3、使用Springboot集成Sharding-JDBC的时候,在bean加载的时候我需要设置 IncrementIdGenerator ,但是出现classloader问题。
IncrementIdGenerator incrementIdGenerator = this.getIncrementIdGenerator(dataSource);
ShardingRule ShardingRule = ShardingRuleConfiguration.build(dataSourceMap);
((IdGenerator) ShardingRule.getDefaultKeyGenerator()).setIncrementIdGenerator(incrementIdGenerator);
private IncrementIdGenerator getIncrementIdGenerator(DataSource druidDataSource) {
...
}
后来发现Springboot的类加载器使用的是restartclassloader,所以导致转换一直失败。只要去掉spring-boot-devtools package即可,restartclassloader是为了热启动。
4、dao.xml逆向工程问题,我们使用的很多数据库表MyBatis生成工具生成的时候都是物理表名,一旦我们使用了Sharding-JDCB之后都是用的逻辑表名,所以生成工具需要提供选项来设置逻辑表名。
5、为MyBatis提供的SqlSessionFactory需要在Druid的基础上用Sharding-JDCB包装下。
6、Sharding-JDBC DefaultkeyGenerator默认采用是snowflake算法,但是我们不能直接用我们需要根据datacenterid-workerid自己配合Zookeeper来设置 workerId 段。
(snowflake workId 10 bit 十进制 1023,dataCenterId 5 bit 十进制 31 、WorkId 5 bit 十进制 31)
7、由于我们使用的是mysql com.mysql.jdbc.ReplicationDriver自带的实现读写分离,所以处理读写分离会方便很多。如果不是使用的这种就需要手动设置Datasource Hint来处理。
8、在使用MyBatis dao mapper的时候需要多份逻辑表,因为有些数据源数据表是不需要走Sharding的,自定义ShardingStragety来处理分支逻辑。
9、全局ID几种方法:
如果使用 Zookeeper来做分布式ID,就要注意session expired可能会存在重复workid问题,加锁或者接受一定程度的并行(有序列号保证一段时间空间)。
采用集中发号器服务,在主DB中采用预生成表+incrment 插件(经典取号器实现,InnoDB存储引擎中的TRX_SYS_TRX_ID_STORE 事务号也是这种方式)。
定长发号器、业务规则发号器,这种需要业务上下文的发号器实现都需要预先配置,然后每次请求带上获取上下文来说明获取业务类型。
10、在项目中有些地方使用了自增ID排序,数据表拆分之后就需要进行改造,因为ID大小顺序已经不存在了。根据数据的最新排序时使用了ID排序需要改造成用时间字段排序。
原文发布时间为:2018-08-04
本文作者:王清培
本文来自云栖社区合作伙伴“ DBAplus社群”,了解相关信息可以关注“ DBAplus社群”。