likes
comments
collection
share

炸!业界难题,跨库分页的几种常见方案

作者站长头像
站长
· 阅读数 11

为什么需要研究跨库分页?

互联网很多业务都有分页拉取数据的需求,例如:

(1)微信消息过多时,拉取第 N 页消息;

(2)京东下单过多时,拉取第 N 页订单;

(3)浏览 58 同城,查看第 N 页帖子;

这些业务场景对应的消息表,订单表,帖子表分页拉取需求,都有这样一些共同的特点:

(1)有个业务主键 id,  msg_id, order_id, tiezi_id;

(2)分页按照非业务主键 id 来排序,业务中经常按照时间 time 来排序 order by;

在数据量不大时,如何来实现跨库分页的需求呢?

(1)在排序字段 time 上建立索引;

(2)利用 SQL 提供的 offset/limit 就能实现;

例如:

select * from t_msg order by time offset 200 limit 100;

select * from t_order order by time offset 200 limit 100; 

select * from t_tiezi order by time offset 200 limit 100;

画外音:此处假设一页数据为 100 条,均拉取第 3 页数据。

为什么会有分库的需求?

高并发大流量的互联网架构,一般通过服务层来访问数据库,随着数据量的增大,数据库需要进行水平切分,分库后将数据分布到不同的数据库实例(甚至物理机器)上,以达到降低数据量,增加实例数的扩容目的。

一旦涉及分库,逃不开 “分库依据” patition key,要使用哪一个字段来水平切分数据库呢?

大部分的业务场景,会使用业务主键 id。

确定了分库依据 patition key 后,接下来怎么确定分库算法呢?

大部分的业务场景,会使用业务主键 id 取模的算法来分库,这样的好处是:

(1)即能够保证每个库的数据分布是均匀的;

(2)又能够保证每个库的请求分布是均匀的;

实在是简单实现负载均衡的好方法,此法在互联网架构中应用颇多。

一个更具体的例子:

炸!业界难题,跨库分页的几种常见方案

用户库 user,水平切分后变为两个库:

(1)分库依据 patition key 是 uid;

(2)分库算法是 uid 取模:uid%2 余 0 的数据会落到 db0,uid%2 余 1 的数据会落到 db1;

数据库进行了水平切分之后,如果业务要查询 “最近注册的第 3 页用户”,即跨库分页查询,该如何实现呢

单库上,可以

select * from t_user order by time offset 200 limit 100;

变成两个库后,分库依据是 uid,排序依据是 time,数据库层失去了 time 排序的全局视野,数据分布在两个库上,此时该怎么办呢?

如何满足 “跨越多个水平切分数据库,且分库依据与排序依据为不同属性,并需要进行分页” 的查询需求,实现:

select * from T order by time offset X limit Y;

这类跨库分页 SQL,是后文将要讨论的技术问题。

方案一:全局视野法

炸!业界难题,跨库分页的几种常见方案

如上图所述,服务层通过 uid 取模将数据分布到两个库上去之后,每个数据库都失去了全局视野,数据按照 time 局部排序之后,不管哪个分库的第 3 页数据,都不一定是全局排序的第 3 页数据。

那到底哪些数据才是全局排序的第 3 页数据呢?

需要分三种情况讨论。

(1)极端情况,两个库的数据完全一样

炸!业界难题,跨库分页的几种常见方案

如果两个库的数据完全相同,只需要每个库 offset 一半,再取半页,就是最终想要的数据(如上图中粉色部分数据)。

(2)极端情况,结果数据来自一个库

炸!业界难题,跨库分页的几种常见方案

也可能两个库的数据分布及其不均衡,例如 db0 的所有数据的 time 都大于 db1 的所有数据的 time,则可能出现:一个库的第 3 页数据,就是全局排序后的第 3 页数据(如上图中粉色部分数据)。

(3)一般情况,每个库数据各包含一部分

炸!业界难题,跨库分页的几种常见方案

正常情况下,全局排序的第 3 页数据,每个库都会包含一部分(如上图中粉色部分数据)。

由于不清楚到底是哪种情况,所以必须:

(1)每个库都返回 3 页数据;

(2)所得到的 6 页数据在服务层进行内存排序,得到数据全局视野;

(3)再取第 3 页数据,便能够得到想要的全局分页数据。

再总结一下这个方案的步骤:

(1)将 SQL 语句改写,即

order by time offset X limit Y;

改写成

order by time offset 0 limit X+Y;

(2)服务层将改写后的 SQL 语句发往各个分库;

(3)假设共分为 N 个库,服务层将得到 N*(X+Y) 条数据;

(4)服务层对得到的 N*(X+Y) 条数据进行内存排序;

(5)内存排序后再取偏移量 X 后的 Y 条记录,就是全局视野所需的一页数据;

全局视野法有什么优点?

通过服务层修改 SQL 语句,扩大数据召回量,能够得到全局视野,业务无损,精准返回所需数据。

全局视野法的缺点呢?

缺点显而易见:

(1)每个分库需要返回更多的数据,增大了网络传输量(耗网络);

(2)除了数据库按照 time 进行排序,服务层还需要进行二次排序,增大了服务层的计算量(耗 CPU);

(3)最致命的,这个算法随着页码的增大,性能会急剧下降,这是因为 SQL 改写后每个分库要返回 X+Y 行数据:返回第 3 页,offset 中的 X=200;假如要返回第 100 页,offset 中的 X=9900,即每个分库要返回 100 页数据,数据量和排序量都将大增,性能平方级下降。

“全局视野法” 虽然性能较差,但其业务无损,数据精准,不失为一种方案,有没有性能更优的方案呢?

“任何脱离业务的架构设计都是耍流氓”,技术方案需要折衷,在技术难度较大的情况下,业务需求的折衷能够极大的简化技术方案。

方案二:禁止跳页查询法

在数据量很大,翻页数很多的时候,很多产品并不提供 “直接跳到指定页面” 的功能,而只提供 “下一页” 的功能,这一个小小的业务折衷,就能极大的降低技术方案的复杂度。

炸!业界难题,跨库分页的几种常见方案

如上图,不能跳页,那么第一次只能够查第一页:

(1)将查询

order by time offset 0 limit 100;

改写成

order by time where time>0 limit 100;

(2)上述改写和 offset 0 limit 100 的效果相同,都是每个分库返回了一页数据(上图中粉色部分);

炸!业界难题,跨库分页的几种常见方案

(3)服务层得到 2 页数据,内存排序,取出前 100 条数据,作为最终的第一页数据,这个全局的第一页数据,一般来说每个分库都包含一部分数据(如上图粉色部分);

这个方案也需要服务器内存排序,岂不是和 “全局视野法” 一样么?第一页数据的拉取确实一样,但每一次 “下一页” 拉取的方案就不一样了。

点击 “下一页” 时,需要拉取第二页数据,在第一页数据的基础之上,能够找到第一页数据 time 的最大值:

炸!业界难题,跨库分页的几种常见方案

这个上一页记录的 time_max**,会作为第二页数据拉取的查询条件**:

(1)将查询

order by time offset 100 limit 100;

改写成

order by time where time>$time_max limit 100;

炸!业界难题,跨库分页的几种常见方案

(2)这下不是返回 2 页数据了(“全局视野法,会改写成 offset 0 limit 200”),每个分库还是返回一页数据(如上图中粉色部分);

炸!业界难题,跨库分页的几种常见方案

(3)服务层得到 2 页数据,内存排序,取出前 100 条数据,作为最终的第 2 页数据,这个全局的第 2 页数据,一般来说也是每个分库都包含一部分数据(如上图粉色部分);

如此往复,查询全局视野第 100 页数据时,不是将查询条件改写为

offset 0 limit 9900+100;(返回 100 页数据)

而是改写为

time>$time_max99 limit 100;(仍返回一页数据)

以保证数据的传输量和排序的数据量不会随着不断翻页而导致性能下降。

方案三:允许数据精度损失法

“全局视野法” 能够返回业务无损的精确数据,在查询页数较大,例如第 100 页时,会有性能问题,此时业务上是否能够接受,返回的 100 页不是精准的数据,而允许有一些数据偏差呢?

先来了解一下,数据库分库 - 数据均衡原理。

什么是,数据库分库 - 数据均衡原理?

使用 patition key 进行分库,在数据量较大,数据分布足够随机的情况下,各分库所有非 patition key 属性,在各个分库上,数据分布的统计概率情况是一致的。

例如,在 uid 随机的情况下,使用 uid 取模分两库,db0 和 db1:

(1)性别属性,如果 db0 库上的男性用户占比 70%,则 db1 上男性用户占比也应为 70%;

(2)年龄属性,如果 db0 库上 18-28 岁少女用户比例占比 15%,则 db1 上少女用户比例也应为 15%;

(3)时间属性,如果 db0 库上每天 10:00 之前登录的用户占比为 20%,则 db1 上应该是相同的统计规律;

炸!业界难题,跨库分页的几种常见方案

利用这一原理,要查询全局 100 页数据,只要将:

offset 9900 limit 100;

改写为

offset 4950 limit 50;

即每个分库偏移一半(4950),获取半页数据(50 条),得到的数据集的并集,基本能够认为,是全局数据的 offset 9900 limit 100 的数据,当然,这一页数据并不是精准的。

根据实际业务经验,用户都要查询第 100 页网页、帖子、邮件的数据了,这一页数据的精准性损失,业务上往往是可以接受的,但此时技术方案的复杂度大大降低了,既不需要返回更多的数据,也不需要进行服务内存排序了。

画外音:如果业务能够接受,这种方案的性能最好,强烈推荐。

方案四:二次查询法

有没有一种技术方案,即能够满足业务的精确需要,无需业务折衷,又高性能的方法呢?这就是接下来要介绍的终极武器,“二次查询法”。

为了方便举例,假设一页只有 5 条数据,查询第 200 页的 SQL 语句为:

select * from T order by time offset 1000 limit 5;

步骤一:查询改写

select * from T order by time offset 1000 limit 5;

改写为

select * from T order by time offset 500 limit 5;

并投递给所有的分库,注意,这个 offset 的 500,来自于全局 offset 的总偏移量 1000,除以水平切分数据库个数 2。

画外音:因为数据量比较大,数据随机性较强,不妨设仍然符合 “数据库分库 - 数据均衡定理”。

如果是 3 个分库,则可以改写为

select * from T order by time offset 333 limit 5;

假设这三个分库返回的数据 (time, uid) 如下:

炸!业界难题,跨库分页的几种常见方案

可以看到,每个分库都是返回的按照 time 排序的一页数据。

步骤二:找到所返回 3 页全部数据的最小值

第一个库,5 条数据的 time 最小值是 1487501123;

第二个库,5 条数据的 time 最小值是 1487501133;

第三个库,5 条数据的 time 最小值是 1487501143;

炸!业界难题,跨库分页的几种常见方案

故,三页数据中,time 最小值来自第一个库,time_min=1487501123,这个过程只需要比较各个分库第一条数据,时间复杂度很低。

画外音:这个 time_min 非常重要,后文每一个步骤要都要用到 time_min。

步骤三:查询二次改写

第一次改写的 SQL 语句是

select * from T order by time offset 333 limit 5;

第二次要改写成一个 between 语句:

  • between 的起点是 time_min

  • between 的终点是原来每个分库各自返回数据的最大值

第一个分库,第一次返回数据的最大值是 1487501523

所以查询改写为:

select * from T order by time where time between time_min and 1487501523;

第二个分库,第一次返回数据的最大值是 1487501323

所以查询改写为

select * from T order by time where time between time_min and 1487501323;

第三个分库,第一次返回数据的最大值是 1487501553

所以查询改写为

select * from T order by time where time between time_min and 1487501553;

相对第一次查询,第二次查询条件放宽了,故第二次查询会返回比第一次查询结果集更多的数据,假设这三个分库返回的数据 (time, uid) 如下:

炸!业界难题,跨库分页的几种常见方案

可以看到:

分库一的结果集,由于 time_min 来自原来的分库一,所以分库一的返回结果集和第一次查询相同(所以其实这次访问是可以省略的);

分库二的结果集,比第一次多返回了 1 条数据,头部的 1 条记录(time 最小的记录)是新的(上图中粉色记录);

分库三的结果集,比第一次多返回了 2 条数据,头部的 2 条记录(time 最小的 2 条记录)是新的(上图中粉色记录);

步骤四:在每个结果集中虚拟一个 time_min 记录,找到 time_min 在全局的 offset

炸!业界难题,跨库分页的几种常见方案

在第一个库中,time_min 在第一个库的 offset 是 333;

在第二个库中,(1487501133, uid_aa) 的 offset 是 333(根据第一次查询条件得出的),故虚拟 time_min 在第二个库的 offset 是 331;

画外音:从 333 往前推演。

在第三个库中,(1487501143, uid_aaa) 的 offset 是 333(根据第一次查询条件得出的),故虚拟 time_min 在第三个库的 offset 是 330;

画外音:从 333 往前推演。

综上,time_min 在全局的 offset 是 333+331+330=994。

步骤五:既然得到了 time_min 在全局的 offset,就相当于有了全局视野,根据第二次的结果集,就能够得到全局 offset 1000 limit 5 的记录

炸!业界难题,跨库分页的几种常见方案

第二次查询在各个分库返回的结果集是有序的,又知道了 time_min 在全局的 offset 是 994,一路排下来,容易知道全局 offset 1000 limit 5 的一页记录(上图中黄色记录)。

这种方法的优点是:可以精确的返回业务所需数据,每次返回的数据量都非常小,不会随着翻页增加数据的返回量。

帅气不帅气!!!

总结

今天介绍了解决 “跨 N 库分页” 这一难题的四种方法:

方法一:全局视野法

(1)SQL 改写,将

order by time offset X limit Y;

改写成

order by time offset 0 limit X+Y;

(2)服务层对得到的 N*(X+Y) 条数据进行内存排序,内存排序后再取偏移量 X 后的 Y 条记录;

这种方法随着翻页的进行,性能越来越低。

方法二:禁止跳页查询法

(1)用正常的方法取得第一页数据,并得到第一页记录的 time_max;

(2)每次翻页,将

order by time offset X limit Y;

改写成

order by time where time>$time_max limit Y;

以保证每次只返回一页数据,性能为常量。

方法三:允许模糊数据法

(1)SQL 查询改写,将

order by time offset X limit Y;

改写成

order by time offset X/N limit Y/N;

性能很高,但拼接的结果集不精准。

方法四:二次查询法

(1)SQL 改写,将

order by time offset X limit Y;

改写成

order by time offset X/N limit Y;

(2)多页返回,找到最小值 time_min;

(3)between 二次查询

order by time between timeminandtime_min and timeminandtime_i_max;

(4)设置虚拟 time_min,找到 time_min 在各个分库的 offset,从而得到 time_min 在全局的 offset;

(5)得到了 time_min 在全局的 offset,自然得到了全局的 offset X limit Y;

文章比较长,希望大家有收获。

思路比结论更重要。

架构师之路 - 分享技术思路