MySQL - ORDER BY 详解

  1. 云栖社区>
  2. 前端大学>
  3. 博客>
  4. 正文

MySQL - ORDER BY 详解

技术小能手 2018-08-30 14:50:24 浏览14638
展开阅读全文

1 概述

MySQL有两种方式可以实现ORDER BY

  • 1.通过索引扫描生成有序的结果

  • 2.使用文件排序(filesort)

围绕着这两种排序方式,我们试着理解一下ORDER BY的执行过程以及回答一些常见的问题(下文仅讨论InnoDB存储引擎)。

2 索引扫描排序和文件排序(filesort)简介

我们知道InnoDB存储引擎以B+树作为索引的底层实现,B+树的叶子节点存储着所有数据页而内部节点不存放数据信息,并且所有叶子节点形成一个(双向)链表

举个例子,假设userinfo表的userid字段上有主键索引,且userid目前的范围在1001~1006之间,则userid的索引B+树如下(这里只是为了举例,下图忽略了InnoDB数据页默认大小16KB、双向链表,并且假设B+树度数为3、userid顺序插入):

e72df3aae22b6d795a0b350bf8b29b6358f190c2

现在我们想按照userid从小到大的顺序取出所有用户信息,执行以下SQL:


  1. SELECT *

  2. FROM userinfo

  3. ORDER BY userid;

MySQL会直接遍历上图userid索引的叶子节点链表,不需要进行额外的排序操作。这就是用索引扫描来排序

但如果userid字段上没有任何索引,图1的B+树结构不存在,MySQL就只能先扫表筛选出符合条件的数据,再将筛选结果根据userid排序。这个排序过程就是filesort

下文将详细介绍这两种排序方式。

3 索引扫描排序执行过程分析

介绍索引扫描排序之前,先看看索引的用途

SQL语句中,WHERE子句和ORDER BY子句都可以使用索引:WHERE子句使用索引避免全表扫描,ORDER BY子句使用索引避免filesort(用“避免”可能有些欠妥,某些场景下全表扫描、filesort未必比走索引慢),以提高查询效率。

虽然索引能提高查询效率,但在一条SQL里,对于一张表的查询 一次只能使用一个索引(注:排除发生index merge的可能性),也就是说当WHERE子句与ORDER BY子句要使用的索引不一致时,MySQL只能使用其中一个索引(B+树)。

也就是说,一个既有WHERE又有ORDER BY的SQL中,使用索引有三个可能的场景

  • 只用于WHERE子句 筛选出满足条件的数据

  • 只用于ORDER BY子句 返回排序后的结果

  • 既用于WHERE又用于ORDER BY,筛选出满足条件的数据并返回排序后的结果

举个例子,我们创建一张orderdetail表 记录每一笔充值记录的userid(用户id)、money(充值金额)、createtime(充值时间),主键是自增id:


  1. CREATE TABLE `order_detail` (

  2. `id` int(11) NOT NULL AUTO_INCREMENT,

  3. `userid` int(11) NOT NULL,

  4. `money` float NOT NULL,

  5. `create_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP,

  6. PRIMARY KEY (`id`),

  7. KEY `userid` (`userid`),

  8. KEY `create_time` (`create_time`)

  9. ) ENGINE=InnoDB DEFAULT CHARSET=utf8

写脚本插入100w行数据(InnoDB别用COUNT(*)查总行数,会扫全表,这里只是为了演示):


  1. SELECT COUNT(*) FROM order_detail;

  2. +----------+

  3. | COUNT(*) |

  4. +----------+

  5. | 1000000 |

  6. +----------+

  7. SELECT * FROM order_detail LIMIT 5;

  8. +----+--------+-------+---------------------+

  9. | id | userid | money | create_time |

  10. +----+--------+-------+---------------------+

  11. | 1 | 104832 | 3109 | 2013-01-01 07:40:38 |

  12. | 2 | 138455 | 6123 | 2013-01-01 07:40:42 |

  13. | 3 | 109967 | 7925 | 2013-01-01 07:40:46 |

  14. | 4 | 166686 | 4307 | 2013-01-01 07:40:55 |

  15. | 5 | 119837 | 1912 | 2013-01-01 07:40:58 |

  16. +----+--------+-------+---------------------+

现在我们想取出userid=104832用户的所有充值记录,并按照充值时间create_time正序返回。

场景一 索引只用于WHERE子句

写出如下SQL并EXPLAIN一下:


  1. EXPLAIN

  2. SELECT *

  3. FROM order_detail

  4. WHERE userid = 104832

  5. ORDER BY create_time;

  6. +------+-------------+--------------+------+---------------+--------+---------+-------+------+-----------------------------+

  7. | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

  8. +------+-------------+--------------+------+---------------+--------+---------+-------+------+-----------------------------+

  9. | 1 | SIMPLE | order_detail | ref | userid | userid | 4 | const | 8 | Using where; Using filesort |

  10. +------+-------------+--------------+------+---------------+--------+---------+-------+------+-----------------------------+

key列的值是userid,可以看出这条SQL会使用userid索引用作WHERE子句的条件过滤,而ORDER BY子句无法使用该索引,只能使用filesort来排序。这就是上文的第一个场景,整个执行流程大致如下:

  • 先通过userid索引找到所有满足WHERE条件的主键id(注:从b+树根节点往下找叶子节点,时间复杂度为O(logN))

  • 再根据这些主键id去主键索引(聚簇索引)找到这几行的数据,生成一张临时表(时间复杂度为O(M*logN),M是临时表的行数)

  • 对临时表进行排序(时间复杂度O(M*logM),M是临时表的行数)

由于本例中M的值可以大概参考 rows列的值8,非常小,所以整个执行过程只花费0.00 sec

场景二 索引只用于ORDER BY子句

接下来是上文的第二种场景,索引只用于ORDER BY子句,这即是索引扫描排序

我们可以继续使用上文的SQL,通过FORCE INDEX子句强制Optimizer使用ORDER BY子句的索引create_time


  1. EXPLAIN

  2. SELECT *

  3. FROM order_detail

  4. FORCE INDEX (create_time)

  5. WHERE userid = 104832

  6. ORDER BY create_time;

  7. +------+-------------+--------------+-------+---------------+-------------+---------+------+--------+-------------+

  8. | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

  9. +------+-------------+--------------+-------+---------------+-------------+---------+------+--------+-------------+

  10. | 1 | SIMPLE | order_detail | index | NULL | create_time | 4 | NULL | 998056 | Using where |

  11. +------+-------------+--------------+-------+---------------+-------------+---------+------+--------+-------------+

可以看到Extra字段里的Using filesort已经没了,但是扫过的rows大概有998056行(准确的值应该是1000000行,InnoDB这一列只是估值)。这是因为索引用于ORDER BY子句时,会直接遍历该索引的叶子节点链表,而不像第一种场景那样从B+树的根节点出发 往下查找。执行流程如下:

  • create_time索引的第一个叶子节点出发,按顺序扫描所有叶子节点

  • 根据每个叶子节点记录的主键id去主键索引(聚簇索引)找到真实的行数据,判断行数据是否满足WHERE子句的userid条件,若满足,则取出并返回

整个时间复杂度是O(M*logN),M是主键id的总数,N是聚簇索引叶子节点的个数(数据页的个数)。本例中M的值为1000000,所以整个执行过程比第一种场景花了更多时间,同一台机器上耗时1.34 sec

上述两个例子恰好说明了另一个道理:在某些场景下使用filesort比不使用filesort 效率更高

场景三 索引既用于WHERE又用于ORDER BY

第三种情况发生在WHERE子句与ORDER BY子句能使用相同的索引时(如: WHERE userid > xxx ORDER BY userid),这样就能省去第二种情况的回表查询操作了。

因此,如果可能,设计索引时应该尽可能地同时满足这两种任务,这样是最好的。 ----《高性能MySQL》

4 文件排序(filesort)

关于filesort上文其实已经介绍过了一些。

filesort的名字起得很费解,让人误以为它会:将一张非常大的表放入磁盘再进行排序。其实不是这样的,filesort仅仅是排序而已,是否会放入磁盘看情况而定(filesort is not always bad and it does not mean that a file is saved on disk. If the size of the data is small, it is performed in memory.)。以下是《高性能MySQL》中对filesort的介绍:

如果需要排序的数据量小于“排序缓冲区”,MySQL使用内存进行“快速排序”操作。如果内存不够排序,那么MySQL会先将数据分块,可对每个独立的块使用“快速排序”进行排序,再将各个块的排序结果放到磁盘上,然后将各个排好序的块进行“归并排序”,最后返回排序结果。

所以filesort是否会使用磁盘取决于它操作的数据量大小。

总结来说就是,filesort排序方式来划分 分为两种:

  • 1.数据量小时,在内存中快排

  • 2.数据量大时,在内存中分块快排,再在磁盘上将各个块做归并

数据量大的情况下涉及到磁盘io,所以效率会低一些。

根据回表查询的次数,filesort又可以分为两种方式:

  • 1.回表读取两次数据(two-pass):两次传输排序

  • 2.回表读取一次数据(single-pass):单次传输排序

两次传输排序

两次传输排序会进行两次回表操作:第一次回表用于在WHERE子句中筛选出满足条件的rowid以及rowid对应的ORDER BY的列值;第二次回表发生在ORDER BY子句对指定列进行排序之后,通过rowid回表查出SELECT子句需要的字段信息。

举个例子,我们需要从充值记录表筛选出2018年8月11日到12日的所有userid>140000用户的订单的明细,并按照金额从大到小进行排序(下面只是为filesort举例,不是一种好的实现):


  1. EXPLAIN

  2. SELECT *

  3. FROM order_detail

  4. WHERE create_time >= '2018-08-11 00:00:00' and create_time < '2018-08-12 00:00:00' and userid > 140000

  5. order by money desc;

  6. +------+-------------+--------------+-------+--------------------+-------------+---------+------+------+-----------------------------+

  7. | id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |

  8. +------+-------------+--------------+-------+--------------------+-------------+---------+------+------+-----------------------------+

  9. | 1 | SIMPLE | order_detail | range | userid,create_time | create_time | 4 | NULL | 1 | Using where; Using filesort |

  10. +------+-------------+--------------+-------+--------------------+-------------+---------+------+------+-----------------------------+

我们试着分析一下这个SQL的执行过程:

  • 利用createtime索引,对满足WHERE子句createtime >= '2018-08-11 00:00:00' and create_time < '2018-08-12 00:00:00'的rowid进行回表(第一次回表),回表之后可以拿到该rowid对应的userid,若userid满足userid > 140000的条件时,则将该行的rowid,money(ORDER BY的列)放入排序缓冲区

  • 若排序缓冲区能放下所有rowid, money对,则直接在排序缓冲区(内存)进行快排。

  • 若排序缓冲区不能放下所有rowid, money对,则分块快排,将块存入临时文件(磁盘),再对块进行归并排序。

  • 遍历排序后的结果,对每一个rowid按照排序后的顺序进行回表操作(第二次回表),取出SELECT子句需要的所有字段。

熟悉计算机系统的人可以看出,第二次回表会表比第一次回表的效率低得多,因为第一次回表几乎是顺序I/O;而由于rowid是根据money进行排序的,第二次回表会按照rowid乱序去读取行记录,这些行记录在磁盘中的存储是分散的,每读一行 磁盘都可能会产生寻址时延(磁臂移动到指定磁道)+旋转时延(磁盘旋转到指定扇区),这即是随机I/O

所以为了避免第二次回表的随机I/O,MySQL在4.1之后做了一些改进:在第一次回表时就取出此次查询用到的所有列,供后续使用。我们称之为单次传输排序。

单次传输排序(MySQL4.1之后引入)

还是上面那条SQL,我们再看看单次传输排序的执行过程:

  • 利用createtime索引,对满足WHERE子句createtime >= '2018-08-11 00:00:00' and create_time < '2018-08-12 00:00:00'的rowid进行回表(第一次回表),回表之后可以拿到改rowid对应的userid,若userid满足userid > 140000的条件时,则将此次查询用到该行的所有列(包括ORDER BY列)取出作为一个数据元组(tuple),放入排序缓冲区

  • 若排序缓冲区能放下所有tuples,则直接在排序缓冲区(内存)进行快排。

  • 若排序缓冲区不能放下所有tuples,则分块快排,将块存入临时文件(磁盘),再对块进行归并排序。

  • 遍历排序后的每一个tuple,从tuple中取出SELECT子句需要所有字段。

单次传输排序的弊端在于会将所有涉及到的列都放入排序缓冲区,排序缓冲区一次能放下的tuples更少了,进行归并排序的概率增大。列数据量越大,需要的归并路数更多,增加了额外的I/O开销。所以列数据量太大时,单次传输排序的效率可能还不如两次传输排序

当然,列数据量太大的情况不是特别常见,所以MySQL的filesort会尽可能使用单次传输排序,但是为了防止上述情况发生,MySQL做了以下限制:

  • 所有需要的列或ORDER BY的列只要是BLOB或者TEXT类型,则使用两次传输排序

  • 所有需要的列和ORDER BY的列总大小超过maxlengthforsortdata字节,则使用两次传输排序

我们开发者也应该尽可能让filesort使用单次传输排序,不过EXPLAIN不会告诉我们这个信息,所以我们只能肉眼检查各列的大小看看是否会触发上面两个限制 导致两次传输排序的发生。

5 补充说明

如第3小节所述,既然filesort的效率未必比索引扫描排序低,为什么很多人会想避免filesort呢

谷歌一下using filesort,几乎都是"如何避免filesort"相关的内容:

f9e650b592b8c4f2b3fa9efde077fd46e1ac260d

这是因为通常ORDER BY子句会与LIMIT子句配合,只取出部分行。如果只是为了取出top1的行 却对所有行进行排序,这显然不是一种高效的做法。这种场景下 按顺序取的索引扫描排序可能会比filesort拥有更好性能(当然也有例外)。

Whether the optimizer actually does so depends on whether reading the index is more efficient than a table scan if columns not in the index must also be read.

官方文档告诉我们optimizer会帮我们选择一种高效的ORDER BY方式。

但也不能完全依赖optimizer的判断,这时合理建立索引、引导它使用指定索引可能是更好的选择。


原文发布时间为:2018-08-30

本文作者:llinvokerl

本文来自云栖社区合作伙伴“前端大学”,了解相关信息可以关注“前端大学”。

网友评论

登录后评论
0/500
评论
技术小能手
+ 关注
所属云栖号: 前端大学