阅读 509

order by是如何工作的?

不经一番寒彻骨,怎得梅花扑鼻香 阅读这篇文章大概需要20分钟!

大家好前面我们了解了count(*)的一些实现方式。今天我们介绍一下order by的实现方式以及内部的涉及到的知识点。

常规排序

先准备一些案例,假设我们的表是这样的。

CREATE TABLE `t` (
	`id` INT ( 11 ) NOT NULL,
	`city` VARCHAR ( 16 ) NOT NULL,
	`name` VARCHAR ( 16 ) NOT NULL,
	`age` INT ( 11 ) NOT NULL,
	`addr` VARCHAR ( 128 ) DEFAULT NULL,
PRIMARY KEY ( `id` ),
KEY `city` ( `city` )) ENGINE = INNODB;
复制代码

根据上述表结构,我们执行以下SQL

select city,name,age from t where city='杭州' order by name limit 1000  ;
复制代码

这个SQL我相信很多人都是用的非常熟练了。那么我们今天讲一些内部是如何实现的。

img

先从丁奇老师那边借鉴一下图

img

从图中可以看到,满足 city='杭州’条件的行,是从 ID_X 到 ID_(X+N) 的这些记录。

那么它的执行流程就是

  1. 因为是需要排序的,所以需要初始化sort_buffer,这个sort_buffer就是用来存放数据的(放入需要排序的字段,上文中是 name,city,age)
  2. 从索引city上找到每一个满足 city='杭州' 的id,就是上文的ID_X
  3. 然后再通过ID_X去主键索引树上寻找对应的ID_X的整行数据(name,city,age)存入sort_buffer
  4. 再回到索引city上继续寻找city='杭州' 的ID
  5. 循环重复的执行3,4步骤,直到不满足条件退出
  6. 退出后对sort_buffer中的数据按照字段name做快速排序(也就order by 后面的字段)
  7. 最后就是返回1000行数据。如果没有limit 1000 的话就是全部返回,下图就是流程图
img

sort_buffer_size

MySQL考虑了在排序的性能上做了如下的优化。通过一个参数做分界值。如果低于这个分界值就采用在内存中完成排序。如果高于分界值就采用在磁盘中完成排序操作。因为数据足够大内存显然是不够用的,然后还会影响其他SQL。

可以用下面介绍的方法,来确定一个排序语句是否使用了临时文件。

/* 打开optimizer_trace,只对本线程有效 */
SET optimizer_trace='enabled=on'; 

/* @a保存Innodb_rows_read的初始值 */
select VARIABLE_VALUE into @a from  performance_schema.session_status where variable_name = 'Innodb_rows_read';

/* 执行语句 */
select city, name,age from t where city='杭州' order by name limit 1000; 

/* 查看 OPTIMIZER_TRACE 输出 */
SELECT * FROM `information_schema`.`OPTIMIZER_TRACE`\G

/* @b保存Innodb_rows_read的当前值 */
select VARIABLE_VALUE into @b from performance_schema.session_status where variable_name = 'Innodb_rows_read';

/* 计算Innodb_rows_read差值 */
select @b-@a;
复制代码

执行上述SQL可得到

img

number_of_tmp_files

通过该参数可以得到是否使用了临时文件,并且使用了多少临时文件。

由图得知 MySQL 将需要排序的数据分成 12 份,每一份单独排序后存在这些临时文件中。然后把这 12 个有序文件再合并成一个有序的大文件。

如果sort_buffer_size大于需要排序的数据量,number_of_tmp_files就为对应的分页数,如果小于,number_of_tmp_files就为0。sort_buffer_size 越小,需要分成的份数越多,number_of_tmp_files 的值就越大。

examined_rows

examined_rows=4000,表示参与排序的行数是 4000 行。

packed_additional_fields

sort_mode 里面的 packed_additional_fields 的意思是,排序过程对字符串做了“紧凑”处理。即使 name 字段的定义是 varchar(16),在排序过程中还是要按照实际长度来分配空间的。


同时,最后一个查询语句 select @b-@a 的返回结果是 4000,表示整个执行过程只扫描了 4000 行。

这里介绍一下innodb与myisam的差别

为了避免对结论造成干扰,我把 internal_tmp_disk_storage_engine 设置成 MyISAM。否则,select @b-@a 的结果会显示为 4001。这是因为查询 OPTIMIZER_TRACE 这个表时,需要用到临时表,而 internal_tmp_disk_storage_engine 的默认值是 InnoDB。如果使用的是 InnoDB 引擎的话,把数据从临时表取出来的时候,会让 Innodb_rows_read 的值加 1。

rowid 排序

上述流程只对原表的数据读了一遍,剩下的操作都是在 sort_buffer 和临时文件中执行的。但这个算法有一个问题,就是如果查询要返回的字段很多的话,那么 sort_buffer 里面要放的字段数太多,这样内存里能够同时放下的行数很少,要分成很多个临时文件,排序的性能会很差。

所以如果单行很大,这个方法效率不够好。

max_length_for_sort_data

接下来,就用上这个参数了。max_length_for_sort_data

max_length_for_sort_data,是 MySQL 中专门控制用于排序的行数据的长度的一个参数。它的意思是,如果单行的长度超过这个值,MySQL 就认为单行太大,要换一个算法。

city,name,age这三个字段的长度大小为36,如果把max_length_for_sort_data设置成16,那么放入sort_buffer的只是name与主键id。排序的结果就因为少了 city 和 age 字段的值,不能直接返回了,整个执行流程就变成如下所示的样子:

  1. 初始化 sort_buffer,确定放入两个字段,即 name 和 id;
  2. 从索引 city 找到第一个满足 city='杭州’条件的主键 id,也就是图中的 ID_X;
  3. 到主键 id 索引取出整行,取 name、id 这两个字段,存入 sort_buffer 中;
  4. 从索引 city 取下一个记录的主键 id;
  5. 重复步骤 3、4 直到不满足 city='杭州’条件为止,也就是图中的 ID_Y;
  6. 对 sort_buffer 中的数据按照字段 name 进行排序
  7. 遍历排序结果,取前 1000 行,并按照 id 的值回到原表中取出 city、name 和 age 三个字段返回给客户端。如下图
img

对比第一个算法,rowid排序多了一步回表操作。所以

examined_rows 的值还是 4000,表示用于排序的数据是 4000 行。但是 select @b-@a 这个语句的值变成 5000。因为这时候除了排序过程外,在排序完成后,还要根据 id 去原表取值。由于语句是 limit 1000,因此会多读 1000 行。

sort_mode也变成了sort_key, rowid ,表示参与排序的只有 name 和 id 这两个字段。

number_of_tmp_files 变成 10 了,是因为这时候参与排序的行数虽然仍然是 4000 行,但是每一行都变小了,因此需要排序的总数据量就变小了,需要的临时文件也相应地变少了。

常规排序 VS rowid 排序

  1. 如果 MySQL 实在是担心排序内存太小,会影响排序效率,才会采用 rowid 排序算法,这样排序过程中一次可以排序更多行,但是需要再回到原表去取数据。
  2. 如果 MySQL 认为内存足够大,会优先选择全字段排序,把需要的字段都放到 sort_buffer 中,这样排序后就会直接从内存里面返回查询结果了,不用再回到原表去取数据。

这也就体现了 MySQL 的一个设计思想:如果内存够,就要多利用内存,尽量减少磁盘访问。

对于 InnoDB 表来说,rowid 排序会要求回表多造成磁盘读,因此不会被优先选择。

介绍了那么多。应该也了解了MySQL 做排序是一个成本比较高的操作。那么你会问,是不是所有的 order by 都需要排序操作呢?如果不排序就能得到正确的结果,那对系统的消耗会小很多,语句的执行时间也会变得更短。

所有order by都需要排序吗?

答案肯定是 的。并不是所有的order by都需要排序。之所以需要排序是因为上面表中的数据是无序的,如果表中是有序的不就不需要排序了嘛!

你可以设想下,如果能够保证从 city 这个索引上取出来的行,天然就是按照 name 递增排序的话,是不是就可以不用再排序了呢?

确实是这样的。所以,我们可以在这个市民表上创建一个 city 和 name 的联合索引,对应的 SQL 语句是:

alter table t add index city_user(city, name);
复制代码

再借鉴一下丁奇老师的图

img

在这个索引里面,我们依然可以用树搜索的方式定位到第一个满足 city='杭州’的记录,并且额外确保了,接下来按顺序取“下一条记录”的遍历过程中,只要 city 的值是杭州,name 的值就一定是有序的。

这样整个查询过程的流程就变成了:

  1. 从索引 (city,name) 找到第一个满足 city='杭州’条件的主键 id;
  2. 到主键 id 索引取出整行,取 name、city、age 三个字段的值,作为结果集的一部分直接返回;
  3. 从索引 (city,name) 取下一个记录主键 id;
  4. 重复步骤 2、3,直到查到第 1000 条记录,或者是不满足 city='杭州’条件时循环结束。
img

可以看到,这个查询过程不需要临时表,也不需要排序。接下来,我们用 explain 的结果来印证一下。

img

从图中可以看到,Extra 字段中没有 Using filesort 了,也就是不需要排序了。而且由于 (city,name) 这个联合索引本身有序,所以这个查询也不用把 4000 行全都读一遍,只要找到满足条件的前 1000 条记录就可以退出了。也就是说,在我们这个例子里,只需要扫描 1000 次。

进一步优化

通过覆盖索引,解决上一段段落的联合索引缺点

针对这个查询,我们可以创建一个 city、name 和 age 的联合索引,对应的 SQL 语句就是:

alter table t add index city_user_age(city, name, age);
复制代码

这时,对于 city 字段的值相同的行来说,还是按照 name 字段的值递增排序的,此时的查询语句也就不再需要排序了。这样整个查询语句的执行流程就变成了:

  1. 从索引 (city,name,age) 找到第一个满足 city='杭州’条件的记录,取出其中的 city、name 和 age 这三个字段的值,作为结果集的一部分直接返回;
  2. 从索引 (city,name,age) 取下一个记录,同样取出这三个字段的值,作为结果集的一部分直接返回;
  3. 重复执行步骤 2,直到查到第 1000 条记录,或者是不满足 city='杭州’条件时循环结束。 流程图explain图如下
img img

可以看到,Extra 字段里面多了“Using index”,表示的就是使用了覆盖索引,性能上会快很多。当然,这里并不是说要为了每个查询能用上覆盖索引,就要把语句中涉及的字段都建上联合索引,毕竟索引还是有维护代价的。这是一个需要权衡的决定。

总结

大概介绍了order by的两种算法的流程。以及优化方式。

只有知道实现流程,才能清楚在潜意识中埋下优秀的表设计观念!

文章分类
后端
文章标签