MySQL相关(终结篇一)- 性能优化(配置及架构)

4,142 阅读19分钟

前言

关于前面讲过的知识点我就不再赘述了,还没看过的朋友可以进入我的首页进行查阅(前言部分附赠飞机票)。这篇文章将是整个专题的总结,而且也是面试官会问到的最高频率的一个问题——“你对 MySQL 的性能优化有什么想法?”

很多出去面试的朋友应该基本上都会被问到这个问题,但是可能能够回答得尽善尽美的比较少,看过我专题且能够消化成自己肚子里的东西的朋友应该可以吊打面试官了哈哈哈哈(针对中高级),希望今天这篇文章之后大家能够对自己脑海中零散知识点进行整合整理,我盼着你们能回来给我报喜(当然吐苦水也可以),也盼着能跟大家一起不断进步。

回到正题,关于这次的 MySQL 性能优化的知识点,我会分成两篇幅的文章来输出,关于 SQL 语句的性能优化我会以单独的篇幅来进行编写,语句优化在实操中是属于性能优化的最高级别的优化点,希望大家也能好好消化。

这个 MySQL 专题是我从年前就一直在准备的,刚好过年在家也没事就一直在思考着要怎么去发表这部分的文章,让大家能够看的时候思路比较清晰,记忆能够更加深刻,最后我是通过先发布脑图,然后再根据脑图的方向进行专题知识点的发表,之后应该也会是这种形式,毕竟,这样我写文章思路清晰,大家看文章的时候思路也清晰嘛,复习知识点的时候也可以根据脑图来。

博文是我从去年开始写的,之前是自己在云笔记上做笔记比较多。我觉得做笔记写总结对自我提升有很大的帮助,而分享出来,也是希望大家能够从中学到新的知识,同时也能帮助我一起不断改进,给我提一些建议,让我在给大家分享总结的东西的同时自己也能查缺补漏(再次感谢一直以来支持我的朋友们 Thanks♪(・ω・)ノ)

关于下一个专题我还没想好要写什么,大家如果有什么想法的话可以在公众号给我留言。

老规矩,先上飞机票:

  1. MySQL相关(一)- 一条查询语句是如何执行的
  2. MySQL相关(二)- 一条更新语句是如何执行的
  3. MySQL相关(番外篇)- innodb 逻辑存储结构
  4. MySQL相关(三)- 索引数据模型推演及 B+Tree 的详细介绍
  5. MySQL相关(四)- 性能优化关键点索引
  6. MySQL相关(五)- 事务特性及隔离级别的详细介绍
  7. MySQL相关(六)- 事务隔离级别的实现方案(MVCC)
  8. MySQL相关(七)- innodb 锁的介绍及使用
  9. MySQL相关(八)- innodb行级锁深入剖析
  10. MySQL相关(九)- 死锁的发生和避免

前面提到的脑图如下,想要完整高清图片可以到微信我的公众号下【6曦轩】下回复 MySQL 脑图获取:

在这里插入图片描述

正文

优化思路

容我再絮絮叨叨

作为架构师或者开发人员,说到数据库性能优化,你的思路是什么样的?

或者具体一点,如果在面试的时候遇到这个问题:你会从哪些维度来优化数据库,你会怎么回答?

通过前面的篇章,相信大家已经慢慢建立了数据库的知识体系,和正确的调优的思路。

我们说到性能调优,大部分时候想要实现的目标是让我们的查询更快。一个查询的动作又是由很多个环节组成的,每个环节都会消耗时间,第一篇章里讲 SQL 语句的执行流程的时候已经分析过了。

我们要减少查询所消耗的时间,就要从每一个环节入手(先上大家比较熟悉的一张图)。

在这里插入图片描述

连接——配置优化

第一个环节是客户端连接到服务端,连接这一块有可能会出现什么样的性能问题?

有可能是服务端连接数不够导致应用程序获取不到连接。比如报了一个 Mysql: error 1040: Too many connections的错误。

我们可以从两个方面来解决连接数不够的问题:

  1. 从服务端来说,我们可以增加服务端的可用连接数。

如果有多个应用或者很多请求同时访问数据库,连接数不够的时候,我们可以: (1)修改配置参数增加可用连接数,修改 max_connections 的大小:
show variables like 'max_connections'; -- 修改最大连接数,当有多个应用连接的时候
(2)或者,或者及时释放不活动的连接。交互式和非交互式的客户端的默认超时时间都是 28800 秒,8 小时,我们可以把这个值调小。
show global variables like 'wait_timeout'; --及时释放不活动的连接,注意不要释放连接池还在使用的连接

  1. 从客户端来说,可以减少从服务端获取的连接数,如果我们想要不是每一次执行 SQL 都创建一个新的连接,应该怎么做?

这个时候我们可以引入连接池,实现连接的重用。
我们可以在哪些层面使用连接池?ORM 层面(MyBatis 自带了一个连接池);或者使用专用的连接池工具(阿里的 Druid、Spring Boot 2.x 版本默认的连接池 Hikari、老牌的 DBCP 和 C3P0)。
当客户端改成从连接池获取连接之后,连接池的大小应该怎么设置呢?大家可能会有一个误解,觉得连接池的最大连接数越大越好,这样在高并发的情况下客户端可以获取的连接数更多,不需要排队。
实际情况并不是这样。连接池并不是越大越好,只要维护一定数量大小的连接池,其他的客户端排队等待获取连接就可以了。有的时候连接池越大,效率反而越低。

  • Druid 的默认最大连接池大小是 8。Hikari 的默认最大连接池大小是 10。为什么默认值都是这么小呢?

在 Hikari 的 github 文档中,给出了一个 PostgreSQL 数据库建议的设置连接池大小的公式: github.com/brettwooldr…
它的建议是机器核数乘以 2 加 1。也就是说,4 核的机器,连接池维护 9 个连接就够了。这个公式从一定程度上来说对其他数据库也是适用的。这里面还有一个减少连接池大小实现提升并发度和吞吐量的案例。

  • 为什么有的情况下,减少连接数反而会提升吞吐量呢?为什么建议设置的连接池大小要跟 CPU 的核数相关呢?

每一个连接,服务端都需要创建一个线程去处理它。连接数越多,服务端创建的线程数就会越多。
CPU 是怎么同时执行远远超过它的核数大小的任务的?时间片。上下文切换。
而 CPU 的核数是有限的,频繁的上下文切换会造成比较大的性能开销。

我们这里说到了从数据库配置的层面去优化数据库。不管是数据库本身的配置,还是安装这个数据库服务的操作系统的配置,对于配置进行优化,最终的目标都是为了更好地发挥硬件本身的性能,包括 CPU、内存、磁盘、网络。

在不同的硬件环境下,操作系统和 MySQL 的参数的配置是不同的,没有标准的配置。前面的篇章中我们也接触了很多的 MySQL 和 InnoDB 的配置参数,包括各种开关和数值的配置,大多数参数都提供了一个默认值,比如默认的 buffer_pool_size,默认的页大小,InnoDB 并发线程数等等。

这些默认配置可以满足大部分情况的需求,除非有特殊的需求,在清楚参数的含义的情况下再去修改它。修改配置的工作一般由专业的 DBA 完成。

至于硬件本身的选择,比如使用固态硬盘,搭建磁盘阵列,选择特定的 CPU 型号这些,更不是我们开发人员关注的重点,这个我们就不做过多的介绍了。

如果想要了解一些特定的参数的含义,官网有一份系统的参数列表可以参考:

dev.mysql.com/doc/refman/…

  • 除了合理设置服务端的连接数和客户端的连接池大小之外,我们还有哪些减少客户 端跟数据库服务端的连接数的方案呢?

我们可以引入缓存。

缓存——架构优化

缓存

在应用系统的并发数非常大的情况下,如果没有缓存,会造成两个问题:一方面是会给数据库带来很大的压力。另一方面,从应用的层面来说,操作数据的速度也会受到影响。

我们可以用第三方的缓存服务来解决这个问题,例如 Redis。

在这里插入图片描述
运行独立的缓存服务,属于架构层面的优化。

为了减少单台数据库服务器的读写压力,在架构层面我们还可以做其他哪些优化措施?

主从复制

如果单台数据库服务满足不了访问需求,那我们可以做数据库的集群方案。

集群的话必然会面临一个问题,就是不同的节点之间数据一致性的问题。如果同时读写多台数据库节点,怎么让所有的节点数据保持一致?

这个时候我们需要用到复制技术(replication),被复制的节点称为 master,复制的节点称为 slave。slave 本身也可以作为其他节点的数据来源,这个叫做级联复制。

在这里插入图片描述

主从复制是怎么实现的呢?更新语句会记录 binlog,它是一种逻辑日志。

有了这个 binlog,从服务器会获取主服务器的 binlog 文件,然后解析里面的 SQL 语句,在从服务器上面执行一遍,保持主从的数据一致。

这里面涉及到三个线程,连接到 master 获取 binlog,并且解析 binlog 写入中继日志,这个线程叫做 I/O 线程。

Master 节点上有一个 log dump 线程,是用来发送 binlog 给 slave 的。

从库的 SQL 线程,是用来读取 relay log,把数据写入到数据库的。

在这里插入图片描述

做了主从复制的方案之后,我们只把数据写入 master 节点,而读的请求可以分担到 slave 节点。我们把这种方案叫做读写分离。

在这里插入图片描述

读写分离可以一定程度低减轻数据库服务器的访问压力,但是需要特别注意主从数据一致性的问题。如果我们在 master 写入了,马上到 slave 查询,而这个时候 slave 的数据还没有同步过来,怎么办?

所以,基于主从复制的原理,我们需要弄明白,主从复制到底慢在哪里?

单线程

在早期的 MySQL 中,slave 的 SQL 线程是单线程。master 可以支持 SQL 语句的并行执行,配置了多少的最大连接数就是最多同时多少个 SQL 并行执行。

而 slave 的 SQL 却只能单线程排队执行,在主库并发量很大的情况下,同步数据肯定会出现延迟。

为什么从库上的 SQL Thread 不能并行执行呢?举个例子,主库执行了多条 SQL 语句,首先用户发表了一条评论,然后修改了内容,最后把这条评论删除了。这三条语句在从库上的执行顺序肯定是不能颠倒的。

insert into user_comments (10000009,'nice');
update user_comments set content ='very good' where id =10000009; 
delete from user_comments where id =10000009;

那么怎么解决这个问题呢?怎么减少主从复制的延迟?

异步与全同步

首先我们需要知道,在主从复制的过程中,MySQL 默认是异步复制的。也就是说,对于主节点来说,写入 binlog,事务结束,就返回给客户端了。对于 slave 来说,接收到 binlog,就完事儿了,master 不关心 slave 的数据有没有写入成功。

在这里插入图片描述
如果要减少延迟,是不是可以等待全部从库的事务执行完毕,才返回给客户端呢?这样的方式叫做全同步复制。从库写完数据,主库才返回给客户端。

这种方式虽然可以保证在读之前,数据已经同步成功了,但是带来的副作用大家应该能想到,事务执行的时间会变长,它会导致 master 节点性能下降。

有没有更好的办法呢?可以既减少 slave 写入的延迟,又不会明显增加 master 返回给客户端的时间?

半同步复制

介于异步复制和全同步复制之间,还有一种半同步复制的方式。

半同步复制是什么样的呢?

主库在执行完客户端提交的事务后不是立刻返回给客户端,而是等待至少一个从库接收到 binlog 并写到 relay log 中才返回给客户端。master 不会等待很长的时间,但是返回给客户端的时候,数据就即将写入成功了,因为它只剩最后一步了:就是读取 relay log,写入从库。

在这里插入图片描述
如果我们要在数据库里面用半同步复制,必须安装一个插件,这个是谷歌的一位工程师贡献的。这个插件在 mysql 的插件目录下已经有提供:

cd /usr/lib64/mysql/plugin/

主库和从库是不同的插件,安装之后需要启用:

--主库执行

INSTALL PLUGIN rpl_semi_sync_master SONAME 'semisync_master.so';
set global rpl_semi_sync_master_enabled=1;
show variables like '%semi_sync%';

--从库执行

INSTALL PLUGIN rpl_semi_sync_slave SONAME 'semisync_slave.so'; 
set global rpl_semi_sync_slave_enabled=1; 
show global variables like '%semi%';

相对于异步复制,半同步复制提高了数据的安全性,同时它也造成了一定程度的延迟,它需要等待一个 slave 写入中继日志,这里多了一个网络交互的过程。所以,半同步复制最好在低延时的网络中使用。

这个是从主库和从库连接的角度,来保证 slave 数据的写入。

另一个思路,如果要减少主从同步的延迟,减少 SQL 执行造成的等待的时间,那有没有办法在从库上,让多个 SQL 语句可以并行执行,而不是排队执行呢?

多库并行复制

怎么实现并行复制呢?设想一下,如果 3 条语句是在三个数据库执行,操作各自的数据库,是不是肯定不会产生并发的问题呢?执行的顺序也没有要求。当然是,所以如果是操作三个数据库,这三个数据库的从库的 SQL 线程可以并发执行。这是 MySQL 5.6 版本里面支持的多库并行复制。

在这里插入图片描述

但是在大部分的情况下,我们都是单库多表的情况,在一个数据库里面怎么实现并行复制呢?或者说,我们知道,数据库本身就是支持多个事务同时操作的;为什么这些事务在主库上面可以并行执行,却不会出现问题呢?

因为他们本身就是互相不干扰的,比如这些事务是操作不同的表,或者操作不同的行,不存在资源的竞争和数据的干扰。那在主库上并行执行的事务,在从库上肯定也是可以并行执行,是不是?比如在 master 上有三个事务同时分别操作三张表,这三个事务是不是在 slave 上面也可以并行执行呢?

异步复制之 GTID 复制

dev.mysql.com/doc/refman/…

所以,我们可以把那些在主库上并行执行的事务,分为一个组,并且给他们编号,这一个组的事务在从库上面也可以并行执行。这个编号,我们把它叫做 GTID(Global Transaction Identifiers),这种主从复制的方式,我们把它叫做基于 GTID 的复制。

在这里插入图片描述

如果我们要使用 GTID 复制,我们可以通过修改配置参数打开它,默认是关闭的:

show global variables like 'gtid_mode';

无论是优化 master 和 slave 的连接方式,还是让从库可以并行执行 SQL,都是从数据库的层面去解决主从复制延迟的问题。

除了数据库本身的层面之外,在应用层面,我们也有一些减少主从同步延迟的方法。

我们在做了主从复制之后,如果单个 master 节点或者单张表存储的数据过大的时候,比如一张表有上亿的数据,单表的查询性能还是会下降,我们要进一步对单台数据库节点的数据分型拆分,这个就是分库分表。

分库分表

垂直分库,减少并发压力。水平分表,解决存储瓶颈。

垂直分库的做法,把一个数据库按照业务拆分成不同的数据库:

在这里插入图片描述

在这里插入图片描述

水平分库分表的做法,把单张表的数据按照一定的规则分布到多个数据库。

在这里插入图片描述

通过主从或者分库分表可以减少单个数据库节点的访问压力和存储压力,达到提升数据库性能的目的,但是如果 master 节点挂了,怎么办?

所以,高可用(High Available)也是高性能的基础。

高可用方案

dev.mysql.com/doc/mysql-h…

主从复制

传统的 HAProxy + keepalived 的方案,基于主从复制。

NDB Cluster

dev.mysql.com/doc/mysql-c…

基于 NDB 集群存储引擎的 MySQL Cluster。

在这里插入图片描述

Galera

galeracluster.com/

一种多主同步复制的集群方案。

在这里插入图片描述

MHA/MMM

tech.meituan.com/2017/06/29/…

MMM(Master-Master replication manager for MySQL),一种多主的高可用架构,是一个日本人开发的,像美团这样的公司早期也有大量使用 MMM。

MHA(MySQL Master High Available)。 BM和 MHA 都是对外提供一个虚拟 IP,并且监控主节点和从节点,当主节点发生故障的时候,需要把一个从节点提升为主节点,并且把从节点里面比主节点缺少的数据补上,把 VIP 指向新的主节点。

MGR

dev.mysql.com/doc/refman/… dev.mysql.com/doc/refman/…

MySQL 5.7.17 版本推出的 InnoDB Cluster ,也叫 MySQL Group Replicatioin (MGR),这个套件里面包括了 mysql shell 和 mysql-route。

在这里插入图片描述
总结一下:

高可用 HA 方案需要解决的问题都是当一个 master 节点宕机的时候,如何提升一个数据最新的 slave 成为 master。如果同时运行多个 master,又必须要解决 master 之间数据复制,以及对于客户端来说连接路由的问题。

不同的方案,实施难度不一样,运维管理的成本也不一样。

以上是架构层面的优化,可以用缓存,主从,分库分表。

第三个环节: 解析器,词法和语法分析,主要保证语句的正确性,语句不出错就没问题。由 Sever 自己处理,跳过。

第四步:优化器 这一节内容我将通过新的篇章来讲述,主要是 SQL 语句性能优化的方面。

总结:优化体系

在这里插入图片描述

除了对于代码、SQL 语句、表定义、架构、配置优化之外,业务层面的优化也不能忽视。举几个例子:

1)在某一年的双十一,为什么会做一个充值到余额宝和余额有奖金的活动(充 300 送 50)?

因为使用余额或者余额宝付款是记录本地或者内部数据库,而使用银行卡付款,需要调用接口,操作内部数据库肯定更快。

2)在去年的双十一,为什么在凌晨禁止查询今天之外的账单?

这是一种降级措施,用来保证当前最核心的业务。

3)最近几年的双十一,为什么提前一个多星期就已经有双十一当天的价格了?预售分流。

在应用层面同样有很多其他的方案来优化,达到尽量减轻数据库的压力的目的,比如限流,或者引入 MQ 削峰,等等等等。

为什么同样用 MySQL,有的公司可以扛住百万千万级别的并发,而有的公司几百个并发都扛不住,关键在于怎么用。所以,用数据库慢,不代表数据库本身慢,有的时候还要往上层去优化。

后话

MySQL 专题到这个篇章就正式结束了,基本上是按照脑图的方向来,所以大家可以对着脑图以及我的博文来进行 MySQL 的复习,基本上面试的问题都有涉及,编写一个专题确实是费脑又费精力费时间的事情,我还是需要大家的关注和点赞来支撑一下哈哈哈~

如果大家觉得写得还有点东西的话帮忙关注一下我的公众号,并且在后台给我留言希望我写哪个专题的东西(现学现卖的如果有什么不对的地方也请帮忙指正,万分感谢),人多的话马上安排上~

还是那样,修整一段时间后会先在公众号推送脑图,然后根据脑图来拟专题的提纲,这样我写得不会云里雾里,大家也会比较有方向地看我的博文,再次感谢大家的支持~

By the way

有问题?可以给我留言或私聊 有收获?那就顺手点个赞呗~

当然,也可以到我的公众号下「6曦轩」,

回复“学习”,即可领取一份 【Java工程师进阶架构师的视频教程】~

回复“面试”,可以获得: 【本人呕心沥血整理的 Java 面试题】

回复“MySQL脑图”,可以获得 【MySQL 知识点梳理高清脑图】

由于我咧,科班出身的程序员,php,Android以及硬件方面都做过,不过最后还是选择专注于做 Java,所以有啥问题可以到公众号提问讨论(技术情感倾诉都可以哈哈哈),看到的话会尽快回复,希望可以跟大家共同学习进步,关于服务端架构,Java 核心知识解析,职业生涯,面试总结等文章会不定期坚持推送输出,欢迎大家关注~~~

在这里插入图片描述