本文已参与「新人创作礼」活动, 一起开启掘金创作之路。
存储引擎
MySQL体系结构
-
连接层:最上层是一些客户端和链接服务,主要完成一些类似于连接处理、授权认证、及相关的安全方案。服务器也会为安全接入的每个客户端验证它所具有的操作权限。
-
服务层:第二层架构主要完成大多数的核心服务功能,如SQL接口,并完成缓存的查询,SQL的分析和优化,部分内置函数的执行。所有跨存储引擎的功能也在这一层实现,如 过程、函数等。
-
引擎层:存储引擎真正的负责了MySQL中数据的存储和提取,服务器通过API和存储引擎进行通信。不同的存储引擎具有不同的功能,这样我们可以根据自己的需要,来选取合适的存储引擎。
-
存储层:主要是将数据存储在文件系统之上,并完成与存储引擎的交互。
存储引擎简介
存储引擎就是存储数据、建立索引、更新/查询数据等技术的实现方式 。存储引擎是基于表的
,而不是基于库的,所以存储引擎也可被称为表类型。
- 在创建表时,指定存储引擎为innodb
create table 表名(
字段1 字段1类型[comment 字段1注释],
字段2 字段2类型[comment 字段2注释],
字段3 字段3类型[comment 字段3注释],
...
字段n 字段n类型[comment 字段n注释]
)engine = innodb [comment 表注释];
- 查看当前数据库支持的存储引擎
show engines;
比较常见的三种存储引擎:InnoDB、MyISAM、Memory,下面一一介绍
三种存储引擎
InnoDB(重点)
➢ 介绍
InnoDB是一种兼顾高可靠性和高性能的通用存储引擎,在 MySQL 5.5 之后,InnoDB是默认的 MySQL 存储引擎。
➢ 特点
DML操作遵循ACID模型,支持事务
;
行级锁
,提高并发访问性能;
支持外键FOREIGN KEY
约束,保证数据的完整性和正确性;
➢ 文件
xxx.ibd:xxx代表的是表名,innoDB引擎的每张表都会对应这样一个表空间文件
,存储该表的表结构(frm、sdi)、数据和索引。
参数:show variables like 'innodb_file_per_table';
ibd是二进制文件,想要查看表结构用ibd2sdi命令
一个表空间当中包含多个段,而在一个段中又会包含多个区,一个区又包含多个页,页包含多个行,这个行就是表中一行一行的记录,而一行中又会包含多个字段,在innodb的逻辑结构当中,page页是磁盘操作的最小单元,而一个extent区大小是固定1M的,一个page页的大小也是固定16k的,所以一个区可以包含64个页。
MyISAM
➢ 介绍
MyISAM是MySQL早期的默认存储引擎。
➢ 特点
不支持事务,不支持外键
支持表锁,不支持行锁
访问速度快
➢ 文件
xxx.sdi:存储表结构信息
xxx.MYD: 存储数据
xxx.MYI: 存储索引
Memory
➢ 介绍 Memory引擎的表数据时存储在内存中的,由于受到硬件问题、或断电问题的影响,只能将这些表作为临时表或缓存使用。 ➢ 特点 内存存放 hash索引(默认) ➢ 文件 xxx.sdi:存储表结构信息
三种引擎特点总结
特点 | InnoDB | MyISAM | Memory |
---|---|---|---|
存储限制 | 64TB | 有 | 有 |
事务安全 | 支持 | - | - |
锁机制 | 行锁 | 表锁 | 表锁 |
B+tree索引 | 支持 | 支持 | 支持 |
Hash索引 | - | - | 支持 |
全文索引 | 支持(5.6版本之后) | 支持 | - |
空间使用 | 高 | 低 | N/A |
内存使用 | 高 | 低 | 中等 |
批量插入速度 | 低 | 高 | 高 |
支持外键 | 支持 | - | - |
存储引擎选择
在选择存储引擎时,应该根据应用系统的特点选择合适的存储引擎。对于复杂的应用系统,还可以根据实际情况选择多种存储引擎进行组合。
-
innoDB: 是Mysql的默认存储引擎,支持事务、外键。如果应用
对事务的完整性有比较高的要求,在并发条件下要求数据的一致性
,数据操作除了插入和查询之外,还包含很多的更新、删除操作,那么InnoDB存储引擎是比较合适的选择。存储业务系统中对于事务、数据完整性要求较高的核心数据。 -
MyISAM :如果应用是以读操作和插入操作为主,只有很少的更新和删除操作,并且对事务的完整性、并发性要求不是很高,那么选择这个存储引擎是非常合适的。存储业务系统的非核心事务。
-
MEMORY:将所有数据保存在内存中,访问速度快,通常用于临时表及缓存。MEMORY的缺陷就是对表的大小有限制,太大的表无法缓存在内存中,而且无法保障数据的安全性。
存储疫情总结
- 体系结构 连接层、服务层、引擎层、存储层
- 存储引擎简介
SHOW ENGINES;
CREATE TABLE XXX.... ENGINE=INNODB;
-
存储引擎特点 INNODB与MyISAM:事务、外键、行级锁
-
存储引擎应用 INNODB:存储业务系统中对于事务、数据完整性要求较高的核心数据。 MyISAM:存储业务系统的非核心事务。
索引
索引概述
-
介绍:索引(index)是帮助MySQL
高效获取数据的数据结构(有序)
。在数据之外,数据库系统还维护着满足特定查找算法的数据结构,这些数据结构以某种方式引用(指向)数据,这样就可以在这些数据结构上实现高级查找算法,这种数据结构就是索引。 -
演示:注意下图二叉树索引结构的只是一个示意图,并不是真实的索引结构
-
优缺点
优势 | 劣势 |
---|---|
提高数据检索的效率,降低数据库的IO成本 | 索引列也是要占用空间的。 |
通过索引列对数据进行排序,降低数据排序的成本,降低CPU的消耗。 | 索引大大提高了查询效率,同时却也降低更新表的速度,如对表进行INSERT、UPDATE、DELETE时,效率降低。 |
索引结构
概述
MySQL的索引是在存储引擎层实现的,不同的存储引擎有不同的结构,主要包含以下几种:
索引结构 | 描述 |
---|---|
B+Tree索引 | 最常见的索引类型,大部分引擎都支持B+树索引 |
Hash索引 | 底层数据结构是用哈希表实现的,只有精确匹配索引列的查询才有效不支持范围查询 |
R- tree(空间索引) | 空间索引是MyISAM引擎的一个特殊索引类型,主要用于地理空间数据类型,通常使用较少 |
Full-ext(全文索引) | 是一种通过建立倒排索引快速匹配文档的方式。类似于Lucene,Solt,ES |
索引 | InnoDB | MyISAM | Memory |
---|---|---|---|
B+tree索引 | 支持 | 支持 | 支持 |
Hash索引 | 不支持 | 不支持 | 支持 |
R-tree索引 | 不支持 | 支持 | 不支持 |
Full-text | 5.6版本之后支持 | 支持 | 不支持 |
我们平常所说的索引,如果没有特别指明,都是指B+树结构组织的索引。
BST,AVL,RBT
二叉树缺点:顺序插入时,会形成一个链表(退化),查询性能大大降低。 大数据量情况下,层级较深,检索速度慢。
平衡树和红黑树:虽然解决了二叉树退化的问题,但是
大数据量情况下,层级较深,检索速度慢。
要想解决大数据量情况下层数较深的问题,我们该怎么办呢,我们能不能构造一棵树,让这棵树下面有多个子节点呢?
Hash
哈希索引就是采用一定的hash算法,将键值换算成新的hash值,映射到对应的槽位上,然后存储在hash表中。如果两个(或多个)键值,映射到一个相同的槽位上,他们就产生了hash冲突(也称为hash碰撞),可以通过链表来解决。
Hash索引特点:
- Hash索引只能用于对等比较(=,in),不支持范围查询(between,>,< ,...)
- 无法利用索引完成排序操作
- 查询效率高,通常只需要一次检索就可以了,效率通常要高于B+tree索引
在MySQL中,支持hash索引的是Memory引擎,而InnoDB中具有自适应hash功能,hash索引是存储引擎根据B+Tree索引在指定条件下自动构建的。
B-Tree
- B-Tree(
多路
平衡查找树):以一颗最大度数(max-degree)为5(5阶)的b-tree为例(每个节点最多存储4个key,5个指针):
树的度数指的是一个节点的子节点个数。
具体动态变化的过程可以参考网站:www.cs.usfca.edu/~galles/vis…
B+Tree(重点)
- B+Tree:以一颗最大度数(max-degree)为4(4阶)的b+tree为例:
相对于B-Tree区别:
- 所有的数据都会出现在叶子节点
- 叶子节点形成一个单向链表
MySQL索引数据结构对经典的B+Tree进行了优化
。在原B+Tree的基础上,增加一个指向相邻叶子节点的链表指针(即优化为双向链表),就形成了带有顺序指针的B+Tree,提高区间访问的性能。
思考:为什么使用B+Tree
为什么InnoDB存储引擎选择使用B+tree索引结构?
- 相对于BST,AVL,RBT,层级更少,搜索效率高;
- 对于B-Tree,无论是叶子节点还是非叶子节点,都会保存数据,这样导致一页中存储的键值减少,指针跟着减少,要同样保存大量数据,只能增加树的高度,导致性能降低;
- 相对Hash索引,B+tree支持范围匹配及排序操作;
索引分类
分类 | 含义 | 特点 | 关键字 |
---|---|---|---|
主键索引 | 针对于表中主键创建的索引 | 默认自动创建 , 只能有一个 | PRIMARY |
唯一索引 | 避免同一个表中某数据列中的值重复 | 默认自动创建 , 可以有多个 | UNIQUE |
常规索引 | 快速定位特定数据 | 可以有多个 | |
全文索引 | 全文索引查找的是文本中的关键词,而不是比较索引中的值 | 可以有多个 | FULLTEXT |
聚集/非聚集索引
在InnoDB存储引擎中,根据索引的存储形式
,又可以分为以下两种:
分类 | 含义 | 特点 |
---|---|---|
聚集索引(Clustered Index) | 将数据存储与索引放到了一块,索引结构的叶子节点保存了行数据 | 必须有,而且只有一个 |
二级索引(Secondary Index,又叫辅助索引,非聚集索引) | 将数据与索引分开存储,索引结构的叶子节点关联的是对应的主键 | 可以存在多个 |
聚集索引选取规则:
- 如果存在主键,主键索引就是聚集索引。
- 如果不存在主键,将使用第一个唯一(UNIQUE)索引作为聚集索引。
- 如果表没有主键,或没有合适的唯一索引,则InnoDB会自动生成一个rowid作为隐藏的聚集索引。
回表查询
根据name去查,将会走name字段的二级索引,拿到对应主键id后会去上面的聚集索引去找这一行的数据,这个过程就叫==回表查询,即先走二级索引找到对应的主键值,再根据主键值到聚集索引中拿到这一行的行数据==
索引思考题
InnoDB主键索引的B+tree高度为多高呢? 假设: 一行数据大小为1k,一页中可以存储16行这样的数据。InnoDB的指针占用6个字节的空间,主键类型为bigint,占用字节数为8。 高度为2: n8+(n+1)6=161024,算出n约为1170,指针为1171个 数据量大概就是117116=18736条记录 高度为3: 1171117116=21939856条记录 解释:假设一行数据是1k,1页16k,所以一页可以存储16行数据,而innoDB的指针占用固定6字节,那么key占用的字节呢,是取决于主键的类型,如果是int就是4个字节,如果是bigint就是8个字节,接下来就可以估算一下。如果树的高度为2,那么非叶子节点可以存储多少个key多少个指针呢?指针永远比key多1个,所以可以列出n8+(n+1)6=161024,算出n约为1170,指针为1171个,在树的高度为2的情况下,每一个指针其实就指向叶子节点,所以高度为2能存储的数据量大概就是117116=18736条记录,如果高度为3就是1171117116=21939856条记录,因为1171个指针指向1171个子节点,而这些子节点又各自指向1171个叶子节点。
索引语法
- 创建索引:unique代表创建唯一索引,要求该字段是唯一的,fulltext代表全文索引,如果不选则代表是常规索引。后面的...代表一个索引可以关联多个字段,如果只关联一个字段则成为单列索引,如果关联多个字段则成为联合索引
create [unique|fulltext] index index_name on table_name(index_col_name,...);
- 查看索引
show index from table_name;
- 删除索引
drop index index_name on table_name;
完成需求
按照下列的需求,完成索引的创建
- name字段为姓名字段,该字段的值可能会重复,为该字段创建索引。
- phone手机号字段的值,是非空,且唯一的,为该字段创建唯一索引。
- 为profession、age、status创建联合索引。
- 为email建立合适的索引来提升查询效率。
-- 1. name字段为姓名字段,该字段的值可能会重复,为该字段创建索引。
create index idx_user_name on tb_user(name);
-- 2. phone手机号字段的值,是非空,且唯一的,为该字段创建唯一索引。
create unique index idx_user_phone on tb_user(phone);
-- 3. 为profession、age、status创建联合索引。
create index idx_user_pro_age_sta on tb_user(profession,age,status);
-- 4. 为email建立合适的索引来提升查询效率。
create index idx_user_email on tb_user(email);
show index from tb_user;
drop index idx_user_email on tb_user;
SQL性能分析
为什么要学习sql性能分析,因为我们要做sql优化,而我们要做sql优化,首先要定位出对哪一类sql进行优化,这个时候我们就需要知道每一个sql的执行性能是什么样的。对于sql优化,我们主要优化的是什么?==实际上主要优化的是查询语句==,而在优化查询语句的时候,==索引这一块的优化占据了主导的地位==,所以下面介绍sql性能分析的工具,为后面索引的使用,sql的优化来做准备。
SQL执行频率
MySQL 客户端连接成功后,通过 show [session|global] status 命令可以提供服务器状态信息。通过如下指令,可以查看当前数据库的INSERT、UPDATE、DELETE、SELECT的访问频次:
通过这条指令就能知道当前数据库是插入删除更新为主还是查询为主,如果发现这个数据库的查询占据了绝大部分
,那么此时就要对这一类的数据库进行sql优化。
show global status like 'Com______';
慢查询日志
如果我们已经确定了当前数据库的查询居多,那么此时我们要针对当前数据库进行优化,那么我们应该对当前数据库的哪些sql进行优化呢?我们可以借助==慢查询日志来定位sql语句,来找到哪些sql语句执行效率比较低==,从而对这类sql语句进行优化。
慢查询日志记录了所有执行时间超过指定参数(long_query_time,单位:秒,默认10秒)的所有SQL语句的日志。
MySQL的慢查询日志默认没有开启,需要在MySQL的配置文件(/etc/my.cnf)中配置添加如下信息:
#开启MySQL慢日志查询开关
slow_query_log=1
#设置慢日志的时间为2秒,SQL语句执行时间超过2秒,就会视为慢查询,记录慢查询日志
long_query_time=2
配置完毕之后,通过以下指令重新启动MySQL服务器进行测试,查看慢日志文件中记录的信息 /var/lib/mysql/localhost-slow.log。
查看是否开启慢日志
show variables like 'slow_query_log';
profile详情
show profiles 能够在做SQL优化时帮助我们了解时间都耗费到哪里去了。通过have_profiling参数,能够看到当前MySQL是否支持
profile--->查询各个阶段的耗时情况
select @@have_profiling;
默认profiling是关闭的,可以通过set语句在session/global级别开启profiling:
select @@profiling;
set profiling = 1;
执行一系列的业务SQL的操作,然后通过如下指令查看指令的执行耗时:
#查看每一条SQL的耗时基本情况
show profiles;
#查看指定query_id的SQL语句各个阶段的耗时情况
show profile for query query_id;
#查看指定query_id的SQL语句CPU的使用情况
show profile cpu for query query_id;
explain执行计划
explain在sql优化当中占非常重要的地位,我们经常通过它来判定sql语句的性能,==通过explain可以看到sql语句的执行计划==,执行过程中到底是否用到了索引,表的连接情况,表的连接顺序都可以看看到。
EXPLAIN 或者 DESC命令获取 MySQL 如何执行 SELECT 语句的信息,包括在 SELECT 语句执行过程中表如何连接和连接的顺序。
#直接在select语句之前加上关键字explain / desc
explain/desc select 字段列表 from 表名 where 条件;
EXPLAIN 执行计划各字段含义:
-
id:select查询的序列号,表示查询中执行select子句或者是==操作表的顺序==(id相同【一般多表联查】,执行顺序从上到下;id不同【一般子查询】,值越大,越先执行,一般是在多表查询中)。
-
select_type:==表示select的类型==,常见的取值有simple(简单表,即不使用表连接或者子查询),primary(主查询,即外层的查询),union(union中的第二个或者后面的查询语句),subquery(select/where之后包含了子查询)等
-
type:==表示连接类型,性能由好到差==的连接类型为NULL、system、const、eq_ref、ref、range、 index、all 。(查询的时候不访问任何表时为null,访问系统表为system,根据主键或者唯一索引一般是const,使用非唯一索引就会出现ref。index代表虽然用了索引但是为遍历整个索引,all代表全表扫描,尽量不要出现all。)
-
possible_key:显示可能应用在这张表上的索引,一个或多个。
-
Key:实际使用的索引,如果为NULL,则没有使用索引。
-
Key_len:表示索引中使用的字节数, 该值为索引字段最大可能长度,并非实际使用长度,在不损失精确性的前提下, 长度越短越好 。
-
rows:MySQL认为必须要执行查询的行数,在innodb引擎的表中,是一个估计值,可能并不总是准确的。
-
filtered:表示返回结果的行数占需读取行数的百分比, filtered 的值越大越好
-
extra:额外的信息展示
索引使用规则
验证索引效率
- 在未建立索引之前,执行如下SQL语句,查看SQL的耗时。
SELECT* FROM tb_sku WHERE sn= '100000003145001;
- 针对字段创建索引
create index idx_sku_sn on tb_sku(sn) ;
- 然后再次执行相同的SQL语句,再次查看SQL的耗时。
SELECT* FROM tb_sku WHERE sn= '100000003145001;
最左前缀法则
分析:如果索引了多列(联合索引),要遵守最左前缀法则。最左前缀法则指的是查询必须包含索引的最左一列,并且不跳过索引中的列,如果跳跃某一列,索引将部分失效(后面的字段索引失效)。
注意:是包含联合索引的第一列,与查询的位置无关!见下列第一个测试
现有一个联合索引,下面演示最左前缀法则
show index from tb_user;
tb_user,1,idx_user_pro_age_sta,1,profession
tb_user,1,idx_user_pro_age_sta,2,age
tb_user,1,idx_user_pro_age_sta,3,status
- 符合最左前缀法则,并且没有跳过任何一列
explain select * from tb_user where profession='软件工程' and age=31 and status='0';
explain select * from tb_user where age=31 and profession='软件工程' and status='0';
possible_keys ,key ,key_len,ref
idx_user_pro_age_sta,idx_user_pro_age_sta,54 ,"const,const,const"
- 符合最左前缀法则,并且没有跳过任何一列,只是条件不包含status了,可以看出status字段长度为5
explain select * from tb_user where profession='软件工程' and age=31;
explain select * from tb_user where age=31 and profession='软件工程';
possible_keys ,key ,key_len,ref
idx_user_pro_age_sta,idx_user_pro_age_sta,49,"const,const"
- 符合最左前缀法则,只是条件不包含age和status,但是包含索引的最左一列,所以还是走索引。可以看出profession字段长度为47,age字段长度为2。
explain select * from tb_user where profession='软件工程';
possible_keys ,key ,key_len,ref
idx_user_pro_age_sta,idx_user_pro_age_sta,47,const
- 不符合最左前缀法则,不包含包含索引的最左一列,不走索引
explain select * from tb_user where age=31 and status='0';
possible_keys ,key ,key_len,ref
null ,null ,null ,null
- 从key_len等于47可以看出只有profession走了索引,status没有走索引,所以部分失效。因为如果跳跃某一列,索引将部分失效(后面的字段索引失效)。
explain select * from tb_user where profession='软件工程' and status='0';
possible_keys ,key ,key_len,ref
idx_user_pro_age_sta,idx_user_pro_age_sta,47,const
范围查询
分析:联合索引中,出现范围查询(>,<),==范围查询右侧的列索引失效==
从下面的测试中可以看到ken_len=49,走了profession和age索引,而age中出现了范围查询,所以age右侧的列索引失效,即status失效
explain select * from tb_user where profession='软件工程' and age>30 and status='0';
possible_keys ,key ,key_len,ref
idx_user_pro_age_sta,idx_user_pro_age_sta,49
规避方案:用到大于小于的地方,==尽量使用大于等于或者小于等于去替换大于和小于,这样就不会出现部分失效的情况==。
possible_keys ,key ,key_len
idx_user_pro_age_sta,idx_user_pro_age_sta,54
索引列运算
分析:不要在索引列上进行运算操作, 索引将失效。
没有运算操作前,走了phone索引
explain select * from tb_user where phone='17799990015';
possible_keys ,key ,key_len
idx_user_phone,idx_user_phone,46
对字符串进行函数运算,索引失效
explain select * from tb_user where substring(phone,10,2)='15';
possible_keys ,key ,key_len
null,null,null
字符串不加引号
分析:字符串类型字段使用时,不加引号, 索引将失效。
字符串类型字段使用时,加了引号,正常走索引
explain select * from tb_user where phone='17799990015';
possible_keys ,key ,key_len
idx_user_phone,idx_user_phone,46
字符串类型字段使用时,不加引号,可以正常查询,但是不走索引
explain select * from tb_user where phone=17799990015;
possible_keys ,key ,key_len
idx_user_phone ,null ,null
#status没有走索引,status失效
explain select * from tb_user where profession='软件工程' and age>=30 and status=0;
possible_keys ,key ,key_len
idx_user_pro_age_sta,idx_user_pro_age_sta,49
模糊查询
分析:如果仅仅是尾部模糊匹配,索引不会失效。如果是头部模糊匹配,索引失效。
尾部模糊,不失效
explain select * from tb_user where profession like '软件%'
possible_keys ,key ,key_len
idx_user_pro_age_sta,idx_user_pro_age_sta,47
头部模糊,索引失效
explain select * from tb_user where profession like '%工程'
possible_keys ,key ,key_len
null ,null ,null
or连接的条件
分析:用or分割开的条件, 如果or一侧有索引,一侧没有索引,那么涉及的索引都不会被用到。只有两边都有索引的时候才会走索引。
因为age没有索引,所以不走索引,而是全表扫描,因为explain中type为all
explain select * from tb_user where age=18 or id=1;
possible_keys ,key ,key_len
PRIMARY ,null ,null
给age创建一个索引,使得两边都有索引,所以走了索引
create index idx_user_age on tb_user(age);
explain select * from tb_user where age=18 or id=1;
possible_keys ,key ,key_len
"PRIMARY,idx_user_age","idx_user_age,PRIMARY","2,4"
数据分布影响
分析:如果MySQL评估使用索引比全表更慢,则不使用索引。
现在一共有20条数据,手机号依次0到20
# 不走索引,type=all,全表扫描
select * from tb_user where phone >= '17799990000';
possible_keys ,key ,key_len
idx_user_phone,null,null
# 走了索引
select * from tb_user where phone >= '17799990020';
possible_keys ,key ,key_len
idx_user_phone,idx_user_phone,46
为什么会放弃索引走全表扫描呢,原因是因为,phone大于0的,这张表的数据都是大于等于0的,那么此时mysql就认为走索引的效率还不如全表扫描,因为==全表扫描绝大部分的数据都是符合这个条件==的,那就直接走全表扫描更快速
SQL提示
SQL提示,是优化数据库的一个重要手段,简单来说,就是在SQL语句中加入一些人为的提示来达到优化操作的目的。如果有多个索引,要求数据库按照我指定的索引去查询,这个就叫sql提示。
use index:告诉数据库用哪个索引,只是一个建议,mysql不一定采用
explain select * from tb_user use index(idx_user_pro) where profession='软件工程';
ignore index:告诉数据库不用哪个索引
explain select * from tb_user ignore index(idx_user_pro) where profession='软件工程';
force index:告诉数据库必须用哪个索引
explain select * from tb_user force index(idx_user_pro) where profession='软件工程';
现有2个索引,1个profession的单列索引,一个pro_age_sta的联合索引,默认情况下走联合索引
使用 SQL提示
覆盖索引
分析:尽量使用覆盖索引(查询使用了索引,并且==需要返回的列,在该索引中已经全部能够找到==),减少select *,因为select * 很容易出现回表查询
解释:覆盖索引是针对select后要查询的字段进行优化,那么什么是覆盖索引呢,如果知道二级索引下面连接的是主键id,那么如果查询的是索引列与主键id,那么此时就是覆盖索引,索引列在索引里面已经有了,而主键也在索引连着,这个时候就不用回表查询了,所以覆盖索引比回表索引的效率高。而如果select后面出现了一个不是索引里面的列,也不是主键的时候,那就必须要回表查询了。
如下:现有联合索引pre_age_sta,在第二条sql中,profession,age在联合索引中都有,而id正是联合索引叶子节点存的值,此时就是覆盖索引,在第一条sql中,gender不在联合索引中,必须回表查询才能查到gender的值。
using index condition :查找使用了索引,但是需要回表查询数据
using where; using index :查找使用了索引,但是需要的数据都在索引列中能找到,所以不需要回表查询数据
例:一张表, 有四个字段(id, username, password, status),由于数据量大, 需要对以下SQL语句进行优化, 该如何进行才是最优方案:
select id,username, password from tb user where username= 'itcast';
既然是要最优,那么就建立联合索引,这样查询id,username,password时就是覆盖索引,不需要回表
create index idx_user_user_pass on user(username,password);
前缀索引
当字段类型为字符串(varchar,text等)时,有时候需要索引很长的字符串,这会让索引变得很大,查询时,浪费大量的磁盘IO,影响查询效率。此时可以只将字符串的一部分前缀,建立索引,这样可以大大节约索引空间,从而提高索引效率。
前缀索引是用来解决大文本或者长字符串进行索引,而索引过于庞大,浪费大量的磁盘IO的情况。这个时候使用前缀索引降低索引的体积来提供索引的效率。
- 语法:其中n就是取前面n个字符
create index idx_name on table_name(column(n));
- 前缀长度
可以根据索引的选择性来决定,而选择性是指不重复的索引值(基数)和数据表的记录总数的比值,索引选择性越高则查询效率越高。 唯一索引的选择性是1,这是最好的索引选择性,性能也是最好的。
select count(distinct email) / count(*) from tb_user;
select count(distinct substring(email,1 ,5)) / count(*) from tb_user;
取email的前五个字符的选择性是0.9583
create index idx_email_5 on tb_user(email(5));
前缀索引查询流程:首先取前5个字符取走前缀索引,找到第一个符合的id,回表查询吧id为1的row取出来再与lvbu666@163.com进行对比,因为之前对比的是前5个字符,现在对比的是整体。然后回到二级索引lvbu6的位置再去看下一个元素是不是lvbu6,如果不是就直接返回,如果就重复上面的步骤。
单列索引与联合索引
单列索引:即一个索引只包含单个列。 联合索引:即一个索引包含了多个列。 在业务场景中,如果==存在多个查询条件==,考虑针对于查询字段建立索引时,==建议建立联合索引==,而非单列索引。
联合索引情况:
每个节点存储的值就是联合索引组成的值,会先按照第一个索引进行排序,如果第一个索引相同再按照第二个索引排序,以此类推。建立出来的联合索引属于二级索引,叶子节点连接的是对应的主键
索引设计原则
- 针对于数据量较大(超过一百多万), 且==查询比较频繁==的表建立索引。
- 针对于常作为查询条件 (where) 、排序(orderby) 、分组(group by)操作的字段建立索引。
- 尽量选择区分度高的列作为索引, 尽量建立唯一索引,区分度越高,使用索引的效率越高。
- 如果是字符串类型的字段, 字段的长度较长,可以针对于字段的特点,建立前缀索引。
- 尽量使用联合索引, 减少单列索引,查询时,联合索引很多时候可以覆盖索引,节省存储空间,避免回表,提高查询效率。
- 要控制索引的数量, 索引并不是多多益善,索引越多,维护索引结构的代价也就越大,会影响增删改的效率。
- 如果索引列不能存储NULL值,请在创建表时使用NOT NULL约束它。当优化器知道每列是否包含NULL值时,它可以更好地确定哪个索引最有效地用于查询。
索引总结
- 索引概述
索引是高效获取数据的数据结构
- 索引结构
B+Tree Hash
- 索引分类
主键索引、唯一索引、常规索引、全文索引 聚集索引、二级索引
- 索引语法
create [unique|fulltext] index index_name on table_name(index_col_name,...);
show index from table_name;
drop index index_name on table_name;
- SQL性能分析
执行频次、慢查询日志、profile、explain
- 索引使用
联合索引 索引失效 SQL提示 覆盖索引 前缀索引 单列/联合索引
- 索引设计原则
表 字段 索引
SQL优化
插入数据
insert优化
我们知道插入数据是insert插入,我们可以从以下三个方面进行优化。第一个方面,执行批量插入,也就是说不要一条insert一条insert去执行了,因为每一次insert都要进行网络传输,性能相对来说较低。如果一次性要插入多条数据,可以通过一条sql语句来完成,不过一次性插入的数据建议控制到500-1000条;第二种方式建议使用手动提交事务,因为mysql事务提交默认是自动提交,就会涉及到频繁的事务开启与提交,所以建议手动提交事务;第三种方式,主键顺序插入,建议顺序插入,因为顺序插入的性能要高于乱序插入,到了主键优化的时候会详细介绍。
- 批量插入
Insert into tb_test values(1,'Tom'),(2,'cat')(3,'lerry')...;
- 手动提交事务
start transaction;
insert into tb_test values(1,'Tom'),(2,'cat')(3,'lerry');
insert into tb_test values(4,'Tom'),(5,'cat')(6,'lerry');
insert into tb_test values(7,'Tom'),(8,'cat')(9,'lerry');
commit;
- 主键顺序插入
主键乱序插入 : 8 1 9 21 88 2 4 15 89 5 7 3
主键顺序插入 : 1 2 3 4 5 7 8 9 15 21 88 89
大批量插入数据
如果一次性需要插入大批量数据(100w),使用insert语句插入性能较低,此时可以使用MySQL数据库提供的load指令进行插入。操作如下:
使用load命令将本地数据存入表中
#客户端连接服务端时,加上参数--local-infile
mysql --local-infile -u root -p
#设置全局参数local infile为1, 开启从本地加载文件导入数据的开关
set global local infile= 1;
#执行load指令将准备好的数据,加载到表结构中,fields terminated by代表字段以什么分隔,lines terminated by代表一行以什么结尾
load data local infile '/root/sql1.log' into table 'tb_user' fields terminated by ',' lines terminated by '\n' ;
主键优化
数据组织方式
在InnoDB存储引擎中,==表数据都是根据主键顺序组织存放的==,这种存储方式的表称为索引组织表(index organized table IOT)。
页分裂
页可以为空,也可以填充一半,也可以填充100%。每个页包含了2-N行数据(如果一行数据多大,会行溢出),数据根据主键排列
主键是顺序插入:那么第一个页写满了就去写第二个页,第二个页写满了就去写第三个页
主键是乱序插入:如果现在这两个数据页已经写满了,接下来再去插入一条数据,id为50的数据,那id为50的数据写入的时候是写入第三页吗?不是,因为叶子节点是有序的,50插入进来就应该存在47后面,但是1号数据页已经写不下id为50的数据了,那么此时会开启一个新的数据页,然后找到第一个数据页50%的位置,将后面50%的数据移动到新的数据页中,然后再将50插入到那个数据页中,此时对页与页之间的链表指针重新排,这个现象称之为页分裂,所以主键乱序插入的情况下很容易发生页分裂的现象。
页合并
当删除一行记录时,实际上记录并没有被物理删除,只是记录被标记(flaged)为删除并且它的空间变得允许被其他记录声明使用。
当页中删除的记录达到 MERGE_THRESHOLD(默认为页的50%),InnoDB会开始寻找最靠近的页(前或后)看看是否可以将两个页合并以优化空间使用。
MERGE_THRESHOLD:合并页的阈值,可以自己设置,在创建表或者创建索引时指定。
主键设计原则
- 满足业务需求的情况下,尽量降低主键的长度。(对于一张表来说,聚集索引只有一个,但是二级索引可以有多个,二级索引叶子节点挂的就是数据的主键,所以如果主键长度比较长,二所索引比较多,就会占用大量的磁盘空间,而且搜索的时候将会耗费大量的磁盘IO。)
- 插入数据时,尽量选择顺序插入(减少页分裂现象),选择使用AUTO_INCREMENT自增主键。
- 尽量不要使用UUID做主键或者是其他自然主键,如身份证号。
- 业务操作时,避免对主键的修改。
order by优化
-
Using filesort:通过表的索引或全表扫描,读取满足条件的数据行,然后在排序缓冲区sort buffer中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫FileSort排序。
-
Using index:通过有序索引顺序扫描直接返回有序数据,这种情况即为using index,不需要额外排序,操作效率高。
#没有创建索引时,根据age, phone进行排序,此时extra=Using filesort
explain select id,age,phone from tb_user order by age , phone;
#创建索引
create index idx_user_age_phone_aa on tb_user (age, phone);
#创建索引后,根据age, phone进行升序排序,extra=Using index
explain select id,age,phone from tb_user order by age , phone;
#创建索引后,根据age, phone进行倒序排序,extra=Backward index scan; Using index,说明反向扫描索引
explain select id,age,phone from tb_user order by age desc , phone desc ;
#创建索引后,根据age升序, phone倒序 extra=Using index,Using filesort
# 因为创建索引的时候默认都是升序,而这里phone是倒序,所以需要额外空间
explain select id,age,phone from tb_user order by age asc , phone desc ;
那我就想把Using filesort优化掉呢?那么就创建一个升序,一个倒序的索引
#创建根据age升序,phone倒序的索引
create index idx_user_age_phone_ad on tb_user (age asc, phone desc);
#创建索引后,根据age, phone进行升序排序,extra=Using index
explain select id,age,phone from tb_user order by age asc , phone desc ;
- 根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则。
- 尽量使用覆盖索引。如果不是覆盖索引,必定回表查询,需要回表查询数据,在排序缓冲区当中对数据进行排序。
- 多字段排序,一个升序一个降序,此时需要注意联合索引在创建时的规则(ASC/DESC) 。
- 如果不可避免的出现filesort,大数据量排序时,可以适当增大排序缓冲区大小sort_buffer_size(默认256k)。
group by优化
- 在分组操作时,可以通过索引来提高效率。
- 分组操作时,索引的使用也是满足最左前缀法则的。
# 首先删除掉索引来观察执行计划
drop xxx on tb_user;
# 执行分组操作,根据profession字段分组,发现没有走任何索引,extra=using temporary 使用了临时表,性能较低
explain select profession, count(*) from tb_user group by profession ;
# 创建索引
create index idx_user_pro_age_sta on tb_user(profession, age , status);
# 执行分组操作,根据profession字段分组,用到了联合索引,extra=using index,性能较高
explain select profession, count(*) from tb_user group by profession ;
# 执行分组操作,根据age字段分组,不满足最左前缀法则,extra=using temporary 使用了临时表,性能较低
explain select age, count(*) from tb_user group by age;
# 执行分组操作,根据profession,age字段分组,满足最左前缀法则,extra=using index
explain select profession,age, count(*) from tb_user group by profession ,age;
# 满足最左前缀法则,extra=using index
explain select age, count(*) from tb_user where profession='软件工程' group by age;
limit优化
一个常见又非常头疼的问题就是 limit 2000000,10 ,此时需要MySQL排序前2000010 记录,仅仅返回2000000 - 2000010的记录,其他记录丢弃,查询排序的代价非常大 。
优化思路: 一般分页查询时,通过创建 覆盖索引 能够比较好地提高性能,可以通过覆盖索引加子查询
形式进行优化。
select * from tb_sku t ,(select id from tb_sku order by id limit 2000000,10) a where t.id = a.id;
count优化
explain select count(*) from tb_user;
- MyISAM 引擎把一个表的总行数存在了磁盘上,因此执行 count(*) 的时候会直接返回这个数,效率很高(前提是后面没有条件)
- InnoDB 引擎就麻烦了,它执行 count(*) 的时候,需要把数据一行一行地从引擎里面读出来,然后累积计数。
count() 是一个聚合函数,对于返回的结果集,一行行地判断,如果 count 函数的参数不是 NULL,累计值就加 1,否则不加,最后返回累计值。
用法:count(*)、count(主键)、count(字段)、count(1)
按照效率排序的话,count(字段) < count(主键 id) < count(1) ≈ count(*),所以尽量使用 count(*)。
- count(主键):InnoDB 引擎会遍历整张表,把每一行的 主键id 值都取出来,返回给服务层。服务层拿到主键后,直接按行进行累加(主键不可能为null)
- count(字段):没有not null 约束 : InnoDB 引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,服务层判断是否为null,不为null,计数累加。有not null 约束:InnoDB 引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,直接按行进行累加。
- count(1):InnoDB 引擎遍历整张表,但不取值。服务层对于返回的每一行,放一个数字“1”进去,直接按行进行累加。
- count(*):InnoDB引擎并不会把全部字段取出来,而是专门做了优化,不取值,服务层直接按行进行累加。
update优化
避免行锁升级为表锁,更新字段时一定要根据索引进行更新
在执行update语句的时候一定要根据索引进行更新,否则就会出现行锁升级为表锁,就会锁住整张表,一旦锁表了,并发性能就会降低。
InnoDB的行锁是针对索引加的锁,不是针对记录加的锁 ,并且该索引不能失效,否则会从行锁升级为表锁 。
# 主键id为行锁,只会锁id=1的这一行
update student set no= '2000100100' where id = 1 ;
# name没有索引,行锁升级为表锁
update student set no= '2000100105' where name=‘韦一笑;
SQL优化总结
- 插入数据
insert:批量插入、手动控制事务、主键顺序插入 大批量插入: load data local infile
- 主键优化
主键长度尽量短、顺序插入 AUTO_INCREMENT
UUID
- order by优化
using index:直接通过索引返回数据,性能高 using filesort:需要将返回的结果在排序缓冲区排序
- group by优化
索引,多字段分组满足最左前缀法则
- limit优化
覆盖索+子查询
- count优化
性能: count(字段) < count(主键id) < count(1)≈count(*)
- update优化
尽量根据主键/索引字段进行数据更新
视图/存储过程/触发器
视图
介绍
视图(View)是一种虚拟存在的表。视图中的数据并不在数据库中实际存在,行和列数据来自定义视图的查询中使用的表(基表),并且是在使用视图时动态生成的。
通俗的讲,视图只保存了查询的SQL逻辑,不保存查询结果。所以我们在创建视图的时候,主要的工作就落在创建这条SQL查询语句上。
语法
- 创建
create [or replace] view 视图名称[(列名列表)] as select语句 [with [cascaded|local] check option]
- 查询
# 查看创建视图语句
show create view 视图名称;
# 查看视图数据
select * from 视图名称...;
- 修改
# 方式1
create or replace view 视图名称[(列名列表)] as select语句 [with [cascaded|local] check option];
# 方式2
alter view 视图名称[(列名列表)] as select语句 [with [cascaded|local] check option];
- 删除
drop view [if exists] 视图名称[,视图名称]...;
-- 创建视图 create or replace view stu_v_1 as select id,name from student where id <= 10; -- 查询视图 show create view stu_v_1; select * from stu_v_1; select * from stu_v_1 where id < 3; -- 修改视图 create or replace view stu_v_1 as select id,name,no from student where id <= 10; alter view stu_v_1 as select id,name from student where id <= 10; -- 删除视图 drop view if exists stu_v_1;
视图的检查选项
当使用WITH CHECK OPTION子句创建视图时,MySQL会通过视图检查正在更改的每个行,例如 插入,更新,删除,==以使其符合视图的定义==。 MySQL允许基于另一个视图创建视图,它还会检查依赖视图中的规则以保持一致性。为了确定检查的范围,mysql提供了两个选项:CASCADED 和 LOCAL ,默认值为 CASCADED(级联) 。
不加WITH CHECK OPTION时,不会检查是否符合视图的定义,即id<=10,此时两条insert都能正常插入
create or replace view stu_v_1 as select id,name from student where id <= 10;
insert into stu_v_1 value (9,'wxf');
insert into stu_v_1 value (11,'wxf');
加WITH CHECK OPTION时,会检查是否符合视图的定义,即id<=10,此时第二条insert的id=12>10,不能插入。注意这里虽然with后面没有写CASCADED,但是,是有的,因为它是默认值
create or replace view stu_v_1 as select id,name from student where id <= 10 with check option ;
insert into stu_v_1 value (10,'wxf');
insert into stu_v_1 value (12,'wxf');
- CASCADED
在创建v1视图的时候,后面没有加check,那么对v1进行增删改的时候不会去检查插入的id是否小于等于20。当我们基于v1视图创建v2视图的时候,并且后面指定了with cascaded check option,cascaded翻译过来是级联的意思,那么此时当我们去操作v2视图的时候,它会去检查是否满足id>=10这个条件,由于加的是cascaded,那么不仅检查当前的操作是否满足v2的定义,还会检查是否满足v1的条件。相当于在v1后面也加上了with cascaded check,假如说v1也是基于另一个视图创建的,那么还会去检查v1所依赖的视图的定义。总结来说,with cascaded check option具有传递性,会传递给依赖的视图。那么如果又创建了一个视图v3,依赖v2,如果插入一条id=17的可以成功吗,可以,因为v3没有检查,但是由于v3依赖v2,所以id=17相当于传递给了v2,给v2具有检查选项,刚好满足,所以插入成功。如果id=28呢?对于v3来说,v3不用检查,但是v3依赖v2,所以id=28的插入语句给了v2,而v2有检查,通过,但是v2依赖v1,此时id=28传递给了v1检查,v1本来是没有检查选项的,但是由于v2是with cascaded check option,所以v1现在也有了检查,最终不通过,不能插入。
create or replace view stu_v_1 as select id,name from student where id <= 15 ;
# 插入成功
insert into stu_v_1 values(5,'Tom');
# 插入成功
insert into stu_v_1 values(16,'Tom');
create or replace view stu_v_2 as select id,name from stu_v_1 where id >= 10 with cascaded check option ;
# 插入成功
insert into stu_v_2 values(13,'Tom');
# 插入失败
insert into stu_v_2 values(17,'Tom');
create or replace view stu_v_3 as select id,name from stu_v_2 where id < 20 ;
# 插入成功
insert into stu_v_3 values(14,'Tom');
# 插入失败
insert into stu_v_3 values(9,'Tom');
# 插入失败
insert into stu_v_3 values(18,'Tom');
- LOCAL
with local check option也会递归去查找自己所依赖的视图,然后去看依赖的视图中有没有检查选项,如果有进行检查,如果没有则不检查
-- local
create or replace view stu_v_4 as select id,name from student where id <= 15 with local check option ;
# 成功
insert into stu_v_4 values(5,'Tom');
# 失败
insert into stu_v_4 values(16,'Tom');
create or replace view stu_v_5 as select id,name from stu_v_4 where id >= 10 with local check option ;
# 成功
insert into stu_v_5 values(13,'Tom');
# 失败
insert into stu_v_5 values(17,'Tom');
# 失败
insert into stu_v_5 values(18,'Tom');
create or replace view stu_v_6 as select id,name from stu_v_5 where id < 20 ;
# 成功
insert into stu_v_6 values(14,'Tom');
# 失败
insert into stu_v_6 values(9,'Tom');
视图的更新
==要使视图可更新,视图中的行与基础表中的行之间必须存在一对一的关系==。如果视图包含以下任何一项,则该视图不可更新:
- 聚合函数或窗口函数(SUM()、 MIN()、 MAX()、 COUNT()等)
- DISTINCT
- GROUP BY
- HAVING
- UNION 或者 UNION ALL
视图的作用
➢ 简单 视图不仅可以简化用户对数据的理解,也可以简化他们的操作。那些被经常使用的查询可以被定义为视图,从而使得用户不必为以后的操作每次指定全部的条件。 ➢ 安全 数据库可以授权,但不能授权到数据库特定行和特定的列上。通过视图用户只能查询和修改他们所能见到的数据 ➢ 数据独立 视图可帮助用户屏蔽真实表结构变化带来的影响。
完成定义视图的需求
- 为了保证数据库表的安全性,开发人员在操作tb_user表时,只能看到的用户的基本字段,屏蔽手机号和邮箱两个字段。
- 查询每个学生所选修的课程(三张表联查),这个功能在很多的业务中都有使用到,为了简化操作,定义一个视图。
-- 1. 为了保证数据库表的安全性,开发人员在操作tb_user表时,只能看到的用户的基本字段,屏蔽手机号和邮箱两个字段。
create view tb_user_view as select id,name,profession,age,gender,status,createtime from tb_user;
select * from tb_user_view;
-- 2. 查询每个学生所选修的课程(三张表联查),这个功能在很多的业务中都有使用到,为了简化操作,定义一个视图。
create view tb_stu_course_view as select s.name student_name , s.no student_no , c.name course_name from student s, student_course sc , course c where s.id = sc.studentid and sc.courseid = c.id;
select * from tb_stu_course_view;
存储过程
介绍
存储过程是事先经过编译并存储在数据库中的一段 SQL 语句的集合,调用存储过程可以简化应用开发人员的很多工作,减少数据在数据库和应用服务器之间的传输,对于提高数据处理的效率是有好处的。 存储过程思想上很简单,就是数据库 SQL 语言层面的代码封装与重用。
特点:
- 封装,复用
- 可以接收参数,也可以返回数据
- 减少网络交互,效率提升
基本语法
- 创建
create procedure 存储过程名称([参数列表])
begin
...
SQL语句
...
end;
- 调用
call 名称([参数]);
- 查看
# 查询指定数据库的存储过程及状态信息
select * from information_schema.routines where routine_schema='itcast';
# 查询某个存储过程的定义
show create procedure p1;
- 删除
drop procedure [if exists] 存储过程名称;
注意: 在命令行中,执行创建存储过程的SQL时,需要通过关键字 delimiter 指定SQL语句的结束符。
-- 创建
create procedure p1()
begin
select count(*) from student;
end;
-- 调用
call p1();
-- 查看
select * from information_schema.ROUTINES where ROUTINE_SCHEMA = 'itcast';
show create procedure p1;
-- 删除
drop procedure if exists p1;
变量
系统变量
系统变量 是MySQL服务器提供,不是用户定义的,属于服务器层面。分为全局变量(GLOBAL)、会话变量(SESSION)。
- 查看系统变量
# 查看所有系统变量
show [session|global] variables;
# 可以通过like模糊匹配方式查找变量
show [session|global] variables like '...';
# 查看指定变量的值
select @@[session|global]系统变量名;
- 设置系统变量
set [session|global] 系统变量名=值;
set @@[session|global] 系统变量名=值;
注意:
- 如果没有指定SESSION/GLOBAL,默认是SESSION,会话变量。
- mysql服务重新启动之后,所设置的全局参数会失效,要想不失效,可以在 /etc/my.cnf 中配置。
用户定义变量
用户定义变量 是用户根据需要自己定义的变量,用户变量不用提前声明,在用的时候直接用“@变量名”使用就可以。其作用域为当前连接。
- 赋值
set @var_name=expr[,@var_name=expr]...;
set @var_name:=expr[,@var_name:=expr]...;
select @var_name:=expr[,@var_name:=expr]...;
select 字段名 into @var_name from 表名;
# 演示
set @myname = 'itcast';
set @myage := 10;
set @mygender := '男',@myhobby := 'java';
select @mycolor := 'red';
select count(*) into @mycount from tb_user;
- 使用
select @var_name;
# 演示
select @myname,@myage,@mygender,@myhobby;
注意:用户定义的变量无需对其进行声明或初始化,只不过获取到的值为NULL。
局部变量
局部变量 是根据需要定义的在局部生效的变量,访问之前,需要DECLARE声明。可用作存储过程内的局部变量和输入参数,局部变量的范围是在其内声明的BEGIN ... END块。
- 声明
变量类型就是数据库字段类型:INT、BIGINT、CHAR、VARCHAR、DATE、TIME等。
declare 变量名 变量类型 [default ...];
- 赋值
set 变量名 = 值;
set 变量名 := 值;
select 字段名 into 变量名 from 表名;
- 演示
create procedure p2()
begin
declare stu_count int default 0;
select count(*) into stu_count from student;
select stu_count;
end;
call p2();
if
- 语法
if 条件1 then
...
elseif 条件2 then
...
else if ...
...
else
...
end if;
定义存储过程,完成如下需求 根据定义的分数score变量,判定当前分数对应的分数等级。
- score >= 85分,等级为优秀。
- score >= 60分 且 score < 85分,等级为及格。
- score < 60分,等级为不及格。
create procedure p3()
begin
declare score int default 58;
declare result varchar(10);
if score >= 85 then
set result := '优秀';
elseif score >= 60 then
set result := '及格';
else
set result := '不及格';
end if;
select result;
end;
call p3();
参数
类型 | 含义 | 备注 |
---|---|---|
IN | 该类参数作为输入,也就是需要调用时传入值 | 默认 |
OUT | 该类参数作为输出,也就是该参数可以作为返回值 | |
INOUT | 既可以作为输入参数,也可以作为输出参数 |
- 用法
create procedure 存储过程名称([in/out/inout 参数名 参数类型])
begin
sql语句
end;
定义存储过程,完成如下需求
- 根据传入参数score,判定当前分数对应的分数等级,并返回。 ① score >= 85分,等级为优秀。 ② score >= 60分 且 score < 85分,等级为及格。 ③ score < 60分,等级为不及格。
create procedure p4(in score int, out result varchar(10))
begin
if score >= 85 then
set result := '优秀';
elseif score >= 60 then
set result := '及格';
else
set result := '不及格';
end if;
end;
call p4(18, @result);
select @result;
- 将传入的 200分制的分数,进行换算,换算成百分制 , 然后返回。
create procedure p5(inout score double)
begin
set score := score * 0.5;
end;
set @score = 198;
call p5(@score);
select @score;
case
- 语法一
case case_value
when when_value1 then statement_list1
[when when_value2 then statement_list2]
...
[else statement_list]
end case;
- 语法二
case
when search_condition1 then statement_list1
[when search_condition2 then statement_list2]
...
[else statement list]
end case;
定义存储过程,完成如下需求 根据传入的月份,判定月份所属的季节(要求采用case结构)。
- 1-3月份,为第一季度
- 4-6月份,为第二季度
- 7-9月份,为第三季度
- 10-12月份,为第四季度
create procedure p6(in month int)
begin
declare result varchar(10);
case
when month >= 1 and month <= 3 then
set result := '第一季度';
when month >= 4 and month <= 6 then
set result := '第二季度';
when month >= 7 and month <= 9 then
set result := '第三季度';
when month >= 10 and month <= 12 then
set result := '第四季度';
else
set result := '非法参数';
end case ;
select concat('您输入的月份为: ',month, ', 所属的季度为: ',result);
end;
call p6(16);
while
while 循环是有条件的循环控制语句。满足条件后,再执行循环体中的SQL语句。具体语法为:
# 先判定条件,如果条件true,则执行逻辑,否则,不执行逻辑
while 条件 do
sql逻辑...
end while;
定义存储过程,完成如下需求:
计算从1累加到n的值,n为传入的参数值。
create procedure p7(in n int)
begin
declare total int default 0;
while n>0 do
set total := total + n;
set n := n - 1;
end while;
select total;
end;
call p7(100);
repeat
repeat是有条件的循环控制语句, 当满足条件的时候退出循环 。具体语法为:
# 先执行一次逻辑,然后判定逻辑是否满足,如果满足,则退出。如果不满足,则继续下一次循环
repeat
sql逻辑...
until 条件
end repeat;
定义存储过程,完成如下需求:
计算从1累加到n的值,n为传入的参数值。
create procedure p8(in n int)
begin
declare total int default 0;
repeat
set total := total + n;
set n := n - 1;
until n <= 0
end repeat;
select total;
end;
call p8(10);
call p8(100);
loop
loop实现简单的循环,如果不在SQL逻辑中增加退出循环的条件,可以用其来实现简单的死循环。loop可以配合一下两个语句使用:
- LEAVE :配合循环使用,退出循环。
- ITERATE:必须用在循环中,作用是跳过当前循环剩下的语句,直接进入下一次循环。
[begin_label]loop
sql逻辑...
end loop [end_label];
# 退出指定标记的循环体
leabe label;
# 直接进入下一次循环
iterate label;
定义存储过程,完成如下需求:
- 计算从1累加到n的值,n为传入的参数值。
create procedure p9(in n int)
begin
declare total int default 0;
sum:loop
if n<=0 then
leave sum;
end if;
set total := total + n;
set n := n - 1;
end loop sum;
select total;
end;
call p9(100);
- 计算从1到n之间的偶数累加的值,n为传入的参数值。
create procedure p10(in n int)
begin
declare total int default 0;
sum:loop
if n<=0 then
leave sum;
end if;
if n%2 = 1 then
set n := n - 1;
iterate sum;
end if;
set total := total + n;
set n := n - 1;
end loop sum;
select total;
end;
call p10(100);
游标CURSOR
游标(CURSOR)是用来存储查询结果集的数据类型 , 在存储过程和函数中可以使用游标对结果集进行循环的处理。游标的使用包括游标的声明、OPEN、FETCH 和 CLOSE,其语法分别如下。
要先声明普通变量,再声明游标
# 声明游标
declare 游标名称 cursor for sql查询语句;
# 打开游标
open 游标名称;
# 获取游标记录
fetch 游标名称 into 变量[,变量]...;
# 关闭游标
close 游标名称;
定义存储过程,完成如下需求:
根据传入的参数uage,来查询用户表tb_user中,所有的用户年龄小于等于uage的用户姓名(name)和专业(profession),并将用户的姓名和专业插入到所创建的一张新表(id,name,profession)中。
-- 逻辑:
-- 1. 声明游标, 存储查询结果集
-- 2. 准备: 创建表结构
-- 3. 开启游标
-- 4. 获取游标中的记录
-- 5. 插入数据到新表中
-- 6. 关闭游标
create procedure p11(in uage int)
begin
declare uname varchar(100);
declare upro varchar(100);
# 第一步
declare u_cursor cursor for select name,profession from tb_user where age <= uage;
# 第二步
drop table if exists tb_user_pro;
create table if not exists tb_user_pro(
id int primary key auto_increment,
name varchar(100),
profession varchar(100)
);
# 第三步
open u_cursor;
while true do
# 第四步
fetch u_cursor into uname,upro;
# 第五步
insert into tb_user_pro values (null, uname, upro);
end while;
# 第六步
close u_cursor;
end;
call p11(30);
上述代码执行call p11的时候会报错,但是新表创建好了而且也有数据,那么为什么会报错呢,原因是在循环体,while true会一直循环,每循环一次,都会去游标中取下一条记录,然后把记录赋值给变量,当循环到最后一条之后,再进行下一次循环,游标里面就没有数据了,所以此时再去获取游标中的数据就会报错了,No data-zero rows fetched,已经没有数据可以获取了。所以此时就会报错,这就是报错的原因。
条件处理程序Handler
条件处理程序(Handler)可以用来定义在流程控制结构执行过程中遇到问题时相应的处理步骤。具体语法为:
DECLARE handler_action HANDLER FOR condition_value [, condition_value]... statement;
handler_action
CONTINUE:继续执行当前程序
EXIT:终止执行当前程序
condition_value
SQLSTATE sqlstate_ value: 状态码,如02000
SQLWARNING:所有以01开头的SQLSTATE代码的简写
NOT FOUND:所有以02开头的SQL STATE代码的简写
SQLEXCEPTION:所有没有被SQLWARNING或NOT FOUND捕获的SQLSTATE代码的简写
https://dev.mysql.com/doc/mysql-errors/8.0/en/server-error-reference.html
所以通过条件处理程序,我们可以修复游标中的bug,重点在第六行
create procedure p11(in uage int)
begin
declare uname varchar(100);
declare upro varchar(100);
declare u_cursor cursor for select name,profession from tb_user where age <= uage;
declare exit handler for SQLSTATE '02000' close u_cursor;
drop table if exists tb_user_pro;
create table if not exists tb_user_pro(
id int primary key auto_increment,
name varchar(100),
profession varchar(100)
);
open u_cursor;
while true do
fetch u_cursor into uname,upro;
insert into tb_user_pro values (null, uname, upro);
end while;
close u_cursor;
end;
call p11(30);
当然我们也可以这样写
declare exit handler for SQLSTATE '02000' close u_cursor;
declare exit handler for not found close u_cursor;
存储函数
存储函数相对来说用的比较少,因为存储函数能做的事情存储过程也能做。
存储函数是有返回值的存储过程,存储函数的参数只能是IN类型的。具体语法如下:
create function 存储函数名称([参数列表])
result type [characteristic...]
begin
sql语句
return ...
end;
characteristic说明:
DETERMINISTIC:相同的输入参数总是产生相同的结果
NOSQL :不包含SQL语句。
READS SQL DATA:包含读取数据的语句,但不包含写入数据的语句。
定义存储函数,完成如下需求:
- 计算从1累加到n的值,n为传入的参数值。
create function fun1(n int)
returns int deterministic
begin
declare total int default 0;
while n>0 do
set total := total + n;
set n := n - 1;
end while;
return total;
end;
select fun1(50);
触发器
介绍
触发器是与表有关的数据库对象,指在 insert/update/delete 之前或之后,触发并执行触发器中定义的SQL语句集合。触发器的这种特性可以协助应用在数据库端确保数据的完整性 , 日志记录 , 数据校验等操作 。
使用别名 OLD 和 NEW 来引用触发器中发生变化的记录内容,这与其他的数据库是相似的。现在触发器还只支持行级触发,不支持语句级触发。
什么是行级触发器,比如一条update语句修改了5行,那么这个触发器就被触发5次,这就是行级触发器,而如果是语句级触发器,就不管update语句影响了多少行,只触发一次,这就是语句级触发器。
触发器类型 | NEW 和 OLD |
---|---|
INSERT 型触发器 | NEW 表示将要或者已经新增的数据 |
UPDATE 型触发器 | OLD 表示修改之前的数据 , NEW 表示将要或已经修改后的数据 |
DELETE型触发器 | OLD 表示将要或者已经删除的数据 |
- 创建
create trigger trigger_name
before/after insert/update/delete on tbl_name for each row
begin
trigger_stmt;
end;
- 查看
show triggers
- 删除
# 如果没有指定schema_name ,默认为当前数据库 。
drop trigger [schema_name.]trigger_name;
定义触发器,完成如下需求:
通过触发器记录 tb_user 表的数据变更日志,将变更日志插入到日志表user_logs中, 包含增加, 修改 , 删除 ;
create table user_logs
(
id int(11) not null primary key auto_increment,
operation varchar(20) not null comment '操作类型, insert/update/delete',
operate_time datetime not null comment '操作时间',
operate_id int(11) not null comment '操作的ID',
operate_params varchar(500) comment '操作参数'
) engine = innodb default charset = utf8;
-- 插入数据触发器
create trigger tb_user_insert_trigger
after insert on tb_user for each row
begin
insert into user_logs(id, operation, operate_time, operate_id, operate_params) VALUES
(null, 'insert', now(), new.id, concat('插入的数据内容为: id=',new.id,',name=',new.name, ', phone=', NEW.phone, ', email=', NEW.email, ', profession=', NEW.profession));
end;
-- 修改数据触发器
create trigger tb_user_update_trigger
after update on tb_user for each row
begin
insert into user_logs(id, operation, operate_time, operate_id, operate_params) VALUES
(null, 'update', now(), new.id,
concat('更新之前的数据: id=',old.id,',name=',old.name, ', phone=', old.phone, ', email=', old.email, ', profession=', old.profession,
' | 更新之后的数据: id=',new.id,',name=',new.name, ', phone=', NEW.phone, ', email=', NEW.email, ', profession=', NEW.profession));
end;
-- 删除数据触发器
create trigger tb_user_delete_trigger
after delete on tb_user for each row
begin
insert into user_logs(id, operation, operate_time, operate_id, operate_params) VALUES
(null, 'delete', now(), old.id,
concat('删除之前的数据: id=',old.id,',name=',old.name, ', phone=', old.phone, ', email=', old.email, ', profession=', old.profession));
end;
视图/存储过程/触发器总结
- 视图(VIEW) ➢ 虚拟存在的表,不保存查询结果,只保存查询的SQL逻辑 ➢ 简单、安全、数据独立
- 存储过程(PROCEDURE) ➢ 事先定义并存储在数据库中的一段SQL语句的集合。 ➢ 减少网络交互,提高性能、封装重用 ➢ 变量、if、case、参数(in/out/inout)、while、repeat、loop、cursor、handler
- 存储函数(FUNCTION) ➢ 存储函数是有返回值的存储过程,参数类型只能为IN类型 ➢ 存储函数可以被存储过程替代
- 触发器(TRIGGER) ➢ 可以在表数据进行INSERT、UPDATE、DELETE之前或之后触发 ➢ 保证数据完整性、日志记录、数据校验
锁
概述
- 介绍
锁是计算机协调多个进程或线程并发访问某一资源的机制。在数据库中,除传统的计算资源(CPU、RAM、I/O)的争用以外,数据也是一种供许多用户共享的资源。如何保证数据并发访问的一致性、有效性是所有数据库必须解决的一个问题,锁冲突也是影响数据库并发访问性能的一个重要因素。从这个角度来说,锁对数据库而言显得尤其重要,也更加复杂。
- 分类 MySQL中的锁,按照锁的粒度分,分为以下三类:
- 全局锁:锁定数据库中的所有表。
- 表级锁:每次操作锁住整张表。
- 行级锁:每次操作锁住对应的行数据。
全局锁
- 介绍
全局锁就是对整个数据库实例加锁,加锁后整个实例就处于只读状态,后续的DML的写语句,DDL语句,已经更新操作的事务提交语句都将被阻塞。 其典型的使用场景是做全库的逻辑备份,对所有的表进行锁定,从而获取一致性视图,保证数据的完整性。
- 演示
flush tables with read lock;
mysqldump -u root -p 1234 库名>库名.sql
unlock tables
- 特点
数据库中加全局锁,是一个比较重的操作,存在以下问题:
- 如果在主库上备份,那么在备份期间都不能执行更新,业务基本上就得停摆。
- 如果在从库上备份,那么在备份期间从库不能执行主库同步过来的二进制日志(binlog),会导致主从延迟。
在InnoDB引擎中,我们可以在备份时加上参数 --single-transaction 参数来完成不加锁的一致性数据备份。
mysqldump --single-transaction -uroot -p123456 test>D:/test.sql
表级锁
介绍
表级锁,每次操作锁住整张表。锁定粒度大,发生锁冲突的概率最高,并发度最低。应用在MyISAM、InnoDB、BDB等存储引擎中。
对于表级锁,主要分为以下三类:
- 表锁
- 元数据锁(meta data lock,MDL)
- 意向锁
表锁
对于表锁,分为两类:
- 表共享读锁(read lock)
- 表独占写锁(write lock)
语法:
- 加锁:lock tables 表名... read/write。
- 释放锁:unlock tables / 客户端断开连接 。
读锁:自己只能读不能写,别人只能读不能写 写锁:自己能读能写,别人不能读不能写
元数据锁
MDL加锁过程是系统自动控制,无需显式使用,在访问一张表的时候会自动加上。MDL锁主要作用是维护表元数据的数据一致性,在表上有活动事务的时候,不可以对元数据进行写入操作。为了避免DML与DDL冲突,保证读写的正确性。
元数据锁中的元数据,到底指代的是什么意思?简单说元数据可以理解为表结构,元数据锁的存在,主要的作用,就是维护表结构的数据一致性。当表中有活动事务存在的时候,是不允许对元数据进行写入操作的,也就是说如果一张表存在未提交的事务,那么不能修改这张表的表结构。
在MySQL5.5中引入了MDL,当对一张表进行增删改查的时候,加MDL读锁(共享);当对表结构进行变更操作的时候,加MDL写锁(排他)。
MDL读锁之间是可以兼容的,但是MDL写锁之间,已经写锁与读锁之间是互斥的
对应SQL | 锁类型 | 说明 |
---|---|---|
lock tables xxx read / write | SHARED_READ_ONLY / SHARED_NO_READ_WRITE | |
select 、select ... lock in share mode | SHARED_READ---MDL读锁(共享锁) | 与SHARED_READ、SHARED_WRITE兼容,与EXCLUSIVE互斥 |
insert 、update、delete、select ... for update | SHARED_WRITE---MDL读锁(共享锁) | 与SHARED_READ、SHARED_WRITE兼容,与EXCLUSIVE互斥 |
alter table ... | EXCLUSIVE---MDL写锁(排他锁) | 与其他的MDL都互斥 |
执行查语句会自动加SHARED_READ---MDL读锁(共享锁),执行增删改语句会自动加SHARED_WRITE---MDL读锁(共享锁)。而直接alter ...修改表结构语句的时候,会自动加EXCLUSIVE---MDL写锁(排他锁)。
查看元数据锁:
select object_type ,object_schema,object_name ,lock_type,lock_duration from performance_schema.metadata_locks ;
意向锁
为了避免DML在执行时,加的行锁与表锁的冲突,在InnoDB中引入了意向锁,因为加表锁之前要去检查别的事务有没有加行锁。使得表锁不用检查每行数据是否加锁,使用意向锁来减少表锁的检查。
- 意向共享锁(IS):由语句 select ... lock in share mode添加。
- 意向排他锁(IX):由insert、update、delete、select ... for update 添加。
- 意向共享锁(IS):与表锁共享锁(read)兼容,与表锁排它锁(write)互斥。
- 意向排他锁(IX):与表锁共享锁(read)及表锁排它锁(write)都互斥。意向锁之间不会互斥。
可以通过以下SQL,查看意向锁及行锁的加锁情况:
select object_schema,object_name,index_name,lock_type,lock_mode,lock_data from performance_schema.data_locks;
加了行锁后会对这张表加一个意向锁,那么另一个事务过来加表锁的时候,会先去检查意向锁的情况,通过意向锁的情况来决定能不能对这张表加锁成功。如果意向锁和当前表锁的兼容的,那么就可以直接加锁,如果不兼容,那就阻塞,直到行锁释放意向锁释放。引入了意向锁之后就不用逐行的去检查当前这张表的行锁情况了,直接根据意向锁去做决定。
行级锁
介绍
行级锁,每次操作锁住对应的行数据。锁定粒度最小,发生锁冲突的概率最低,并发度最高。应用在InnoDB存储引擎中。
InnoDB的数据是基于索引组织的,行级锁是通过对索引上的索引项加锁来实现的,而不是对记录加的锁。对于行级锁,主要分为以下三类:
-
行锁(Record Lock):锁定单个行记录的锁,防止其他事务对此行进行update和delete。在RC、RR隔离级别下都支持。
-
间隙锁(Gap Lock):锁定索引记录间隙(不含该记录),确保索引记录间隙不变,防止其他事务在这个间隙进行insert,产生幻读。在RR隔离级别下都支持。
-
临键锁(Next-Key Lock):行锁和间隙锁组合,同时锁住数据,并锁住数据前面的间隙Gap。在RR隔离级别下支持。
行锁
InnoDB实现了以下两种类型的行锁:
- 共享锁(S):允许一个事务去读一行,阻止其他事务获得相同数据集的排它锁。
- 排他锁(X):允许获取排他锁的事务更新数据,阻止其他事务获得相同数据集的共享锁和排他锁。
S(共享锁) | X(排他锁) | |
---|---|---|
S(共享锁) | 兼容 | 冲突 |
X(排他锁) | 冲突 | 冲突 |
对于普通的增删改语句都会自动加排他锁,而==普通select不加锁!!!==
SQL | 行锁类型 | 说明 |
---|---|---|
INSERT ... | 排他锁 | 自动加锁 |
UPDATE ... | 排他锁 | 自动加锁 |
DELETE ... | 排他锁 | 自动加锁 |
SELECT(正常) | 不加任何锁 | |
SELECT ... LOCK IN SHARE MODE | 共享锁 | 需要手动在SELECT之后加LOCK IN SHARE MODE |
SELECT ... FOR UPDATE | 排他锁 | 需要手动在SELECT之后加FOR UPDATE |
行锁-演示
默认情况下,InnoDB在 REPEATABLE READ事务隔离级别运行,InnoDB使用 next-key 锁进行搜索和索引扫描,以防止幻读。
- 针对唯一索引进行检索时,对已存在的记录进行等值匹配时,将会自动优化为行锁。
- InnoDB的行锁是针对于索引加的锁,不通过索引条件检索数据,那么InnoDB将对表中的所有记录加锁,此时
就会升级为表锁。
可以通过以下SQL,查看意向锁及行锁的加锁情况:
select object_schema,object_name,index_name,lock_type,lock_mode,lock_data from performance_schema.data_locks;
间隙锁/临键锁-演示
默认情况下,InnoDB在 REPEATABLE READ事务隔离级别运行,InnoDB使用 next-key 锁进行搜索和索引扫描,以防止幻读。
- 索引上的等值查询(唯一索引),给不存在的记录加锁时, 优化为间隙锁。 视频演示,精准空降
- 索引上的等值查询(普通索引),向右遍历时最后一个值不满足查询需求时,next-key lock 退化为间隙锁。 视频演示,精准空降
- 索引上的范围查询(唯一索引)--会访问到不满足条件的第一个值为止。 视频演示,精准空降
注意:间隙锁唯一目的是防止其他事务插入间隙。间隙锁可以共存,一个事务采用的间隙锁不会阻止另一个事务在同一间隙上采用间隙锁。
锁总结
- 概述 在并发访问时,解决数据访问的一致性、有效性问题 全局锁、表级锁、行级锁
- 全局锁 对整个数据库实例加锁,加锁后整个实例就处于只读状态 性能较差,数据逻辑备份时使用
- 表级锁 操作锁住整张表,锁定粒度大,发生锁冲突的概率高 表锁、元数据锁、意向锁
- 行级锁 操作锁住对应的行数据,锁定粒度最小,发生锁冲突的概率最低 行锁、间隙锁、临键锁
InnoDB引擎
逻辑存储结构
-
表空间(ibd文件):一个mysql实例可以对应多个表空间,用于存储记录、索引等数据。在linux中,msql数据文件存放在/var/lib/mysql目录下
-
段:分为数据段(Leaf node segment)、索引段(Non-leaf node segment)、回滚段(Rollback segment),InnoDB是索引组织表,数据段就是B+树的叶子节点, 索引段即为B+树的非叶子节点。段用来管理多个Extent(区)。
-
区:表空间的单元结构,每个区的大小为1M。 默认情况下, InnoDB存储引擎页大小为16K, 即一个区中一共有64个连续的页。
-
页:是InnoDB 存储引擎磁盘管理的最小单元,每个页的大小默认为 16KB。为了保证页的连续性,InnoDB 存储引擎每次从 磁盘申请 4-5 个区。
-
行:InnoDB 存储引擎数据是按行进行存放的。
Trx_id:每次对某条记录进行改动时,都会把对应的事务id赋值给trx_id隐藏列。 Roll_pointer:每次对某条引记录进行改动时,都会把旧的版本写入到undo日志中,然后这个隐藏列就相当于一个指针,可以通过它来找到该记录修改前的信息。
架构
MySQL5.5 版本开始,默认使用InnoDB存储引擎,它擅长事务处理,具有崩溃恢复特性,在日常开发中使用非常广泛。下面是InnoDB架构图,左侧为内存结构(80%的内存都会分配给缓冲区),右侧为磁盘结构。
架构-内存架构
Buffer Pool
Buffer Pool:缓冲池是主内存中的一个区域,里面可以缓存磁盘上经常操作的真实数据,在执行增删改查操作时,先操作缓冲池中的数据(若缓冲池没有数据,则从磁盘加载并缓存),然后再以一定频率刷新到磁盘,从而减少磁盘IO,加快处理速度。
缓冲池以Page页为单位,底层采用链表数据结构管理Page。根据状态,将Page分为三种类型: • free page:空闲page,未被使用。 • clean page:被使用page,数据没有被修改过。 • dirty page:脏页,被使用page,数据被修改过,也中数据与磁盘的数据产生了不一致。
Change Buffer
Change Buffer:更改缓冲区(针对于非唯一二级索引页
),在执行DML语句时,如果这些数据Page没有在Buffer Pool中,不会直接操作磁盘,而会将数据变更存在更改缓冲区 Change Buffer 中,在未来数据被读取时,再将数据合并恢复到Buffer Pool中,再将合并后的数据刷新到磁盘中。
Change Buffer的意义是什么?
与聚集索引不同,二级索引通常是非唯一的,并且以相对随机的顺序插入二级索引。同样,删除和更新可能会影响索引树中不相邻的二级索引页,如果每一次都操作磁盘,会造成大量的磁盘IO。有了ChangeBuffer之后,我们可以在缓冲池中进行合并处理,减少磁盘IO。
Adaptive Hash Index
Adaptive Hash Index:自适应hash索引,用于优化对Buffer Pool数据的查询。InnoDB存储引擎会监控对表上各索引页的查询,如果观察到hash索引可以提升速度,则建立hash索引,称之为自适应hash索引。
自适应哈希索引,无需人工干预,是系统根据情况自动完成。
参数: adaptive_hash_index
Log Buffer
Log Buffer:日志缓冲区,用来保存要写入到磁盘中的log日志数据(redo log 、undo log
),默认大小为 16MB,日志缓冲区的日志会定期刷新到磁盘中。如果需要更新、插入或删除许多行的事务,增加日志缓冲区的大小可以节省磁盘 I/O。
参数: innodb_log_buffer_size:缓冲区大小 innodb_flush_log_at_trx_commit:日志刷新到磁盘时机
0:每秒将日志写入并刷新到磁盘一次。 1: 日志在每次事务提交时写入并刷新到磁盘 2:日志在每次事务提交后写入,并每秒刷新到磁盘一次。
架构-磁盘结构(做了解即可)
System Tablespace
System Tablespace:系统表空间是更改缓冲区的存储区域。如果表是在系统表空间而不是每个表文件或通用表空间中创建的,它也可能包含表和索引数据。(在MySQL5.x版本中还包含InnoDB数据字典、undolog等) 参数:innodb_data_file_path
File-Per-Table Tablespaces
File-Per-Table Tablespaces:每个表的文件表空间包含单个InnoDB表的数据和索引 ,并存储在文件系统上的单个数据文件中。 参数:innodb_file_per_table
General Tablespaces
General Tablespaces:通用表空间,需要通过 CREATE TABLESPACE 语法创建通用表空间,在创建表时,可以指定该表空间。
Undo Tablespaces
Undo Tablespaces:撤销表空间,MySQL实例在初始化时会自动创建两个默认的undo表空间(初始大小16M),用于存储undo log日志。
Temporary Tablespaces
Temporary Tablespaces:InnoDB 使用会话临时表空间和全局临时表空间。存储用户创建的临时表等数据。
Doublewrite Buffer Files
Doublewrite Buffer Files:双写缓冲区,innoDB引擎将数据页从Buffer Pool刷新到磁盘前,先将数据页写入双写缓冲区文件中,便于系统异常时恢复数据。
Redo Log
Redo Log:重做日志,是用来实现事务的持久性。该日志文件由两部分组成:重做日志缓冲(redo log buffer)以及重做日志文件(redo log),前者是在内存中,后者在磁盘中。当事务提交之后会把所有修改信息都会存到该日志中, 用于在刷新脏页到磁盘时,发生错误时, 进行数据恢复使用。
以循环方式写入重做日志文件,涉及两个文件:
架构-后台线程
后台线程的作用就是将innoDB存储引擎缓冲池中的数据在合适的时机刷新到磁盘文件中。后台线程分为四类
- Master Thread
核心后台线程,负责调度其他线程,还负责将缓冲池中的数据异步刷新到磁盘中, 保持数据的一致性,还包括脏页的刷新、合并插入缓存、undo页的回收 。
- IO Thread
在InnoDB存储引擎中大量使用了异步非阻塞IO(AIO)来处理IO请求, 这样可以极大地提高数据库的性能,而IOThread主要负责这些IO请求的回调。
线程类型 | 默认个数 | 职责 |
---|---|---|
Read thread | 4 | 负责读操作 |
Write thread | 4 | 负责写操作 |
Log thread | 1 | 负责将日志缓冲区刷新到磁盘 |
Insert buffer thread | 1 | 负责将写缓冲区内容刷新到磁盘 |
- Purge Thread
主要用于回收事务已经提交了的undo log,在事务提交之后,undo log可能不用了,就用它来回收。
- Page Cleaner Thread
协助 Master Thread 刷新脏页到磁盘的线程,它可以减轻 Master Thread 的工作压力,减少阻塞。
事务原理(重点)
事务概述
事务: 是一组操作的集合,它是一个不可分割的工作单位,事务会把所有的操作作为一个整体一起向系统提交或撤销操作请求,即这些操作要么同时成功,要么同时失败。
特性:
- 原子性(Atomicity):事务是不可分割的最小操作单元,要么全部成功,要么全部失败。
- 一致性(Consistency):事务完成时,必须使所有的数据都保持一致状态。
- 隔离性(Isolation):数据库系统提供的隔离机制,保证事务在不受外部并发操作影响的独立环境下运行。
- 持久性(Durability):事务一旦提交或回滚,它对数据库中的数据的改变就是永久的。
==对于事务当中的原子性,一致性和持久性,是由innoDB底层的redo log和undo log两份日志来保证的。对于隔离性是由innoDB底层的锁机制和MVCC多版本并发控制来实现的。==
redo log(持久性,一致性)
redo log称为重做日志,记录的是事务提交时数据页的物理修改
,是用来实现事务的持久性。该日志文件由两部分组成:重做日志缓冲(redo log buffer)以及重做日志文件(redo log file),前者是在内存中,后者在磁盘中。当事务提交之后会把所有修改信息都存到该日志文件中, 用于在刷新脏页到磁盘,发生错误时, 进行数据恢复使用。
当客户端发起事务操作,事务中包含了多条update和delete语句,那么此时mysql是怎么进行执行的呢?当update的时候,首先区操作缓冲区,在缓冲区中查找有没有我们要更新的数据,如果没有则通过后台线程,把我们的数据从磁盘读取出来缓存在缓冲区中。那么接下来就可以直接执行更新和删除操作,直接操作缓冲区的数据就可以了。那么缓冲区的数据就发生了变更,但是磁盘的数据没有变化,那么这个数据页就称之为脏页。那这个脏页会在一定的时机通过后台线程刷新到磁盘中。刷新到磁盘那么缓冲区的数据和磁盘的数据就保持一致了。但是我们知道脏页的数据不是实时刷新的,那么假如说数据刷入磁盘的时候出错了,那么此时内存的数据没有刷到磁盘中,那么事务都提交了,最终在刷磁盘的时候失败了,就保证不来持久性了。 当redo log出现之后,当我们对缓冲区的数据进行增删改之后,首先会把增删改的数据记录在redo log buffer中。在redo log buffer中就会记录数据的变化,那么当事务提交的时候,redo log buffer会把数据页的变化刷到磁盘中,持久化保存在磁盘中。在脏页刷新的时候如果出错了,就可以通过redo log来进行恢复。 为什么每次提交事务的时候要把redo log直接刷新到磁盘呢,那么我们不需要redo log,在提交的时候直接把变更的数据刷新到磁盘不行吗?注意,这两者之间是有区别的,如果每一次提交,不用redo log,直接把buffer pool当中的数据刷新到磁盘文件中,可以这么做,但是存在严重的性能问题,因为事务中会操作很多记录,而这些记录都是随机的去操作数据页,就会有大量的随机磁盘IO,性能低,而如果是redo log,在事务提交时把redo log刷到磁盘中,由于它是日志文件,日志文件是追加的,那么就是顺序磁盘IO,性能高。这种机制叫做WAL(write-ahead-logging),就是先写日志。当脏页的数据成功刷入磁盘中,那么redo log日志也就不需要了,所以隔一段时间就会清理redo log日志。
undo log(原子性,一致性)
undo log称为回滚日志,用于记录数据被修改前的信息
, 作用包含两个 : 提供回滚 和 MVCC(多版本并发控制) 。
undo log主要作用就是:
- 在事务执行失败执行回滚时,那么就需要依赖于undo log进行回滚
- MVCC多版本并发控制时也需要用到undo log
undo log和redo log记录物理日志不一样,它是逻辑日志。可以认为当delete一条记录时,undo log中会记录一条对应的insert记录,反之亦然,当update一条记录时,它记录一条对应相反的update记录。当执行rollback时,就可以从undo log中的逻辑记录读取到相应的内容并进行回滚。
Undo log销毁:undo log在事务执行时产生,事务提交时,并不会立即删除undo log,因为这些日志可能还用于MVCC。 Undo log存储:undo log采用段的方式进行管理和记录,存放在前面介绍的 rollback segment 回滚段中,内部包含1024个undo log segment。
MVCC(隔离性,重点)
MVCC-基本概念
➢当前读
读取的是记录的最新版本,读取时还要保证其他并发事务不能修改当前记录,会对读取的记录进行加锁。对于我们日常的操作,如:select ... lock in share mode(共享锁),select ... for update、update、insert、delete(排他锁)都是一种当前读
➢快照读
简单的select(不加锁)就是快照读,快照读,读取的是记录数据的可见版本,有可能是历史数据,不加锁,是非阻塞读。
- Read Committed:每次select,都生成一个快照读。
- Repeatable Read:开启事务后第一个select语句才是快照读的地方。
- Serializable:快照读会退化为当前读。
➢MVCC
全称 Multi-Version Concurrency Control,多版本并发控制。指维护一个数据的多个版本,使得读写操作没有冲突,快照读为MySQL实现MVCC提供了一个非阻塞读功能。MVCC的具体实现,还需要依赖于数据库记录中的三个隐式字段、undo log日志、readView。
三个的隐藏字段
当我们去创建一张表,表中有3个字段,id,age和name。这是显示可以看到的,在innoDB当中,实际上会为这张表额外的再增加两个字段DB_TRX_ID和DB_ROLL_PTR。这是innoDB隐式增加的,还有一个隐藏字段叫DB_ROW_ID。这个字段比较特殊,如果表没有主键的时候才会生成,作为隐藏主键,如果表内有主键,则不会出现这个字段。
隐藏字段 | 含义 |
---|---|
DB_TRX_ID | 最近修改事务ID,记录插入这条记录或最后一次修改该记录的事务ID。 |
DB_ROLL_PTR | 回滚指针,指向这条记录的上一个版本,用于配合undo log,指向上一个版本。 |
DB_ROW_ID | 隐藏主键,如果表结构没有指定主键,将会生成该隐藏字段。 |
undo log
- 介绍
undo log叫做回滚日志,在insert、update、delete的时候产生的便于数据回滚的日志。 当insert的时候,产生的undo log日志只在回滚时需要,在事务提交后,可被立即删除。 而update、delete的时候,产生的undo log日志不仅在回滚时需要,在快照读时也需要,不会立即被删除。
- undo log版本链
不同事务或相同事务对同一条记录进行修改,会导致该记录的undolog生成一条记录版本链表,链表的头部是最新的旧记录,链表尾部是最早的旧记录。
readView
介绍
ReadView(读视图)是 快照读 SQL执行时MVCC提取数据的依据,记录并维护系统当前活跃的事务(未提交的)id。
ReadView中包含了四个核心字段:
字段 | 含义 |
---|---|
m_ids | 当前活跃的事务ID集合 |
min_trx_id | 最小活跃事务ID |
max_trx_id | 预分配事务ID,当前最大事务ID+1(因为事务ID是自增的) |
creator_trx_id | ReadView创建者的事务ID |
版本链数据访问规则
不同的隔离级别,生成ReadView的时机不同:
- READ COMMITTED(RC) :
在事务中每一次执行快照读时生成ReadView。
- REPEATABLE READ(RR):
仅在事务中第一次执行快照读时生成ReadView,后续复用该ReadView。
RC
RC隔离级别下,在事务中每一次执行快照读时生成ReadView。
对比过程直接看视频吧RC原理分析
RR
RR隔离级别下,仅在事务中第一次执行快照读时生成ReadView,后续复用该ReadView。
对比过程直接看视频吧RR原理分析
InnoDB引擎总结
- 逻辑存储结构
表空间、段、区、页、行
- 架构
内存结构 磁盘结构
- 事务原理
原子性 – undo log 持久性 – redo log 一致性 – undo log + redo log 隔离性 – 锁 + MVCC
- MVCC
记录隐藏字段、undo log版本链、readView
MySQL管理
系统数据库
Mysql数据库安装完成后,自带了一下四个数据库,具体作用如下:
数据库 | 含义 |
---|---|
mysql | 存储MySQL服务器正常运行所需要的各种信息(时区、 主从、用户、权限等) |
information_schema | 提供了访问数据库元数据的各种表和视图,包含数据库、表、字段类型及访问权限等 |
performance_schema | 为MySQL服务器运行时状态提供了一个底层监控功能,主要用于收集数据库服务器性能参数 |
sys | 包含了一系列方便DBA和开发人员利用performance_schema性能数据库进行性能调优和诊断的视图 |
常用工具
mysql
该mysql不是指mysql服务,而是指mysql的客户端工具。
语法:
mysql [options][database]
选项:
-u,--user=name #指定用户名
-p,--password[=name] #指定密码
-h,--host=name #指定服务器IP或域名
-P,--port=port #指定连接端口
-e,--execute=name #执行SQL语句并退出
-e选项可以在Mysql客户端执行SQL语句,而不用连接到MySQL数据库再执行,对于一些批处理脚本,这种方式尤其方便。
# 例如:
mysql -uroot -p12345 db01 -e "select * from stu";
mysqladmin
mysqladmin 是一个执行管理操作的客户端程序。可以用它来检查服务器的配置和当前状态、创建并删除数据库等。
mysqladmin --help
mysqladmin -uroot -p123456 drop 'db01';
mysqlbinlog
由于服务器生成的二进制日志文件以二进制格式保存,所以如果想要检查这些文本的文本格式,就会使用到mysqlbinlog 日志管理工具。
语法:
mysqlbinlog [options] logo-files 1 log-files 2...
选项:
-d,--database=name # 指定数据库名称,只列出指定的数据库相关操作。
-o,--offset=n # 忽略掉日志中的前n行命令。
-r,--result-file=name # 将输出的文本格式日志输出到指定文件。
-s,--short-form #显示简单格式,省略掉一些信息。
--start-datetime=date1 --stop-datetime=date2 # 指定日期间隔内的所有日志。
--start-positioin=pos1 --stop-position=pos2 #指定位置间隔内的所有日志。
mysqlshow
mysqlshow 客户端对象查找工具,用来很快地查找存在哪些数据库、数据库中的表、表中的列或者索引。
语法:
mysqlshow [options][db_name[table_name][col_name]]
选项:
--count # 显示数据库及表的统计信息(数据库,表 均可以不指定.
-i # 显示指定数据库或者指定表的状态信息
实例:
#查询每个数据库的表的数量及表中记录的数量
mysqlshow -uroot -p1234 --count
#查询test库中每个表中的字段书,及行数
mysqlshow -uroot -p1234 test --cout
#查询test库中book表的详细情况
mysqlshow -uroot -p1234 test book --count
mysqldump
mysqldump 客户端工具用来备份数据库或在不同数据库之间进行数据迁移。备份内容包含创建表,及插入表的SQL语句。
语法:
mysqldup [options]db_name[tables]
mysqldup [options]--database/-B db1 [db2 db3...]
mysqldup [options]--all-databases/-A
选项:
-u, --user=name #指定用户名
-p, --password[=name] #指定密码
-h, --host=name #指定服务器ip或域名
-P, --port=# #指定连接端口
输出选项:
--add-drop-database #在每个数据库创建语句前加上dropdatabase语句
-add-drop-table #在每个表创建语句前加.上drop table语句,默认开启;不开启(--skip-add-drop-table)
-n, --no-create-db #不包含数据库的创建语句
-t, --no-create-info #不包含数据表的创建语句
-d,--no-data #不包含数据
-T,--tab=name #自动生成两个文件:一个.sq|文件,创建表结构的语句;一个.txt文件,数据文件
mysqlimport/source
mysqlimport 是客户端数据导入工具,用来导入mysqldump 加 -T 参数后导出的文本文件。
语法:
mysqllimport [options] db_name testfile1 [testfile2...]
示例:
mysqllimport -uroot -p1234 test01 /var/lib/mysql-files/test01.txt
如果需要导入sql文件,可以使用mysql中的source 指令 :
语法:
source /root/xxx.sql
MySQL管理
-
mysql:Mysql 客户端工具,-e 执行SQL并退出
-
mysqladmin:Mysql管理工具
-
mysqlbinlog:二进制日志查看工具
-
mysqlshow:查看数据库、表、字段的统计信息
-
mysqldump :数据备份工具
-
mysqlimport/source:数据导入工具