1.事务的四大特性
1.1 原子性:
事务被视为不可分割的最小单元,事务的所有操作要么全部提交成功,要么全部失败回滚。
mysql是利用innodb的undo log来保证原子性的。undo log名为回滚日志,undo log还用来实现多版本并发控制(mvcc)。undo log是把所有没有commit的事务回滚到事务开始的状态,系统崩溃时,可能有些事务还没commit,在系统恢复时,这些没有commit的事务就需要借助undo log来进行回滚。
使用undo log时事务执行顺序:
1. 记录Start t
2. 记录需要修改的记录的旧值
3. 根据事务的需要更新数据库
4. 记录commit t
使用undo log进行宕机回滚
1. 扫描日志,找出所有已经Start,还没有commit的事务
2. 针对所有未commit的日志,根据undo log来进行回滚
使用undo log,在写commit日志时,要求redo log以及事务的所有修改都必须已经持久化,这种做法通常很影响性能。因为,事务提交前需要将undo log写磁盘,这会造成多次磁盘IO;事务提交后需要将数据立即更新到数据库中,这又会造成至少一次磁盘IO,这是一次随机IO。如何优化?事务提交之后如果能够将数据缓存一段时间,而不是立即更新到数据库,就能将一次次的随机IO打包变成一次IO,可以提高性能。但是这样就会丧失事务的持久性。因此,引入了另外一种机制来实现持久化,即redo log。
1.2 隔离性:
一个事务所做的修改在最终提交以前,对其它事务是不可见的。
1.3 一致性:
数据库在事务执行前后都保持一致性状态。在一致性状态下,所有事务对同一个数据的读取结果都是相同的。(例如:银行转账)
1.4 持久性:
一旦事务提交,则其所做的修改将会永远保存到数据库中。即使系统发生崩溃,事务执行的结果也不能丢失。系统发生崩溃可以用重做日志(Redo Log)进行恢复,从而实现持久性。与回滚日志记录数据的逻辑修改不同,重做日志记录的是数据页的物理修改。
由于undo log存在性能缺陷,redo log解决的问题之一就是事务执行过程中的强制刷脏。在事务提交之前,只要将redo log持久化即可,不需要将数据持久化。当系统崩溃时,虽然数据没有持久化,但是redo log已经持久化。系统可以根据redo log的内容,将所有的数据恢复到最新状态。
redo log通常是物理日志,记录的是数据页的物理修改,而不是某一行或某几行修改成怎样怎样,它用来恢复提交后的物理数据页。
redo/undo log 将二者结合,提高效率
要从两个角度来优化,一个是尽可能减少写入磁盘(即多个事务合并成一次磁盘IO),另一个就是尽量顺序写入(HDD的随机写入性能远差于顺序写入)
undo记录某数据被修改钱的值,可以用来在事务失败时进行rollback;
redo记录某数据快被修改后的值,可以用来恢复未写入data file的已经成功提交事务更新的数据。
事务的 ACID 特性概念简单,但不是很好理解,主要是因为这几个特性不是一种平级关系:
- 只有满足一致性,事务的执行结果才是正确的。
- 在无并发的情况下,事务串行执行,隔离性一定能够满足。此时只要能满足原子性,就一定能满足一致性。
- 在并发的情况下,多个事务并行执行,事务不仅要满足原子性,还需要满足隔离性,才能满足一致性。
- 事务满足持久化是为了能应对系统崩溃的情况。
2.并发一致性问题
在并发环境下,事务的隔离性很难保证,因此会出现很多并发一致性问题。
2.1 修改丢失
丢失修改指一个事务的更新操作被另外一个事务的更新操作替换。一般在现实生活中常会遇到,例如:T1 和 T2 两个事务都对一个数据进行修改,T1 先修改并提交生效,T2 随后修改,T2 的修改覆盖了 T1 的修改。
2.2 读脏数据
一个事务读到了另一个未提交事务修改过的数据
2.3 不可重复读
指在一个事务内多次读取同一数据集合。在这一事务还未结束前,另一事务也访问了该同一数据集合并做了修改,由于第二个事务的修改,第一次事务的两次读取的数据可能不一致。
2.4 幻读
幻读本质上也属于不可重复读的情况,只不过它不是指数据在同一事务多次读取的时候由于被读取的数据在某个时刻被其他事务修改并提交,导致该事务前后两次读取的结果不一致。而是指数据集中插入了新的数据。T1 读取某个范围的数据,T2 在这个范围内插入新的数据,T1 再次读取这个范围的数据,此时读取的结果和和第一次读取的结果不同。
产生并发不一致性问题的主要原因是破坏了事务的隔离性,解决方法是通过并发控制来保证隔离性。并发控制可以通封锁来实现,但是锁操作需要用户自己控制,相当复杂。数据库管理系统提供了事务的隔离级别,让用户以一种更轻松的方式处理并发一致性问题。
3. 锁
3.1 锁的粒度
MySQL 中提供了两种锁粒度:行级锁以及表级锁。
应该尽量只锁定需要修改的那部分数据,而不是所有的资源。锁定的数据量越少,发生锁争用的可能就越小,系统的并发程度就越高。
但是加锁需要消耗资源,锁的各种操作(包括获取锁、释放锁、以及检查锁状态)都会增加系统开销。因此锁粒度越小,系统开销就越大。
在选择锁粒度时,需要在锁开销和并发程度之间做一个权衡。
3.2 锁的类型
3.2.1 读写锁
- 互斥锁(Exclusive),简写为 X 锁,又称写锁。
- 共享锁(Shared),简写为 S 锁,又称读锁。
有以下两个规定:
一个事务对数据对象 A 加了 X 锁,就可以对 A 进行读取和更新。加锁期间其它事务不能对 A 加任何锁。
一个事务对数据对象 A 加了 S 锁,可以对 A 进行读取操作,但是不能进行更新操作。加锁期间其它事务能对 A 加 S 锁,但是不能加 X 锁。
3.2.1 意向锁
使用意向锁(Intention Locks)可以更容易地支持多粒度封锁。
在存在行级锁和表级锁的情况下,事务 T 想要对表 A 加 X 锁,就需要先检测是否有其它事务对表 A 或者表 A 中的任意一行加了锁,那么就需要对表 A 的每一行都检测一次,这是非常耗时的。
意向锁在原来的 X/S 锁之上引入了 IX/IS,IX/IS 都是表锁,用来表示一个事务想要在表中的某个数据行上加 X 锁或 S 锁。有以下两个规定:
一个事务在获得某个数据行对象的 S 锁之前,必须先获得表的 IS 锁或者更强的锁;
一个事务在获得某个数据行对象的 X 锁之前,必须先获得表的 IX 锁。
通过引入意向锁,事务 T 想要对表 A 加 X 锁,只需要先检测是否有其它事务对表 A 加了 X/IX/S/IS 锁,如果加了就表示有其它事务正在使用这个表或者表中某一行的锁,因此事务 T 加 X 锁失败。
解释如下:
任意 IS/IX 锁之间都是兼容的,因为它们只表示想要对表加锁,而不是真正加锁;
这里兼容关系针对的是表级锁,而表级的 IX 锁和行级的 X 锁兼容,两个事务可以对两个数据行加 X 锁。(事务 T1 想要对数据行 R1 加 X 锁,事务 T2 想要对同一个表的数据行 R2 加 X 锁,两个事务都需要对该表加 IX 锁,但是 IX 锁是兼容的,并且 IX 锁与行级的 X 锁也是兼容的,因此两个事务都能加锁成功,对同一个表中的两个数据行做修改。)