一、事务简介
事务(transaction)是传统数据库所具备的一项基本能力,其根本目的是为数据的可靠性与一致性提供保障。而在通常的实现中,事务包含了一个系列的数据库读写操作,这些操作要么全部完成,要么全部撤销。例如,在电子商城场景中,当顾客下单购买某件商品时,除了生成订单,还应该同时扣减商品的库存,这些操作应该被作为一个整体的执行单元进行处理,否则就会产生不一致的情况。
数据库事务需要包含4个基本特性,即常说的ACID,具体如下:
原子性(atomicity):事务作为一个整体被执行,包含在其中的对数据库的操作要么全部被执行,要么都不执行。一致性(consistency):事务应确保数据库的状态从一个一致状态转变为另一个一致状态。一致状态的含义是数据库中的数据应满足完整性约束。隔离性(isolation):多个事务并发执行时,一个事务的执行不应影响其他事务的执行。持久性(durability):已被提交的事务对数据库的修改应该是永久性的。
1-1、MongoDB多文档事务
在MongoDB中,对单个文档的操作是原子的。由于可以在单个文档结构中使用内嵌文档和数组来获得数据之间的关系,而不必跨多个文档和集合进行范式化,所以这种单文档原子性避免了许多实际场景中对多文档事务的需求。
对于那些需要对多个文档(在单个或多个集合中)进行原子性读写的场景,MongoDB支持多文档事务。而使用分布式事务,事务可以跨多个操作、集合、数据库、文档和分片使用。
MongoDB 虽然已经在 4.2 开始全面支持了多文档事务,但并不代表大家应该毫无节制地使用它。相反,对事务的使用原则应该是:能不用尽量不用。 通过合理地设计文档模型,可以规避绝大部分使用事务的必要性。
使用事务的原则:
- 无论何时,事务的使用总是能避免则避免;
模型设计先于事务,尽可能用模型设计规避事务;- 不要使用过大的事务(尽量控制在 1000 个文档更新以内);
- 当必须使用事务时,尽可能让涉及事务的文档分布在同一个分片上,这将有效地提高效率;
1-2、MongoDB对事务支持
| 事务属性 | 支持程度 |
|---|---|
| Atomocity 原子性 | 单表单文档 : 1.x 就支持复制集多表多行:4.0分片集群多表多行:4.2 |
| Consistency 一致性 | writeConcern, readConcern (3.2) |
| Isolation 隔离性 | readConcern (3.2) |
| Durability 持久性 | Journal and Replication |
1-3、使用方法
MongoDB 多文档事务的使用方式与关系数据库非常相似:
try (ClientSession clientSession = client.startSession()) {
clientSession.startTransaction();
collection.insertOne(clientSession, docOne);
collection.insertOne(clientSession, docTwo);
clientSession.commitTransaction();
}
1-3-1、数据写入writeConcern
writeConcern 决定一个写操作落到多少个节点上才算成功。MongoDB支持客户端灵活配置写入策略(writeConcern),以满足不同场景的需求。
语法格式:
{ w: <value>, j: <boolean>, wtimeout: <number> }
1-3-1-1、w: 数据写入到number个节点才向用客户端确认
{w: 0} 对客户端的写入不需要发送任何确认,适用于性能要求高,但不关注正确性的场景
{w: 1} 默认的writeConcern,数据写入到Primary就向客户端发送确认
{w: “majority”}数据写入到副本集大多数成员后向客户端发送确认,适用于对数据安全性要求比较高的场景,该选项会降低写入性能
1-3-1-2、j: 写入操作的journal持久化后才向客户端确认
默认为{j: false},如果要求Primary写入持久化了才向客户端确认,则指定该选项为true
1-3-1-3、wtimeout: 写入超时时间,仅w的值大于1时有效。
当指定{w: }时,数据需要成功写入number个节点才算成功,如果写入过程中有节点故障,可能导致这个条件一直不能满足,从而一直不能向客户端发送确认结果,针对这种情况,客户端可设置wtimeout选项来指定超时时间,当写入过程持续超过该时间仍未结束,则认为写入失败。
1-3-1-4、测试
包含延迟节点的3节点pss复制集(其中1个延迟节点延迟1分钟)
# 写入成功(写入P节点及其中一个未延迟的S节点,已为大多数节点)
db.user.insertOne({name:"李四"},{writeConcern:{w:"majority"}})
# 等待延迟节点写入数据后才会响应
db.user.insertOne({name:"王五"},{writeConcern:{w:3}})
# 超时写入失败
db.user.insertOne({name:"小明"},{writeConcern:{w:3,wtimeout:3000}})
注意事项
- 虽然多于半数的 writeConcern 都是安全的,但通常只会
设置 majority,因为这是等待写入延迟时间最短的选择; 不要设置 writeConcern 等于总节点数,因为一旦有一个节点故障,所有写操作都将失败;- writeConcern 虽然会增加写操作延迟时间,但并不会显著增加集群压力,因此无论是否等待,写操作最终都会复制到所有节点上。设置 writeConcern 只是让写操作等待复制后再返回而已;
应对重要数据应用 {w: “majority”},普通数据可以应用 {w: 1} 以确保最佳性能。
1-3-2、数据读取
在读取数据的过程中我们需要关注以下两个问题:
- 从哪里读?
- 什么样的数据可以读?
第一个问题是是由 readPreference 来解决,第二个问题则是由 readConcern 来解决
1-3-2-1、readPreference
readPreference决定使用哪一个节点来满足正在发起的读请求。可选值包括:
- primary: 只选择主节点,默认模式;
- primaryPreferred:优先选择主节点,如果主节点不可用则选择从节点;
- secondary:只选择从节点;
- secondaryPreferred:优先选择从节点, 如果从节点不可用则选择主节点;
- nearest:根据客户端对节点的 Ping 值判断节点的远近,选择从最近的节点读取。
合理的 ReadPreference 可以极大地扩展复制集的读性能,降低访问延迟。
合理的 ReadPreference 可以极大地扩展复制集的读性能,降低访问延迟。
1-3-2-1-1、readPreference 场景举例
- 用户下订单后马上将用户转到订单详情页——primary/primaryPreferred。因为此时从节点可能还没复制到新订单;
- 用户查询自己下过的订单——secondary/secondaryPreferred。查询历史订单对 时效性通常没有太高要求;
- 生成报表——secondary。报表对时效性要求不高,但资源需求大,可以在从节点单独处理,避免对线上用户造成影响;
- 将用户上传的图片分发到全世界,让各地用户能够就近读取——nearest。每个地区的应用选择最近的节点读取数据。
1-3-2-1-2、readPreference 配置
通过 MongoDB 的连接串参数:
mongodb://host1:27107,host2:27107,host3:27017/?replicaSet=rs0&readPre ference=secondary
通过 MongoDB 驱动程序 API:
MongoCollection.withReadPreference(ReadPreference readPref)
Mongo Shell:
db.collection.find().readPref( "secondary" )
1-3-2-1-3、从节点读测试
- 主节点写入{count:1} , 观察该条数据在各个节点均可见
# mongo --host rs0/localhost:28017
rs0:PRIMARY> db.user.insert({count:1})
在primary节点中调用readPref("secondary")查询从节点用直连方式(mongo localhost:28017)会查到数据,需要通过mongo --host rs0/localhost:28017方式连接复制集,参考: jira.mongodb.org/browse/SERV…
主节点写入数据,两个S节点已完成数据同步,可以完成查询任务
- 在两个从节点分别执行 db.fsyncLock() 来锁定写入(同步)
# mongo localhost:28018
rs0:SECONDARY> rs.secondaryOk()
rs0:SECONDARY> db.fsyncLock()
- 主节点写入 {count:2}
rs0:PRIMARY> db.user.insert({count:2})
rs0:PRIMARY> db.user.find()
rs0:PRIMARY> db.user.find().readPref("secondary")
rs0:SECONDARY> db.user.find()
如下图,通过以上命令可以看到,当两个S节点锁定之后,那么这两个S节点就无法获取P节点的最新数据,这样在读取的时候,通过设置readPref("secondary")优先从从节点读取,但是发现也可以读取到数据,这是目前版本的一个bug,使用的时候需要注意。
如果要让这个机制生效,需要使用mongo --host rs0/localhost:28017 这样的方式连接,断开连接,使用此链接方式连接之后,再次查询,如下count:2的数据就查询不到了:
- 解除从节点锁定 db.fsyncUnlock()
rs0:SECONDARY> db.fsyncUnlock()
- 主节点中查从节点数据
rs0:PRIMARY> db.user.find().readPref("secondary")
将两个从节点解除锁定,再次查询就可以看到数据了
1-3-2-1-4、通过Tag来读取数据
readPreference 只能控制使用一类节点。Tag 则可以将节点选择控制到一个或几个节点。考虑以下场景:
- 一个 5 个节点的复制集;
- 3 个节点硬件较好,专用于服务线上客户;
- 2 个节点硬件较差,专用于生成报表;
可以使用 Tag 来达到这样的控制目的:
- 为 3 个较好的节点打上 {purpose: "online"};
- 为 2 个较差的节点打上 {purpose: "analyse"};
- 在线应用读取时指定 online,报表读取时指定 analyse。
# 为复制集节点添加标签
conf = rs.conf()
conf.members[1].tags = { purpose: "online"}
conf.members[4].tags = { purpose: "analyse"}
rs.reconfig(conf)
#查询
db.collection.find({}).readPref( "secondary", [ {purpose: "analyse"} ] )
注意事项
-
指定 readPreference 时也应注意高可用问题。例如将 readPreference 指定 primary,则发生故障转移不存在 primary 期间将没有节点可读。如果业务允许,则应选择 primaryPreferred; -
使用 Tag 时也会遇到同样的问题,如果只有一个节点拥有一个特定 Tag,则在这个节点失效时将无节点可读。这在有时候是期望的结果,有时候不是。例如:
- 如果报表使用的节点失效,即使不生成报表,通常也不希望将报表负载转移到其他节点上,此时只有一个节点有报表 Tag 是合理的选择;
- 如果线上节点失效,通常希望有替代节点,所以应该保持多个节点有同样的 Tag;
-
Tag 有时需要与优先级、选举权综合考虑。例如做报表的节点通常不会希望它成为主节点,则优先级应为 0。
1-3-2-2、readConcern
在 readPreference 选择了指定的节点后,readConcern 决定这个节点上的数据哪些是可读的,类似于关系数据库的隔离级别。可选值包括:
available:读取所有可用的数据;local:读取所有可用且属于当前分片的数据;majority:读取在大多数节点上提交完成的数据;- linearizable:可线性化读取文档,仅支持从主节点读;
snapshot:读取最近快照中的数据,仅可用于多文档事务;
1-3-2-2-1、readConcern: local 和 available
在复制集中 local 和 available 是没有区别的,两者的区别主要体现在分片集上。
以下场景:
-
一个 chunk x 正在从 shard1 向 shard2 迁移;
-
整个迁移过程中 chunk x 中的部分数据会在 shard1 和 shard2 中同时存在,但源分片 shard1仍然是chunk x 的负责方:
- 所有对 chunk x 的读写操作仍然进入 shard1;
- config 中记录的信息 chunk x 仍然属于 shard1;
-
此时如果读 shard2,则会体现出 local 和 available 的区别:
- local:只取应该由 shard2 负责的数据(不包括 x);
- available:shard2 上有什么就读什么(包括 x);
数据迁移过程中,数据还是属于之前的分片,当数据迁移完成,并且报告给config节点,config做成响应,被迁移的数据才属于新的分片
注意事项:
- 虽然看上去总是应该选择 local,但毕竟对结果集进行过滤会造成额外消耗。在一些无关紧要的场景(例如统计)下,也可以考虑 available;
- MongoDB <=3.6 不支持对从节点使用 {readConcern: "local"};
- 从主节点读取数据时默认 readConcern 是 local,从从节点读取数据时默认readConcern 是 available(向前兼容原因)。
1-3-2-2-2、readConcern: majority
只读取大多数据节点上都提交了的数据。考虑如下场景:
- 集合中原有文档 {x: 0};
- 将x值更新为 1;
如果在各节点上应用 {readConcern: "majority"} 来读取数据:
数据写入同步过程: 原值:x=0,以读取主节点为例
1、当在t0节点是,将x=1写入Primary节点(此时Primary节点的数据x=1),但是由于读取数据使用readConcern: "majority",需要大多数节点读取成功才可以,因此t0时读取获取的数据依然是x=0;
2、当到达t1的时候,写入了Secondary1节点,但是未告诉Primary已经写成功,因此读取数据依然是x=0;
3、当到达t3的时候,Secondary1写入成功的时间戳同步到了Primary,这样就有两个节点写入成功,读取数据x=1.
当读取Secondary1的时候,只有在t5节点才可以读到,原因是主节点还需要告诉Secondary1已经写入成功,这样Secondary1的数据才可以读取到x=1
同理 Secondary2到t6才可以读取到x=1
t3 时刻的 Secondary1,此时:
- 对于要求 majority 的读操作,它将返回 x=0;
- 对于不要求 majority 的读操作,它将返回 x=1;
如何实现?
节点上维护多个 x 版本(MVCC 机制),MongoDB 通过维护多个快照来链接不同的版本:
- 每个被大多数节点确认过的版本都将是一个快照;
- 快照持续到没有人使用为止才被删除;
测试readConcern: majority vs local
1、已经安装好3节点的复制集,然后需要配置enableMajorityReadConcern: true,目前已经默认开启,可以通过mongod --help
2、将复制集中的两个从节点使用 db.fsyncLock() 锁住写入(模拟同步延迟) 3、写入数据测试
rs0:PRIMARY> db.user.insert({count:10})
rs0:PRIMARY> db.user.find().readConcern("local")
rs0:PRIMARY> db.user.find().readConcern("majority")
如下图:当读取本地的时候可以读取到count=10,但是使用readConcern("majority")读取大多数节点的时候,数据是无法读取的(此时两个Secondary节点,还处于锁住的状态,数据无法同步)
4、结论
- 使用 local 参数,则可以直接查询到写入数据
- 使用 majority,只能查询到已经被多数节点确认过的数据
- update 与 remove 与上同理。
readConcern: majority 与脏读 MongoDB 中的回滚:
- 写操作到达大多数节点之前都是不安全的,一旦主节点崩溃,而从节点还没复制到该次操作,刚才的写操作就丢失了;
- 把一次写操作视为一个事务,从事务的角度,可以认为事务被回滚了。
所以从分布式系统的角度来看,事务的提交被提升到了分布式集群的多个节点级别的“提交”,而不再是单个节点上的“提交”。
在可能发生回滚的前提下考虑脏读问题:
- 如果在一次写操作到达大多数节点前读取了这个写操作,然后因为系统故障该操作回滚了,则发生了脏读问题;
使用 {readConcern: "majority"} 可以有效避免脏读
1-3-2-2-3、如何安全的读写分离
考虑如下场景:
- 向主节点写入一条数据;
- 立即从从节点读取这条数据。
思考: 如何保证自己能够读到刚刚写入的数据?
下述方式有可能读不到刚写入的订单
db.orders.insert({oid:101,sku:"kite",q:1})
db.orders.find({oid:101}).readPref("secondary")
使用writeConcern+readConcern majority来解决
db.orders.insert({oid:101,sku:"kite",q:1},{writeConcern:{w:"majority"}})
db.orders.find({oid:101}).readPref("secondary").readConcern("majority")
1-3-2-2-4、readConcern: linearizable
只读取大多数节点确认过的数据。和 majority 最大差别是保证绝对的操作线性顺序
- 在写操作自然时间后面的发生的读,一定可以读到之前的写
- 只对读取单个文档时有效;
- 可能导致非常慢的读,因此总是建议配合使用 maxTimeMS;
1-3-2-2-5、readConcern: snapshot
{readConcern: “snapshot”} 只在多文档事务中生效。将一个事务的 readConcern 设置为 snapshot,将保证在事务中的读:
- 不出现脏读;
- 不出现不可重复读;
- 不出现幻读。
因为所有的读都将使用同一个快照,直到事务提交为止该快照才被释放。
小结
- available:读取所有可用的数据
- local:读取所有可用且属于当前分片的数据,默认设置
majority:数据读一致性的充分保证,可能你最需要关注的- linearizable:增强处理 majority 情况下主节点失联时候的例外情况
snapshot:最高隔离级别,接近于关系型数据库的Serializable
1-4、事务隔离级别
1-4-1、事务超时
MongoDB 事务需要在60s内完成,否则就会被挂起,回滚。
原因在于,默认情况下MongoDB会为每个事务设置1分钟的超时时间,如果在该时间内没有提交,就会强制将其终止。该超时时间可以通过transactionLifetimeLimitSecond变量设定。
1-4-2、事务的两种读取方式
- 事务完成前,事务外的操作对该事务所做的修改不可访问
# 插入数据
db.tx.insertMany([{ x: 1 }, { x: 2 }])
# 获取session
var session = db.getMongo().startSession()
# 开启事务 session.startTransaction()
var coll = session.getDatabase("test").getCollection("tx")
#事务内修改 {x:1, y:1}
coll.updateOne({x: 1}, {$set: {y: 1}})
#事务内查询 {x:1}
coll.findOne({x: 1}) //{x:1, y:1}
#事务外查询 {x:1}
db.tx.findOne({x: 1}) //{x:1}
#提交事务
session.commitTransaction()
# 或者回滚事务
session.abortTransaction()
通过下图就可以发现,当开启事务之后,在事务内的数据操作是可见的,但是事务外就不可见,只有当事务提交,这样数据就完成了操作。
- 如果事务内使用 {readConcern: "snapshot"},则可以达到可重复读 Repeatable Read
var session = db.getMongo().startSession()
session.startTransaction({ readConcern: {level: "snapshot"}, writeConcern: {w: "majority"}})
var coll = session.getDatabase('test').getCollection("tx")
coll.findOne({x: 1})
db.tx.updateOne({x: 1}, {$set: {y: 1}})
db.tx.findOne({x: 1})
coll.findOne({x: 1})
session.abortTransaction()
当readConcern: {level: "snapshot"}的时候,在开启事务中读取数据,不论事务外是否对数据做改变,当前事务内的数据是不变的。当事务提交或者取消,就可以读取最新的数据了
1-4-3、事务写机制
MongoDB 的事务错误处理机制不同于关系数据库:
- 当一个事务开始后,如果事务要修改的文档在事务外部被修改过,则事务修改这个 文档时会触发 Abort 错误,因为此时的修改冲突了。 这种情况下,只需要简单地重做事务就可以了;
- 如果一个事务已经开始修改一个文档,在事务以外尝试修改同一个文档,则事务以外的修改会等待事务完成才能继续进行。
1-4-3-1、写冲突测试
开3个 mongo shell 均执行下述语句
var session = db.getMongo().startSession()
session.startTransaction()
var coll = session.getDatabase('test').getCollection("tx")
窗口1: 正常结束
coll.updateOne({x: 1}, {$set: {y: 1}})
窗口2: 异常 – 解决方案:重启事务
coll.updateOne({x: 1}, {$set: {y: 2}})
窗口3:事务外更新,需等待
db.tx.updateOne({x: 1}, {$set: {y: 3}})
1-5、注意事项
- 可以实现和关系型数据库类似的事务场景
- 必须使用与 MongoDB 4.2 兼容的驱动;
- 事务默认必须在 60 秒(可调)内完成,否则将被取消;
涉及事务的分片不能使用仲裁节点;- 事务会影响 chunk 迁移效率。正在迁移的 chunk 也可能造成事务提交失败(重试 即可);
多文档事务中的读操作必须使用主节点读;readConcern 只应该在事务级别设置,不能设置在每次读写操作上。