这是我参与「第三届青训营 -后端场」笔记创作活动的的第4篇笔记
简介
性能优化是什么?
- 提升软件系统处理能力,减少不必要的消耗,充分发掘计算机算力
为什么要做性能优化?
- 用户体验:带来用户体验的提升——让刷抖音更丝滑,让双十一购物不再卡顿
- 资源高效利用:降低成本,提高效率——很小的优化乘以海量机器会是显著的性能提升和成本节约
性能优化的层面
| 业务代码 ↓ SDK ↓ 基础库 ↓ 语言运行时 ↓ OS | 业务层优化:针对特定场景,具体问题,具体分析;容易获得较大性能收益 语言运行时优化:解决更通用的性能问题、考虑更多场景;Tradeoffs 数据驱动:自动化性能分析工具——pprof;依靠数据而非猜测;首先优化最大瓶颈 |
|---|
性能优化与软件质量
- 软件质量至关重要
- 在保证接口稳定的前提下改进具体实现
- 测试用例:覆盖尽可能多的场景,方便回归
- 文档:做了什么,没做什么,能达到怎样的效果
- 隔离:通过选项控制是否开启优化
- 可观测:必要的日志输出
自动内存管理
概念
动态内存:程序在运行时根据需求动态分配的内存 malloc()
自动内存管理(垃圾回收 GC) :由程序语言的运行时系统管理动态内存
-
避免手动内存管理,专注于实现业务逻辑
-
保证内存使用的正确性和安全性:double-free problem,use-after-free problem
-
三个任务
- 为新对象分配空间
- 找到存活对象
- 回收死亡对象的内存空间
相关概念
- Mutator:业务线程,分配新对象,修改对象指向关系
- Collector:GC 线程,找到存活对象,回收死亡对象的内存空间
-
Serial GC:只有一个 collector;有暂停
-
Parrallel GC:支持多个 collectors 同时回收的 GC 算法;有暂停
-
Concurrent GC:mutator(s) 和 collector(s) 可以同时执行
- Collectors 必须感知对象指向关系的改变:三色标记、混合写屏障等
-
评价 GC 算法
- 安全性 Safety:不能回收存活的对象 基本要求
- 吞吐率 Throughput:1-\frac{\text{GC 时间}}{\text{程序执行总时间}} 花在 GC 上的时间
- 暂停时间 Pause Time:STW(Stop The World) 业务是否感知
- 内存开销 Space Overhead GC 元数据开销
延申:The Garbage Collection Handbook by Richard Jones, Antony Hosking, Eliot Moss
追踪垃圾回收 Tracing Garbage Collection
-
对象被回收的条件:指针指向关系不可达的对象
-
标记根对象:静态变量、全局变量、常量、线程栈等
-
标记:找到可达对象
- 求指针指向关系的传递闭包:从根对象出发,找到所有可达对象
-
清理:所有不可达对象
-
将存活对象复制到另外的内存空间(Copying GC)
-
将死亡对象的内存标记为“可分配”(Mark-sweep GC)
-
移动并整理存活对象(Mark-compact GC)
-
根据对象的生命周期,使用不同的标记和清理策略
-
分代 GC Generational GC
- 分代假说 Generational hypothesis:most objects die young
- Intuition:很多对象在分配出来后很快就不再使用了
- 每个对象都有年龄:经历过GC的次数
- 目的:对年轻和老年的对象,制定不同的GC策略,降低整体内存管理的开销
- 不同年龄的对象处于 heap 的不同区域
-
年轻代 Young Generation
- 常规的对象分配
- 由于存活对象很少,可以采用 copying collection
- GC 吞吐率很高
-
老年代 Old Generation
- 对象趋向于一直活着,反复复制开销较大
- 可以采用 mark-sweep collection
- 碎片较多时可进行压缩
引用计数 Reference Counting
-
每个对象都有一个与之关联的引用数目
-
对象存活的条件:当且仅当引用数大于 0
-
优点
-
内存管理的操作被平摊到程序执行过程中
-
内存管理不需要了解 runtime 的实现细节:C++ 智能指针 smart pointer
-
-
缺点
-
维护引用计数的开销较大:通过原子操作保证对引用计数操作的原子性和可见性
-
无法回收环形数据结构——弱引用 Weak reference
-
内存开销:每个对象都引入的额外内存空间存储引用数目
-
回收内存时依然可能引发暂停(回收大数据结构时)
-
延申:学术界和工业界在一直在致力于解决自动内存管理技术的不足之处
- PLDI'22 Low-Latency, High-Throughput Garbage Collection
Go 内存管理及优化
Go 内存分配
分块
-
目标:为对象在 heap 上分配内存
-
提前将内存分块
- 调用系统调用
mmap())向 OS 申请一大块内存,例如 4 MB - 先将内存划分成大块,例如 8 KB,称作 mspan
- 再将大块继续划分成特定大小的小块,用于对象分配
- noscan mspan:分配不包含指针的对象——GC 不需要扫描
- scan mspan: 分配包含指针的对象——GC 需要扫描
- 调用系统调用
-
对象分配:根据对象的大小,选择最合适的块返回
缓存
- TCMalloc:thread caching
- 每个 p 包含一个 mcache 用于快速分配,用于为绑定于 p 上的 g 分配对象
- mcache 管理一组 mspan
- 当 mcache 中的 mspan 分配完毕,向 mcentral 申请带有未分配块的 mspan(将装满的 mspan 交换进 mcentral)
- 当 mspan 中没有分配的对象,mspan 会被缓存在 mcentral 中,而不是立刻释放并归还给 OS
Q :Go 中何时 STW 何时并行?
A:GC 分三个阶段,在最开始和最后 STW;扫描 goroutine 的栈时需要 STW,中间做标记时 concurrent GC,启动 GO_MAXPROCS 个 GC 的 goroutine 进行并行回收
Go 内存管理优化
问题
-
对象分配是非常高频的操作:每秒分配 GB 级别的内存
-
小对象占比较高
-
Go 内存分配比较耗时
-
分配路径长:g → m -> p → mcache → mspan → memory block → return pointer
-
pprof:对象分配的函数是最频繁调用的函数之一
-
优化方案:Balanced GC
-
每个 g 都绑定一大块内存(1KB),称作 goroutine allocation buffer(GAB)
-
GAB 用于 noscan 类型的小对象分配:< 128 B
-
使用三个指针维护 GAB:
base,end,top -
指针碰撞 Bump pointer 风格对象分配
-
无须和其他分配请求互斥
-
分配动作简单高效
-
Q:对象的大小记录在哪里?
A:不同于 JAVA 对象头存储了对象类型可以推知大小,Go 没有对象头;使用额外的数据结构,额外开辟 8 字节的内存空间存储对象开头 bitmap(指针 8 字节对齐),1 即是对象开头
技术细节
-
GAB 对于 Go 内存管理来说是一个大对象
-
本质:将多个小对象的分配合并成一次大对象的分配
-
问题:GAB 的对象分配方式会导致内存被延迟释放(一个存活对象导致整个 GAB 得不到释放)
-
方案:移动 GAB 中存活的对象
-
当 GAB 总大小超过一定阈值时,将 GAB 中存活的对象复制到另外分配的GAB中
-
原先的 GAB 可以释放,避免内存泄漏
-
本质:用 copying GC 的算法管理小对象 → 根据对象的生命周期,使用不同的标记和清理策略
Q:修改指针的过程是否需要 STW?
A:需要,在 GC 的最后一个阶段(Mark Termination)期间进行迁移;但也可以不 STW 进行 GAB 的清理
-
性能收益:高峰期 CPU usage 降低 4.6 %,核心接口时延下降 4.5 % ~ 7.7 %
延申:逃逸分析 → 不逃逸的对象可在栈上分配
编译器和静态分析
编译器的结构
-
重要的系统软件
- 识别符合语法和非法的程序
- 生成正确且高效的代码
-
分析部分(前端 front end)
- 词法分析,生成词素 lexeme
- 语法分析,生成语法树
- 语义分析,收集类型信息,进行语义检查
- 中间代码生成,生成 intermediate representation(IR)
-
综合部分(后端 back end)
- 代码优化,机器无关优化,生成优化后的 IR
- 代码生成,生成目标代码
静态分析
- 静态分析:不执行程序代码,推导程序的行为,分析程序的性质
数据流分析和控制流分析
-
控制流 Control flow:程序执行的流程
-
数据流 Data flow:数据在控制流上的传递
-
通过分析控制流和数据流,我们可以知道更多关于程序的性质 properties
-
根据这些性质优化代码
过程内和过程间分析
-
过程内分析 Intra-procedural analysis:仅在函数内部进行分析
-
过程间分析 Inter-procedural analysis:考虑函数调用时参数传递和返回值的数据流和控制流
-
为什么过程间分析是个问题?
→ - 需要通过数据流分析得知
i的具体类型,才能知道i.foo()调用的是哪个foo() - 根据
i的具体类型,产生了新的控制流,i.foo(),分析继续 - 过程间分析需要同时分析控制流和数据流——联合求解,比较复杂
- 需要通过数据流分析得知
Go 编译器优化
-
为什么做编译器优化
- 用户无感知,重新编译即可获得性能收益
- 通用性优化
-
现状
- 采用的优化少
- 编译时间较短,没有进行较复杂的代码分析和优化
-
编译优化的思路
- 场景:面向后端长期执行任务
- Tradeoff:用编译时间换取更高效的机器码
-
Beast mode
- 函数内联
- 逃逸分析
- 默认栈大小调整
- 边界检查消除
- 循环展开
- ……
函数内联 Inlining
-
内联:将被调用函数的函数体 callee 的副本替换到调用位置 caller 上,同时重写代码以反映参数的绑定
例:函数内联能多大程度上影响性能?
func BenchmarkInline(b *testing.B) { x := genInteger() y := genInteger() for i := 0; i < b.N; i++ { addInline(x, y) } } func addInline(a, b int) int { return a + b }func BenchmarkInlineDisabled(b *testing.B) { x := genInteger() y := genInteger() for i := 0; i < b.N; i++ { addNoInline(x, y) } } //go:noinline func addNoInline(a, b int) int { return a + b }效果:使用 micro-benchmark 快速验证和对比性能优化结果——函数被内联后,性能数据提升 4.58X!
-
优点
- 消除函数调用开销,例如传递参数、保存寄存器等
- 将过程间分析转化为过程内分析,帮助其他优化,例如逃逸分析
-
缺点
- 函数体变大,instruction cache(icache)不友好
- 编译生成的 Go 镜像变大
-
函数内联在大多数情况下是正向优化
-
内联策略
- 调用和被调函数的规模
- ……
Beast Mode
-
Go 函数内联受到的限制较多
- 语言特性,例如 interface,defer 等,限制了函数内联
- 内联策略非常保守
-
Beast mode:调整函数内联的策略,使更多函数被内联
- 降低函数调用的开销
- 增加了其他优化的机会:逃逸分析
-
开销
- Go 镜像增加 ~10 %
- 编译时间增加
逃逸分析
-
逃逸分析:分析代码中指针的动态作用域:指针在何处可以被访问
-
大致思路
-
从对象分配处出发,沿着控制流,观察对象的数据流
-
若发现指针
p在当前作用域s:- 作为参数传递给其他函数
- 传递给全局变量
- 传递给其他的
goroutine - 传递给已逃逸的指针指向的对象
-
则指针
p指向的对象逃逸出s,反之则没有逃逸出s
-
-
Beast mode:函数内联拓展了函数边界,更多对象不逃逸
-
优化:未逃逸的对象可以在栈上分配
- 对象在栈上分配和回收很快:移动
sp - 减少在 heap 上的分配,降低 GC 负担
- 对象在栈上分配和回收很快:移动
-
性能收益
-