这是我参与「第三届青训营 -后端场」笔记创作活动的第1篇笔记
本文主要是对高性能Go语言发行版优化与落地实践课程以及Go语言使用过程中的一些常见易错点的内容整理
引言
追求极致性能
-
什么是性能优化?
- 提升软件系统处理能力,减少不必要的消耗,充分发掘计算机算力
-
为什么要做性能优化?
- 用户体验:带来用户体验的提升 —— 让刷抖音更丝滑,让双十一购物不再卡顿
- 资源高效利用:降低成本,提高效率 —— 很小的优化乘以海量机器会是显著的性能提升和成本节约
性能优化的层面
软件的基本结构(从上至下):业务代码、SDK、基础库、语言运行时、OS
-
业务层优化
- 针对特定场景,找到具体的性能问题,具体分析
- 容易获得较大性能收益
-
语言运行时优化
- 解决更通用的性能问题(内存分配、编译器生成代码质量等问题)
- 考虑更多场景
- Tradeoffs
-
数据驱动
- 自动化性能分析工具 —— pprof
- 依靠数据而非猜测
- 首先优化最大瓶颈
软件质量
- 保证接口稳定的前提下改进实现
- 测试驱动
- 通过清晰的文档告诉用户这一项优化做了什么,没做什么,能达到怎样的效果
- 隔离,优化代码用选项和原先的路径隔离,保证优化未启用时的行为同以前一致
- 可观测、可灰度、可回滚
自动内存管理
自动内存管理的基本概念
基本概念
-
动态内存
- 程序在运行时根据需求动态分配的内存:
malloc()
- 程序在运行时根据需求动态分配的内存:
-
自动内存管理(垃圾回收):由程序语言的运行时系统管理动态内存
- 避免手动内存管理,专注于实现业务逻辑
- 保证内存使用的正确性和安全性:double-free problem,use-after-free problem
-
三个任务
- 为新对象分配空间
- 找到存活对象
- 回收死亡对象的内存空间
-
概念
-
Mutator: 业务线程,分配新对象,修改对象指向关系
-
Collector: GC 线程,找到存活对象,回收死亡对象的内存空间
-
Serial GC: 只有一个 collector
-
Parallel GC: 并行 GC,支持多个 collectors 同时回收的 GC 算法
-
Concurrent GC: 并发 GC,支持 mutator(s) 和 collector(s) 同时执行的 GC 算法,不需要暂停,在需要做GC的时候唤醒 collector线程
- 挑战:Collectors 必须感知对象指向关系的改变!
-
-
评价 GC 算法
- 安全性(Safety):不能回收存活的对象 基本要求
- 吞吐率(Throughput): 1 - GC 时间 / 程序执行总时间 花在GC上的时间
- 暂停时间(Pause time):stop the world(STW) 业务是否感知
- 内存开销(Space overhead) GC元数据开销
追踪垃圾回收(Tracing garbage collection)
-
对象被回收的条件:指针指向关系不可达的对象
-
过程
-
标记根对象 (GC roots)
- 静态变量、全局变量、常量、线程栈等
-
标记:找到所有可达对象
- 求指针指向关系的传递闭包:从根对象出发,找到所有可达对象
-
清理:回收所有不可达对象占据的内存空间(不同的清理策略)
-
根据对象的生命周期,使用不同的标记和清理策略
- Copying GC: 将存活对象从一块内存空间复制到另外一块内存空间,原先的空间可以直接进行对象分配
- Mark-sweep GC: 将死亡对象所在内存块标记为可分配,使用 free list 管理可分配的空间
- Mark-compact GC: 将存活对象复制到同一块内存区域的开头(原地整理对象)
-
分代 GC(Generational GC)
-
分代假说(Generational hypothesis):most objects die young
-
Intuition:很多对象在分配出来后很快就不再使用了
-
每个对象都有年龄——经历过GC的次数
-
目的:对年轻和老年的对象,制定不同的 GC 策略,降低整体内存管理的开销
-
不同年龄的对象处于 heap 的不同区域
-
-
年轻代:
- 常规的对象分配
- 由于存活对象很少,可以采用 copying collection
- GC 吞吐率很高
-
老年代:
- 对象趋向于一直活着,反复复制开销较大
- 可以采用 mark-sweep collection
引用技术(Reference counting)
-
每个对象都有一个与之关联的引用数目
-
对象存活的条件:当前仅当引用数大于 0
-
优点
- 内存管理的操作被平摊到程序运行中:指针传递的过程中进行引用计数的增减
- 不需要了解 runtime 的实现细节(例如C++智能指针):因为不需要标记 GC roots,因此不需要知道哪里是全局变量、线程栈等
-
缺点
- 维护引用计数的开销较大,因为对象可能会被多线程访问,对引用计数的修改需要原子操作保证原子性和可见性
- 无法回收环形数据结构 —— weak reference
- 每个对象都引入额外存储空间存储引用计数
- 虽然引用计数的操作被平摊到程序运行过程中,但是回收大的数据结构依然可能引发暂停
Go内存管理及优化
Go内存管理的性能问题以及优化思路
Go内存管理
分块
-
目标:为对象在 heap 上分配内存
-
提前将内存分块
- 调用系统调用 mmap() 向 OS 申请一大块内存,例如 4 MB
- 先将内存划分成大块,例如 8 KB,称作 mspan
- 再将大块继续划分成特定大小的小块,用于对象分配
- noscan mspan: 分配不包含指针的对象 —— GC 不需要扫描
- scan mspan: 分配包含指针的对象 —— GC 需要扫描
-
对象分配:根据对象的大小,在 mspan 中选择最合适的块返回
缓存
- Go 内存管理构成了多级缓存机制,从 OS 分配得的内存被内存管理回收后,也不会立刻归还给 OS,而是在 Go runtime 内部先缓存起来,从而避免频繁向 OS 申请内存。内存分配的路线图如下
- 每个 p 包含一个 mcache 用于快速分配,用于为绑定于 p 上的 g 分配对象
- mcache 管理一组 mspan(同上,每个 mspan 大小并不一样,选择其中最合适的)
- 当 mcache 中的 mspan 分配完毕,向 mcentral 申请带有未分配块的 mspan
- 当 mspan 中没有分配的对象, mspan 会被缓存在 mcentral 中,而不是立刻释放并归还给 OS
Go内存管理的问题
mspan, mcache 和 mcentral 构成了内存管理的多级缓存机制。
-
对象分配是非常高频的操作:每秒分配 GB 级别的内存
-
线上 profiling 发现,Go 的内存分配占用很多 CPU
-
其中小对象的分配占据绝大多数
-
Go内部分配比较耗时
- 分配路径长:g -> m -> p -> mcache -> mspan -> memory block -> return pointer
字节跳动的优化方案
-
Balanced GC
-
核心:将 noscan 对象在 per-g allocation buffer (GAB) 上分配,并使用移动对象 GC 管理这部分内存,提高对象分配和回收效率
-
每个 g 会附加一个较大的 allocation buffer (例如 1 KB) 用来分配小于 128 B 的 noscan 小对象
-
使用三个指针维护 GAB:base, end, top
-
bump pointer(指针碰撞)风格的对象分配。示意如下。
- 无需和其他 g 上的分配请求互斥
- 分配动作简单高效
if g.ab.end - g.ab.top < size { // Allocate a new allocation buffer } addr := g.ab.top g.ab.top += size return addr -
分配对象时,根据对象大小移动
top指针并返回,快速完成一次对象分配 -
同原先调用
mallocgc()进行对象分配的方式相比,balanced GC 缩短了对象分配的路径,减少了对象分配执行的指令数目,降低 CPU 使用
- 问题:GAB 的对象分配方式会导致内存被延迟释放
从 Go runtime 内存管理模块的角度看,一个 allocation buffer 其实是一个大对象。本质上 balanced GC 是将多次小对象的分配合并成一次大对象的分配。因此,当 GAB 中哪怕只有一个小对象存活时,Go runtime 也会认为整个大对象(即 GAB)存活。为此,balanced GC 会根据 GC 策略,当 GAB 总大小超过一定阈值时,将 GAB 中存活的对象移动到另外的 GAB 中,从而压缩并清理 GAB 的内存空间,原先的 GAB 空间由于不再有存活对象,可以全部释放,如下图所示
上图上方是两个 GAB,其中虚线表示 GAB 中对象的分界线。黑色表示 GAB 中存活的对象,白色表示死掉的对象。由于 GAB 中有存活对象,整个 GAB 无法被回收。
Balanced GC 会将 GAB 中存活的对象移动到下面的 GAB 中,这样原先的两个 GABs 就可以被释放,压缩并清理 GAB 的内存空间。
Balanced GC 只负责 noscan 对象的分配和移动,对象的标记和回收依然依赖 Go GC 本身,并和 Go GC 保持兼容。
编译器和静态分析
编译器的结构
静态分析
- 静态分析:不执行代码,推导程序的行为,分析程序的性质。
- 控制流:程序的执行流程
- 数据流:数据在控制流上的传递
- 通过分析控制流和数据流,我们可以知道更多关于程序的性质(properties) ,这些事实可以帮助我们做编译优化
过程内分析和过程间分析
- Intra-procedural analysis: 过程内分析:在函数内进行控制流和数据流的分析
- Inter-procedural analysis: 过程间分析:除了函数内的分析,还需要考虑跨函数的数据流和控制流,例如参数传递,函数返回值等
Go编译器优化
Go编译器优化思路
目的
- 用户无感知,重新编译即可获得性能收益
- 通用的优化手段
现状
- 采用的优化较少
- 追求编译时间短,因此没有进行复杂的代码分析和优化
思路
- 面向后端长期执行的任务
- Tradeoff:用适当增加编译时间换取更高性能的代码
函数内联(Inlining)
-
定义:将被调用函数的函数体(callee)的副本替换到调用位置(caller)上,同时重写代码以反映参数的绑定
-
优点
- 消除函数调用开销,例如传递参数,保存寄存器等
- 将过程间分析的问题转换为过程内分析,帮助其他分析,例如逃逸分析
-
缺点
- 函数体变大
- 编译生成的 Go 镜像文件变大
-
函数内联在大多数情况下是正向优化,即多内联,会提升性能
-
Go 内联的限制
- 语言特性:interface, defer 等等,限制了内联优化
- 内联策略非常保守
-
字节跳动的优化方案
- 修改了内联策略,让更多函数被内联
- 增加了其他优化的机会:逃逸分析
-
开销
- Go 镜像大小略有增加
- 编译时间增加
- 运行时栈扩展开销增加
逃逸分析
-
定义:分析代码中指针的动态作用域,即指针在何处可以被访问
-
大致思路
-
从对象分配处出发,沿着控制流,观察数据流。若发现指针 p 在当前作用域 s:
- 作为参数传递给其他函数;
- 传递给全局变量;
- 传递给其他的 goroutine;
- 传递给已逃逸的指针指向的对象;
-
则指针 p 逃逸出 s,反之则没有逃逸出 s.
-
-
字节优化的产品 Beast mode:函数内联扩展了函数边界,使得更多对象不逃逸
-
优化:未逃逸出当前函数的指针指向的对象可以在栈上分配
- 对象在栈上分配和回收很快:移动 sp 即可完成内存的分配和回收;
- 减少在堆上分配对象,降低 GC 负担。
Go语言常见错误
slice 的使用
-
slice的底层结构包含len、cap和data指针。data指针指向一个底层的数组:
type sliceHeader struct { Data uintptr Len int Cap int } -
一个slice的变量只能看到 length 个元素,即使容量 cap 大于 length,多余的 cap 对 slice 也是不可见的
-
由于
nil切片和空切片的存在,在判断是否为空切片时,最好是判断切片长度是否为0,nil切片和空切片的不同在于nil切片的sliceHeader中的Data指针是nil,而非nil的空切片的Data指针是指向底层数组地址的 -
对于一个大容量的切片进行操作时,即使只是切分出一个很小的子切片,但容量依然是原切片的容量,所以如果大量使用的话,就会造成内存浪费,甚至泄露;这种情况可以借助
copy函数来控制消耗的内存
defer的使用
- 当 defer 与带命名返回参数的函数一起使用时十分容易出现错误
- 关键点在于理解
return xxx这条语句的含义,该语句经过编译后实际会变成三条指令:
1. 返回值 = xxx\
2. 调用 defer 函数\
3. 空的 return
talk is cheap, show me the code!以如下两个例子所示:
1.
func f1() (r int) {
defer func() {
r++
}()
return 0
}
2.
func f2() (r int) {
t := 5
defer func() {
t = t + 5
}()
return t
}
- 按照上面的说明可以把
f1和f2的return语句分别拆分为:
func f1() (r int) {
// 1.赋值
r = 0
// 2.闭包引用,返回值被修改\
defer func() {
r++
}()
// 3.空的 return
return
}
// 结果显而易见返回 1
func f2() (r int) {
t := 5
// 1.赋值
r = t
// 2.闭包引用,但是没有修改返回值 r
defer func() {
t = t + 5
}()
// 3.空的 return
return
}
// 结果显而易见返回 5