这是我参与「第五届青训营」伴学笔记创作活动的第 8 天
入门GO语言-性能优化及自动内存管理(二)
GO内存分配
GO内存分配-分块
- 目标:为对象在heap 上分配内存
- 提前将内存分块
- 调用系统调用
mmap()向OS申请一大块内存,例如4 MB - 先将内存划分成大块,例如8 KB,称作
mspan - 再将大块继续划分成特定大小的小块,用于对象分配
noscan mspan:分配不包含指针的对象——GC不需要扫描scan mspan:分配包含指针的对象——GC需要扫描
- 调用系统调用
- 对象分配:根据对象的大小,选择最合适的块返回
Go内存分配一缓存
- TCMalloc: thread caching
- 每个p包含一个mcache 用于快速分配,用于为绑定于p上的g分配对象
- mcache管理一组mspan
- 当mcache 中的mspan分配完毕,向mcentral申请带有未分配块的mspan
- 当mspan中没有分配的对象,mspan会被缓存在mcentral 中,而不是立刻释放并归还给OS
Go内存管理优化
- 对象分配是非常高频的操作:每秒分配GB级别的内存
- 小对象占比较高
- Go内存分配比较耗时
- 分配路径长:g -> m -> p -> mcache -> mspan ->memory block -> return pointer
- pprof:对象分配的函数是最频繁调用的函数之一
我们的优化方案:Balanced GC
- 每个g 都绑定一大块内存(1KB),称作
goroutine allocation buffer (GAB) - GAB用于noscan类型的小对象分配:<128 B
- 使用三个指针维护GAB: base, end, top
- Bump pointer(指针碰撞)风格对象分配
- 无须和其他分配请求互斥
- 分配动作简单高效
if top+size<=end{
addr:=top
top+=size
return addr
}
- GAB对于Go内存管理来说是一个对象
- 本质:将多个小对象的分配合并成一次大对象的分配
- 问题:GAB的对象分配方式会导致内存被延迟释放
- 方案:移动GAB中存活的对象
- 当GAB总大小超过一定阈值时,将GAB中存活的对象复制到另外分配的GAB中
- 原先的GAB可以释放,避免内存泄漏
- 本质:
用copying GC的算法管理小对象(根据对象的生命周期,使用不同的标记和清理策略)
Balanced GC一性能收益
- 高峰期
CPU usage降低4.6%,核心接口时延下降4.5%~7.7%
总结
- Go内存管理二分块
- Go内存管理一缓存
- Go对象分配的性能问题
- 分配路径过长
- 小对象居多
- Balanced GC
- 指针碰撞风格的对象分配
- 实现了copying GC
- 性能收益
编译器优化的基本问题和思路
编译器的结构
- 重要的系统软件
- 识别符合语法和非法的程序
- 生成正确且高效的代码
- 分析部分(前端front end)
- 词法分析,生成词素(lexeme)
- 语法分析,生成语法树
- 语义分析,收集类型信息,进行语义检查
- 中间代码生成,生成 intermediate representation (IR)
- 综合部分(后端back end)
- 代码优化,机器无关优化,生成优化后的IR
- 代码生成,生成目标代码
静态分析
- 静态分析:不执行程序代码,推导程序的行为,分析程序的性质。
- 控制流(Control flow):程序执行的流程
- 数据流(Data flow):数据在控制流上的传递
int a = 30
int b = 9 - (a / 5)
int c
c = b * 4
if (c > 10 ){
c = c - 10
}
return c* (60 / a)
- 通过分析控制流和数据流,我们可以知道更多关于程序的性质(properties)
- 根据这些性质优化代码
过程内分析和过程间分析
- 过程内分析 (lntra-procedural analysis)
- 仅在函数内部进行分析
- 过程间分析(Inter-procedural analysis)
- 考虑函数调用时参数传递和返回值的数据流和控制流
- 为什么过程间分析是个问题?
- 需要通过数据流分析得知i的具体类型,才能知道i.foo()调用的是哪个foo()
- 根据i的具体类型,产生了新的控制流,i.foo(),分析继续
- 过程间分析需要同时分析控制流和数据流——联合求解,比较复杂
type I interface {
foo( )
}
type A struct {}
type B struct {}
func (a *A) foo( ) {
...
}
func (b *B) foo( ) {
...
}
func bar( ) {
i.foo( )
}
总结
- 编译器的结构与编译的流程
- 编译器后端优化
- 静态分析
- 数据流分析和控制流分析
- 过程内分析和过程间分析
GO 编译器优化
- 为什么做编译器优化
- 用户无感知,重新编译即可获得性能收益
- 通用性优化
- 现状
- 采用的优化少
- 编译时间较短,没有进行较复杂的代码分析和优化
- 编译优化的思路
- 场景:面向后端长期执行任务
- Tradeoff:用编译时间换取更高效的机器码
- Beast mode
- 函数内联
- 逃逸分析
- 默认栈大小调整
- 边界检查消除
- 循环展开
函数内联(Inlining)
- 内联:将被调用函数的函数体(callee)的副本替换到调用位置(caller)上,同时重写代码以反映参数的绑定
- 优点
- 消除函数调用开销,例如传递参数、保存寄存器等
- 将过程间分析转化为过程内分析,帮助其他优化,例如逃逸分析
- 函数内联能多大程度影响性能?——使用micro-benchmark验证一下
func AddInline(a, b int) int {
return a + b
}
// go:noinline
func AddNoInline(a, b int) int {
return a + b
}
func BenchmarkAddInline(b *testing.B) {
x := genInteger()
y := genInteger()
for i := 0; i < b.N; i++ {
AddInline(x, y)
}
}
func BenchmarkAddNoInline(b *testing.B) {
x := genInteger()
y := genInteger()
for i := 0; i < b.N; i++ {
AddNoInline(x, y)
}
}
使用micro-benchmark快速验证和对比性能优化结果
- 缺点
- 函数体变大,instruction cache (icache)不友好
- 编译生成的Go镜像变大
- 函数内联在大多数情况下是正向优化
- 内联策略
- 调用和被调函数的规模
- ...
Beast Mode
- Go函数内联受到的限制较多
- 语言特性,例如interface, defer等,限制了函数内联
- 内联策略非常保守
- Beast mode:调整函数内联的策略,使更多函数被内联
- 降低函数调用的开销
- 增加了其他优化的机会:逃逸分析
- 开销
- Go镜像增加~10%
- 编译时间增加
逃逸分析
- 逃逸分析:分析代码中指针的动态作用域:指针在何何处可以被访问
- 大致思路
- 从对象分配处出发,沿着控制流,观察对象的数据流
- 若发现指针p在当前作用域s:
- 作为参数传递给其他函数
- 传递给全局变量
- 传递给其他的goroutine
- 传递给已逃逸的指针指向的对象
- 则指针p指向的对象逃逸出s,反之则没有逃逸出s
- Beast mode:函数内联拓展了函数边界更多对象不逃逸
- 优化:未逃逸的对象可以在栈上分配
- 对象在栈上分配和回收很快:移动sp
- 减少在heap 上的分配,降低GC负担
Beast Mode - 性能收益
- 高峰期CPU usage降低9%,时延降低10%
- 内存使用降低3%
总结
- Go编译器优化的问题
- Beast mode
- 函数内联
- 逃逸分析
- 通过micro-benchmark快速验证性能优化
- 性能收益