这是我参与「第三届青训营 -后端场」笔记创作活动的的第 4 篇笔记
追求极致性能
性能优化是什么?
- 提升软件系统处理能力(用户体验),减少不必要的消耗(资源高效利用),充分发掘计算机算力。
为什么要做性能优化?
- 用户体验:带来用户体验的提升 —— 让刷抖音更丝滑,让双十一购物不再卡顿等等。
- 资源高效利用:降低成本,提高效率 —— 很小的优化乘以海量机器会是显著的性能提升和成本节约。
1. 自动内存管理
1.1 自动内存管理
动态内存
- 程序在运行时根据需求动态分配的内存:malloc()(C语言)
自动内存管理(垃圾回收):由程序语言的运行时系统管理动态内存
- 避免手动内存管理,专注于实现业务逻辑
- 保证内存使用的正确性和安全性:double-free problem, use-after-free problem
GC(Garbage Collector)的三个任务
- 为新对象分配空间
- 找到存活对象
- 回收死亡对象的内存空间
相关概念:
-
Mutator:业务线程,分配新对象,修改对象指向关系
- 用户启动的线程
- Go当中的goroutine
-
Collector:GC线程,找到存活对象,回收死亡对象的内存空间
不同GC算法的分类:
-
Serial GC:只有一个collector
-
Parallel GC:支持多个collectors同时回收的GC算法
-
Concurrent GC:mutator(s)和collector(s)可以同时执行
- collectors必须感知对象指向关系的改变!
1.2 追踪垃圾回收(Tracing garbage collection)
对象被回收的条件:指针指向关系不可达的对象
追踪垃圾回收算法通常有三个步骤:
-
标记根对象
- 静态变量、全局变量、变量、线程栈等
-
标记:找到可达对象
- 求指针指向关系的传递闭包:从根对象出发,找到所有可达对象。
-
清理:所有不可达对象
-
将存活对象复制到另外的内存空间(Copying GC)
- Copying GC:将对象复制到另外的内存空间
-
将死亡对象的内存标记为“可分配”(Mark-sweep GC)
- Mark-sweep GC:使用free list管理空闲内存
-
移动并整理存活对象(Mark-compact GC)
- Mark-compact GC:原地整理对象
-
-
根据对象的生命周期,使用不同的标记和清理策略。
1.3 分代GC(Generational GC)
分代假说(Generational hypothesis):most object die young
- 比如一个函数里面创建的对象,函数执行完,这些对象就已经死掉了。
Intuition:很多对象在分配出来后很快就不再使用了
每个对象都有年龄:经历过GC的次数
目的:对年轻和老年的对象,制定不同的GC策略,降低整体内存管理的开销。
不同年龄的对象处于heap的不同区域
年轻代(Young genration)
- 常规的对象分配
- 对象刚创建出来都是年轻代的,但很多对象创建出来后很快就死掉了。
- 由于年轻代的存活对象很少,可以采用copying collection
- GC吞吐率很高
老年代(Old generation)
- 老年代对象趋向于一直活着,反复复制开销很大。
- 可以采用mark-sweep GC
- 也可以使用mark-compact GC
1.4 引用计数(Reference counting)
每一个对象都有一个与之关联的引用数目
对象存活的条件:当且仅当引用数大于0
优点:
-
内存管理的操作被平铺到程序执行过程中
- 程序一边执行,一边维护着引用技术。
-
内存管理不需要了解runtime的实现细节
- C++提供的引用计数的内存管理方式:C++智能指针(smart pointer)
缺点:
- 维护引用计数的开销较大:通过原子操作保证对引用计数操作的原子性和可见性。
- 无法回收环形数据结构 —— weak reference(解决方法)
-
内存开销:每个对象都引入的额外内存空间存储引用数目
-
回收内存时依然可能引发暂停
- 假设绿色的指针置为null,上面一大堆的蓝色对象都会被回收,如果该数据结构很大,那么我们爬上去依次回收对象时,不可避免会引入一些暂停。
总结
- 自动内存管理的背景和意义
- 概念和评价方法
- 追踪垃圾回收
- 引用计数
- 分代GC
- 学术界和工业界一直在致力于解决自动内存管理技术的不足之处
2. Go内存管理及优化
2.1 分块
目标:为对象在heap上分配内存
提前将内存分块:当需要为一个新对象分配内存时,找到与该对象的大小最为匹配的块进行分配。
- 调用系统调用mmap()向OS申请一大块内存,例如4MB
- 先将内存划分成大块,例如8kb,称作mspan
- 再将大块继续划分成特定大小的小块,用于对象分配
- noscan mspan:分配不包含指针的对象 —— GC不需要扫描
- scan mspan:分配包含指针的对象 —— GC需要扫描
对象分配:根据对象的大小,选择最合适的块返回。
2.2缓存
TCMalloc:thread caching
- TCMalloc是一种内存分配器,Go用的就是TCMalloc
每个p包含一个mcache用于快速分配,用于为绑定于p上的g分配对象
mcache管理一组mspan
当mcache中的mspan分配完毕,向mcentral申请带有未分配块的mspan
当mspan中没有分配的对象,mspan会被缓存在mcentral中,而不是立刻释放并归还给OS
2.3 Go内存管理优化
对象分配是非常高频的操作:每秒分配GB级别的内存
小对象占比较高
Go内存分配比较耗时:
-
分配路径长:g → m → p → mcache → mspan → memory block → return pointer
-
pprof:对象分配的函数是最频繁调用的函数之一
- runtime.mallocgc()函数被调用的占比很高,3.73%
2.4 我们的优化方案:Balanced GC
每个g都绑定一大块内存(1kb),称作goroutine allocation buffer (GAB)
GAB用于noscan类型的小对象分配:<128B
- 如果一个对象是<128B的noscan类型对象,它就会被通过GAB做分配。
使用三个指针维护GAB:base, end, top
Bump pointer(指针碰撞)风格对象分配
-
无须和其他分配请求互斥
- 直接移动top指针,把GAB中分配的内存返回就可以了。
-
分配动作简单高效
GAB对于Go内存管理来说是一个大对象
本质:将多个小对象的分配合并成一次大对象的分配
问题:GAB的对象分配方式会导致内存被延迟释放
- GAB上只有该黑色的对象是存活着的,而它只占了非常小的内存空间,却导致整个GAB都被标记为存活。
方案:移动GAB中存活的对象
- 当GAB总大小超过一定阈值时,将GAB中存活的对象复制到另外分配的GAB中
- 原先的GAB可以释放,避免内存泄漏
- 本质:用copying GC的算法管理小对象
- 思想:根据对象的生命周期,使用不同的标记和清理策略。
性能收益:
横轴:时间
纵轴:CPU使用率
总结
-
Go内存管理 —— 分块
-
Go内存管理 —— 缓存
-
Go对象分配的性能问题
- 分配路径过长
- 小对象居多
-
Balanced GC
- 指针碰撞风格的对象分配
- 实现了copying GC
- 性能收益
Go与Java不同,Java对象会有头,存放着该对象的类型信息,知道是什么类型就知道该对象的大小;而Go没有对象头,我们需要额外的内存去标记对象头。
3. 编译器和静态分析
3.1 编译器的结构
重要的系统软件
- 识别符合语法和非法的程序
- 生成正确且高效的代码
分析部分(前端front end)
- 词法分析,生成词素(lexeme)
- 语法分析,生成语法树
- 语义分析,收集类型信息,进行语义检查
- 中间代码生成,生成intermediate representation (IR)
综合部分(后端 back end)
- 代码优化,机器无关优化,生成优化后的IR
- 代码生成,生成目标代码
3.2 静态分析
静态分析:不执行程序代码,推到程序的行为,分析程序的性质。
控制流(Control flow):程序执行的流程
数据流(Data flow):数据在控制流上的传递
通过分析控制流和数据流,我们可以知道更多关于程序的性质(properties)
根据这些性值优化代码
3.3 过程内分析和过程间分析
过程内分析(Intra-procedural analysis)
- 仅在函数内部进行分析
过程间分析(Inter-procedural analysis)
- 考虑函数调用时参数传递和返回值的数据流和控制流
为什么过程间分析是个问题?
- 需要通过数据流分析得知i的具体类型,才能知道i.foo()调用的是哪个foo()
- 根据i的具体类型,产生了新的控制流,i.foo(),分析继续
- 过程间分析需要同时分析控制流和数据流 —— 联合求解,比较复杂
总结
-
编译器的结构与编译的流程
-
编译器后端优化
-
静态分析
- 数据流分析和控制流分析
- 过程内分析和过程间分析
4. Go编译器优化
为什么做编译器优化
- 用户无感知,重新编译即可获得性能受益
- 通用性优化
现状
- 采用的优化少
- 编译时间较短,没有进行较复杂的代码分析和优化
编译优化的思路
- 场景:面向后端长期执行任务
- Tradeoff:用编译时间换取更高效的机器码
Beast mode
- 函数内联
- 逃逸分析
- 默认栈大小调整
- 边界检查消除
- 循环展开
- ......
4.1 函数内联(Inlining)
内联:将被调用函数的函数体(callee)的副本替换到调用位置(caller)上,同时重写代码以反映参数的绑定。
优点:
- 消除函数调用开销,例如传递参数、保存寄存器等。
- 将过程间分析转化为过程内分析,帮助其他优化,例如逃逸分析。
函数内联能多大程度影响性能?—— 使用micro-benchmark验证一下
缺点:
- 函数体变大,instruction cache (icache)不友好
- 编译生成的Go镜像变大
函数内联在大多数情况下都是正向的优化
根据一些策略决定是否内敛
内联策略:
- 调用和被调函数的规模
- ......
4.2 Beast Mode
Go函数内敛受到的限制很多
- 语言特性,例如interface,defer等,限制了函数内联
- 内联策略非常保守
Beast Mode:调整函数内敛的策略,使更多函数被内联
- 降低了函数调用的开销
- 增加了其他优化的机会:逃逸分析
开销
- Go镜像增加 ~10%
- 编译时间增加
4.3 逃逸分析
逃逸分析:分析代码中指针的动态作用域,指针在何处可以被访问
大致思路
-
从对象分配处出发,沿着控制流,观察对象的数据流
-
若发现指针p在当前作用域s:
- 作为参数传递给其他函数
- 传递给全局变量
- 传递给其他的goroutine
- 传递给已逃逸的指针指向的对象
-
则指针p指向的对象逃逸出s,反之则没有逃逸出s。
Beast mode:函数内联拓展了函数边界,更多对象不逃逸。
优化:未逃逸的对象可以在栈上分配
- 对象在栈上分配和回收很快,移动sp。
- 减少在heap上的分配,降低GC负担。
Beast Mode 性能收益