这是我参与[第五届青训营]伴学笔记创作活动的第4天。
本节课程主要是介绍高性能GO语言发行版优化与落地实践,优化主要是内存管理优化与编译器优化。自动内管理和Go内存管理机制,编译器优化的基本问题和思路,实践主要是遇到的性能问题以及优化方法,对于工业设计有更加清晰的设计与认识。01.自动内存管理;02.Go内存管理以优化;03.编译器和静态分析;04.Go编译器优化。
追求极致性能
- 性能优化是什么:提升软件系统处理能力,减少不必要的兄啊好,充分发掘计算机算力。
- 为什么要做性能优化:用户体验上带来用户体验的提升-使得视频阅览更加丝滑,双十一购物不再卡顿;资源高效利用上降低成本、提高效率-很小的优化乘以海量机器会是显著的性能提升和成本节约。
性能优化的层面
- 业务代码
- SDK
- 基础库
- 语言运行时
- OS
- 业务层优化:针对特定场景,具体问题,具体分析;容易获得较大性能收益。
- 语言运行时优化:解决更通用的性能问题;考虑更多场景;Tradeoffs。
- 数据驱动:自动坏性能分析工具-pprof;依靠数据而非猜测;首先优化最大瓶颈。
性能优化与软件质量
- 软件质量至关重要
- 在保证接口稳定的前提下改进具体实现
- 测试用例:覆盖尽可能多的场景,方便回归
- 文档:做了什么,没做什么,能达到怎样的效果
- 隔离:通过选项控制是否开启优化
- 可观测:必要的日志输出
总结 性能优化的基本问题 性能优化的两个层面 性能优化的可维护性
01.自动内存管理
动态内存:程序运行时根据需求动态分配的内存malloc()。
自动内存管理(垃圾回收):由程序语言运行时系统管理动态内存。
- 避免手动内存管理,专注于实现业务逻辑
- 保证内存使用的正确性和安全性:double-fee problem,use-after-free problem
三个任务
- 为新对象分配空间
- 找到存活对象
- 回收死亡对象的内存空间
1.1自动内存管理-相关概念
- Mutator:业务线程,分配新对象,修改对象指向关系
- Collector: GC线程,找到存活对象,回收死亡对象的内存空间
- Serial GC:只有一个collector
4. Parallel GC:支持多个collectors同时回收的GC算法
5. Concurrent GC: mutator(s)和collector(s)可以同时执行
评价GC算法
- 安全性Safety:不能回收存活的对象(基本要求)
- 吞吐率Throughput:1-GC时间/程序执行总时间(花在GC上的时间)
- 暂停时间Pause time:stop the world(STW)(业务是否感知)
- 内存开销Space overhead(GC元数据开销)
- 追踪垃圾回收Tracing garbage collection
- 引用计数Reference counting
1.2 追踪垃圾回收
- 对象被回收的条件:指针指向关系不可达的对象
- 标记根对象
静态变量、全局变量、常量、线程栈等
- 标记:找到可达对象
求指针指向关系的传递闭包:从根对象出发,找到所有可达对象
- 清理:所有不可达对象
将存活对象复制到另外的内存空间(Copying GC)将死亡对象的内存标记为“可分配”(Mark-sweep GC)
移动并整理存活对象(Mark-compact GC)
根据对象的生命周期,使用不同的标记和清理策略
1.3 分代GC
-
分代假说(Generational hypothesis): most objects die young
-
lntuition:很多对象在分配出来后很快就不再使用了
-
每个对象都有年龄:经历过GC的次数
-
目的:对年轻和老年的对象,制定不同的GC策略,降低整体内存管理的开销
-
不同年龄的对象处于heap的不同区域
-
年轻代(Young generation)
- 常规的对象分配
- 由于存活对象很少,可以采用copying collection
- GC吞吐率很高
-
老年代(Old generation)
- 对象趋向于一直活着,反复复制开销较大
- 可以采用mark-sweep collection
1.4引用计数
-
每个对象都有一个与之关联的引用数目
-
对象存货的条件:当且仅当引用数大于0
-
优点
- 内存管理的操作被平摊到程序执行过程中
- 内存管理不需要了解runtime的实现细节:C++智能指针samrt pointer
-
缺点
- 维护引用计数的开销较大:通过原子操作保证对引用计数操作的原子性和可见性
- 无法回收环形数据结构——weak reference
- 内存开销:每个对象都引入的额外内存空间存储引用数目。
- 回收内存时依然可能引发暂停
02.Go内存管理及优化
2.1 Go内存分配
2.1.1 Go内存分配-分块
目标:为对象在heap上分配内存
提前将内存分块
- 调用系统调用mmap向OS申请一大块内存,例如4 MB
- 先将内存划分成大块,例如8 KB,称作mspan
- 再将大块继续划分成特定大小的小块,用于对象分配
- noscan mspan:分配不包含指针的对象——GC
- 不需要扫描scan mspan:分配包含指针的对象———GC需要扫描
- 对象分配:根据对象大写,选择最合适的块返回
2.1.2Go内存分配-缓存
- TCMalloc: thread caching
- 每个p包含一个mcache用于快速分配,用于为绑定于p 上的 g分配对象
- mcache管理一组mspan
- 当mcache 中的mspan分配完毕,向mcentral申请带有未分配块的 mspan
- 当mspan中没有分配的对象,mspan会被缓存在mcentral 中,而不是立刻释放并归还给OS
2.2 Go内存管理优化
- 对象分配是非常高频的操作:每秒分配GB级别的内存小对象占比较高
- Go内存分配比较耗时
- 分配路径长: g ->m -> p -> mcache -> mspan -> memory block -> return pointer
- pprof:对象分配的函数是最频繁调用的函数之一
2.3优化方案:Balance GC
2.3.1 Balance GC
-
每个g都绑定一大块内存(1 KB),称作goroutine allocation buffer(GAB)
-
GAB 用于noscan类型的小对象分配:<128 B
-
使用三个指针维护GAB: base, end,top
-
Bump pointer(指针碰撞)风格对象分配
- 无须和其他分配请求互斥
- 分配动作简单高效
-
GAB对于Go内存管理来说是一个大对象
-
本质:将多个小对象的分配合并成一次大对象的分配
-
问题:GAB的对象分配方式会导致内存被延迟释放
-
方案:移动GAB中存活的对象
- 当GAB总大小超过一定阈值时,将GAB中存活的对象复制到另外分配的GAB中
- 原先的GAB可以释放,避免内存泄漏
- 本质:用copying GC的算法管理小对象(根据对象的生命周期,使用不同的标记和清理策略)
2.3.2 Balance GC-性能收益
高峰期CPU usage降低4.6%,核心接口时延下降4.5%~7.7%
03 编译器和静态分析
3.1 编译器的结构
-
重要的系统软件
- 识别符合语法和非法的程序
- 生成正确且高效的代码
-
分析部分(前端front end)
- 词法分析,生成词素(lexeme)
- 语法分析,生成语法树
- 语义分析,收集类型信息,进行语义检查
- 中间代码生成,生成intermediate representation (IR)
-
综合部分(后端back end)
- 代码优化,机器无关优化,生成优化后的IR
- 代码生成,生成目标代码
3.2 静态分析
- 静态分析:不执行程序代码,推导程序的行为,分析程序的性质。
- 控制流(Control flow):程序执行的流程
- 数据流(Data flow):数据在控制流上的传递
3.3 过程内分析和过程间分析
-
过程内分析(Intra-procedural analysis):仅在函数内部进行分析
-
过程间分析(Jnter-procedural analysis):考虑函数调用时参数传递和返回值的数据流和控制流
-
为什么过程间分析是个问题?
- 需要通过数据流分析得知i的具体类型,才能知道i.foo()调用的是哪个foo()
- 根据i的具体类型,产生了新的控制流,i.foo(),分析继续
- 过程间分析需要同时分析控制流和数据流——联合求解,比较复杂
04 Go编译器优化
-
为什么做编译器优化
- 用户无感知,重新编译即可获得性能收益。
- 通用性优化
-
现状
- 采用的优化少
- 编译时间较短,没有进行较复东的代码分析和优化
-
编译优化的思路
- 场景:面向后端长期执行任务
- Tradeoff:用编译时间换取更高效的机器码
-
Beast mode
- 函数内联
- 逃逸分析
- 默认栈大小调整
- 边界检查消除
- 循环展开
4.1 函数内联
内联:将被调用函数的函数体(callee)的副本替换到调用位置(caller)上,同时重写代码以反映参数的绑定
优点
- 消除函数调用开销,例如传递参数、保存奇存器等
- 将过程间分析转化为过程内分析,帮助其他优化,例如逃逸分析
缺点
- 函数体变大,instruction cache (icache)不友好编
- 译生成的Go镜像变大
函数内联在大多数情况下是正向优化
内联策略:调用和被调函数的规模
4.2.1 Beast Mode
-
Go函数内联受到的限制较多
- 语言特性,例如interface, defer 等,限制了函数内联
- 内联策略非常保守
-
Beast mode:调整函数内联的策略,使更多函数被内联
- 降低函数调用的开销
- 增加了其他优化的机会:逃逸分析
-
开销
- Go镜像增加~10%
- 编译时间增加
4.2.2 逃逸分析
-
逃逸分析:分析代码中指针的动态作用域:指针在何处可以被访问
-
大致思路
-
从对象分配处出发,沿着控制流,观察对象的数据流
-
若发现指针p在当前作用域s:
- 作为参数传递给其他函数
- 传递给全局变量
- 传递给其他的goroutine
- 传递给已逃逸的指针指向的对象
-
则指针p指向的对象逃逸出s,反之则没有逃逸出s
-
-
Beast mode:函数内联拓展了函数边界,更多对象不逃逸
-
优化:未逃逸的对象可以在栈上分配
- 对象在栈上分配和回收很快:移动sp
- 减少在heap上的分配,降低GC负担
4.2.3 Beast Mode-性能收益
高峰期CPU usage降低9%,时延降低10% 内存使用降低3%
总结
这门课程是高性能Go语言发行版优化与落地实践,内容主要是性能优化部分,分为内存和编译器两个部分来学习,自动内存管理的算法和技术,以及GO是如何内存管理的,静态分析包括数据流、控制流、方法内、方法间的分析等。编译器优化内联和逃逸分析等做了详细学习。GC优化对象的分配,主要是利用指针碰撞加速了对小对象分配,beast mode做了很多优化进行代码性能的提升。