Go语言内存管理详解 | 青训营笔记

114 阅读9分钟

这是我参与「第五届青训营 」伴学笔记创作活动的第 4 天

本堂课重点内容:

  • 自动内存管理
  • Go 内存管理及优化
  • 编译器和静态分析
  • Go 编译器优化

0.介绍

0.1 追求极致性能

性能优化是什么?

  • 提升软件系统处理能力,减少不必要的消耗,充分发掘计算机算力

为什么要做性能优化?

  • 用户体验:带来用户体验的提升一让刷抖音更丝滑,让双十一购物不再卡顿
  • 资源高效利用:降低成本,提高效率一很小的优化乘以海量机器会是显著的性能提升和成本节约

0.2 性能优化的层面

image-20230118211844357.png

  • 业务层优化

    • 针对特定场景,具体问题,具体分析
    • 容易获得较大性能收益
  • 语言运行时优化

    • 解决更通用的性能问题
    • 考虑更多场景
    • Tradeoffs
  • 数据驱动

    • 自动化性能分析工具 一 pprof
    • 依靠数据而非猜测
    • 首先优化最大瓶颈

0.3 性能优化与软件质量

image-20230118212204338.png

  • 软件质量至关重要
  • 在保证接口稳定的前提下改进具体实现
  • 测试用例:覆盖尽可能多的场景,方便回归
  • 文档:做了什么,没做什么,能达到怎样的效果
  • 隔离:通过选项控制是否开启优化
  • 可观测:必要的日志输出

总结

  • 性能优化的基本问题
  • 性能优化的两个层面
  • 性能优化的可维护性

1.自动内存管理

  • 动态内存

    • 程序在运行时根据需求动态分配的内存:ma1loc()
  • 自动内存管理(垃圾回收):由程序语言的运行时系统管理动态内存

    • 避免手动内存管理,专注于实现业务逻辑
    • 保证内存使用的正确性和安全性:double-free problem,use-after--free problem
  • 三个任务

    • 为新对象分配空间
    • 找到存活对象
    • 回收死亡对象的内存空间

image-20230118214641992.png

  • Concurrently 是什么意思?
  • Mutator threads 指的是什么?

1.1 相关概念

image-20230118215029839.png

  • Mutator : 业务线程,分配新对象,修改对象指向关系

  • Collector : GC 线程,找到存活对象,回收死亡对象的内存空间

  • Serial GC : 只有一个collector

  • Parallel GC : 支持多个 collectors 同时回收的 GC 算法

  • Concurrent GC : mutator(s) 和 collector(s) 可以同时执行

    • Collectors 必须感知对象指向关系的改变!

image-20230118215449203.png

  • 评价 GC 算法:

image-20230118215755374.png

  • 追踪垃圾回收 ( Tracing garbage collection)
  • 引用计数 ( Reference counting )

1.2 追踪垃圾回收

image-20230118221018259.png

  • 对象被回收的条件:指针指向关系不可达的对象

  • 标记根对象

    • 静态变量、全局变量、常量、线程栈等
  • 标记:找到可达对象

    • 求指针指向关系的传递闭包:从根对象出发,找到所有可达对象
  • 清理:所有不可达对象

  1. 将存活对象复制到另外的内存空间(Copying GC)

image-20230118221156972.png

  1. 将死对象的内存示记为“可分配“(Mark-sweep GC)

image-20230118221332811.png

  1. 移动并整理存活对象(Mark-compact GC)

image-20230118221658605.png

  • 根据对象的生命周期,使用不同的标记和清理策略

1.3 分代 GC (Generational GC)

  • 分代假说 (Generational hypothesis) : most objects die young
  • intuition : 很多对象在分配出来后很快就不再使用了
  • 每个对象都有年龄 : 经历过 GC 的次数
  • 目的:对年轻和老年的对象,制定不同的 GC 策略,降低整体内存管理的开销
  • 不同年龄的对象处于 heap 的不同区域

image-20230118222131004.png 年轻代 (Young generation)

  • 常规的对象分配
  • 由于存活对象很少,可以采用 copying collection
  • GC 吞吐率很高

老年代 (Old generation)

  • 对象趋向于一直活着,反复复制开销较大
  • 可以采用 mark-sweep collection

1.4 引用计数

image-20230118222918368.png

  • 每个对象都有一个与之关联的引用数目
  • 对象存活的条件:当且仅当被引用数大于 0

image-20230118223325838.png 优点:

  • 内存管理的操作被平摊到程序执行过程中
  • 内存管理不需要了解 runtime 的实现细节:比如说 C++ 智能指针(smart pointer)

缺点:

  • 维护引用计数的开销较大:通过原子操作保证对引用计数操作的原子性可见性
  • 无法回收环形数据结构 一 weak reference
  • 内存开销:每个对象都引入的额外内存空间存储引用数目
  • 回收内存时依然可能引发暂停(如图 null 的时候,相连的对象不可避免被回收,引发暂停)

image-20230118223858737.png

总结

  • 自动内存管理的背景和意义

  • 概念和评价方法

  • 追踪垃圾回收

  • 引用计数

  • 分代 GC

  • 学术界和工业界在一直在致力于解决自动内存管理技术的不足之处

    • PLDI'22 Low-Latency,High-Throughput Garbage Collection

2.Go 内存管理及优化

2.1 Go 内存分配

a.分块

  • 目标:为对象在 heap 上分配内存

image-20230119090043143.png

  • 提前将内存分块

    • 调用系统调用 mmap()向 OS 申请一大块内存,例如 4 MB
    • 先将内存划分成大块,例如 8 KB,称作 mspan
    • 再将大块继续划分成特定大刘小的小块,用于对象分配
    • noscan mspan : 分配不包含指针的对像一 GC 不需要扫描
    • scan mspan : 分配包含指针的对像一 GC 需要扫描
  • 对象分配:根据对象的大小,选择最合适的块返回

b. 缓存

  • 借鉴 TCMalloc:thread caching
  • 每个 p 包含一个 mcache 用于快速分配,用于为绑定于 p 上的 g 分配对象

image-20230119091119495.png

  • mcache 管理一组 mspan

image-20230119091135443.png

  • 找到 mspan 中最合适的一个块分配出去

image-20230119091358721.png

  • 当 mcache 中的 mspan 分配完毕,向 mcentral 申请带有未分配块的 mspan

image-20230119091207056.png

  • 当 mspan 中没有分配的对象,mspan 会被缓存在 mcentral 中,而不是立刻释放并归还给 OS

image-20230119091034145.png

2.2 Go 内存管理优化

问题:

  • 对象分配是非常高频的操作:每秒分配 GB 级别的内存
  • 小对象占比较高

image-20230119091730571.png

  • Go 内存分配比较耗时

    • 分配路径长:g -> m -> p -> mcache -> mspan -> memory block -> return pointer
    • pprof : 对象分配的函数是最频繁调用的函数之一

image-20230119091922436.png

2.3 优化方案 - Balanced GC

  • 每个 g 都绑定一大块内存 (1KB),称作 goroutine allocation buffer(GAB)

  • GAB 用于 noscan 类型的小对象分配:< 128 B

  • 使用三个指针维护 GAB:base,end,top

  • Bump pointer (指针碰撞)风格对象分配

    • 无须和其他分配请求互斥
    • 分配动作简单高效

image-20230119092154226.png

  • GAB 对于 Go 内存管理来说是一个对象

image-20230119092659290.png

  • 本质:将多个小对象的分配合并成一次达对象的分配
  • 问题:GAB 的对象分配方式会导致内存被延迟释放

image-20230119092731509.png

  • 方案:移动 GAB 中存活的对象

    • 当 GAB 总大小超过一定阈值时,将 GAB 中存活的对象复制到另外分配的 GAB 中
    • 原先的 GAB 可以释放,避免内存泄漏
    • 本质:用 copying GC 的算法管理小对象 (根据对象的生命周期,使用不同的标记和清理策略)

image-20230119092812737.png 性能收益:

高峰期 CPU usage 降低 4.6%,核心接口时延下降 4.5% ~ 7.7%

image-20230119093121892.png

总结

  • Go 内存管理一分块

  • Go 内存管理一缓存

  • Go 对象分配的性能问题

    • 分配路径过长
    • 小对象居多
  • Balanced GC

    • 指针碰撞风格的对象分配
    • 实现了copying GC
    • 性能收益

3.编译器和静态分析

3.1 编译器的结构

  • 重要的系统软件

    • 识别符合语法和非法的程序
    • 生成正确且高效的代码
  • 分析部分(前端 front end)

    • 词法分析,生成词素( lexeme )
    • 语法分析,生成语法树
    • 语义分析,收集类型信息,进行语义检查
    • 中间代码生成,生成 intermediate representation(IR)
  • 综合部分 (后端 back end)

    • 代码优化,机器无关优化,生成优化后的 IR
    • 代码生成,生成目标代码

编译器:

image-20230119093608220.png

主要学习编译器后端优化,后端是优化重点,同时控制流和数据流分析是优化的基础。

3.2 静态分析

  • 静态分析 : 不执行程序代码,推导程序的行为分析程序的性质。
  • 控制流( Control flow ) : 程序执行的流程

image-20230119094235260.png

image-20230119094256120.png

  • 数据流( Data flow ) : 数据在控制流上的传递
  • 通过分析控制流和数据流,我们可以知道更多关于程序的性质( properties )

根据这些性质优化代码

image-20230119094543389.png

3.3 过程内分析和过程间分析

  • 过程内分析 ( Intra-procedural analysis )

    • 仅在过程内部进行分析
  • 过程间分析 ( Inter-procedural analysis )

    • 考虑过程调用时参数传递和返回值的数据流和控制流

为什么过程间分析是个问题?

image-20230119095205987.png

  • 需要通过数据流分析得知 i 的具体类型,才能知道 i.foo() 调用的是哪个 foo()
  • 根据 i 的具体类型,产生了新的控制流,i.foo(),分析继续
  • 过程间分析需要同时分析控制流和数据流 —— 联合求解,比较复杂

总结

  • 编译器的结构与编译的流程
  • 编译器后端优化
  • 数据流分析和控制流分析
  • 过程内分析和过程间分析

4.Go 编译器优化

为什么做编译器优化

  • 用户无感知,重新编译即可获得性能收益
  • 通用性优化(所有场景都适用)

现状

  • 采用的优化少
  • 编译时间较短,没有进行较复杂的代码分析和优化

编译优化的思路

  • 场景:面向后端长期执行任务
  • Tradeoff:用编译时间换取更高效的机器码

Beast mode (字节在编译器优化方面推出的产品)

  • 函数内联
  • 逃逸分析
  • 默认栈大小调整
  • 边界检查消除
  • 循环展开
  • .......

4.1 函数内联 (Inlining)

内联:将被调用函数的函数体 (callee) 的副本替换到调用位置 (caller) 上,同时重写代码以反映参数的绑定 优点

  • 消除函数调用开销,例收如传递参数、保存寄存器等
  • 将过程间分析转化为过程内分析,帮助其他优化,例如逃逸分析

函数内联能多大程度影响性能? —— 使用 micro-benchmark 验证一下

image-20230119100329487.png

image-20230119100406654.png 小技巧:使用 micro-benchmark 快速验证和对比性能优化结果

缺点

  • 函数体变大,instruction cache (icache) 不友好
  • 编译生成的 Go 镜像变大

函数内联在大多数情况下是正向优化

内联策略

  • 调用和被调函数的规模
  • ..........

4.2 Beast Mode

Go 函数内联受到的限制较多

  • 语言特性,例如 interface,defer 等,限制了函数内联
  • 内联策略非常保守

Beast mode:调整函数内联的策略,使更多函数被内联

  • 降低函数调用的开销
  • 增加了其他优化的机会:逃逸分析

开销

  • Go 镜像增加 ~10%
  • 编译时间增加

4.3 逃逸分析

逃逸分析:分析代码中指针的动态作用域:指针在何处可以被访问

大致思路

  • 从对象分配处出发,沿着控制流,观察对象的数据流

  • 若发现指针 p 在当前作用域 s :

    • 作为参数传递给其他函数
    • 传递给全局变量
    • 传递给其他的 goroutine
    • 传递给已逃逸的指针指向的对像
  • 则指针 p 指向的对象逃逸出 s,反之则没有逃逸出 s

Beast mode : 函数内联拓展了函数边界,更多对象不逃逸

优化:未逃逸的对象可以在栈上分配

  • 对象在栈上分配和回收很快:移动 sp
  • 减少在 heap 上的分配,降低 GC 负担

Beast Mode 一 性能收益:

image-20230119101920674.png

总结

  • Go 编译器优化的问题
  • Beast mode
  • 函数内联
  • 逃逸分析
  • 通过 micro-benchmark 快速验证性能优化
  • 性能收益

个人总结

  • 性能优化的重要性
  • 自动内存管理的原理与方法
  • 编译器编译的过程与静态分析
  • Go 内存管理的原理与优化的方案