笔记标题 | 青训营笔记

79 阅读4分钟

这是我参与「第五届青训营 」伴学笔记创作活动的第 4 天


性能优化及自动内存管理

性能优化

为什么要追求性能?

性能优化的基本问题:

  • 减少不必要的消耗
  • 资源高效利用:降低成本、提高效率

性能优化的层面

性能优化的两个层面:

  • 业务层优化

    • 针对特定场景,具体问题具体分析
    • 容易获得较大性能收益
  • 语言运行时优化

    • 解决更通用的性能问题
    • 考虑更多场景
    • Tradeoffs
  • 此外,还要注意数据驱动

    • 自动化性能分析工具 —— pprof
    • 依靠数据而非猜测
    • 首先优化最大瓶颈

性能优化与软件质量

性能优化的可维护性:

  • 软件质量至关重要
  • 在保证接口稳定的前提下改进具体实现
  • 测试用例:覆盖尽可能多的场景,方便回归
  • 文档:做了什么,没做什么,能达到怎样的效果
  • 隔离:通过选项控制是否开启优化
  • 可观测:必要的日志输出

自动内存管理

什么是自动内存管理

动态内存于自动内存管理:

  • 动态内存

    • 程序在运行时根据需求动态分配的内存: malloc()
  • 自动内存管理(垃圾回收):由程序语言的运行时系统管理动态内存

    • 避免手动内存管理,专注于实现业务逻辑
    • 保证内存使用的正确性和安全性: double-free problemuse-after-free problem

自动内存管理:

  • GC 技术的三个主要任务

    • 为新对象分配空间
    • 找到存活对象
    • 回收死亡对象的内存空间
  • 自动内存管理相关概念

    • Mutator:业务线程,分配新对象,修改对象指向关系

    • Collector:GC 线程,找到存活对象,回收死亡对象的内存空间

    • Serial GC:只有一个 collector

    • Parallel GC:支持多个 collectors 同时回收的 GC 算法

    • Concurrent GCmutator(s)collector(s) 可以同时执行,但 Collectors 必须感知对象指向关系的改变

    • 评价 GC 算法:

      • 安全性:不能回收存活的对象,是 GC 的基本要求
      • 吞吐率:花在 GC 上的时间,时间越短越好,吞吐率越高越好
      • 暂停时间:业务是否感知到暂停,时间越短越好
      • 内存开销:GC 元数据开销,开销越小越好
    • 追踪垃圾回收

    • 引用计数

追踪垃圾回收

  • 对象被回收的条件:指针指向关系不可达的对象

  • 标记根对象:

    • 静态变量、全局变量、常量、线程栈等
  • 标记找到可达对象:

    • 求指针指向关系的传递闭包:从根对象出发,找到所有可达对象
  • 清理所有不可达对象:

    • 将存活的对象复制到另外的内存空间
    • 将死亡对象的内存标记为“可分配”
    • 移动并整理存活对象
  • 根据对象的生命周期,使用不同的标记和清理策略

引用计数

  • 每个对象都有一个与之关联的引用数目

  • 对象存活的条件:当且仅当引用数大于 0

  • 优点:

    • 内存管理的操作被平摊到程序执行过程中
    • 内存管理不需要了解 runtime 的实现细节
  • 缺点:

    • 维护引用计数的开销较大:通过原子操作保证对引用计数操作的原子性和可见性
    • 无法回收环形数据结构
    • 每个对象都引入额外存储空间存储引用计数
    • 回收大的数据结构依然可能引发暂停

Go 内存管理及优化

Go 内存分配

内存分配 —— 分块

  • 目标:为对象在 heap 上分配内存

  • 提前将内存分块:

    • 调用系统调用 mmap() 向 OS 申请一大块内存,例如 4 MB
    • 先将内存划分成大块,例如 8 KB,称作 mspan
    • 再将大块继续划分成特定大小的小块,用于对象分配
    • noscan mspan:分配不包含指针的对象 —— GC 不需要扫描
    • scan mspan:分配包含指针的对象 —— GC 需要扫描
  • 对象分配:根据对象的大小,选择最合适的块返回

内存分配 —— 缓存

  • TCMalloc:TC is short for thread caching
  • 每个 p 包含一个 mcache 用于快速分配,用于为绑定于 p 上的 g 分配对象
  • mcache 管理一组 mspan
  • 当 mcache 中的 mspan 分配完毕,向 mcentral 申请带有为分配块的 mspan
  • 当 mspan 中没有分配的对象, mspan 会被缓存在 mcentral 中,而不是立刻释放并归还给操作系统

Go 内存管理优化

内存管理问题

  • 对象分配是非常高频的操作:每秒分配 GB 级别的内存

  • 小对象占比较高

  • Go 内存分配比较耗时

    • 分配路径长
    • pprof:对象分配的函数是最频繁调用的函数之一

优化方案: Balanced GC

  • 每个 g 都绑定一大块内存(1kb),称作 goroutine allocation buffer (GAB)

  • GAB 用于 noscan 类型的小对象(<128b)分配

  • 使用三个指针维护 GAB :base,end,top

  • 对象分配

    • 无需和其它分配请求互斥
    • 分配动作简单高效

Balanced GC

  • GAB 对于 Go 内存管理来说是一个大对象

  • 本质:将多个小对象的分配合并成一次大对象的分配

  • 问题:GAB 的对象分配方式会导致内存被延迟释放

  • 方案:移动 GAB 中存活的对象

    • 当 GAB 总大小超过一定阈值时,将 GAB 中存活的对象复制到另外分配的 GAB 中
    • 原先的 GAB 可以释放,避免内存泄漏
    • 本质:用 copying GC 的算法管理小对象,根据对象的生命周期,使用不同的标记和清理策略

编译器和静态分析

编译器的结构

image.png

  • 重要的系统软件

    • 识别符合语法和非法的程序
    • 生成正确且高效的代码
  • 分析部分(前端)

    • 语法分析,生成词素
    • 语法分析,生成词法树
    • 语义分析,收集类型信息,进行语义检查
    • 中间代码生成,生成 intermediate representation(IR)
  • 综合部分(后端)

    • 代码优化,机器无关优化,生成优化后的 IR
    • 代码生成,生成目标代码

静态分析

  • 静态分析:不执行程序代码,推到程序的行为,分析程序的性质
  • 控制流(Control flow):程序执行的流程
  • 数据流(Data flow):数据在控制流上的传递
  • 通过分析控制流和数据流,我们可以知道更多关于程序的性质
  • 根据这些性质优化代码

过程内分析和过程间分析

  • 过程内分析:仅在函数内部进行分析
  • 过程间分析:考虑函数调用时参数传递和返回值的数据流和控制流

Go 编译器优化

  • 为什么做编译器优化

    • 用户无感知,重新编译即可获得性能收益
    • 通用性优化
  • 现状

    • 采用的优化少
    • 编译时间较短,没有进行较复杂的代码分析和优化
  • 编译优化的思路

    • 场景:面向后端长期执行任务
    • Tradeoff:用编译时间换取更高性能的代码

函数内联

  • 内联:将被调用函数的函数体的副本替换到调用位置上,同时重写代码以反映参数的绑定

  • 优点

    • 消除函数调用开销,例如传递参数,保存寄存器等
    • 将过程间分析转化为过程内分析,帮助其他优化,例如逃逸分析
  • 缺点

    • 函数体变大,instruction cache(icache) 不友好
    • 编译生成的 Go 镜像变大
  • 函数内联在大多数情况下是正向优化

Beast Mode

  • Go 函数内联受到的限制较多

    • 语言特性限制了函数内联
    • 内联策略非常保守
  • Beast mode:调整函数内联的策略,使得更多函数被内联

    • 降低函数调用的开销
    • 增加了其他优化的机会:逃逸分析
  • 开销

    • Go 镜像增加 10%
    • 编译时间增加

逃逸分析

逃逸分析

  • 分析代码中指针的动态作用域:指针在何处可以被访问

大致思路

  • 从对象分配处出发,沿着控制流,观察对象的数据流

  • 若发现指针 p 在当前作用域 s :

    • 作为参数传递给其他函数
    • 传递给全局变量
    • 传递给其他的 goroutine
    • 传递给已逃逸的指针指向的对象
  • 则指针 p 指向的对象逃逸出 s,反之则没有

Beast mode 对逃逸分析的优化

  • 函数内联拓展了函数边界,更多对象不逃逸

  • 未逃逸出当前函数的指针指向的对象可以在栈上分配

    • 对象在栈上分配和回收很快:移动 sp 即可完成内存的分配和回收
    • 减少在堆上分配对象,降低 GC 负担

参考文档