高性能GO语言发行版优化与落地实战 | 青训营笔记

822 阅读9分钟

这是我参与「第三届青训营 -后端场」笔记创作活动的的第3篇笔记

性能优化是什么?

  • 提升软件系统处理能力,减少不必要的消耗,充分发掘计算机算力

为什么要做性能优化?

  • 用户体验:带来用户体验的提升一让刷抖音更丝滑,让双十一购物不再卡顿
  • 资源高效利用:降低成本,提高效率一很小的优化乘以海量机器会是显著的性能提升和成本节约

一、自动内存管理

  • 动态内存
    • 程序在运行时根据需求动态分配的内存:maI1oc()
  • 自动内存管理(垃圾回收):由程序语言的运行时系统管理动态内存
    • 避免手动内存管理,专注于实现业务逻辑
    • 保证内存使用的正确性和安全性:double--free problem(两次内存释放),use-after--free problem
  • 三个任务
    • 为新对象分配空间
    • 找到存活对象
    • 回收死亡对象的内存空间

1.1自动内存管理-相关概念

  • utator::业务线程,分配新对象,修改对象指向关系(在go中就是一个goroutine)
  • Collector::GC线程,找到存活对象,回收死亡对象的内存空间
  • Serial GC:只有一个collector
  • Parallel GC:支持多个collectors同时回收的GC算法
  • Concurrent GO:mutator(s)和collector(s)可以同时执行(Collectors必须感知对象指向关系的改变)

image.png

  • 评价GC算法
    • 安全性(safty):不能回收存活对象——基本要求
    • 吞吐率(Throuthput):1-(GC时间/程序执行总时间)——花在GC上的时间
    • 暂停时间(Pause time):stop the world(STW)——业务是否感知
    • 内存开销(Space overhead)——GC元数据开销
  • 追踪垃圾回收(Tracing garbage collection)
  • 引用计数(Reference counting)

1.2 追踪垃圾回收

  • 对象被回收的条件:指针指向关系不可达的对象
  • 标记根对象
    • 静态变量、全局变量、常量、线程栈等
  • 标记:找到可达对象
    • 求指针指向关系的传递闭包:从根对象出发,找到所有可达对象
  • 清理:所有不可达对象
    • 将存活对象复制到另外的内存空间(Copying GC)
    • 将死亡对象的内存标记为句分配Mark-sweep GC)
    • 移动并整理存活对象(Mark-compact GC)

根据对象的生命周期,使用不同的标记和清理策略

1.3 分代GC(Generational GC)

  • 分代假说(Generational hypothesis)):most objects die young
  • Intuition:很多对象在分配出来后很快就不再使用了
  • 每个对象都有年龄:经历过GC的次数
  • 目的:针对年轻和老年的对象,制定不同的GC策略,降低整体内存管理的开销
  • 不同年龄的对象处于heap的不同区域
  • 年轻代(Young generation)
    • 常规的对象分配
    • 由于存活对象很少,可以采用copying collection
    • GC吞吐率很高
  • 老年代(Old generation)
    • 对象趋向于一直活着,反复复制开销较大
    • 可以采用mark-sweep collection

1.4 引用计数

  • 每个对象都有一个与之关联的引用数目
  • 对象存活的条件:当且仅当引用数大于0

image.png

  • 优点
    • 内存管理的操作被平滩到程序执行过程中
    • 内存管理不需要了解runtime的实现细节:C++智能指针(smart pointer)

image.pngimage.png image.png

  • 缺点
    • 维护引用计数的开销较大:通过原子操作保证对引用计数操作的原子性和可见性
    • 无法回收环形数据结构
    • weak reference
    • 内存开销:每个对象都引入的额外内存空间存储引用数目
    • 回收内存时依然可能引发暂停

image.png

二、Go内存管理及优化(堆上的分配)

2.1 Go内存分配——分块

  • 目标:为对象在heap上分配内存
  • 提前将内存分块
    • 调用系统调用mmap()
    • 向OS申请一大块内存,例如4MB
    • 先将内存划分成大块,例如8KB,称作mspan
    • 再将大块继续刘分成特定大小的小块,用于对象分配
    • noscan mspan:分配不包含指针的对象——GC不需要扫描
    • scan mspan:分配包含指针的对象——GC需要扫描
  • 对象分配:根据对象的大小,选择最合适的块返回

image.png

2.2 Go内存分配——缓存

  • TCMalloc:thread caching
  • 每个p包含一个mcache用于快速分配,用于为绑定于p上的g分配对象
  • mcache管理一组mspan
  • 当mcache中的mspan分配完毕,向mcentral申请带有未分配块的mspan
  • 当mspan中没有分配的对象,mspan会被缓存在mcentra|中,而不是立刻释放并归还给OS

image.png

2.2 Go内存管理优化

  • 对象分配是非常高频的操作:每秒分配GB级别的内存
  • 小对象占比较高
  • G0内存分配比较耗时
    • 分配路径长:g->m->p->mcache->mspan->memory block->return pointer
    • pprof:对象分配的函数是最频繁调用的函数之一

下图框中为分配对象占用的CPU image.png

2.3 我们的优化方案:Balanced GC(字节内部)

  • 每个g都绑定一大块内存(1KB),称作goroutine allocation buffer(GAB)
  • GAB用于noscan类型(对象里不包含指针)的小对象分配:<128B时称为小对象(对象大于128B时还是走的mspan分配,该128根据统计数据设置)
  • 使用三个指针维护GAB:base,end,top
  • Bump pointer(指针碰撞)风格对象分配
    • 无须和其他分配请求互斥
    • 分配动作简单高效

image.png goroutine绑定的GAB,base开始地址,top当前使用到的地址,end结束的地址。 例如:要分配一个8B的内存时,top指针向前移动8位即可,不需要向原来一样做很长的扫描。

  • GAB对于GO内存管理来说是一个对象
  • 本质:将多个小对象的分配合并成一次达对象的分配

image.png

问题:GAB的对象分配方式会导致内存被延迟释放 方案:移动GAB中存活的对象

  • 当GAB总大小超过一定阈值时,将GAB中存活的对象复制到另外分配的GAB中
  • 原先的GAB可以释放,避免内存泄漏
  • 本质:用copying GC的算法管理小对象

image.png

性能收益

image.png

三、编译器和静态分析

3.1 编译器的结构

  • 重要的系统软件
    • 识别符合语法和非法的程序
    • 生成正确且高效的代码
  • 分析部分(前端front end)
    • 词法分析,生成词素(lexeme)
    • 语法分析,生成语法树
    • 语义分析,收集类型信息,进行语义检查
    • 中间代码生成,生成intermediate representation(IR)
  • 综合部分(后端back end)
  • 代码优化,机器无关优化,
  • 生成优化后的R
  • 代码生成,生成目标代码

image.png

3.2 静态分析

  • 静态分析:不执行程序代码,推导程序的行为分析程序的性质。
  • 控制流(Control flow):程序执行的流程
  • 数据流(Data flow):数据在控制流上的传递
  • 通过分析控制流和数据流,我们可以知道更多关于程序的性质(properties)。根据这些性质优化代码去优化编译结果

如:一个程序的一个代码片结果为4,那么可以在编译的时候直接用4来代表结果,而不需要在运行时再计算一次。

3.3 过程内分析和过程间分析

  • 过程内分析(Intra-procedural analysis)
    • 仅在函数内部进行(控制流和数据流的)分析
  • 过程间分析(Inter-procedural analysis)
    • 考虑函数调用时参数传递返回值的数据流和控制流
  • 为什么过程间分析是个问题?
    • 需要通过数据流分析得知的具体类型,才能知道i.foo()调用的是哪个foo()
    • 根据ⅰ的具体类型,产生了新的控制流,ifoo(),分析继续
    • 过程间分析需要同时分析控制流和数据流——联合求解,比较复杂

image.png

四、Go编译器优化

  • 为什么做编译器优化
    • 用户无感知,重新编译即可获得性能收益
    • 通用性优化(所有场景都优化)
  • 现状
    • 采用的优化少
    • 编译时间较短,没有进行较复杂的代码分析和优化
  • 编译优化的思路
    • 场景:面向后端长期执行任务
    • Tradeoff:用编译时间换取更高效的机器码
  • Beast mode
    • 函数内联
    • 逃逸分析
    • 默认栈大小调整
    • 边界检查消除
    • 循环展开
    • ……

4.1 函数内联(inlining)

  • 内联:将被调用函数的函数体(callee)的副本替换到调用位置(caller)上,同时重写代码以反映参数的绑定
  • 优点
    • 消除函数调用开销,例如传递参数、保存寄存器等
    • 将过程间分析转化为过程内分析(没有函数调用了),帮助其他优化,例如逃逸分析

tips:使用micro-benchmark快速验证和对比性能优化结果

  • 缺点
    • 函数体变大,instruction cache (icache)不友好
    • 编译生成的G0镜像变大
  • 函数内联在大多数情况下是正向优化
  • 内联策略
    • 调用和被调函数的规模

4.2 Beast Mode

  • Go函数内联受到的限制较多
    • 语言特性,例如interface,defer等,限制了函数内联
    • 内联策略非常保守
  • Beast mode:调整函数内联的策略,使更多函数被内联
    • 降低函数调用的开销
    • 增加了其他优化的机会:逃逸分析
  • 开销
    • G0镜像增加~10%
    • 编译时间增加

** 逃逸分析**

  • 逃逸分析:分析代码中指针的动态作用域:指针在何处可以被访问
  • 大致思路
    • 从对象分配处出发,沿着控制流,观察对象的数据流
    • 若发现指针p在当前作用域s:
      • 作为参数传递给其他函数
      • 传递给全局变量
      • 传递给其他的goroutine
      • 传递给已逃逸的指针指向的对象
    • 则指针p指向的对象逃逸出s,反之则没有逃逸出s
  • Beast mode:函数内联拓展了函数边界,更多对象不逃逸
  • 优化:未逃逸的对象可以在栈上分配
    • 对象在栈上分配和回收很快:移动sp
    • 减少在heap上的分配,降低GC负担

性能收益 image.png