性能优化及自动内存管理 | 青训营笔记

93 阅读7分钟

这是我参与「第五届青训营 」笔记创作活动的第4天

重点内容

  • 优化

    • 内存管理优化
    • 编译器优化
  • 背景

    • 自动内存管理和Go内存管理机制
    • 编译器优化的基本问题和思路
  • 字节跳动遇到的性能问题以及优化方案

知识点介绍

  • 性能优化是什么

    提升软件系统处理能力,减少不必要的消耗,充分发掘计算机算力

  • 为什么要做性能优化

    • 带来用户体验的提升
    • 降低成本,提高效率
  • 优化的层面

    • 业务层优化

      • 针对具体场景、具体问题、具体分析
      • 容易获得较大性能收益
    • 语言运行时优化

      • 解决更通用的性能问题
      • 考虑更多场景
      • Tradeoffs
    • 数据驱动

      • 自动化性能分析工具——pprof
      • 依靠数据而非猜测
      • 首先优化最大瓶颈
  • 性能优化与软件质量

    • 软件质量至关重要
    • 在保证接口稳定的前提下改进具体实现
    • 测试用例:覆盖尽可能多的场景,方便回归
    • 文档:做了什么、没做什么、能达到怎样的效果
    • 隔离:通过选项控制是否开启优化
    • 可观测:必要的日志输出

自动内存管理

  • 动态内存

    程序在运行是根据需求动态分配的内存:malloc()

  • 自动内存管理(垃圾回收):有程序语言的运行时系统管理动态内存

    • 避免手动内存管理,专注于实现业务逻辑
    • 保证内存使用的正确性安全性:double-free problem, use-after-free problem
  • 三个任务

    • 为新对象分配空间
    • 找到存活对象
    • 回收死亡对象的空间
  • 相关概念

    • Mutator:业务线程,分配新对象,修改对象指向关系

    • Collector:GC线程,找到存活对象,回收死亡对象的内存空间

    • Serial GC:只有一个collector

    • Parallel GC:支持多个collector同时回收的GC算法

    • Concurrent GC:mutator(s)和collector(s)可以同时执行

      • Collectors必须感知对象指向关系的改变
    • 评价GC算法

      • 安全性(Safety):不能回收存活的对象基本要求

      • 吞吐率(Through):花在GC上的时间

        时间程序总执行时间

      • 暂停时间(Pause time):stop the world(STW)业务是否感知

      • 内存开销(Space overhead)GC元数据开销

    • 追踪垃圾回收(Tracing garbage collection)

    • 引用计数(Reference counting)

Go内存管理及优化

Go内存分配

  • 目标:为对象在heap上分配内存

  • 提前将内存分块

    • 系统调用mmap()向OS申请一大块内存吗,例如4MB
    • 先将内存划分成大块,例如8KB,称作mspan
    • 再将大块内存划分成特定大小的小块,用于对象分配
    • noscan mspan:分配不包含指针的对象——GC不需要扫描
    • scan mspan:分配包含指针的对象——GC需要扫描

Go内存分配—缓存

  • TCMalloc:thread caching
  • 每个p包含一个mcache用于快速分配,用于为绑定于p上的g分配对象
  • mcache管理一组mspan
  • 当macache中的mspan分配完毕,向mcentral申请带有未分配块的mspan
  • 当mspan中没有分配的对象,mspan会被缓存再mcentral中,而不是立刻释放并归还给OS

Go内存管理优化

  • 对象分配是非常高频的操作(每秒分配GB级别的内存

  • 小对象占比高

  • Go内存分配比较耗时

    • 分配路径长:g->m->p->mcache->mspan->memory block->return pointer
    • pprof:对象分配的函数是最频繁调用的函数之一

字节跳动的优化方案:Balanced GC

  • 每个g都绑定一大块内存(1KB),称作goroutine allocation buffer(GAB)

  • GAB用于noscan类型的小对象分配:< 128B

  • 使用三个指针维护GAB:base,end,top

  • Bump pointer(指针碰撞)风格对象分配

    • 无须和其他分配请求互斥
    • 分配动作简单高效

Balanced GC

  • GAB对于Go内存管理来说是一个大对象

  • 本质:将多个小对象的分配合并成一次大对象的分配

  • 问题:GAB的对象分配会导致内存被延迟释放

  • 方案:移动GAB中的存活对象

    • 当GAB总大小超过一定阈值时,将GAB中存活的对象复制到另外分配的GAB中
    • 原先的GAB可以释放,避免内存泄漏
    • 本质:用copying GC的算法管理小对象

编译器和静态分析

编译器的结构

  • 重要的系统软件

    • 识别符合语法和非法的程序
    • 生成正确且高效的代码
  • 分析部分(前端)

    • 词法分析,生成词素
    • 语法分析,生成语法树
    • 语义分析,收集类型信息,进行语义检查
    • 中间代码生成,生成intermediate representation(IR)
  • 总和部分(后端)

    • 代码优化,机器无关优化,生成优化后的IR
    • 代码生成,生成目标代码

静态分析

  • 静态分析:不执行代码,推到程序的行为,分析程序的性质
  • 控制流(Control flow):程序执行的流程
  • 数据流(Data flow):数据在控制流上的传递

过程内分析和过程间分析

  • 过程内分析

    • 仅在函数内部分析
  • 过程间分析

    • 考虑过程调用时参数传递和返回值的数据流和控制流
  • 为什么过程间分析是个问题?

    • type I interface{
          foo()
      }
      type A struct{}
      type B struct{}
      func (a *A) foo(){...}
      func (b *B) foo(){...}
      func bar() {
          i := &A{}
          i.foo()
      }
      
    • 需要通过数据流分析得知i的具体类型,才能知道i.foo()调用的是那个foo()
    • 根据i的具体类型,产生了新的控制流, A.foo(),分析继续
    • 过程间分析需要同时分析控制流和数据流——联合求解,比较复杂

Go编译器优化

  • 为什么做编译器优化

    • 用户无感知,重新编译即可获得性能收益
    • 通用性优化
  • 现状

    • 采用的优化少
    • 编译时间较短,没有进行较复杂的代码分析和优化
  • 编译优化的思路

    • 场景:面向后端长期执行任务
    • Tradeoff:用编译时间换取更高效的机器码

函数内联

  • 内联:将被调用函数的函数体(callee)的副本替换到调用位置(caller)上,同时重写代码以反应参数的绑定

  • 优点

    • 消除函数调用开销,例如传递参数、保存寄存器等
    • 将过程间分析转化为过程内分析,帮助其他优化,例如逃逸分析
  • 缺点

    • 函数体变大,instruction cache (icache)不友好
    • 编译生成的Go镜像变大
  • 大多数情况下是正向优化

Beast Mode

  • Go 函数内联受到的限制较多

    • 语言特性,例如interface,defer等,限制了函数内联
    • 内联策略非常保守
  • Beast mode:调整函数内联的策略,使更多函数被内联

    • 降低函数调用的开销
    • 增加了其他优化的机会:逃逸分析
  • 开销

    • Go镜像增加~10%
    • 编译时间增加

逃逸分析

  • 逃逸分析:分析代码中指针的动态作用域:指针在何处可以被访问

  • 大致思路

    • 从对象分配处出发,沿着控制流,观察对象的数据流

    • 若发现指针p在当前作用域s:

      • 作为参数传递给其他函数
      • 传递给全局变量
      • 传递给其他的goroutine
      • 传递给已逃逸的指针指向的对象
    • 则指针p指向的对象逃逸出s,反之则没有逃逸出s

  • Beast mod:函数内联拓展了函数边界,更多对象不逃逸

  • 优化:未逃逸的对象可以在栈上分配

    • 对象在栈上分配和回收很快:移动sp
    • 减少在heap上的分配,降低GC负担