GO语言发行版优化--内存管理及优化 | 青训营笔记

764 阅读5分钟

这是我参与「第三届青训营 -后端场」笔记创作活动的的第7篇笔记, 本次课主要讲了GO语言发行版优化与实战,本文是针对内存管理及优化部分做的笔记

一、Go内存分配

分块

  • 目标:为对象在heap上分配内存
  • 提前将内存分块
    • 调用系统调用mmap() 向OS申请一大块内存,例如4 MB
    • 先将内存划分成大块,例如8 KB,称作mspan
    • 再将大块继续划分成特定大小的小块,用于对象分配
    • noscan mspan分配不包含指针的对象-GC不需要扫描
    • scan mspan: 分配包含指针的对象-GC需要扫描
  • 对象分配:根据对象的大小,选择最合适的块返回

缓存

  • TCMalloc: thread caching
  • 每个p包含一个mache用于快速分配,用于为绑定于p上的g分配对象
  • mcache管理一组 mspan,每个mspan大小不一样(一块是一个)
  • 当mcache中的mspan分配完毕,向mcentral申请带有未分配块的mspan
  • 当mspan中没有分配的对象,mspan会被缓存在mcentral 中,而不是立刻释放并归还给OS
  • g:goroutine;

二、内存管理优化

  • 对象分配是非常高频的操作:每秒分配GB级别的内存
  • 小对象占比较高

  • Go内存分配比较耗时
    • 分配路径长: g-> m-> p-> mcache -> mspan -> memory block -> return pointer
    • pprof:对象分配的函数是最频繁调用的函数之一

优化方案: Balanced GC

  • 每个g都绑定一大块内存(1 KB) ,称作 goroutine allocation buffer (GAB)
  • GAB 用于noscan类型的小对象分配:<128 B
  • 使用三个指针维护 GAB: base, end, top
  • Bump pointer (指针碰撞)风格对象分配
    • 无须和其他分配请求互斥
    • 分配动作简单高效

Balanced GC

介绍

  • GAB 对于Go内存管理来说是一个大对象
  • 本质:将多个小对象的分配合并成一次大对象的分配
  • 问题: GAB 的对象分配方式会导致内存被延迟释放
  • 方案:移动GAB 中存活的对象.
    • 当GAB 总大小超过一定阅值时,将GAB中存活的对象复制到另外分配的GAB 中
    • 原先的GAB 可以释放,避免内存泄漏
    • 本质:用copying GC的算法管理小对象

性能收益

高峰期CPU usage降低4.6%, 核心接口时延下降4.5%~7.7%

三、编译器和静态分析

编译器的结构

  • 分析部分(前端front end)

    • 词法分析,生成词素(lexeme)
    • 语法分析,生成语法树语义分析,收集类型信息,进行语义检查
    • 中间代码生成,生成intermediate representation (IR)
  • 综合部分(后端back end)

    • 代码优化,机器无关优化,生成优化后的IR
    • 代码生成,生成目标代码

这里主要介绍编译器后端优化

静态分析

  • 静态分析:不执行程序代码,推导程序的行为,分析程序的性质。
  • 控制流(Control flow):程序执行的流程
  • 数据流(Data flow):数据在控制流上的传递

  • 通过分析控制流和数据流,可以知道更多关于程序的性质
  • 根据这些性质优化代码

过程内分析和过程间分析

  • 过程内分析(Intra-procedural analysis)

    • 仅在函数内部进行分析
  • 过程间分析(Inter-procedural analysis)

    • 考虑函数调用时参数传递和返回值的数据流和控制流
  • 为什么过程间分析是个问题?

    • 需要通过数据流分析得知i的具体类型,才能知道i.foo=()调用的是哪个foo()
    • 根据i的具体类型,产生了新的控制流,i.foo(),分析继续
    • 过程间分析需要同时分析控制流和数据流--联合求解,比较复杂

分析是A.foo()还是B.foo()?? 答案是A.foo()

四、编译器优化

概述

  • 为什么做编译器优化

    • 用户无感知,重新编译即可获得性能收益
    • 通用性优化
  • 现状

    • 采用的优化少
    • 编译时间较短,没有进行较复杂的代码分析和优化
  • 编译优化的思路

    • 场景:面向后端长期执行任务
    • Tradeoff: 用编译时间换取更高效的机器码
  • Beast mode

    • 函数内联
    • 逃逸分析
    • 默认栈大小调整
    • 边界检查消除
    • 循环展开

函数内联

  • 内联:将被调用函数的函数体(callee)的副本替换到调用位置(caller)上,同时重写代码以反映参数的绑定

  • 优点.

    • 消除函数调用开销,例如传递参数、保存寄存器等.
    • 将过程间分析转化为过程内分析,帮助其他优化,例如逃逸分析
  • 函数内联能多大程度影响性能?-使用micro-benchmark验证一下~

函数被内联后,性能数据提升4.58X

优点

  • 消除函数调用开销,例如传递参数、保存寄存器等
  • 将过程间分析转化为过程内分析,帮助其他优化,例如逃逸分析

缺点

  • 函数体变大, instruction cache (icache) 不友好
  • 编译生成的Go镜像变大

BeastMode

  • Go函数内联受到的限制较多

    • 语言特性,例如interface, defer等,限制了函数内联
    • 内联策略非常保守
  • Beast mode:调整函数内联的策略,使更多函数被内联

    • 降低函数调用的开销
    • 增加了其他优化的机会:逃逸分析
  • 开销

    • Go镜像增加~10%
    • 编译时间增加

逃逸分析

  • 逃逸分析:分析代码中指针的动态作用域:指针在何处可以被访问

  • 大致思路

    • 从对象分配处出发,沿着控制流,观察对象的数据流
    • 若发现指针p在当前作用域s:
      • 作为参数传递给其他函数营
      • 传递给全局变量
      • 传递给其他的goroutine
      • 传递给已逃逸的指针指向的对象
    • 则指针p指向的对象逃逸出s,反之则没有逃逸出s
  • Beast mode:函数内联拓展了函数边界,更多对象不逃逸

  • 优化: 未逃逸的对象可以在栈上分配

    • 对象在栈上分配和回收很快:移动sp
    • 减少在heap上的分配,降低GC负担