go语言语法随笔(二)| 豆包MarsCode AI刷题

61 阅读8分钟

单元测试

  1. 所有测试文件以_test.go结尾

  2. func TestXxx*testing.T

  3. 初始化逻辑放到TestMain

  4. 代码的覆盖率

    • 一般覆盖率:50%-60%较高覆盖率:80%
    • 测试分支相互独立、全面覆盖
    • 测试单元粒度足够小,函数单一职责
  5. mock与monkey

  6. go test -bench=. -benchmem

性能测试

pprof:flat自身消耗,cum自身消耗+调用其他函数的消耗

pprof采样过程及其原理 QPS是什么(忘了)

异步监控减少影响

通过pprof分析工具进行如下方面的优化

  1. 业务优化
  2. SDK优化
  3. 基础库优化
  4. Go语言优化
  5. 运行时语言优化
  6. OS优化

性能优化与软件质量

  • 软件质量至关重要
  • 在保证接口稳定的前提下改进具体实现
  • 测试用例:覆盖尽可能多的场景,方便回归
  • 文档:做了什么,没做什么,能达到怎样的效果
  • 隔离:通过选项控制是否进行优化
  • 可观测:必要的日志输出
  1. 自动内存管理

    • 动态内存

      • 程序运行时根据需求动态分配的内存:malloc()
    • 自动内存管理(垃圾回收):由程序语言的运行时系统管理动态内存

      • 避免手动内存管理,专注于实现业务逻辑
      • 保证内存使用的正确性和安全性:double-free problem,use-after-free problem
    • 三个任务

      • 为新对象分配空间
      • 找到存活对象
      • 回收死亡对象的内存空间
    • 相关概念

      • Concurrently:

      • mutator:业务线程,分配新对象,修改对象指向关系

      • Collector:GC线程,找到存活对象,回收死亡对象的内存空间

      • Serial GC:只有一个collector

      • Parallel GC:支持多个collectors同时回收的GC算法

      • Concurrent GC:mutator(s)和collector(s)可以同时执行

        • Collectors必须感知对象指向关系的改变!
    • 评价GC算法

      • 安全性(Safety):不能回收存活的对象 基本要求
      • 吞吐率(Throughput)
      • 暂停时间(Pause time):stop the world(STW)业务是否感知
      • 内存开销(Space overhead)GC元数据开销
    • 常用的两种GC算法:

      • 追踪垃圾回收

        • 对象被回收的条件:指针指向关系不可达的对象

        • 标记根对象

          • 静态变量、全局变量、常量、线程栈等
        • 标记:标记可达对象

          • 求指针指向关系的传递闭包:从根对象出发,找到所有可达对象
        • 清理:所有不可达对象

          • 将存活对象复制到另外的内存空间(Copying GC)
          • 将死亡对象的内存标记为“可分配”(Mark-sweep GC)
          • 移动并整理存活对象(Mark-compact GC)
        • 根据对象的生命周期,使用不同的标记和清理策略

      • 分代GC(Generational GC)

        • 分代假说(Generational hypothesis):most objects die young

        • Intuition:很多对象在分配出来后很快就不再使用了

        • 每个对象都有年龄:经历过GC的次数

        • 目的:针对年轻和老年的对象,制定不同的GC策略,降低整体内存管理的开销

        • 不同年龄的对象处于heap的不同区域

        • 年轻代(Young generation)

          • 常规的对象分配
          • 由于存活对象很少,可以采用copying collection
          • GC 吞吐率很高
        • 老年代(Old generation)

          • 对象趋向于一直活着,反复赋值开销较大
          • 可以采用mark-sweep collection
      • 引用计数

        • 每个对象都有一个与之关联的引用数目

        • 对象存活的条件:当且仅当引用数大于0

        • 优点

          • 内存管理的操作被平摊到程序执行过程中
          • 内存管理不需要了解runtime的实现细节:C++智能指针(smart pointer)
        • 缺点

          • 维护引用计数的开销较大:通过原子操作保证对引用计数操作的原子性和可见性
          • 无法回收环形数据结构——weak reference
          • 内存开销:每个对象都引入的额外内存空间存储引用数目
          • 回收内存时依然可能引发暂停(大的对象)
      • 相关论文:PLDI’22 Low-Latency,High-Throughput Garbage Collection

  2. Go内存管理及优化

    • Go内存分配

      • 分块

        • 目标:为对象在heap上分配内存

        • 提前将内存分块

          • 调用系统调用mmap()向OS申请一大块内存,例如4MB
          • 先将内存划分成大块,例如8KB,称作mspan
          • 再将大块继续划分成特定大小的小块,用于对象分配
          • noscan mspan:分配不包含指针的对象——GC不需要扫描
          • scan mspan:分配包含指针的对象——GC需要扫描
        • 对象分配:根据对象的大小,选择最合适的块返回

      • 缓存(类似二级缓存)

        • TCMalloc:thread caching
        • 每个p包含一个mcache用于快速分配,用于为绑定于p上的g分配对象
        • mcache管理一组mspan
        • 当mcache中的mspan分配完毕,向mcentral申请带有未分配块的mspan
        • 当mspan中没有分配的对象,mspan会被缓存在mcentral中,而不是立刻释放并归还给OS
    • Go内存管理优化

      • 对象分配是非常高频的操作:每秒分配GB级别的内存

      • 小对象占比较高

      • Go内存分配比较耗时

        • 分配路径长:g->m->p->mcache->mspan->memory block->return pointer
        • pprof:对象分配的函数是最频繁调用的函数之一
      • bytedance——balanced GC

        • 每个g都绑定一大块内存(1KB),称作goroutine allocation buffer(GAB)

        • GAB用于noscan类型的小对象分配:<128B

        • Bump pointer(指针碰撞)风格对象分配

          • 无须和其他分配请求互斥

          • 分配动作简单高效

            if top + size <= end {
                addr := top
                top += size
                return addr
            }
            
          • GAB对于Go内存管理来说是一个大对象

          • 本质:将多个小对象的分配合并成一次大对象的分配

          • 问题:GAB的对象分配方式会导致内存被延迟释放(因为GAB被视为一个整体对象,内部有一个对象还存活就所有都不能释放)

          • 方案:移动GAB中存活的对象

            • 当GAB总大小超过一定阈值时,将GAB中存活的对象复制到另一个分配的GAB中
            • 原先的GAB可以释放,避免内存泄漏
            • 本质:用copying GC的算法管理小对象(根据对象的生命周期,使用不同的标记和清理策略)
  3. 编译器和静态分析

    • 基本介绍

      • 重要的系统软件

        • 识别符合语法和非法的程序
        • 生成正确且高效的代码
      • 分析部分(前端front end)

        • 词法分析,生成词素(lexeme)
        • 语法分析,生成语法树
        • 语义分析,收集类型信息,进行语义检查
        • 中间代码生成,生成intermediate representation(IR)
      • 综合部分(后端back end)

        • 代码优化,机器无关优化,生成优化后的IR
        • 代码生成,生成目标代码
    • 静态分析

      • 不执行程序代码,推导程序的行为,分析程序的性质

      • 控制流(Control Flow):程序执行的流程

      • 数据流(Data flow):数据在控制流上的传递

      • 通过分析控制流和数据流,我们可以知道更多关于程序的性质(properties)

      • 根据这些性质优化代码

      • 过程内分析(Intra-procedural analysis)

        • 仅在函数内部进行分析
      • 过程间分析(Inter-procedural analysis)

        • 考虑过程调用时参数传递和返回值的数据流和控制流
      • 为什么过程间分析是个问题?

        • 需要通过数据流分析得知i的具体类型,才能知道i.foo()调用的是哪个foo()
        • 根据i的具体类型,产生了新的控制流,A.foo(),分析继续
        • 过程间分析需要同时分析控制流和数据流——联合求解,比较复杂
  4. Go编译器优化

    • 基本介绍

      • 为什么做编译器优化

        • 用户无感知,重新编译即可获得性能收益
        • 通用性优化
      • 现状

        • 采用的优化少
        • 编译时间较短,没有进行较复杂的代码分析和优化
      • 编译优化的思路

        • 场景:面向后端长期执行任务
        • Tradeoff:用编译时间换取更高效的机器码
      • Beast mode

        • 函数内联
        • 逃逸分析
        • 默认栈大小调整
        • 边界检查消除
        • 循环展开
    • 函数内联(Inlining)

      • 内联:将被调用函数的函数体(callee)的副本替换到调用位置(caller)上,同时重写代码以反映参数的绑定

      • 优点

        • 消除函数调用开销。例如传递参数、保存寄存器等
        • 将过程间分析转化为过程内分析,帮助其他优化,例如逃逸分析
      • 缺点

        • 函数体变大,instruction cache(icache)不友好
        • 编译生成的Go镜像变大
      • 函数内联一般都是正向优化

      • 函数内联能有多大程度影响性能?——使用micro-benchmark验证一下

      • Beast Mode

        • Go函数内联受到的限制较多

          • 语言特性,例如interface,defer等,限制了函数内联
          • 内联策略非常保守
        • Beast mode:调整函数内联的策略,使更多函数被内联

          • 降低函数调用的开销
          • 增加了其他优化的机会:逃逸分析
        • 开销

          • Go镜像增加~10%
          • 编译时间增加
    • 逃逸分析

      • 逃逸分析:分析代码中指针的动态作用域:指针在何处可以被访问

      • 大致思路

        • 从对象分配处出发,沿着控制流,观察对象的数据流

        • 若发现指针p在当前作用域s:

          • 作为参数传递给其他函数
          • 传递给全局变量
          • 传递给其他的goroutine
          • 传递给已逃逸的指针指向的对象
        • 则指针p指向的对象逃逸出s,反之则没有逃逸出s

      • Beast mode:函数内联拓展了函数边界,更多对象不逃逸

      • 优化:未逃逸的对象可以在栈上分配

        • 对象在栈上分配和回收很快:移动sp
        • 减少在heap上的分配,降低GC负担