这是我参与「第五届青训营 」伴学笔记创作活动的第 3 天
大纲
1. 高质量编程
- 主要内容
- 如何编写更简洁清晰的代码
- 常用 Go 语言程序优化手段
- 熟悉 GO 程序性能分析工具
- 了解工程中性能优化的原则和流程
1.1 简洁
-
什么是高质量编程 ——编写的代码能够达到正确可靠、简洁清晰的目标称之为高质量代码
-
各种边界条件是否考虑完备
-
异常情况处理,稳定性保证
-
易读易维护 理解:高质量要求不多,实际并不容易达到
- 正确性:是否考虑各种边界条件,错误的调用是否能够处理
- 可靠性:异常情况或者错误的处理策略是否明确,依赖的服务出现异常是否能够处理
- 简洁:逻辑是否简单,后续调整功能或者新增功能是否能够快速支持
- 清晰:其他人在阅读理解代码的时候能否清楚明白,重构或者修改功能是否不一会担心出现无法预料的问题
- 编程原则 实际应用场景千变万化,各种语言的特性和语法各不相同,但是高质量编程遵循的原则是相通的
- 简单性
- 消除“多余的复杂性”,以简单清晰的逻辑编写代码
- 不理解的代码无法修复改进
- 可读性
- 代码是写给人看的,而不是机器
- 编写可维护代码的第一步是确保代码可读
- 生产力
- 团队整体工作效率非常重要
在实际项目中,复杂的程序逻辑会让人害怕重构和优化,因为无法明确预知调整造成的影响范围难以理解的逻辑,排查问题时也难以定位,不知道如何修复。
项目迭代过程中,大部分工作是对自己已有功能的完善或扩展,很少会完全下线某个功能,对应的功能代码实际会生存很长时间。已上线的代码在其生命周期内会被不同的人阅读几十上百次,难以理解的代码会占用后续每一个程序员的时间,可读性很重要
编程在当前更多的是团队合作,因此团队整体的工作效率是非常重要的一方面,为了降低新成员上手项目代码的成本,Go语言甚至通过工具强制统一所有代码格式,编码在整个项目开发链路中的一个节点,遵循规范,避免常见缺陷的代码能够降低后续联调、测试、验证、上线等各个节点的出现问题的概率,就算出现问题也能快速排查定位
1.2 编码规范
- 如何编写高质量的 Go代码
- 代码格式
- 注释
- 命名规范
- 控制流程
- 错误和异常处理
- Google官方和大规模采用Go的公司,比如Uber都有开源的编码规范文档,下面选择比较重要的公共约定部分进行介绍
1.2.1 编码规范-代码格式
- 推荐使用 gofmt 自动格式化代码
gofmt
- Go 语言官方提供的工具,能自动格式化 Go 语言代码为官方统一风格 goimports
- 也是 Go 语言官方提供的工具实际等于 gofmt 加上依赖包管理自动增删依赖包的引用,将依赖包按字母顺序排列并分类
1.2.2 编码规范-注释
- 公共符号始终要注释
- 包中声明的每个公共的符号:变量、常量、函数以及结构都需要添加注释
- 任何及不明显也不间断的公共功能必须予以注释
- 无论长度或者复杂程度如何,对库中的任何函数都必须进行注释
- 有一个例外,不需要注释实现接口的方法。具体不要像下面这样做
- 注释应该做的
- 注释应该解释代码作用
- 注释应该解释代码如何做的
- 注释应该解释代码实现的原因
- 注释应该解释代码什么情况会出错
- Good code has lots of comments,bad code requires lots of comments
- 好的代码有很多注释,坏的代码需要很多注释
- 小结
- 代码是最好的注释
- 注释应该提供代码未表达出的上下文信息
1.2.3 编码规范-命名规范
- variable
- 简洁胜于冗长
- 缩略词全大写,但当其位于变量开头且不需要导出时,使用全小写
- 例如使用 ServeHTTP 而不是 ServeHttp
- 例如使用 XMLHTTPRequest 或者 xmlHTTPRequest
- 变量距离其被使用的方法越远,则需要携带越多的上下文信息
- 全局变量在其名字中需要更多的上下文信息,使得在不同地方可以轻易辨认出其含义
- i 和 index 的作用域范围仅限于 for 循环内部时 index 的额外冗长几乎没有增加对于程序的理解
- 将 deadline 替换成 t 降低了变量名的信息量
- t 常代指任意时间
- deadoline指截止时间,有特定的含义
- function
- 函数名不携带包名的上下文信息,因为包名和函数名总是成对出现的
- 函数名尽量简短
- 当名为 foo 的包某个函数返回类型 Foo 时,可以省略类型信息而不导致歧义
- 当名为 foo 的包某个函数返回类型 T 时(T 并不是 Foo),可以在函数名中加入类型信息
- package
- 只有小写字母组成。不包含大写字母和下划线等字符
- 简短并包含一定的上下文信息。例如 schema、task 等
- 不要与标准库同名。例如不要使用 sync 或者 strings
- 以下规则尽量满足,以标准库包名为例
- 不使用常用变量名作为包名。例如使用 bufio 而不是 buf
- 使用单数而不是复数。例如使用 encoding 而不是 encodings
- 谨慎地使用缩写。例如使用 fmt 在不破坏上下文的情况下比 format 更加简短
- 小结
- 核心目的降低阅读理解代码的成本
- 重点考虑上下文信息,设计简洁清晰的名称
1.2.4 编码规范-控制流程
- 避免嵌套,保持正常流程清晰
如果两个分支中都包含
return语句,则可以去除冗余的else
- 尽量保持正常代码路径为最小缩进
调整前
- 优先处理错误的情况/特殊情况,尽早返回 或者继续循环来减少嵌套
- 最常见的正常流程的路径被嵌套在两个 if 条件内
- 成功的退出条件时 return nil,必须仔细匹配大括号来发现
- 函数最后一行返回一个错误,需要追溯到匹配的左括号,才能了解合适会触发错误
- 如果后续正常流程需要增加一步操作,调用新的函数,则又会增加一层嵌套
调整后
- 小结
- 线性原理,处理逻辑尽量走直线,避免复杂的嵌套分支
- 正常流程代码沿着屏幕向下滚动
- 提升代码可维护性和可读性
- 故障问题大多出现在复杂的条件语句和循环语句中
1.2.5 编码规范-错误和异常处理
- 简单错误
- 简答的错误指的是仅出现一次的错误,且在其他地方不需要捕获该错误
- 优先使用 errors.New 来创建匿名变量来直接表示简单错误
- 如果有格式化的需求,使用 fmt.Errorf
- 错误的 Wrap 和 Unwrap
- 错误的 Wrap 实际上是提供了一个 error 嵌套另一个 error 的能力,从而生成一个 error 的跟踪链
- 在 fmt.Errorf 中使用:%w 关键字来将一个错误关联至错误链中
- 错误判定
- 判定一个错误是否为特定错误,使用 errors.Is
- 不同于使用 ==,使用该方法可以判定错误链上的所有错误是否含有特定的错误
- 在错误链上获取特定的错误,使用errors.As
- panci
- 不建议在业务代码中使用 panic
- 调用函数不包含 recover 会造成程序崩溃
- 若问题可以被屏蔽或解决,建议使用 error 代替 panic
- 当程序启动阶段发生不可逆转的错误时,可以在 int 或 main 函数中使用panic
- recover
- recover 只能在被 defer 的函数中使用
- 嵌套无法生效
- 旨在当前 goroutine 生效
- defer 的语句时后进先出
- 如果需要更多的上下文信息,可以 recover 后在 log 中记录当前的调用栈(通过
debug.Stack()把包含的调用栈信息显示出来,方便定位具体代码问题)
- 小结
- error 尽可能提供简明的上下文信息链,方便定位问题
- panic 用于真正异常的情况
- recover 生效范围,在当前 goroutine 的被 defer 的函数中生效
1.3 性能优化建议
- 简介
- 性能优化的前提时满足正确可靠、简洁清晰等质量因素
- 性能优化是综合评估,有时候时间效率和空间效率可能对立
- 正对 Go 语言特性,介绍 Go相关的性能优化建议
1.3.1 性能优化建议-Benchmark
- 如何使用
- 性能表现需要实际数据衡量
- Go 语言提供了支持基准性能测试的 benchmark 工具
- 结果说明
BenchmarkFib10是测试函数名,-12表示GOMAXPROCS的值为12
表示一共执行了4855626次b.N的值
每次执行花费241ns
每次执行申请多大的内存
每次执行申请几次内存
1.3.2 性能优化建议-Slice
- slice 预分配内存
- 尽可能在使用(make)初始化切片时提供容量信息
差异很大和底层结构有关系
- 切片本质是一个数组片段的描述
- 包括数组指针
- 片段的长度
- 片段的容量(不改变内存分配情况下的最大长度)
- 切片操作并不复制切片指向的元素
- 创建一个新的切片会复用原来切片的底层数组
- 另一个陷阱:大内存未释放
- 在已有切片基础上创建切片,不会创建新的底层数组 -场景
- 原切片较大,代码在原切片基础上新建小切片
- 原底层数组在内存中有引用,得不到释放
- 可使用 copy 替代 re-slice
- map 预分配内存
- 分析
- 不断的向 map 中添加元素的操作会触发 map 的扩容
- 提前分配号空间可以减少内存拷贝和 Rehash 的消耗
- 建议根据实际需求提前预估好需要的空间
1.3.4 性能优化建议-字符串处理
- 使用 strings.Builder
- 常见的字符串拼接方式
![]()
-
使用
+拼接性能最差,strings.Builder,bytes.Buffer相近,strings.Buffer更快 -
分析
- 字符串在 Go 语言中时不可变类型,占用内存大小是固定的
- 使用 + 每次都会重新分配内存
- strings.Builder,bytes.Buffer 底层都是 []byte 数组
- 内存扩容策略,不需要每次拼接重新分配内存
- bytes.Buffer 转化为空字符串时重新申请了一块空间
- strings.Builder 直接将底层的[]byte 转换成了字符串类型返回
![]()
- 字符串拼接和slice一样,同样支持预分配,在预知字符串长度的情况下,我们可以进一步提升拼接性能注意这里能确认stringbuiler只有一次内存分配, bytebuffer有两次
- 使用空结构体节省内存
- 空结构体 struct{} 实例不占据任何的内存空间
- 可作为各种场景下的占位符使用
- 节省资源
- 空结构体本身具备很强的语义,即这里不需要任何值,仅作为占位符
- 实现 Set,可以考虑 map 来代替
- 对于这个场景,只需要用到 map 的键,而不需要值
- 即使是将 map 的值设置为 bool 类型,也会多占据1个字节空间
- 如何使用atomic包
- 在工作中迟早会遇到多线程编程的场景,比如实现一个多线程共用的计数器,如何保证计数准确,线程安全,有不同的方式
- 锁的实现是通过操作系统来实现的,属于系统调用
- atomic 操作是通过硬件来实现,效率比锁高
- sync.Mutex 应该用来保护一段逻辑,不仅仅用于保护一个变量
- 对于非数值操作,可以使用 atomic.Value,能承载一个 interfac{}
小结
- 避免常见的性能陷阱可以保证大部分程序的性能
- 普通应用代码,不要一味地追求程序的性能
- 越高级的性能优化手段越容易出现问题
- 在满足正确可靠、简洁清晰的质量要求的前提下提高程序的性能
2. 性能调优实战
2.1 简介
性能调优原则
- 要依靠数据不是猜测
- 要定位最大瓶颈而不是细枝末节
- 不要过早优化
- 不要过度优化
2.2 性能分析工具-pprof
说明
- 希望知道应用在什么地方耗费了多少 CPU、Memory
- pprof 是用于可视化和分析性能分析数据的工具
- pprof 功能简介
- pprof 排查实战
- pprof 的采样过程和原理
2.2.1 性能分析工具-pprof-功能简介
对于go程序,有一个很方便的工具就是pprof具体pprof有哪些内容?可以看下图片,
分析部分-有两种方式,网页端和可视化终端的Profile
工具部分-可以在runtime/pprof中找到源码,同时Golang的http标准库中也对pprof做了-些封装,能让你在http服务中直接使用它
采样部分-它可以采样程序运行时的CPU、堆内存、goroutine、锁竞争、阻塞调用和系统线程的使用数据展示-用户可以通过列表、调用图、火焰图、源码、反汇编等视图去展示采集到的性能指标。方便分析
因为pprof的功能比较多,接下来通过一个实践项目来熟悉pprof工具的使用
2.2.2 性能分析工具 pprof-排查实战
- 搭建 pprof 实践项目
- github.com/wolfogre/go…
- 项目提前埋入了一些炸弹代码,产生可观测的性能问题
-
浏览器查看指标
-
在浏览器中打开[http://localhost:6060/debug/pprof],可以看到这样的页面,这就是我们刚刚引入的 net/http/pprof 注入的入口了。
页面上展示了可用的程序运行采样数据,下面也有简单说明,分别是:
- allocs:内存分配情况
- blocks:阻塞操作情况cmdline:程序启动命令及
- goroutine:当前所有goroutine的堆栈信息heap:堆上内存使用情况(同alloc)
- mutex:锁竞争操作情况
- profile: CPU占用情况
- threadcreate:当前所有创建的系统线程的堆栈信息
- trace:程序运行跟踪信息 炸弹在CPU,堆内存,goroutine,锁竞争和阻塞操作上埋了炸弹,可以通过pprof工具来看看此程序的问题
![]()
- CPU
- 命令:topN
- 查看占用资源最多的函数
首先,输入top,查看CPU占用最高的函数这五列从左到右分别是:
- Flat:当前函数的占用
- Flat%: Flat占总量的比例
- Sum%:上面所有行的Flat%总和
- Cum (Cumulative):当前函数加上其调用函数的总占用
- Cum%: Cum占总量的比例
表格前面描述了采样的总体信息。默认会展示资源占用最高的10个函数,如果只需要查看最高的N个函数,可以输入topN, 例如查看最高的3个调用,输入top3 可以看到表格的第一行里,Tiger.Eat函数本身占用3.56秒的CPU时间,占总时间的95.44%,显然问题就是这里引起的
Flat == Cum,函数中没有调用其他函数
Flat == 0,函数中只有其他函数的调用
解答:Cum-Flat得到的是函数中调用其他函数所消耗的资源,所以在函数中没有对其他函数进行调用时,Cum-Flat=0,也就是Flat=cum,相应地,函数中除了调用另外的函数,没有其他逻辑时,Flat=0
答案:当函数中没有调用其他函数时flat=cum,函数中只有调用其他函数的逻辑时flat=O
- 命令:list
- 根据指定的正则表达式查找代码行
- 接着,输入list Eat查找这个函数,看看具体是哪里出了问题
- List命令会根据后面给定的正则表达式查找代码,并按行展示出每一行的占用。
- 可以看到,第24行有一个100亿次的空循环,占用了3.56秒的CPU时间,问题就在这儿了,定位成功
- 命令:web
- 调用关系可视化
- 输入web命令,生成一张调用关系图,默认会使用浏览器打开。图中除了每个节点的资源占用以外,还会将他们的调用关系穿起来。
- 图中最明显的就是方框最红最大,线条最粗的Tiger.Eat函数,
- 是不是比top视图更直观些呢?到这里,CPU的炸单已经定位完成,我们输入q退出终端。为了方便后续的展示,我们先将这个「炸弹」拆除,
- 注意这一部分的主要目的是展示如何定位问题,所以不会花太多时间在看代码上,我们将问题代码直接注释掉,重新打开「炸弹」程序。
- Heap-堆内存
- 通过-http=:8080参数,可以开启pprof自带的Web UI,性能指标会以网页的形式呈现。
- 再次启动pprof工具,注意这时的链接结尾是heap
- 等待采样完成后,浏览器会被自动打开,展示出熟悉的web视图,同时展示的资源使用从「CPU时间」变为了「内存占用J
- 可以明显看到,这里出问题的是Mouse.Steal函数,它占用了1GB内存。在页面顶端的View菜单中,我们可以切换不同的视图。
go tool pprof -http=:8080 "http://localhost:6060/debug/pprof/heap"
- Top视图
- Source视图 我们再切换到Source视图,可以看到页面上展示出了刚刚看到的四个调用和具体的源码视图。如果觉得内容太多,也可以在顶部的搜索框中辅入Steal来使用正则表达式过滤需要的代码。
根据源码我们会发现,在*Mouse.Steal()**这个函数会向固定的Buffer中不断追加1MB内存,直到Buffer达到1GB大小为止,和我们在Graph视图中发现的情况一致。 我们将这里的问题代码注释掉,至此,「炸弹」已被拔除了两个。
重新运行「炸弹」程序,发现内存占用已经降到了23.6MB,刚才的解决方案起效果了在采样中,也没有出现异常节点了(实际上没有任何节点了)
不过,内存的问题真的被全部排除了吗? 大家在使用工具的过程中,有没有注意过右上角有个unknown_inuse_space
我们打开sample菜单,会发现堆内存实际上提供了四种指标:
在堆内存采样中,默认展示的是
inuse_space视图,只展示当前持有的内存,但如果有的内存已经释放,这时inuse采样就不会展示了。我们切换到alloc_space指标。后续分析下alloc的内存问题
- alloc_space 马上就定位到了*Dog.Run()中还藏着一个「炸弹」,它会每次申请16MB大小的内存,并且已经累计申请了超过3.5GB内存。在Top视图中还能看到这个函数被内联了。 看看定位到的函数,果然,这个函数在反复申请16MB的内存,但因为是无意义的申请,分配结束之后会马上被GC,所以在inuse采样中并不会体现出来。 我们将这一行问题代码注释掉,继续接下来的排查。至此,内存部分的「炸弹」已经被全部拆除。
- goroutine-协程
- 由上到下表示调用顺序
- 每一块代表一个函数,越长代表占用CPU的时间更长
- 火焰图是动态的,支持点击块进行分析
- 支持搜索,在Source视图下搜索wolf
- 到Source视图搜索Drink,发现函数每次会发起10条无意义的goroutine,每条等待30秒后才退出,导致了goroutine的泄露。
- 这里为了模拟泄漏场景,只等待了30秒就退出了;试想-下,如果发起的goroutine没有退出,同时不断有新的goroutine被启动,对应的内存占用持续增长,CPU调度压力也不断增大,最终进程会被系统kil掉
- 注释问题代码后的结果可以看到goroutine数量已经到正常水平了.
- mutex-锁
- 修改链接后缀,改成mutex,然后打开网页观察,发现存在1个锁操作同样地,在Graph视图中定位到出问题的函数在Wolf.Howl()
- 然后在Source视图中定位到具体哪─行发生了锁竞争
- 在这个函数中,goroutine足足等待了1秒才解锁,在这里阻塞住了,显然不是什么业务需求,注释掉。
- block-阻塞
go tool pprof -http=:8080 "http://localhost:6060/debug/pprof/block"
- 定位问题
- 两个block为什么只展示了一个
- 可以关注一下pprof Top视图中表格之外的部分,从框住的地方可以发现,有4个节点因为cumulative小于1.41秒被drop掉了,这就是另-一个阻塞操作的节点,但他因为总用时小于总时长的千分之5,所以被省略掉了。这样的过滤策略能够更加有效地突出问题所在,而省略相对没有问题的信息。
- 如果不作任何过滤全部展示的话,对于一个复杂的程序可能内容就会非常庞大了,不利于我们的问题定位。
- 程序除了在跑性能「炸弹」之外,还有什么工作呢?我们是怎样访问它的采样信息的?
- 尽管占用低的节点不会在pprof工具中展示出来,但实际上他是被记录下来的。我们还可以通过暴露出来的接口地址直接访问它.所以,打开Block指标的页面,可以看到,第二个阻塞操作发生在了http handler中,这个阻塞操作是符合预期的。
所有炸弹排除完毕
小结
- 以上我们介绍了五种使用pprof采集的常用性能指标:CPU、堆内存、Goroutine、锁竞争和阻塞两种展示方式交互式终端和网页;四种视图: Top.Graph、源码和火焰图。
- pprof除了http的获取方式之外,也可以直接在运行时调用runtime/pprof包将指标数据输出到本地文件。视图中还有一个更底层的「反汇编」视图。有兴趣的同学可以尝试一下它们的用法。
- 俗话说,知其然还要知其所以然,接下来我们来看看它们内部的实现
2.2.3 性能分析工具 pprof-采样过程和原理
CPU
- 采样对象:函数调用和它们占用的时间
- 采样率:100次/秒,固定值
- 采样时间:从手动启动到手动结束
操作系统
每10ms向进程发送一次SIGPROF信号
进程
每次接收到SIGPROF会记录调用堆栈
写缓冲
每100ms读取已经记录的调用栈写入输出流
Heap-堆内存
- 采样程序通过内存分配器在堆上分配和释放的内存,记录分配/释放的大小和数量
- 采样率:每分配512KB记录一次,可在运行开头修改,1为每次分配均记录
- 采样时间:从程序运行开始到采样时
- 采样指标:alloc_space,alloc_objects,insue_space,insue_objects
- 计算方式:inuse = alloc - free
Goroutine-协程 & ThreadCreate-线程创建
Goroutine
- 记录所有用户发起且在运行中的 Goroutine(即入口非runtime开头的)runtime.main 的调用栈信息
ThreadCreate- 记录程序创建的所有系统线程的信息
Block-阻塞 & Mutex-锁
阻塞操作
- 采样阻塞操作的次数和耗时
- 采样率:阻塞耗时超过阈值的才会被记录,1为每次阻塞的均记录
锁竞争
- 采样争抢锁的次数和耗时
- 采样率:只记录固定比例的锁操作,1为每次加锁均记录
2.3 性能调优案例
- 简介 介绍实际业务服务性能优化的案例 对逻辑相对复杂的程序如何进行性能调优
- 业务服务优化
- 基础库优化
- Go 语言优化
在实际工作中,当服务规模比较小的时候,可能不会触发很多性能问题,同时性能优化带来的效果也不明显,很难体会到性能调优带来的收益 而当业务量逐渐增大,比如一个服务使用了几千台机器的时候,性能优化一个百分点,就能节省数百台机器,成本降低是非常可观的接下来我们来了解下工程中进行性能调优的实际案例 程序从不同的应用层次上看,可以分为业务服务、基础库和Go语言本身三类,对应优化的适用范围也是越来越广业务服务一般指直接提供功能的程序,比如专门处理用户评论操作的程序 基础库一般指提供通用功能的程序,主要是针对业务服务提供功能,比如监控组件,负责收集业务服务的运行指标另外还有对Go语言本身进行的优化项
2.3.1 性能调优案例-业务服务优化
基本概念
- 服务:能单独部署,承载一定功能的程序
- 依赖:Service A的功能实现依赖Service B 的响应结果,称为Service A 依赖 Service B
- 调用链路:能支持一个接口请求的相关服务集合及其相互之间的依赖关系
- 基础库:公共的工具包、中间件
以业务服务优化为例,说明性能调优的流程,图中的ServiceB被Service A依赖,同时也依赖了存储和Service D
流程
- 建立服务性能评估手段
- 分析性能数据,定位性能瓶颈
- 重点优化项改造
- 优化效果验证
- 看一下业务服务优化的主要流程,主要分四步,这些流程也是性能调优相对通用的流程,可以适用其他场景和上面评估代码优化效果的benchmark工具类似,对于服务的性能也需要一个评估手段和标准
- 优化的核心是发现服务性能的瓶颈,这里主要也是用pprof采样性能数据,分析服务的表现发现瓶颈后需要进行服务改造,重构代码,使用更高效的组件等
- 最后一步是优化效果验证,通过压测对比和正确性验证之后,服务可以上线进行实际收益评估
- 整体的流程可以循环并行执行,每个优化点可能不同,可以分别评估验证
建立服务性能评估手段
- 服务性能评估方式
单独 benchmark 无法满足复杂逻辑分析
不同负载情况下性能表现差异
- 请求流量构造
不同请求参数覆盖逻辑不同
线上真是流量情况
- 压测范围
单机器压测
集群压测
- 性能数据采集
单机性能数据
集群性能数据
实际的压测报告截图,会统计压测期间服务的各项监控指标,包括qps,延迟等内容,同时在压测过程中,也可以采集服务的pprof数据,使用之前的方式分析性能问题
![]()
分析性能数据,定位性能瓶颈
使用库不规范
业务服务常见的性能问题可能是使用基础组件不规范 比如这里通过火焰图看出json的解析部分占用了较多的CPU资源,那么我们就能定位到具体的逻辑代码,是在每次使用配置时都会进行json解析,拿到配置项,实际组件内部提供了缓存机制,只有数据变更的时候才需要重新解析json
高并发场景优化不足
高峰期性能数据
低峰期性能数据
重点优化项改造
正确性是基础
响应数据 diff
- 线上请求数据录制回放
- 新旧逻辑接口数据 diff
定位到性能瓶颈后,我们也有了对应的修复手段,但是修改完后能直接发布上线吗? 性能优化的前提是保证正确性,所以在变动较大的性能优化上线之前,还需要进行正确性验证,因为线上的场景和流程太多,所以要催助自动化手段来保证优化后程序的正确性 同样是线上请求的录制,不过这里不仅包含请求参数录制,还会录制线上的返回内容,重放时对比线上的返回内容和优化后服务的返回内容进行正确性验证 比如图中作者信息相关的字段值在优化有有变化,需要进一步排查原因
优化效果验证
重复压测验证
上线评估优化效果
- 关注服务监控
- 逐步放量
- 收集性能数据
进一步优化,服务整体链路分析
- 规范上游服务器调用接口,明确场景需求
- 分析链路,通过业务流程优化提升服务性能
以上的内容是针对单个服务的优化过程,从更高的视角看,性能是不是还有优化空间?在熟悉服务的整体部署情况后,可以针对具体的接口链路进行分析调优 比如Service A调用Service B是否存在重复调用的情况,调用Service B服务时,是否更小的结果数据集就能满足需求,接口是否一定要实时数据,能香在ServiceA层进行缓存,减轻调用压力 这种优化只使用与特定业务场景,适用范围窄,不过能更合理的利用资源
2.3.2 性能调优案例-基础库优化
AB实验SDK的优化
分析基础库核心逻辑和性能瓶颈
- 设计完善改造方案
- 数据按需获取
- 数据序列化协议化
内部数据压测验证 推广业务服务器落地验证
2.3.3 性能调优案例-Go语言优化
编译器&运行时优化
- 优化内存分配策略
- 优化代码编译流程,生成更高效的程序
- 内部压测验证
- 推广业务服务落地验证
优点
- 接入简单,只需要调整编译配置
- 通用性强
线上服务器效果,CPU 占用降低8%
总结
大总结
一、本堂课重点内容:
- 并发编程
- 依赖管理
- 单元测试
- 项目实战
二、详细知识点介绍:
性能分析工具pprof
- 五种使用pprof采集的常用性能指标:CPU、堆内存、Goroutine、锁竞争和阻塞两种展示方式交互式终端和网页;四种视图: Top.Graph、源码和火焰图。
- pprof除了http的获取方式之外,也可以直接在运行时调用runtime/pprof包将指标数据输出到本地文件。视图中还有一个更底层的「反汇编」视图。有兴趣的同学可以尝试一下它们的用法。
- 俗话说,知其然还要知其所以然,接下来我们来看看它们内部的实现
三、实践练习例子: pprof分析【炸弹】代码并优化
四、课后个人总结:
- 避免常见的性能陷阱可以保证大部分程序的性能
- 普通应用代码,不要一味地追求程序的性能
- 越高级的性能优化手段越容易出现问题
- 在满足正确可靠、简洁清晰的质量要求的前提下提高程序的性能
- 性能调优原则:要依靠数据不是猜测
- 性能分析工具pprof:熟练使用 pprof工具排查性能问题并了解基本原理
- 性能调优:保证正确性;定位主要瓶颈
五、引用参考:
go语言的性能基准测试、性能优化测试和性能调优_ydl1128的博客-CSDN博客_go语言性能测试