深入浅出 RPC 框架 | 青训营笔记

234 阅读23分钟

这是我参与「第五届青训营 」伴学笔记创作活动的第 15 天

深入浅出 RPC 框架

01.基本概念

1.1 本地函数调用

image.png

  1. 将a和 b的值压栈
  2. 通过函数指针找到calculate函数,进入函数取出栈中的值2和3,将其赋予×和y
  3. 计算×* y ,并将结果存在z
  4. 将z的值压栈,然后从calculate返回
  5. 从栈中取出z返回值,并赋值给result

以上步骤只是为了说明原理。事实上编译器经常会做优化,对于参数和返回值少的情况会直接将其存放在寄存器,而不需要压栈弹栈的过程,甚至都不需要调用call,而直接做inline操作

1.2 远程函数调用 (RPC - Remote Procedure Calls)

image.png

RPC 需要解决的问题

  1. 函数映射
  2. 数据转换成字节流
  3. 网络传输

函数映射

我们怎么告诉支付服务我们要调用付款这个函数,而不是退款或者充值呢?在本地调用中,函数体是直接通过函数指针来指定的,我们调用哪个方法,编译器就自动帮我们调用它相应的函数指针。但是在远程调用中,函数指针是不行的,因为两个进程的地址空间是完全不一样的。所以函数都有自己的一个ID,在做RPC的时候要附上这个ID,还得有个ID和函数的对照关系表,通过ID找到对应的函数并执行。

客户端怎么把参数值传给远程的函数呢?

在本地调用中,我们只需要把参数压到栈里,然后让函数自己去栈里读就行。但是在远程过程调用时,客户端跟服务端是不同的进程,不能通过内存来传递参数。这时候就需要客户端把参数先转成一个字节流,传给服务端后,再把字节流转成自己能读取的格式。

1.3 RPC 概念模型

image.png 1984年 Nelson发表了论文《Implementing Remote Procedure Calls》,其中提出了RPC的过程由5个模型组成:User、User-Stub、RPC-Runtime、Server-Stub、Server image.png

1.4 一次 RPC 的完成过程

IDL(Interface description language)文件
IDL通过一种中立的方式来描述接口,使得在不同平台上运行的对象和用不同语言编写的程序可以相互通信

生成代码
通过编译器工具把IDL文件转换成语言对应的静态库

编解码
从内存中表示到字节序列的转换称为编码,反之为解码,也常叫做序列化和反序列化

通信协议
规范了数据在网络中的传输内容和格式。除必须的请求/响应数据外,通常还会包含额外的元数据

网络传输
通常基于成熟的网络库走TCP/UDP传输

image.png

相比本地函数调用,远程调用的话我们不知道对方有哪些方法,以及参数长什么样,所以需要有一种方式来描述或者说声明我有哪些方法,方法的参数都是什么样子的,这样的话大家就能按照这个来调用,这个描述文件就是IDL文件。

刚才我们提到服务双方是通过约定的规范进行远程调用,双方都依赖同一份IDL文件,需要通过工具来生成对应的生成文件,具体调用的时候用户代码需要依赖生成代码,所以可以把用户代码和生成代码看做一个整体。

编码只是解决了跨语言的数据交换格式,但是如何通讯呢?需要制定通讯协议,以及数据如何传输?我的网络模型如何呢?那就是这里的 transfer要做的事情。

1.5 RPC 的好处

  1. 单一职责,有利于分工协作和运维开发
  2. 可扩展性强,资源使用率更优
  3. 故障隔离,服务的整体可靠性更高

image.png

  • 单一职责,开发(采用不同的语言).部署以及运维(上线独立)都是独立的
  • 可扩展性强,例如压力过大的时候可以独立扩充资源,底层基础服务可以复用,节省资源
  • 某个模块发生故障,不会影响整体的可靠性

1.6 RPC 带来的问题

image.png

image.png

image.png

总结

  1. 本地函数调用和RPC调用的区别:函数映射、数据转成字节流、网络传输
  2. PC的概念模型:User、User-Stub、RPC-Runtime、Server-Stub、Server
  3. 一次PRC的完整过程,并讲解了RPC的基本概念定义
  4. RPC带来好处的同时也带来了不少新的问题,将由RPC框架来解决

02.分层设计

2.1 分层设计 - 以 APache Thrift 为例

image.png

2.2 编解码层

image.png

2.3 编解码层 - 生成代码

image.png

2.4 编解码层 - 数据格式

√语言特定的格

  • 许多编程语言都内建了将内存对象编码为字节序列的支持,例如Java有 java.io.Serializable √文本格式
  • JSON、XML、CSV等文本格式,具有人类可读性 √二进制编码
  • 具备跨语言和高性能等优点,常见有Thrift的 BinaryProtocol,Protobuf等

语言特定编码格式:这种编码形式好处是非常方便,可以用很少的额外代码实现内存对象的保存与恢复,这类编码通常与特定的编程语言深度绑定,其他语言很难读取这种数据。如果以这类编码存储或传输数据,那你就和这门语言绑死在一起了。安全和兼容性也是问题

文本格式:文本格式具有人类可读性,数字的编码多有歧义之处,比如XML和CSV不能区分数字和字符串,JSON虽然区分字符串和数字,但是不区分整数和浮点数,而且不能指定精度,处理大量数据时,这个问题更严重了;没有强制模型约束,实际操作中往往只能采用文档方式来进行约定,这可能会给调试带来一些不便。由于JSON在一些语言中的序列化和反序列化需要采用反射机制,所以在性能比较差;

二进制编码:实现可以有很多种,TLV编码和Varint编码

2.5 编解码层 - 二级制编码

TLV 编码

  • Tag:标签,可以理解为类型
  • Lenght:长度
  • Value:值,Value 也可以是个 TLV 结构

image.png

image.png

这里我们可以看到他的第一个byte是类型,主要用来表示是string还是int还是list等等。这里不写key的字符串了,比如上面的 userName,favoriteNumber等等,取而代之的是一个field tag的东西,这个会设置成1,2,.3和上面的schema中key字符串前面的数字,也就是用这里来取代了具体的key值,从而减小的总体的大小,这里打包后压缩到59个字节

TLV编码结构简单清晰,并且扩展性较好,但是由于增加了Type和Length两个冗余信息,有额外的内存开销,特别是在大部分字段都是基本类型的情况下有不小的空间浪费。

2.6 编解码层 - 选型

兼容性

  • 支持自动增加新的字段,而不影响老的服务,这将提高系统的灵活度 通用性
  • 支持跨平台、跨语言 性能
  • 从空间和时间两个维度来考虑,也就是编码后数据大小和编码耗费市场

通用性:
通用性有两个层面的意义:

  • 第一、技术层面,序列化协议是否支持跨平台.跨语言。如果不支持,在技术层面上的通用性就大大降低了。
  • 第二、流行程度,序列化和反序列化需要多方参与,很少人使用的协议往往意味着昂贵的学习成本;另一方面,流行度低的协议,往往缺乏稳定而成熟的跨语言、跨平台的公共包。

兼容性:

  • 移动互联时代,业务系统需求的更新周期变得更快,新的需求不断涌现,而老的系统还是需要继续维护。如果序列化协议具有良好的可扩展性,支持自动增加新的业务字段,而不影响老的服务,这将大大提供系统的灵活度。

性能:

  • 第一、空间开销(Verbosity),序列化需要在原有的数据上加上描述字段,以为反序列化解析之用。如果序列化过程引入的额外开销过高,可能会导致过大的网络,磁盘等各方面的压力。对于海量分布式存储系统,数据量往往以TB为单位,巨大的的额外空间开销意味着高昂的成本。
  • 第二、时间开销(Complexity),复杂的序列化协议会导致较长的解析时间,这可能会使得序列化和反序列化阶段成为整个系统的瓶颈。

2.7 协议层

image.png

2.8 协议层 - 概念

image.png

  • 协议是双方确定的交流语义,比如:我们设计一个字符串传输的协议,它允许客户端发送一个字符串,服务端接收到对应的字符串。这个协议很简单,首先发送一个4字节的消息总长度,然后再发送1字节的字符集charset长度,接下来就是消息的payload,字符集名称和字符串正文。

  • 特殊结束符:过于简单,对于一个协议单元必须要全部读入才能够进行处理,除此之外必须要防止用户传输的数据不能同结束符相同,否则就会出现紊乱

  • HTTP协议头就是以回车(CR)加换行(LF)符号序列结尾。

  • 变长协议:一般都是自定义协议,有header和payload组成,会以定长加不定长的部分组成,其中定长的部分需要描述不定长的内容长度,使用比较广泛

2.9 协议层 - 协议构造

image.png

  • LENGTH:数据包大小,不包含自身
  • HEADER MAGIC:标识版本信息,协议解析时候快速校验
  • SEQUENCE NUMBER:表示数据包的seqlD,可用于多路复用,单连接内递增
  • HEADER SIZE:头部长度,从第14个字节开始计算一直到PAYLOAD前
  • PROTOCOL ID:编解码方式,有 Binary和Compact 两种
  • TRANSFORM ID:压缩方式,如 zlib和snappy
  • INFO ID:传递一些定制的meta信息
  • PAYLOAD:消息体
  • LENGTH 字段32bits,包括数据包剩余部分的字节大小,不包含LENGTH自身长度
  • HEADER MAGIC字段16bits,值为:Ox1000,用于标识协议版本信息,协议解析的时候可以快速校验FLAGS字段16bits,为预留字段,暂未使用,默认值为Ox0000
  • SEQUENCE NUMBER 字段 32bits,表示数据包的seqld,可用于多路复用,最好确保单个连接内递增
  • HEADER SIZE字段16bits,等于头部长度字节数/4,头部长度计算从第14个字节开始计算,一直到PAYLOAD前(备注: header的最大长度为64K)
  • PROTOCOL ID字段uint8编码,取值有:~ProtocollDBinary = o
  • ProtocollDCompact = 2
  • NUM TRANSFORMS字段uint8编码,表示TRANSFORM个数
  • TRANSFORM ID字段uint8编码,具体取值参考下文,表示压缩方式zlib or snappy
  • INFO ID字段uint8编码,具体取值参考下文,用于传递—些定制的meta信息PAYLOAD消息内容

2.10 协议层 - 协议解析

image.png

2.11 网络通信层

image.png

2.12 网络通信层 - Sockets API

image.png

image.png

套接字编程中的客户端必须知道两个信息:服务器的IP地址,以及端口号。 socket函数创建一个套接字,bind将一个套接字绑定到一个地址上。listen监听进来的连接,backlog的含义有点复杂,这里先简单的描述:指定挂起的连接队列的长度,当客户端连接的时候,服务器可能正在处理其他逻辑而未调用accept接受连接,此时会导致这个连接被挂起,内核维护挂起的连接队列,backlog则指定这个队列的长度,accept函数从队列中取出连接请求并接收它,然后这个连接就从挂起队列移除。如果队列未满,客户端调用connect马上成功,如果满了可能会阻塞等待队列未满(实际上在Linux中测试并不是这样的结果,这个后面再专门来研究)。Linux的backlog默认是128,通常情况下,我们也指定为128即可。
connect客户端向服务器发起连接,accept 接收一个连接请求,如果没有连接则会—直阻塞直到有连接进来。得到客户端的fd之后,就可以调用read, write函数和客户端通讯,读写方式和其他I/O类似

read 从fd读数据,socket默认是阻塞模式的,如果对方没有写数据,read会一直阻塞着:
write写fd写数据,socket默认是阻塞模式的,如果对方没有写数据,write会一直阻塞着:
socket 关闭套接字,当另一端socket关闭后,这一端读写的情况: 尝试去读会得到一个EOF,并返回0。
尝试去写会触发一个SIGPIPE信号,并返回-1和errno=EPIPE, SIGPIPE的默认行为是终止程序,所以通常我们应该忽略这个信号,避免程序终止。
如果这一端不去读写,我们可能没有办法知道对端的socket关闭了。

2.13 网络通信层 - 网络库

√提供易用API

  • 封装底层Socket API
  • 连接管理和事件分发 √功能
  • 协议支持: tcp、udp 和uds等
  • 优雅退出、异常处理等 √ 性能
  • 应用层buffer 减少copy
  • 高性能定时器、对象池等

小结

  1. RPC框架主要核心有三层:编解码层、协议层和网络通信层
  2. 二进制编解码的实现原理和选型要点
  3. 协议的一般构造,以及框架协议解析的基本流程
  4. Socket API的调用流程,以及选型网络库时要考察的核心指标

03.关键指标

3.1 稳定性 - 保障策略

  • √熔断:保护调用方,防止被调用的服务出现问题而影响到整个链路
  • √限流:保护被调用方.防止大流量把服务压垮
  • √超时控制:避免浪费资源在不可用节点上

image.png

熔断:

  • 一个服务A调用服务B时,服务B的业务逻辑又调用了服务C,而这时服务C响应超时了,由于服务B依赖服务C,C超时直接导致B的业务逻辑一直等待,而这个时候服务A继续频繁地调用服务B,服务B就可能会因为堆积大量的请求而导致服务宕机,由此就导致了服务雪崩的问题 限流:
  • 当调用端发送请求过来时,服务端在执行业务逻辑之前先执行检查限流逻辑,如果发现访问量过大并且超出了限流条件,就让服务端直接降级处理或者返回给调用方—个限流异常 超时:
  • 当下游的服务因为某种原因响应过慢,下游服务主动停掉一些不太重要的业务,释放出服务器资源,避免浪费资源

从某种程度上讲超时、限流和熔断也是—种服务降级的手段

3.2 稳定性 - 请求成功率

image.png

注意,因为重试有放大故障的风险,首先,重试会加大直接下游的负载。如下图,假设A服务调用B服务,重试次数设置为r(包括首次请求),当B高负载时很可能调用不成功,这时A调用失败重试B,B服务的被调用量快速增大,最杯情况下可能放大到r倍,不仅不能请求成功,还可能导致B的负载继续升高,甚至直接打挂。

防止重试风暴,限制单点重试和限制链路重试

3.3 稳定性 - 长尾请求

长尾请求一般是指明显高于均值的那部分占比较小的请求。业界关于延迟有一个常用的P99标准, P99单个请求响应耗时从小到大排列,顺序处于99%位置的值即为P99值,那后面这1%就可以认为是长尾请求。在较复杂的系统中,长尾延时总是会存在。造成这个的原因非常多,常见的有网络抖动,GC,系统调度。

我们预先设定一个阈值t3(比超时时间小,通常建议是RPC请求延时的pct99 ),当Req1发出去后超过3时间都没有返回,那我们直接发起重试请求Req2,这样相当于同时有两个请求运行。然后等待请求返回,只要Resp1或者Resp2任意一个返回成功的结果,就可以立即结束这次请求,这样整体的耗时就是t4,它表示从第一个请求发出到第一个成功结果返回之间的时间,相比于等待超时后再发出请求,这种机制能大大减少整体延时。

image.png

3.4 稳定性 - 注册中间件

image.png Kitex Client和Server的创建接口均采用Option 模式,提供了极大的灵活性,很方便就能注入这些稳定性策略

3.5 易用性

开箱即用

  • 合理的默认参数选项、丰富的文档 周边工具
  • 生成代码工具、脚手架工具

image.png Kitex使用Suite来打包自定义的功能,提供「一键配置基础依赖」的体验

3.6 扩展性

  • Middleware
  • Option
  • 编解码层
  • 协议层
  • 网络传输层
  • 代码生成工具插件扩展

image.png 一次请求发起首先会经过治理层面,治理相关的逻辑被封装在middleware中,这些middleware会被构造成一个有序调用链逐个执行,比如服务发现、路由、负裁均衡、超时控制等,mw执行后就会进入到remote模块,完成与远端的通信

3.7 观测性

  • Log、Metric、Tracing
  • 内置观测性服务

image.png 除了传统的Log、Metric.Tracing三件套之外,对于框架来说可能还不够,还有些框架自身状态需要暴露出来,例如当前的环境变量、配置、Client/Server初始化参数、缓存信息等

image.png 这里分两个维度,高性能意味着高吞吐和低延迟,两者都很重要,甚至大部分场景下低延迟更重要。
多路复用可以大大减少了连接带来的资源消耗,并且提升了服务端性能,我们的测试中服务端吞吐可提升30%。

右边的图帮助大家理解连接多路复用 调用端向服务端的一个节点发送请求,并发场景下,如果是非连接多路复用,每个请求都会持有一个连接,直到请求结束连接才会被关闭或者放入连接池复用,并发量与连接数是对等的关系。
而使用连接多路复用,所有请求都可以在一个连接上完成,大家可以明显看到连接资源利用上的差异

小结

  1. 框架通过中间件来注入各种服务治理策略,保障服务的稳定性
  2. 过提供合理的默认配置和方便的命令行工具可以提升框架的易用性
  3. 框架应当提供丰富的扩展点,例如核心的传输层和协议层
  4. 观测性除了传统的Log、Metric和 Tracing之外,内置状态暴露服务也很有必要
  5. 性能可以从多个层面去优化,例如选择高性能的编解码协议和网络库

04.企业实践

4.1 整体架构 - Kitex

Kitex Core

  • 核心组件 Kitex Byted
  • 与公司内部基础设施集成 Kitex Tool
  • 代码生成工具

image.png

core是它的的主干逻辑,定义了框架的层次结构、接口,还有接口的默认实现,如中间蓝色部分所示,最上面client和server是对用户暴露的,client/server option的配置都是在这两个package中提供的,还有client/server的初始化,在第二节介绍kitex_gen生成代码时,大家应该注意到里面有client.go和server.go,虽然我们在初始化client时调用的是kitex_gen中的方法,其实大家看下kitex_gen下service package代码就知道,里面是对这里的client/server的封装。

client/server下面的是框架治理层面的功能模块和交互元信息,remote是与对端交互的模块,包括编解码和网络通信。

右边绿色的byted是对字节内部的扩展,集成了内部的二方库还有与字节相关的非通用的实现,在第二节高级特性中关于如何扩展kitex里有介绍过,byted部分是在生成代码中初始化client和server时通过suite集成进来的,这样实现的好处是与字节的内部特性解耦,方便后续开源拆分。

左边的tool则是与生成代码相关的实现,我们的生成代码工具就是编译这个包得到的,里面包括idl解析、校验、代码生成、插件支持、自更新等,未来生成代码逻辑还会做一些拆分,便于给用户提供更友好的扩展

4.2 自研网络库 - 背景

原生库无法感知连接状态

  • 在使用连接池时,池中存在失效连接,影响连接池的复用。 原生库存在goroutine暴涨的风险
  • 一个连接一个goroutine 的模式,由于连接利用率低下,存在大量goroutine占用调度开销,影响性能。

4.3 自研网络库 - Netpoll

解决无法感知连接状态问题

  • 引入epoll主动监听机制,感知连接状态 解决goroutine暴涨的风险
  • 建立goroutine池,复用goroutine 提升性能
  • 引入 Nocopy Buffer,向上层提供NoCopy的调用接口,编解码层面零拷贝

1.go net无法检测连接对端关闭(无法感知连接状态)

  1. 在使用长连接池时,池中存在失效连接,严重影响了连接池的使用和效率。2.希望通过引入epoll主动监听机制,感知连接状态。

2.go net缺乏对协程数量的管理

  1. Kite采取一个连接一个goroutine模式,由于连接利用率低,服务存在较多无用的goroutine,占用调度开销,影响性能。2.希望建立协程池,提升性能。

netpol基于epoll,同时采用Reactor模型,对于服务端则是主从Reactor模型,如右图所示:服务端的主reactor用于接受调用端的连接,然后将建立好的连接注册到某个从Reactor上,从Reactor负责监听连接上的读写事件,然后将读写事件分发到协程池里进行处理。

3.为了提升性能,引入了Nocopy Buffer,向上层提供NoCopy 的调用接口,编解码层面零拷贝

4.4 扩展性设计

支持多协议,也支持灵活的自定义协议扩展

image.png

  • 编解码支持thrift、Protobuf
  • 应用层协议支持TTHeader. Http2、也支持裸的thrift协议
  • 传输层目前支持TCP,未来考虑支持UDP、 kernel-bypass的RDMA
  • 如下图所示,框架内部不强依赖任何协议和网络模块,可以基于接口扩展,在传输层上则可以集成其他库进行扩展。
  • 目前集成的有自研的Netpoll,基于netpoll实现的http2库,用于mesh场景通过共享内存高效通信的shm-ipc,以后也可以增加对RDMA支持的扩展 image.png

4.5 性能优化 - 网络库优化

调度优化

  • epoll_wait在调度上的控制
  • gopool重用goroutine降低同时运行协程数 LinkBuffer
  • 读写并行无锁,支持nocopy 地流式读写
  • 高效扩缩容
  • Nocopy Buffer池化,减少GC Pool
  • 引入内存池和对象池,减少GC开销

4.6 性能优化 - 编解码优化

Codegen

  • 预计算并预分配内存,减少内存操作次数,包括内存分配和拷贝

  • lnline 减少函数调用次数和避免不必要的反射操作等

  • 自研了Go语言实现的Thrift IDL解析和代码生成器,支持完善的Thrift IDL语法和语义检查,并支持了插件机制-Thriftgo JIT

  • 使用J川IT 编译技术改善用户体验的同时带来更强的编解码性能,减轻用户维护生成代码的负担

  • 基于JIT编译技术的高性能动态 Thrift编解码器- Frugal

序列化和反序列的性能优化从大的方面来看可以从时间和空间两个维度进行优化。从兼容已有的Binary 协议来看,空间上的优化似乎不太可行,只能从时间维度进行优化,包括下面的几点:

  • 代码生成code-gen 的优点是库开发者实现起来相对简单,缺点是增加业务代码的维护成本和局限性。

  • JIT编译(just-in-time compilation)狭义来说是当某段代码即将第一次被执行时进行编译,因而叫"即时编译"。

  • 即时编译 JIT 则将编译过程移到了程序的加载(或首次解析)阶段,可以一次性编译生成对应的codec并高效执行,目前公司内部正在尝试,压测数据表明性能收益还是挺不错的,目的是不损失性能的前提下,减轻用户的维护负担生成代码的负担。

4.7 合并部署

  • 微服务过微,传输和序列化开销越来越大

  • 将亲和性强的服务实例尽可能调度到同一个物理机,远程 RPC 调用优化为本地 IPC 调用

image.png

4.7 合并部署

image.png

  • 中心化的部署调度和流量控制
  • 基于共享内存的通信协议
  • 定制化的服务发现和连接池实现
  • 定制化的服务启动和监听逻辑

image.png

小结

  1. 介绍了Kitex的整体架构
  2. 介绍了自研网络库Netpoll的背景和优势
  3. 从扩展性和性能优化两个方面分享了相关实践
  4. 介绍了内部正在尝试落地的新的微服务形态:合并部署