(转载)TCP协议灵魂之问

259 阅读23分钟

整理转自掘金 神三元

原文链接juejin.cn/post/684490…

cc9bc77b97b06659f29baec794f80ef2.png

01.TCP和UDP的区别?

TCP是一个面向连接的,可靠的,基于字节流的传输层协议

UDP是一个面向无连接的传输层协议

和UDP相比,TCP有三大核心特征:

1.面向连接。在客户端和服务端互相通信之前,TCP需要三次握手建立连接,而UDP没有相应建立连接的过程

2.可靠性。可靠性体现在两方面,一是有状态,二是可控制

TCP会精确记录哪些数据发送了,哪些数据被对面接收了,哪些数据未被对面接收,并且保证数据包按序到达。这是有状态

当意识到丢包或者网络环境不佳时,TCP会根据具体情况调整自己的行为,控制自己的发送速度或者重发。这是可控制

3.基于字节流。UDP的数据传输是基于数据报的,这是因为仅仅只继承了IP层的特性,而TCP为了维护状态,把一个一个IP变成了字节流


02.TCP三次握手的过程。为什么不是两次?不是四次

TCP的三次握手是为了确认双方的发送和接收能力

三次握手

d666610353017ffe36cf8eb3e2c24939.png

从最开始双方都处于CLOSED状态,然后服务端开始监听某个端口,进入了LISTEN状态

然后客户端主动发起连接,发送SYN,自己变成了SYN-SEND状态

服务端接收到,并返回SYNACK,自己变成了SYN-RCVD状态

之后客户端再发送ACK给服务端,自己变成了ESTABLISHED状态;服务端收到ACK之后,也变成了ESTABLISHED状态

SYN是需要消耗一个序列号的,下次发送对应的ACK序列号要加1

凡是需要对端确认的,一定会消耗TCP报文的序列号

SYN需要对端确认,而ACK不需要,因此SYN消耗一个序列号而ACK不需要

为什么不是两次?

根本原因:无法确认客户端的接收能力

如果是两次,客户端发送了SYN报文想握手,但是这个包滞留在了网络中,TCP以为是丢包,于是重传,然后两次握手就建立了连接。

看似没有问题,但是连接关闭后,如果这个滞留在网络中的包到达了服务端,由于是两次握手,服务端接收到滞留的包同时发送相应的数据包就建立了连接,可是这时客户端是不会响应的,但是服务端会一直等待客户端发送数据,导致了服务端连接资源的浪费

为什么不是四次?

TCP的三次握手是为了确认双方的发送和接收能力,四次自然也是可以,但是三次就足够了

三次握手过程中可以携带数据么?

第三次握手时可以携带,前两次握手不能携带数据

如果前两次握手能够携带数据,那么一旦有人想攻击服务器,那么他只需要在第一次握手中的SYN报文中放入大量的数据,那么服务器就势必会消耗更多的时间和内存空间去处理这些数据,增加了服务器被攻击的风险

第三次握手的时候,客户端已经处于ESTABLISHED状态,并且已经确认了服务器的接收发送能力,这时相对安全,可以携带数据

同时发起握手会怎样

57f1cc50167613e9ce02641095b56dbe.png

客户端和服务端同时给对面发送SYN,发完两者的状态皆变为SYN-SENT

在各自收到对方的SYN之后,两者的状态都变成SYN-RCVD

接着会回复对应的SYN+ACK,这个报文在对方接收之后会一起变成ESTABLISHED


03.四次挥手的过程

四次挥手

982a7c427e18571f51b529e70c2a961b.png 刚开始双方都处于ESTABLISHED

客户端要断开,向服务端发送FIN报文,然后客户端变成了FIN-WAIT-1状态,注意,客户端同时也变成half-close(半关闭)状态,即无法向服务端发送报文,只能接收

服务端接收后向客户端发送ACK确认,变成了CLOSE-WAIT状态

客户端接收到了客户端的确认,变成了FIN-WAIT2状态

随后服务端向客户端发送FIN,自己进入LAST-ACK状态

客户端收到服务端的FIN后,自己变成TIME-WAIT状态,然后向服务端发送ACK

此时客户端需要等待足够长的时间,具体来说,还是2个MSL(Maximum Segment Lifetime,报文最大生存时间),在这段时间如果客户端没有收到服务端的重发请求,那么就表示ACK成功送达,挥手介绍,否则客户端重发ACK

等待2MSL的意义

如果不等待会怎样?

如果不等待,客户端直接断开连接,当服务端还有很多数据包要发给客户端,且还在路上的时候,若客户端的端口此时刚好被新的应用,那么就接收到了无用数据包,导致数据包混乱,所以,最保险的做法是等服务端发完的数据包再启动新的应用

  • 1个MSL确保四次挥手中主动关闭方最后的ACK报文能最终送达对端
  • 1个MSL确保对端没有收到ACK而重传的FIN报文可以到达

为什么是四次挥手而不是三次?

因为服务端在收到FIN时,往往不会立即反回FIN,必须等服务端此前所有的报文都发送完毕了,才能发FIN。因此先发一个ACK表示已经收到客户端的FIN,延长一段再发FIN

如果是三次挥手会有什么问题?

等于说服务端把ACKFIN的发送合并为一次挥手,这会造成长时间的延迟,导致客户端误以为FIN没有到达服务端,从而不断重发FIN

同时关闭会怎样?

19ebe3ed769f299bd212544892b97a0f.png


04.半连接队列和SYN Flood攻击的关系

三次握手前,服务端的状态从CLOSED变成LISTEN,同时在内部创建了两个队列:半连接队列全连接队列,即SYN队列和ACCEPT队列

半连接队列

当客户端发送SYN到服务端,服务端收到后回复ACKSYN,状态由LISTEN变为SYN-RCVD,此时这个连接就会被推入SYN队列,也就是半连接队列

全连接队列

当客户端返回ACK,服务端接收后,三次握手完成。这个时候连接等待被具体的应用取走,在被取走前,它会被推入另一个TCP维护的队列,也就是全连接队列(Accept Queue)

SYN Flood 攻击原理

SYN Flood 属于典型的DoS/DDoS攻击。其攻击原理就是用客户端再短时间内伪造大量不存在的IP地址,并向服务端疯狂发送SYN。对于服务端而言,会产生两个威胁的后果:

  1. 处理大量的SYN包并返回对应的ACK,势必有大量的连接处于SYN-RCVD状态,从而占满整个半连接队列,无法处理正常的请求
  2. 由于是不存在的IP,服务端长时间收不到客户端的ACK,会导致服务端不断重发数据,直到耗尽服务端的资源

如何应对SYN Flood 攻击?

  1. 增加SYN连接,也就是增加半连接队列的容量
  2. 减少SYN+ACK重试次数,避免大量的超时重发
  3. 利用SYN Cookie 技术,在服务端收到SYN后不立即分配连接资源,而是根据这个SYN计算出一个Cookie,连同第二次握手一起回复给客户端,在客户端回复ACK的时候带上这个Cookie值,服务端验证Cookie的合法性之后才会分配资源

05.TCP报文的头部字段

报文头部结构如下(单位为字节):

9309f3c439fac129c56b298d7ab7f992.png

源端口、目标端口

如果标识唯一的一个连接?答案是TCP连接的四元组——源IP、源端口、目标IP、目标端口

那TCP报文为什么没有源IP和目标IP呢?这是因为在IP层就已经处理了IP。TCP只需要记录两者的端口即可

序列号

Sequence number,指的是本报文第一个字节的序列号

从图中可以看出,序列号是一个长为 4 个字节,也就是 32 位的无符号整数,表示范围为 0 ~ 2^32 - 1。如果到达最大值了后就循环到0

序列号在TCP通信的过程中有两个作用:

  1. 在SYN报文中交换彼此的初始序列号
  2. 保证数据包按正确的顺序组装

ISN(初始序列号)

Initial Sequence Number(初始序列号),在三次握手的过程当中,双方会用SYN报文来交换彼此的ISN

ISN并不是一个固定的值,而是每4ms加一,溢出则回到0,这个算法使得猜测ISN变得很困难。为什么这么做呢?

如果ISN被攻击者预测到,要知道IP和源端口号都是很容易伪造的,当攻击者猜测到ISN之后,直接伪造一个RST后,就可以强制关闭连接,这是非常危险的

而动态增长的ISN大大提高了猜测ISN的难度

确认号

ACK(Acknowlegment number)。用于告诉对方下一个期望接收的序列号,小于ACK的所有字节都已经收到

标记号

常见的标记有SYN,ACK,FIN,RST,PSH

SYNACK已经在上文中说过,后三个解释如下:

FIN: 即 Finish,表示发送方准备断开连接。

RST:即 Reset,用来强制断开连接。

PSH: 即 Push,告知对方这些数据包收到后应该马上交给上层的应用,不能缓存。

窗口大小

占用两个字节,也就是16位,但实际上是不够用的。因此TCP引入了窗口缩放的选项,作为窗口缩放的比例因子,这个比例因子的范围在0~14,比例因子可以将窗口的值扩大为原来的2^n次方

校验和

占用两个字节,防止传输过程中数据包有损坏,如果遇到校验和有差错的报文,TCP直接丢弃,等待重传

可选项

可选项格式如下

417e77f83b34540a5b170e5b898b08f8.png

常用的可选项有以下几个:

  • TimeStamp:TCP时间戳,后文有详细介绍
  • MSS:指的是TCP允许对方接收的最大报文段
  • SACK:选择确认选项
  • Window Scale:窗口缩放选项

06.TCP快速打开的原理(TFO)

优化后的 TCP 握手流程,也就是TCP快速打开(TCP Fast Open,即TFO)

优化是利用SYN Cookie来实现的TFO

TFO 流程

首轮三次握手

首先客户端发送SYN给服务端,服务端收到

此时,服务端不是立即返回SYN+ACK,而是通过计算得到一个SYN Cookie,将这个Cookie放到TCP报文的Fast Open选项中,然后返回给客户端

客户端拿到这个Cookie的值并缓存下来。后面正常完成三次握手

后续的三次握手

在后续的三次握手中,客户端会将之前缓存的CookieSYNHTTP请求发送给服务端,服务端验证了Cookie的合法性,如果不合法直接丢弃;如果合法,就正常返回SYN+ACK

重点来了,现在服务端就可以向客户端发HTTP响应了!这是最显著的改变,三次握手还没有建立,仅仅验证了Cookie的合法性就可以返回HTTP响应

当然,客户端的ACK还得正常传过来,不然怎么叫三次握手

流程如下:

0ff20d5a9e4295e773c1380a82954afd.png

注意:客户端最后握手的ACK不需要等到服务端的HTTP响应送达才发送,两者没有任何关系

TFO 的优势

TFO的优势并不在首轮三次握手,而在于后面的握手,在拿到客户端的Cookie并验证通过以后,可以直接返回HTTP响应,充分利用了1个RTT(Round-Trip Time,往返时延)的时间提前进行数据传输,积累起来还是一个比较大的优势


07.TCP报文中的时间戳

timestamp是TCP报文首部的一个可选项,一共占10个字节,格式如下:

kind(1 字节) + length(1 字节) + info(8 个字节) 

其中kind = 8,length = 10,info有两部分构成:timestamptimestamp echo,各占4个字节

TCP的时间戳主要解决两大问题:

  • 计算 往返时延RTT(Round-Trip Time)
  • 防止序列号的回绕问题

计算 往返时延 RTT

在没有时间戳的时候,计算RTT会遇到如下图所示的问题

d3d95220996ad83cbafd120a31a84d30.png

如果以第一次发包为开始时间的话,就会出现左图的问题,RTT明显偏大

如果以第二次发包为开始时间的话,就会导致右图的问题,RTT 明显偏小

实际上无论开始时间以第一次发包还是第二次发包为准,都是不准确的

这个时候引入时间戳就很好的解决了这个问题

比如现在a向b发送一个报文s1,b向a回复一个含ACK的报文s2,那么:

  • **step1:**a向b发送的时候,timestamp中存放的内容就是a主机发送时的内核时刻ta1

  • **step2:**b向a回复s2报文时,timestamp中存放的是b主机的时刻tbtimestamp echo字段为从s1报文中解析出来的ta1

  • **step3:**a收到b的s2报文之后,此时a主机的内核时刻是ta2,而在s2报文中的timestamp echo选项可以得到ta1,也就是s2对应的报文最初的发送时刻。然后直接用ta2-ta1就得到了RTT的值

防止序列号的回绕问题

现在我们来模拟一下这个问题。

序列号的范围其实是在0 ~ 2 ^ 32 - 1, 为了方便演示,我们缩小一下这个区间,假设范围是 0 ~ 4,那么到达 4 的时候会回到 0。

第几次发包发送字节对应序列号状态
10 ~ 10 ~ 1成功接收
21 ~ 21 ~ 2滞留在网络中
32 ~ 32 ~ 3成功接收
43 ~ 43 ~ 4成功接收
54 ~ 50 ~ 1成功接收,序列号从0开始
65 ~ 61 ~ 2???

假设在第6次的时候,之前滞留在网络中的包送达了,那么就会有两个序列号为1 ~ 2 的数据包,无法区分,这时候就产生了序列号的回绕问题

那么用timestamp就能很好的解决这个问题,因为每次发包的时候都会将发包机器当时的内核时间记录在报文中,即使两次发包的序列号相同,时间戳也不可能相同,这样子就可以区分开两个数据包了


08.TCP的超时重连

TCP具有超时重连的机制,即每个一段时间没有等到数据包的回复时,就重传这个数据包

这个重传间隔是如何来计算的呢?

这个重传间隔也叫做超时重传时间(Retransmission TimeOut,简称为RTO),它的计算跟上一节的RTT密切相关。这我们将介绍两种重要的方法,一个是经典方法,一个是标准方法

经典方法

经典方法引入了一个新的概念——SRTT(Smoothed Round Trip Time,即平滑往返时间),每产生一次新的RTT,就会根据一定的算法对SRTT进行更新,具体而言,计算方式如下(SRTT的初始值为0)

SRTT =  (α * SRTT) + ((1 - α) * RTT)

其中,α 是平滑因子,建议值是0.8,范围是0.8 ~ 0.9

拿到SRTT,我们就可以计算RTO的值了:

RTO = min(ubound, max(lbound, β * SRTT))

β 是加权因子,一般为1.3 ~ 2.0lbound 是下界,ubound 是上界。

这个算法的过程还算是简单,但是也存在着一定的局限,就是在RTT稳定的地方表现还可以,而在RTT变化较大的地方就不行了,因为平滑因子α的范围是0.8 ~ 0.9,RTT对于RTO的影响太小

标准方法

为了解决经典方法对于RTT变化不敏感的问题,后面又引出了标准方法,也叫Jacobson / Karels 算法

一共三步

**第一步:**计算SRTT,公式如下:

SRTT = (1 - α) * SRTT + α * RTT

注意这个时候的α就和经典方法中的α取值不同了,建议值是1/8,也就是0.125

**第二步:**计算RTTVAR(Round-Trip Time Variation)这个中间变量

RTTVAR = (1 - β) * RTTVAR + β * (|RTT - SRTT|)

β的建议值为0.25。这个值是这个算法中出彩的地方,也就是说,它记录了最新的RTT与当前SRTT之间的差值,给我们在后续感知到RTT的变化提供了抓手

**第三步:**计算最终的RTO

RTO = µ * SRTT + ∂ * RTTVAR

µ建议值取1建议值取4

这个公式在SRTT的基础上加上了最新RTT与它的偏移,从而很好的感知了RTT的变化,这种算法下,RTO与RTT变化的差值关系更加密切


09.TCP的流量控制

对于发送端和接收端而言,TCP需要把发送的数据放到发送缓存区,将接收的数据放到接收缓存区

而流量控制所要做的事情,就是在通过接收缓存区的大小,控制发送端的发送。如果对方的接收缓存区满了,就不能在继续发送了

要具体理解流量控制,首先需要了解滑动窗口的概念

滑动窗口

TCP滑动窗口分为两种:发送窗口接收窗口

发送窗口

发送端的滑动窗口结构如下

4e618cbb8649a1617fc5594f40a23632.png

其中包含四大部分:

  • 已发送且已接收
  • 已发送但未确认
  • 未发送但可发送
  • 未发送且不可发送

其中有一些重要的概念,我标注在图中:

364c7d48f0d1e503a7de1af5879b47e2-16353120181391.png

发送窗口就是图中被框住的范围。SND即send,WND即window,UNA即unacknowledged,表示未被确认,NXT即next,表示下一个发送的位置

接收窗口

接收端的窗口结构如下:

06c5ca9fe18976392fce8f158bb75249.png

REV即receive,NXT 表示下一个接收的位置,WND 表示接收窗口大小。

流量控制过程

这里我们不用太复杂的例子,以一个最简单的来回来模拟一下流量控制的过程,方便大家的理解

首先双方三次握手,初始化各自的窗口大小,均为200个字节

假如当前发送端给接收端发送100个字节,那么此时对应发送端而言,SND.NXT当然要右移100个字节,也就是说当前的可用窗口减少了100个字节,这很好理解

现在这100个到达了接收端,被放到接收端的缓冲队列中。不过此时由于大量负载的原因,接收端处理不了这么多字节,只能处理40个字节即被应用取走40个字节,剩下60个字节被留在了缓冲队列中

注意了,此时接收端的情况是处理能力不足,你发送端给我少发点,所以此时接收端的接收窗口应该缩小,具体来说,缩小60个字节,由200个字节变成140个字节,因为缓冲队列还有60个字节没被应用拿走(还差多少就减少多少)

因此,接收端会在ACK的报文头部带上缩小后的滑动窗口140字节,发送端对应的调整发送窗口的大小为140字节

此时对应发送端而言,已发送且已接收的部分增加40字节,也就是SND.UNA右移40个字节,同时发送窗口缩小为140个字节

这就是流量控制的过程。尽管回合再多,整个控制的过程和原理是一样的


10.TCP的拥塞控制

上一节所说的流量控制发送在发送端和接收端之间,并没有考虑到整个网络环境的影响,如果说当前网络特别差,特别容易丢包,那么发送端就应该注意一些了。而这,也正是拥塞控制需要处理的问题

对于拥塞控制来说,TCP每条连接都需要维护两个核心状态:

  • 拥塞窗口(Congestion Window ,cwnd)
  • 慢启动阈值(Slow Start Threshold,ssthresh)

涉及的算法有这几个:

  • 慢启动
  • 拥塞避免
  • 快速重传和快速恢复

接下来,我们就来一一拆解这些状态和算法。首先,从拥塞窗口说起

拥塞窗口

拥塞窗口(Congestion Window ,cwnd)是指目前自己还能传输的数据量大小

那么之前介绍了接收窗口的概念,两者有什么区别呢?

  • 接收窗口(rwnd)是接收端给的限制
  • 拥塞窗口(cwnd)是发送端的限制

限制谁呢?

限制的是发送窗口的大小

有了这两个窗口,如何来计算发送窗口

发送窗口 = min(rwnd, cwnd)

取两者的较小值,而拥塞控制,就是来控制cwnd的变化

慢启动

刚开始进入传输数据的时候,是不知道现在的网络到底是稳定还是拥堵的,如果做的太激进,发包太急,就会疯狂丢包,造成雪崩式的网络灾难

因此,拥塞控制首先就是要采用一种保守的算法来慢慢的适应整个网络,这种算法叫慢启动。运作过程如下:

  • 首先,三次握手,双方宣告自己的接收窗口大小
  • 双方初始化自己的拥塞窗口(cwnd)的大小
  • 在开始传输的一段时间,发送端每收到一个ACK,拥塞窗口大小加1,也就是说,每经过一个RTT,cwnd翻倍。如果说初始窗口为10,那么第一轮10个报文传完且发送端收到ACK后,cwnd变为20,第二轮变为40,第三轮变为80,以此类推

难道就这么无止境的翻倍下去?当然不可能。它的阈值叫做慢启动阈值,当cwnd到达这个阈值后,就好比踩了刹车

在到达阈值后,如何控制cwnd的大小呢?

这就是拥塞避免做的事情了

拥塞避免

原来每收到一个ACK,cwnd加1,现在到达阈值了,cwnd只能加这么一点:1 / cwnd。这样一轮RTT下来,收到cwnd个ACK,那最后拥塞窗口的大小cwnd总共才增加1

也就是说,以前一个RTT下来,cwnd翻倍,现在cwnd只是增加1而已

当然,慢启动拥塞避免是一起作用的,是一体的

快速重传和快速回复

快速重传

在TCP传输过程中,如果发生了丢包,即接收端发现数据段不是按序到达的时候,接收端的处理是重复发送之前的ACK

比如第5个包丢了,即使第6、7个包到达了接收端,接收端也一律返回第4个包的ACK。当发送端收到3个重复的ACK时,意识到丢包了,于是马上进行重传,不用等到一个RTO的时间到了才重传

这就是快速重传,它解决的是是否需要重传的问题

快速恢复(?)

当然,发送端收到三次重复ACK之后,发现丢包,觉得现在的网络有些拥塞了,自己会进入快速恢复阶段

在这个阶段,发送端如下改变:

  • 拥塞阈值降低为cwnd的一半
  • cwnd的大小变为拥塞阈值
  • cwnd线性增加

以上就是TCP拥塞控制的经典算法:慢启动、拥塞避免、快速重传和快速恢复


11.Nagle算法和延迟确认

Nagle算法

试想一个场景,发送端不停的给接收端发很小的包,一次只发1个字节,那么发1千个字节需要发1000次。这种频繁的发送是存在问题的,不光是传输的时延消耗,发送和确认本身也是需要耗时的,频繁的发送接收带来了巨大的时延

而避免小包的频繁发送,这就是Nagle算法要做的事

具体来说,Nagle算法的规则如下:

  • 当第一次发送数据时不用等待,就算是1byte的小包也立即发送
  • 后面发送满足下面条件之一就可以发送:
    • 数据包大小达到最大段大小(Max Segment Size,即MSS)
    • 之前所有包的ACK都已接收到

延迟确认

试想一个场景,当我收到了发送端的一个包,然后在极短的时间内又接收到了第二个包,那是要一个个回复,还是稍等一下,把两个包的ACK合并后一起回复呢?

延迟确认(delayed ack)所做的事情就是后者,稍稍延迟,然后合并ACK,最后才回复给发送端。TCP要求这个延迟的时延必须小于500ms,一般操作系统实现都不会超过200ms

不过主要的是,有一些场景是不能延迟确认的,收到了就要马上回复:

  • 接收到了大于一个frame的报文,且需要调整窗口大小
  • TCP处于quickack模式(通过tcp_in_quickack_mode设置)
  • 发现了乱序包

两者一起使用会怎样?

前者意味着延迟发送,后者意味着延迟接收,会造成更大的延迟,产生性能问题。


12.TCP的keep-alive

大家都听说过HTTP的keep-alive,不过TCP层面也是有keep-alive机制,而且跟应用层不太一样

试想一个场景,当有一方因为网络故障或者宕机导致连接失效,由于TCP并不是一个轮询的协议,在下一个数据包到达之前,对端对连接失效的情况是一无所知的

这个时候就出现了keep-alive,它的作用就是探测对端的连接有没有失效

在 Linux 下,可以这样查看相关的配置

sudo sysctl -a | grep keepalive

// 每隔 7200 s 检测一次
net.ipv4.tcp_keepalive_time = 7200
// 一次最多重传 9 个包
net.ipv4.tcp_keepalive_probes = 9
// 每个包的间隔重传间隔 75 s
net.ipv4.tcp_keepalive_intvl = 75

不过,现状是大部分的应用并没有默认开启 TCP 的keep-alive选项,为什么?

站在应用的角度:

  • 7200s 也就是两个小时检测一次,时间太长
  • 时间再短一些,也难以体现其设计的初衷, 即检测长时间的死连接

因此是一个比较尴尬的设计。

整理转自掘金 神三元

原文链接juejin.cn/post/684490…