一文读懂全连接队列

1,152 阅读6分钟

简介

我们在编写服务端程序时,总是需要先 listen 一下。listen 最重要的就是初始化全连接和半连接队列,本文通过 Java 程序来验证全连接队列溢出情况。

全连接队列

image.png

上图是三次握手和网络交互的流程图,通过调用 accept 从全连接队列中获取 socket 进行读写。因此,我们在服务端只 listen 不调用 accept 就可以模拟全连接溢出场景。

队列长度

全连接队列长度与两个参数有关,backlog 和 somaxconn。

backlog 可以通过程序指定,在 ServerSocket 构造函数中,第二个参数 backlog 作用就在这儿。

// https://github.com/torvalds/linux/blob/448b3fe5a0eab5b625a7e15c67c7972169e47ff8/net/socket.c#L1867-L1886
int __sys_listen(int fd, int backlog)
{
 struct socket *sock;
 int err, fput_needed;
 int somaxconn;

 sock = sockfd_lookup_light(fd, &err, &fput_needed);
 if (sock) {
  // 获取 net.core.somaxconn,与 backlog 取较小值。
  **somaxconn = READ_ONCE(sock_net(sock->sk)->core.sysctl_somaxconn);
  if ((unsigned int)backlog > somaxconn)
   backlog = somaxconn;**

  err = security_socket_listen(sock, backlog);
  if (!err)
   err = READ_ONCE(sock->ops)->listen(sock, backlog);

  fput_light(sock->file, fput_needed);
 }
 return err;
}

第二个参数在 Linux 中,可以修改 /etc/sysctl.conf 文件。在我的机器上该值为 4096。

image.png

动手实践

根据上面的判断,可以推断出下面程序的全连接队列的长度为:min(1, 4096) = 1

/**
 * 全连接队列溢出
 */
public class Server {
    public static void main(String[] args) throws Exception {
        ServerSocket ss = new ServerSocket(88881);
        System.out.println("Started on 8888!");
        Thread.currentThread().join();
    }
}
/**
 * 全连接队列溢出
 */
public class Client {
    public static void main(String[] args) throws Exception {
        System.out.println("Started on: " + System.currentTimeMillis());
        try {
            for (int i = 0; i < 10; i++) {
                Socket socket = new Socket("127.0.0.1"8888);
                System.out.println(socket.getPort());
            }
        } finally {
            System.out.println("End on: " + System.currentTimeMillis());
        }
    }
}

Linux 5.10 版本

当我们分别执行 java Server 和 java Client 后,在 client 的控制台会打印两次 8888。

Started on1715755832881
8888
8888
End on1715755963822
Exception in thread "mainjava.net.ConnectExceptionConnection timed out (Connection timed out)
        at java.net.PlainSocketImpl.socketConnect(Native Method)
        at java.net.AbstractPlainSocketImpl.doConnect(AbstractPlainSocketImpl.java:350)
        at java.net.AbstractPlainSocketImpl.connectToAddress(AbstractPlainSocketImpl.java:206)
        at java.net.AbstractPlainSocketImpl.connect(AbstractPlainSocketImpl.java:188)
        at java.net.SocksSocketImpl.connect(SocksSocketImpl.java:392)
        at java.net.Socket.connect(Socket.java:607)
        at java.net.Socket.connect(Socket.java:556)
        at java.net.Socket.<init>(Socket.java:452)
        at java.net.Socket.<init>(Socket.java:229)
        at Client.main(Client.java:13)

通过 ss 查看全连接队列情况时,可以看出 Send-Q(全连接队列最大长度) 值为 1,Recv-Q(全连接队列实际长度) 值为 2。

image.png

**为什么实际长度要比最大长度大呢?**根据 Linux 作者描述,全连接队列下标是从零开始的,因此连接数要比指定数字多一个。参考:[NET]: Revert incorrect accept queue backlog changes. · torvalds/linux@64a1465 (github.com)

备注:MacOS 上两个长度一致,都为 1。

抓包验证

通过 tcpdump -i lo -w rece.pcap 抓 lo 网卡的包,执行上面的程序。

image.png

可以发现在进行过前两次成功的三次握手后,第三次 56128 向 8888 发送 syn 包,但 8888 没有响应,56128 进行了六次重传,最后重传 syn 包失败,程序退出,已经建立成功的连接向 8888 发送 fin 包,销毁连接。

重试次数由 /proc/sys/net/ipv4/tcp_syn_retries 控制,默认为 6 次。重试策略为指数退避,1、2、4、8、16、32 秒进行重试。

不同的 Linux 版本中,全连接队列满后,行为是不一样的。上述是在 5.10 版本的表现。

image.png

在 5.10 版本中,只要是全连接队列满了,就会抛掉 syn 包。

// net/ipv4/tcp_input.c tcp_conn_request
// 需要切换到 5.10 tag
// 如果 accept queue 已经满了
if (sk_acceptq_is_full(sk)) {
 NET_INC_STATS(sock_net(sk), LINUX_MIB_LISTENOVERFLOWS);
 goto drop;
}

Linux 3.10 版本

当我们在 3.10 版本测试上面的程序时,现象比较奇怪,抓到的包则更为奇怪。

// 程序输出结果
Started on: 1715928123222
8888
8888
8888
8888
8888
8888
8888
8888
8888
8888
End on: 1715928129242

image.png

  • 从输出结果看,在全连接队列限制为 1 的前提下建立了 10 个连接
  • 抓包显示,建立成功的连接也不止 2 个,并且还有多次 syn 包重传 和 dup ack。

通过 ss -lnt 看出,全连接队列大小确实为 1,连接成功确实为 2,符合我们之前的预计结果。

那么这些「建立成功」的连接是怎么回事儿呢?

答案是 Client 端收到了 syn ack,发送 ack 就认为连接创建成功了。但 Server 端因为全连接队列满了,抛弃掉了部分 ack 包和 syn 包。所以出现了已经建立成功的连接的 Client 重传 ack 包,已经发送 syn-ack 的 Server 重传 syn-ack 包。

那么 Server 端何时丢 syn 包,何时丢 ack 包呢?(这里我们暂时不讨论半连接溢出的情况)

丢弃 syn 包

// net/ipv4/tcp_ip_v4.c
// 需要切换到 3.10 tag
if (sk_acceptq_is_full(sk) && inet_csk_reqsk_queue_young(sk) > 1) {
 NET_INC_STATS_BH(sock_net(sk), LINUX_MIB_LISTENOVERFLOWS);
 goto drop;
}

上面的程序和 5.10 版本的类似,只不过后面多了 inet_csk_reqsk_queue_young(sk) > 1 的判断。含义是半连接队列中刚到达的 syn,但是没有被超时重传 syn-ack 的数量,意义在于衡量 Server 的处理能力。因为正常三次握手都会很快,所以该值通常为 0。但如果 > 1,意味着此时 Server 端的处理能力不足,因此就要抛弃掉 syn 包来减轻 Server 的处理压力。

我们可以通过 systemtap 工具打印 qlen_young 的值,观察丢包情况。

probe kernel.function("tcp_v4_conn_request") {
    tcphdr = __get_skb_tcphdr($skb);
    dport = __tcp_skb_dport(tcphdr);
    if (dport == 8888)
    {
        // 获取当前时间的秒数和微秒数
        sec = gettimeofday_s();
        usec = gettimeofday_us() % 1000000;

        // 手动格式化时间
        min = (day_sec % 3600) / 60;
        sec_only = day_sec % 60;

        printf("current: %02d:%02d.%06d \n",
               min, sec_only, usec);

        // 当前 syn 排队队列的大小
        syn_qlen = @cast($sk"struct inet_connection_sock")->icsk_accept_queue->listen_opt->qlen;
        // 当前 syn 排队中 young 的大小
        syn_young_qlen = @cast($sk"struct inet_connection_sock")->icsk_accept_queue->listen_opt->qlen_young;

        printf("%02d:%02d.%06d syn queue: syn_qlen=%d, syn_young_qlen=%d\n",
                min, sec_only, usec,
               syn_qlen, syn_young_qlen);

    }
}

将上面的程序保存为 rece_request.c,然后调用 stap -g rece_request.c 观察 syn_yyoung_qlen 的值,当其大于 1 时就会触发丢掉 syn 包操作,再数数抓包文件中 syn 重传,这两个值应该是一致的。

丢弃 ack 包

只要是全连接队列满了,就会丢弃 ack 包。

/*
 * The three way handshake has completed - we got a valid synack -
 * now create the new socket.
 */
 // 三次握手最后一次 ack 处理,完事儿
struct sock *tcp_v4_syn_recv_sock(struct sock *sk, struct sk_buff *skb,
      struct request_sock *req,
      struct dst_entry *dst)
{
     // 全连接队是否满了,直接 goto 到溢出,不处理 ack 包。
 if (sk_acceptq_is_full(sk))
  goto exit_overflow;
}      

总结

  • 我们在调用 listen 时,主要创建了全连接(accept queue)和半连接(syn queue)队列。
  • 全连接队列的大小取决于 min(backlog, somaxconn)
  • 不同版本对于全连接队列溢出的策略是不同的,但本质都是通过丢弃 Client 请求来保证 Server 的稳定。
  • 全连接队列主要供 accept 调用,因此只要使用先进先出的队列结构即可。全连接队列的数据主要来自于半连接,需要根据不同的 Client 获取,因此被设计成查询高效的哈希表结构。

公众号:程序员老周