原文地址:nsq.io/overview/qu…
概览
快速开始
下述步骤将在你的本地机器上运行一个小型NSQ集群,贯穿了消息的发布、消费以及归档至磁盘。
-
首先跟随安装说明文档进行安装;
-
在shell中开启
nsqlookupd:$ nsqlookupd -
在另一个shell中开启
nsqd:$ nsqd --lookupd-tcp-address=127.0.0.1:4160 -
在另一个shell中开启
nsqadmin:$ nsqadmin --lookupd-http-address=127.0.0.1:4161 -
发布一个初始消息(也就是在集群中创建一个主题)
$ curl -d 'hello world 1' 'http://127.0.0.1:4151/pub?topic=test' -
最后,在另一个shell中开启
nsq_to_file:$ nsq_to_file --topic=test --output-dir=/tmp --lookupd-http-address=127.0.0.1:4161 -
发布更多消息到
nsqd:$ curl -d 'hello world 2' 'http://127.0.0.1:4151/pub?topic=test' $ curl -d 'hello world 3' 'http://127.0.0.1:4151/pub?topic=test' -
为了验证上述工作是否如预期进行,可以打开浏览器地址http://127.0.0.1:4171/ 通过
nsqadminUI界面查看统计信息。当然,你也可以检查写到/tmp目录下的日志文件(test.*.log)内容。
这里有个比较重要的内容是,客户端并没有明确地指明test主题从哪里产生,nsq_to_file将从nsqlookupd提取这些信息,即使正处于连接中,也不会有消息丢失。
特征与保证
NSQ是一个实时分布式消息平台。
特征
- 支持无SPOF的分布式拓扑
- 水平扩展(无代理,可无缝地向集群中添加更多节点)
- 消息传递低延迟推送(性能)
- 负载均衡以及多种风格消息路由组合
- 擅长流式处理(高吞吐量)和面向作业(低吞吐量)的工作负载
- 主要在内存中(超出某个水平,消息将以透明的方式保存在磁盘上)
- 运行时服务发现,对于消费者查找生产者(nsqlookupd)
- 传输层安全 (TLS)
- 数据格式不可知
- 依赖少,易于部署,具有合理、清晰有界的默认配置
- 简单 TCP 协议支持任何语言的客户端库
- 用于统计信息、管理操作和生产者(无需发布客户端库)的 HTTP 接口
- 与实时检测的statsd集成
- 强大的集群管理接口 (nsqadmin)
保证
与任何分布式系统一样,实现你的目标都需要一个明智的权衡过程。通过透明地权衡这些折衷的现实,我们希望对NSQ在生产中部署时的行为设定如下期望:
-
消息不是持久化的(默认) 尽管系统支持通过
--mem-queue-size设置"释放阀(release valve)",消息将被透明地保存在磁盘上,但NSQ主要还是一个基于内存的消息平台。--mem-queue-size可以被设置为0以确保所有到来的消息被持久化到磁盘。在这种情况下,如果节点发生故障,那么您很容易感知到面临的故障会减少(例如OS或底层IO子系统是否发生故障)并**没有内置的复制集。**但是,管理这种权衡的方法有很多种,例如部署拓扑和技术以容错的方式主动持久化主题到磁盘。
-
消息至少传递一次
与上述密切相关,假定给定的
nsqd节点不会失败。这意味着,由于各种原因(客户端超时、断开连接、重新入队等),消息可以多次传递。而执行幂等操作或删除重复信息是客户端的职责。
-
收到的消息是无序的
不能依赖传递给消费者的消息顺序。
与消息传递的字面意义类似,消息是重新排列队列的结果,是内存和磁盘存储的组合。事实上每一个
nsqd节点之间并不共享任何东西。通过在你的消费者中引入一个延迟窗口来接收消息并且在处理这些消息之前(尽管为了保持这些不变的消息,必须丢弃掉位于该窗口之外的消息)进行排序,以此来实宽松的排序(即对于给定的消费者,它的消息是有序的,但是在整个集群中却不能保证)是相对直截了当的。
-
消费者最终可以找到所有主题生产者
发现服务(nsqlookupd)被设计为最终一致。
nsqlookupd节点不会共同维护状态或应答查询。网络分区不会影响可用性,从这层意义上来说,分区的两侧仍然可以应答查询。部署拓扑对缓解这些类型的问题具有最重要的作用。
常见问题
部署
-
nsqd的推荐拓扑是什么?我们强烈建议在生成消息的任何服务旁边运行一个
nsqdnsqd是一个相对轻量级的进程,可限定内存占用,这使得它非常适合"与别人好好玩耍"(“playing nice with others”.)。这种模式有助于将消息流构建为消费问题,而不是生产问题。
另一个好处是,这种模式在给定主机上为主题形成了一个独立的、分片的数据孤岛。
注意:这不是一个绝对的要求,它只是更为简单(见下面的问题)。
-
为什么生产者不能使用
nsqlookupd来查找发布到哪儿?因为必须告诉消费者在哪里找到他们需要的主题,NSQ提倡消费者端发现模型,以减轻前期配置负担。
然而,对于服务应发布到哪里,这并没有提供任何解决问题的手段。这是鸡和蛋的问题,主题在发布之前并不存在。
通过对
nsqd的共同定位(请参阅上面的问题),你完全回避了此问题(你的服务只是发布到本地nsqd), NSQ 的运行时发现系统自然地进行工作。 -
我只想在单个节点上使用
nsqd作为工作队列, 这是一个合适的用例吗?是的,
nsqd在单节点上也可以运行得很好。nsqlookupd更有利于在较大的分布式环境中使用。 -
我应该运行多少
nsqlookupd?通常只有几个,具体取决于集群大小、
nsqd节点数和消费者数量以及你所需的容错性。对于几百台主机和数千个消费者,部署3个或5个就可以很好地工作。
nsqlookupd节点不需要协作应答查询。集群中的元数据最终是一致的。
发布
-
我需要客户端库来发布消息吗?
不!只需使用 HTTP端点来发布(
/pub和/mpub)。它很简单,很容易,而且几乎在任何编程环境中都无处不在。事实上,绝大多数 NSQ 部署都使用 HTTP 来发布。
-
为什么要强制客户端处理TCP 协议的
PUB和MPUB命令的响应?我们认为 NSQ 的默认操作模式应优先考虑安全性,我们希望协议简单且一致。
-
PUB或MPUB什么时候可能失败?- 主题名称的格式不正确(字符/长度限制)。请参阅主题和频道名称规格。
- 消息太大(此限制作为参数被暴露给
nsqd)。 - 主题正在被删除。
nsqd正在清理退出。- 发布期间与客户端连接相关的任何失败时。
1和 2 应视为编程错误。3和4是不常见的。5是任何基于 TCP 协议自然有的。
-
如何缓解上述第3个问题?
删除主题是一个相对不频繁的操作。如果需要删除主题,请协调时间,删除要经过足够的时间,以便发布所引出的主题创建永远不会执行。
设计与理论
-
如何推荐命名主题和通道?
主题名称应描述流中的数据。
通道名称应描述其消费者所执行的工作。
例如,好的主题名称可以为
encodes,decodes,api_requests,page_views;好的通道名称为archive,analytics_increment,spam_analysis。 -
单个
nsqd可以支持的主题和通道的数量是否有任何限制?没有施加内置限制。它仅受限于
nsqd所运行主机的内存和 CPU (每个客户端的 CPU 使用率极大地减少#236)。 -
如何向群集宣布新主题?
第一次
PUB或者SUB一个主题将在nsqd上创建主题。主题元数据接下来将传播到配置的nsqlookupd。其他订阅者将定期查询nsqlookupd来发现此主题。 -
NSQ 能做 Rpc 吗?
这是可能的,但是在设计NSQ时并未考虑到该用例。
我们打算发布一些文档,以了解如何构建该内容,但在此期间,如果您有兴趣,请伸出援手。
pynsq 特定的问题
-
你为什么强迫我使用Tornado?
pynsq最初打算作为以消费者为导向的库,在 Python 的异步框架(特别是由于 NSQ 面向推送的协议)中使用 NSQ 协议要简单得多。Tornado的 API 很简单,性能相当好。
-
Tornado的 IOLoop需要发布吗?
不需要,
nsqd暴露了 HTTP 端点(/PUB和/MPUB)以非常简单的用于编程语言不可知的发布(agnostic publishing)。如果你担心 HTTP 的开销,那没有必要。此外,
/mpub通过批量发布(原子发布!)来减少 HTTP 的开销。 -
我什么时候要使用
Writer?当高性能和低开销是一个优先事项。
Writer使用TCP协议PUB和MPUB命令,与其他HTTP同行相比拥有更小的开销。 -
如果我只想 "fire and forget" (我可以容忍消息丢失!
使用
Writer并且对发布方法不指定回调。注意:这只有利于产生更简单的
pynsq客户端代码,在幕后仍要处理来自nsqd的响应(就是说这样做没有什么性能优势)。
特别感谢Dustin Oprea (@DustinOprea)启动这个常见问题
性能
主仓库有一个脚本(bench/bench.py),它会自动执行一个EC2上的分布式基准测试。它会引导N个节点,一些节点正在运行nsqd,一些节点在负载生成PUB和SUB应用,然后解析这些节点的输出以供总体聚合。
安装
下面运行的命令反应了6个c3.2xlarge的默认参数,最便宜的实例类型支持1gbit的链接。3个节点分别运行了一个nsqd实例,其余节点运行着bench_reader(SUB)实例和bench_writer(PUB)实例,以此生成依赖于基准测试模式的负载。
$ ./bench/bench.py --access-key=... --secret-key=... --ssh-key-name=...
[I 140917 10:58:10 bench:102] launching 6 instances
[I 140917 10:58:12 bench:111] waiting for instances to launch...
...
[I 140917 10:58:37 bench:130] (1) bootstrapping ec2-54-160-145-64.compute-1.amazonaws.com (i-0a018ce1)
[I 140917 10:59:37 bench:130] (2) bootstrapping ec2-54-90-195-149.compute-1.amazonaws.com (i-0f018ce4)
[I 140917 11:00:00 bench:130] (3) bootstrapping ec2-23-22-236-55.compute-1.amazonaws.com (i-0e018ce5)
[I 140917 11:00:41 bench:130] (4) bootstrapping ec2-23-23-40-113.compute-1.amazonaws.com (i-0d018ce6)
[I 140917 11:01:10 bench:130] (5) bootstrapping ec2-54-226-180-44.compute-1.amazonaws.com (i-0c018ce7)
[I 140917 11:01:43 bench:130] (6) bootstrapping ec2-54-90-83-223.compute-1.amazonaws.com (i-10018cfb)
生产者吞吐量
此基准测试仅测量了生产者的吞吐量,没有额外的负载。消息的大小是100字节,并且消息分布于3个主题中。
$ ./bench/bench.py --access-key=... --secret-key=... --ssh-key-name=... --mode=pub --msg-size=100 run
[I 140917 12:39:37 bench:140] launching nsqd on 3 host(s)
[I 140917 12:39:41 bench:163] launching 9 producer(s) on 3 host(s)
...
[I 140917 12:40:20 bench:248] [bench_writer] 10.002s - 197.463mb/s - 2070549.631ops/s - 4.830us/op
进入速度(ingress)约为2.07mm msgs/sec,消耗了总计197mb/s的带宽。
生产者和消费者吞吐量
此基准通过为生产者和消费者提供服务,更准确地反映了真实情况。同样,消息大小为 100 字节,消息分布在 3 个主题中,每个主题具有单个通道(每个通道 24 个客户端)。
$ ./bench/bench.py --access-key=... --secret-key=... --ssh-key-name=... --msg-size=100 run
[I 140917 12:41:11 bench:140] launching nsqd on 3 host(s)
[I 140917 12:41:15 bench:163] launching 9 producer(s) on 3 host(s)
[I 140917 12:41:22 bench:186] launching 9 consumer(s) on 3 host(s)
...
[I 140917 12:41:55 bench:248] [bench_reader] 10.252s - 76.946mb/s - 806838.610ops/s - 12.706us/op
[I 140917 12:41:55 bench:248] [bench_writer] 10.030s - 80.315mb/s - 842149.615ops/s - 11.910us/op
在大约842k 和 806k msgs/s 的入口和出口时,消耗了 总计156mb/s 的带宽,我们现在在nsqd节点上最大化了 CPU 容量。通过引入消费者,nsqd需要维护每个通道的消息传递,因此负载自然会更高。
消费者的数量略低于生产者,因为消费者发送的命令数量是生产者的两倍(必须为每条消息发送一个FIN命令),从而影响了吞吐量。
再添加 2 个节点(一个nsqd和一个负载生成(load-generating))达到超过 1mm msgs/s:
$ ./bench/bench.py --access-key=... --secret-key=... --ssh-key-name=... --msg-size=100 run
[I 140917 13:38:28 bench:140] launching nsqd on 4 host(s)
[I 140917 13:38:32 bench:163] launching 16 producer(s) on 4 host(s)
[I 140917 13:38:43 bench:186] launching 16 consumer(s) on 4 host(s)
...
[I 140917 13:39:12 bench:248] [bench_reader] 10.561s - 100.956mb/s - 1058624.012ops/s - 9.976us/op
[I 140917 13:39:12 bench:248] [bench_writer] 10.023s - 105.898mb/s - 1110408.953ops/s - 9.026us/op
单节点性能
免责声明:请记住**,NSQ**旨在以分布式方式使用。单节点性能虽然很重要,但不是我们所要实现的一切。此外, 基准测试是愚蠢的, 但这里多少做个展示:
-
2012 MacBook Air i7 2ghz
-
go1.2
-
NSQ v0.2.24
-
200 byte message
GOMAXPROCS=1(1个发布者、1个消费者)
$ ./bench.sh
results...
PUB: 2014/01/12 22:09:08 duration: 2.311925588s - 82.500mb/s - 432539.873ops/s - 2.312us/op
SUB: 2014/01/12 22:09:19 duration: 6.009749983s - 31.738mb/s - 166396.273ops/s - 6.010us/op
GOMAXPROCS=4(4个发布者,4个消费者)
$ ./bench.sh
results...
PUB: 2014/01/13 16:58:05 duration: 1.411492441s - 135.130mb/s - 708469.965ops/s - 1.411us/op
SUB: 2014/01/13 16:58:16 duration: 5.251380583s - 36.321mb/s - 190426.114ops/s - 5.251us/op
设计
注:有关随附的视觉插图,请参阅此幻灯片组。
不翻墙你是打不开的。
NSQ是simplequeue (simplehttp的一部分)的后继者,因此设计为(没有特定顺序):
- 支持高可用且消除了 SPOFs 的拓扑
- 满足了更强有力的保证消息传递的需要
- 限制了单个进程的内存占用(通过将某些消息持久化到磁盘)
- 极大地简化了生产者和消费者的配置要求
- 提供了简单直接的升级路径
- 提高了效率
简化配置和管理
单个nsqd实例设计为一次处理多个数据流。数据流称为"主题",主题有 1 个或多个"通道"(channels)。每个通道接收主题的所有消息副本。实际上,一个通道对应着一个下游消费主题的服务。
主题和通道并未优先配置。通过发布到命名主题或订阅有关命名主题的通道,主题在首次使用时创建。而通过订阅命名通道,通道在首次使用时创建。
主题和通道所有缓冲区数据彼此独立,以防止缓慢的消费导致其他通道的积压(这同样适用于主题级别)。
一个通道通常可以连接多个客户端。假设所有连接的客户端处于准备接收消息的状态,则每条消息都将传递到一个随机的客户端。例如:
总之,消息来自主题 -> 通道(每个通道接收该主题的所有消息副本),但从通道 -> 消费者,消息是均匀分布的(每个消费者接收该通道的部分消息)。
NSQ还包括一个辅助应用程序nsqlookupd ,它提供了一个目录服务,消费者可以在其中查找到提供给他们订阅主题的nsqd实例地址。在配置方面,这使消费者与生产者分离(他们只需要知道在哪里联系nsqlookupd通用实例,从不是彼此之间直接联系),降低了复杂性和维护成本。
在底层,每个nsqd与nsqlookupd之间都具有一个 TCP 长连接(long-lived),并定期推送其状态给nsqlookupd。此数据用于nsqlookupd将哪些nsqd地址通知给消费者。对于消费者,将暴露 HTTP 端点/lookup以进行轮询。
要引入新的主题消费者,只需启动一个配置了nsqlookupd实例地址的NSQ客户端。添加新的消费者或新的发布者无需更改配置,从而大大降低了开销和复杂性。
注意:在将来的版本中,启发式nsqlookupd 可能基于深度、连接的客户端数量或其他"智能"策略来返回nsqd地址。当前的实现就是全部。归根结底,目标是深度保持在接近于零的水平,确保所有生产者都能够被订阅。
需要注意的重要点是,nsqd和 nsqlookupd守护进程被设计为独立运行,同类进程之间没有沟通与协作。
我们也认为,通过一种方法来查看、思考和整体管理集群非常重要。我们为了做到这一点而构建了nsqadmin。它提供了一个 Web UI 来浏览主题/通道/消费者的层次结构,并检查每个层的深度和其他关键统计信息。此外,它支持一些管理命令,如删除和清空通道(当通道中的消息可以安全地抛出以将深度带回 0 时,这是一个有用的工具)。
简单直接的升级路径
这是我们的最高优先事项之一。我们的生产系统处理着大量的流量,全部都基于我们现有的消息工具,因此我们需要一种缓慢且有条理的方法来升级基础架构的特定部分,带来的影响微乎其微。
首先,在消息生产者方面,我们构建了nsqd来匹配simplequeue。具体地说,nsqd 暴露了 HTTP /pub端点,就像simplequeue一样发送二进制数据(需要注意的是,端点需要一个额外的查询参数来指定"主题")。想要切换服务,向nsqd发布消息,只需进行少量的代码更改。
其次,我们构建了与现有库功能和习惯相匹配的Python 和 Go 库。通过将代码更改限制为自举(bootstrap),从而缓解了在消费者端的过渡。所有业务逻辑保持不变。
最后,我们构建了将新旧组件粘合在一起的实用程序。这些都可在存储库中的examples目录中获得:
nsq_to_file- 将给定主题的所有消息持久化写入文件nsq_to_http- 对主题中的所有消息向(多个)端点执行 HTTP 请求
消除 SPOFs
NSQ专为分布式使用而设计。nsqd 客户端(通过 TCP)连接到所有实例,并提供特定的主题消息。没有中间人,没有消息中间件,也没有SPOFs:
此拓扑消除了对单个的、聚合的源进行链接的必要。相反,直接从所有生产者处进行消费。从技术上讲,哪个客户端连接到哪个NSQ并不重要,只要有足够的客户端连接到所有的生产者来满足消息量,就能保证消息最终得到处理。
对于 nsqdlookupd,通过运行多个实例实现了高可用。它们之间不直接相互通信,并且数据最终被认为是一致的。消费者会轮询其配置的所有nsqlookupd实例并联合(union)响应结果。陈旧过时、无法访问或其他节点故障都不会使系统停止运行。
消息传递保证
NSQ保证消息将至少**传递一次,**尽管消息可能重复。消费者应该对此有所意料,并进行重复消息删除或执行幂等操作。
此保证强制作为协议的一部分,其工作方式如下(假设客户端已成功连接并订阅了主题):
- 客户端表示他们已准备好接收消息
- NSQ发送消息并临时将数据存储在本地(在重新入队或超时时)
- 客户端答复 FIN(完成finish)或 REQ(重新入队re-queue),分别表示成功或失败。如果NSQ超时(可配置)未收到客户端的答复,消息也会自动重新入队)
这可确保导致消息丢失的唯一边缘情况是nsqd进程未正常关闭(unclean shutdown)。在这种情况下,内存中的任何消息(或任何未刷新到磁盘的缓冲消息)都会丢失。
如果防止消息丢失至关重要,则即使此边缘情况也可以缓和。一种解决方案是支持接收相同消息副本的冗余nsqd对(在单独的主机上)。由于已将消费者写为幂等的,因此在这些消息上重复执行两次操作不会对下游产生影响,系统可以承受任何单点故障而不丢失消息。
重要的是NSQ提供了构建基础(building blocks),以支持各种生产用例和持久化深度的配置。
可限定内存占用
nsqd提供了一个配置选项--mem-queue-size,用以确定给定的队列在内存中保留消息的数量。如果队列的深度超过此阈值,则消息将透明地写入磁盘。这使得nsqd进程的内存占用量限制为:mem-queue-size * #_of_channels_and_topics
此外,精明的人可能已经发现了一个便捷的方式,即通过设置此值为较低的数(比如 1甚至 0),以获得更高的传递保证。磁盘队列旨在承受非正常启动(尽管消息可能传递两次)。
此外,与消息传递保证有关的是,正常关闭(clean shutdowns)(通过向nsqd进程发送TERM 信号)可以安全地持久化当前内存中的、正在传递的、延迟的和各种内部缓冲的消息。
请注意,主题或通道的名称以#ephemeral结尾的,将不会缓冲到磁盘,相反在超过mem-queue-size后会被删除消息。这使的不需要消息保证的消费者也能够订阅频道。这些临时的(ephemeral)通道在最后一个客户端断开连接时也会消失。对于临时主题,这意味着至少有一个通道已创建、使用和删除(通常是临时通道)。
效率
NSQ设计为使用"像 memcached 一样"的命令协议来进行通信,具有简单的以大小为前缀的响应结果。所有的消息数据都保存在核心中,包括尝试次数、时间戳等元数据。这消除了服务端与客户端之间来来回回的数据复制,这是重新入队消息时上一个工具链的固有属性。这也简化了客户端,因为它们不再需要负责维护消息状态。
此外,通过降低配置复杂性,设置和开发的时间大大缩短(尤其是在主题消费者 >1 的情况下)。
对于数据协议,我们做了一个关键的设计决策,那就是通过将数据推送到客户端而不是等待客户端来提取,以此最大化性能和吞吐量。这个概念,我们称之为RDY状态,本质上是客户端流控的一种形式。
当客户端连接到并订阅通道时,它被放置在RDY 0 的状态。这意味着不会向客户端发送任何消息。当客户端准备好接收消息时,它会发送一个命令,将状态更新到某个它准备处理(多少条消息)的#状态,例如#100。在没有任何额外命令的情况下,100 条消息将推送到客户端(服务端将会为该客户端进行RDY 计数)。
客户端库的设计是在计数达到配置的max-in-flight(适当考虑与多个nsqd实例的连接,适当拆分)的约25% 时,发送命令来更新RDY计数。
这是一个显著的性能旋钮,因为一些下游系统能够更容易地批量处理消息,并受益于更高的max-in-flight。
值得注意的是,因为它既有缓冲又有推送功能,并且能够满足对流(通道)的独立副本需求,因此我们生成了一个类似于simplequeue和pubsub 组合的守护程序,我们传统上会维护上面讨论过的较旧的工具链,这在简化我们系统的拓扑方面非常强大。
Go
我们很早就做出了一个战略决策,在Go 中构建NSQ 核心。我们最近写了关于我们使用Go的博客并提到这个项目 - 浏览该帖,了解我们对语言的思考可能会有所帮助。
关于NSQ,Go 通道(不要与NSQ通道混淆)和语言内置的并发功能非常适合nsqd的内部工作。我们利用缓冲通道来管理内存中的消息队列,并无缝地将溢出的消息写入磁盘。
通过标准库,可以轻松地编写网络层和客户端代码。内置内存和 cpu 分析钩子突显了优化机会,并且集成需要很少的精力。我们还发现,在隔离中测试组件、使用接口模拟类型以及迭代构建功能非常容易。
内部实现
NSQ 由 3 个守护进程组成:
- nsqd是消息接收、排队和传递消息给客户端的守护进程。
- nsqlookupd是管理拓扑信息并提供最终一致的发现服务的守护进程。
- nsqadmin是一个 Web UI,可以实时省察集群(并执行各种管理任务)。
NSQ 中的数据流被模型化为流和消费者的树结构。一个主题代表一种数据流。通道是订阅特定主题的消费者的逻辑分组。
单个nsqd可以包含多个主题,每个主题可以具有多个通道。通道接收主题的所有消息副本,启用多播样式(multicast style)传递,而通道上的每条消息都在其订阅者之间分发,从而实现负载均衡。
这些基元构成了一个强大的框架,用于表达各种简单而复杂的拓扑。
有关 NSQ 设计的信息,请参阅设计文档。
主题和通道
主题和通道是 NSQ 的核心基元(primitives),它很好地体现了系统设计如何无缝地转换为 Go 的功能。
Go 的通道(因此称为"go-chan",用于消除歧义)是表达队列的自然方式,因此,NSQ 主题/通道的核心只是消息结构体Message指针的缓冲"go-chan"。缓冲的大小等于配置参数--mem-queue-size
在从网络中读取数据后,将消息发布到主题涉及如下行为:
Message结构体的实例化(以及消息体[]byte的分配)- 读锁(read-lock)获得
Topic - 读锁(read-lock)检查发布能力
- 发送给一个缓冲"go-chan"
若要将消息从主题发送到其通道,该主题不能依赖于典型的 go-chan 接收语义,因为在 go-chan 上接收的多个 goroutine将分发消息,而所需的最终结果是将每条消息复制到每个通道(goroutine)。
相反,每个主题维护了 3 个主要 的goroutine:
第一个称为router ,负责从传入 go-chan 的消息中读取最新发布的消息,并将其存储在队列(内存或磁盘)中。
第二个称为messagePump ,负责复制并推送消息到上述通道。
第三个负责 磁盘队列(DiskQueue)IO,稍后将讨论.
通道要复杂一些,但共有一个底层目标:暴露一个单输入和单输出的go-chan (以抽象出在内部消息可能存在于内存或磁盘中的事实):
此外,每个通道维护 2 个按时间排序的优先级队列,负责延迟和在途(in-flight)消息的超时( 附带2个监视它们的goroutine)。
通过管理每个通道的数据结构(而不是依赖于 Go 运行时的全局计时器调度)并行化得以改进。
**注:**在内部,Go 运行时使用单优先级队列和 goroutine来管理计时器。这支持(但不限于)整个time包。它通常不需要时间排序的优先级队列,但重要的是要记住,它是一个单一的数据结构,只有一个锁,可能会影响GOMAXPROCS > 1时的性能。请参阅runtime/time.go。(在 go-1.10+中不再是了)
后台/磁盘队列
NSQ 的设计目标之一是限制内存中保留的消息数。它通过DiskQueue(主题或通道的第三个主要goroutine)透明地将消息溢出写入磁盘。
由于内存队列仅仅是一个go-chan,如果可能的话,它首先会尝试将消息路由至内存,然后回调至磁盘:
for msg := range c.incomingMsgChan {
select {
case c.memoryMsgChan <- msg:
default:
err := WriteMessageToBackend(&msgBuf, msg, c.backend)
if err != nil {
// ... handle errors ...
}
}
}
利用 Go 的select语句,只需几行代码就可以表示此功能:上述default语句只有在memoryMsgChan满了之后才会执行。
NSQ 也有临时主题/通道的概念。它们丢弃了(discard)消息溢出(而不是写入磁盘),并在不再有订阅的客户端时消失。这是 Go 接口的完美用例。主题和通道具有一个声明为接口而不是具体类型的结构体成员Backend。普通主题和通道使用的是DiskQueue, 而临时主题和通道暂存在 DummyBackendQueue中,实现了无操作后端(Backend)。
减少GC压力
在任何垃圾回收环境中,都会受限于吞吐量(执行有用的工作)、延迟(响应能力)和驻留集大小(resident set size, 占用空间)。
自 Go 1.2 起,the GC is mark-and-sweep (parallel), non-generational, non-compacting, stop-the-world and mostly precise(翻译不来,自行体会🤪)。它大多是精确的,因为剩余的工作没有及时完成(预定要到Go1.3)。
Go 的GC肯定会继续改进,但普遍的事实是:创造的垃圾越少,收集垃圾的时间就越少。
首先,了解GC在实际工作负载下的表现非常重要。为此,nsqd以statsd格式(与其他内部指标一起)发布了 GC 统计信息。nsqadmin展示了这些指标的图表,让您深入了解 GC 在频率和持续时间方面的影响:
为了真正减少垃圾,您需要知道垃圾的生成地点。Go 工具链提供了答案:
- 使用
test包和go test -benchmem来基准测试热代码路径(to benchmark hot code paths)。它描述了每次迭代的分配数(基准测试可以与benchcmp进行比较运行。 - 使用
go build -gcflags -m编译 ,输出escape analysis的结果。
有鉴于此,以下优化证明对nsqd 很有用:
- 避免
[]byte转换string。 - 重用缓冲区(buffers)或对象(objects)(之后可能会是
sync.Pool也就是issue 4720)。 - 预分配切片(在
make中指定容量),并始终知道条目的数量和大小。 - 对各种可配置的
dials(例如消息大小)应用合理的限制。 - 避免装箱
boxing(使用interface{}) 或不必要的类型包装(如"多个值"的go-chan结构体)。 - 避免在热代码路径(hot code paths)中使用
defer。
TCP 协议
NSQ TCP 协议是使用 GC 优化概念以产生巨大效果的光辉示例。
该协议用长度前缀帧(length prefixed frames)进行结构化,使得它编码和解码简单直接,性能好:
[x][x][x][x][x][x][x][x][x][x][x][x]...
| (int32) || (int32) || (binary)
| 4-byte || 4-byte || N-byte
------------------------------------...
size frame ID data
由于帧组件的确切类型和大小是提前知道的,我们可以避免encoding/binary包的便利性Read()和Write()封装(及其无关的接口查找和转换),相反直接调用合适的二binary.BigEndian方法。
为了减少套接字 IO 的系统调用,客户端net.Conn用[bufio.Reader和bufio.Writer进行封装。Reader暴露了ReadSlice()方法,它重用了其内部缓冲区。这几乎消除了在读取套接字时的分配,大大降低了GC压力。这是可能的,因为与大多数命令关联的数据不会转义(在边缘情况下不是如此,数据会被显式复制)。
在更底层,一个MessageID被声明为[16]byte,能够使用它作为map键(切片不能用作map键)。但是,由于从套接字读取的数据存储为[]byte ,而不是通过分配string键产生垃圾,并且为了避免MessageID从切片到背后数组的复制,使用了unsafe包来将切片直接转换为一个MessageID
id := *(*nsq.MessageID)(unsafe.Pointer(&msgID))
**注意:**这是一个hack。如果编译器对此进行了优化,就没有必要这样做。并且打开的issue 3512 有可能解决此问题。值得一读issue 5376,其中谈到"const like"byte类型可以在接受字符串的地方与其互换使用的可能性,而无需分配和复制。
同样,Go 标准库仅提供了数字转换string的方法。为了避免string分配,nsqd在操作[]byte上直接使用了自定义基10转换方法转换方法。
这些看起来像微优化,但TCP协议包含一些最热门的代码路径(hottest code paths)。总的来说,以每秒数万条消息的速度,它们对分配和开销的量有重大影响:
benchmark old ns/op new ns/op delta
BenchmarkProtocolV2Data 3575 1963 -45.09%
benchmark old ns/op new ns/op delta
BenchmarkProtocolV2Sub256 57964 14568 -74.87%
BenchmarkProtocolV2Sub512 58212 16193 -72.18%
BenchmarkProtocolV2Sub1k 58549 19490 -66.71%
BenchmarkProtocolV2Sub2k 63430 27840 -56.11%
benchmark old allocs new allocs delta
BenchmarkProtocolV2Sub256 56 39 -30.36%
BenchmarkProtocolV2Sub512 56 39 -30.36%
BenchmarkProtocolV2Sub1k 56 39 -30.36%
BenchmarkProtocolV2Sub2k 58 42 -27.59%
HTTP
NSQ 的 HTTP API 构建在 Go 的net/http包之上。因为它只是HTTP,所以几乎在任何现代编程环境中都可以利用它,而无需特定的客户端库。
它的简单性掩盖了它的力量,因为 Go 的 HTTP 工具箱中最有趣的方面之一是它支持的广泛调试功能。net/http/pprof包直接与本机 HTTP 服务器集成,暴露出端点以获取 CPU、heap、goroutine和os thread配置。可以直接通过go tool定位:
$ go tool pprof http://127.0.0.1:4151/debug/pprof/profile
对于调试和分析正在运行的进程来说,这是一个极其宝贵的价值!
此外,/stats端点可以以 JSON 或文本的格式返回大量指标,管理员能够轻松地从命令行进行实时省查:
$ watch -n 0.5 'curl -s http://127.0.0.1:4151/stats | grep -v connected'
这将生成连续输出,如:
[page_views ] depth: 0 be-depth: 0 msgs: 105525994 e2e%: 6.6s, 6.2s, 6.2s
[page_view_counter ] depth: 0 be-depth: 0 inflt: 432 def: 0 re-q: 34684 timeout: 34038 msgs: 105525994 e2e%: 5.1s, 5.1s, 4.6s
[realtime_score ] depth: 1828 be-depth: 0 inflt: 1368 def: 0 re-q: 25188 timeout: 11336 msgs: 105525994 e2e%: 9.0s, 9.0s, 7.8s
[variants_writer ] depth: 0 be-depth: 0 inflt: 592 def: 0 re-q: 37068 timeout: 37068 msgs: 105525994 e2e%: 8.2s, 8.2s, 8.2s
[poll_requests ] depth: 0 be-depth: 0 msgs: 11485060 e2e%: 167.5ms, 167.5ms, 138.1ms
[social_data_collector ] depth: 0 be-depth: 0 inflt: 2 def: 3 re-q: 7568 timeout: 402 msgs: 11485060 e2e%: 186.6ms, 186.6ms, 138.1ms
[social_data ] depth: 0 be-depth: 0 msgs: 60145188 e2e%: 199.0s, 199.0s, 199.0s
[events_writer ] depth: 0 be-depth: 0 inflt: 226 def: 0 re-q: 32584 timeout: 30542 msgs: 60145188 e2e%: 6.7s, 6.7s, 6.7s
[social_delta_counter ] depth: 17328 be-depth: 7327 inflt: 179 def: 1 re-q: 155843 timeout: 11514 msgs: 60145188 e2e%: 234.1s, 234.1s, 231.8s
[time_on_site_ticks] depth: 0 be-depth: 0 msgs: 35717814 e2e%: 0.0ns, 0.0ns, 0.0ns
[tail821042#ephemeral ] depth: 0 be-depth: 0 inflt: 0 def: 0 re-q: 0 timeout: 0 msgs: 33909699 e2e%: 0.0ns, 0.0ns, 0.0ns
最后,每个新的 Go 版本通常都会带来可衡量的性能提升。当针对最新版本的 Go重新编译时,相当于提供了免费提升, 这总是很好的!
依赖项
来自其他生态系统,Go 关于依赖管理的理念(或缺乏依赖性)需要一点时间来习惯。
NSQ从一个单一的大型仓库发展而来,具有相对导入和内部软件包之间几乎无分隔的特征,完全采纳了有关结构和依赖管理的最佳实践建议。
有两种主要的思想流派:
- Vendoring:以正确的版本将依赖项复制到应用程序的存储库中,并修改导入路径以引用本地副本。
- Virtual Env:列出所需的依赖项及版本,并在构建时生成包含这些固定依赖项的
GOPATH环境。
**注意:**这实际上仅适用于二进制软件包,因为对于可导入的软件包而言,就使用哪个版本的依赖项做出中间决策没有任何意义。
NSQ使用上述(2)方法。(它最开始使用gpm,然后使用dep,现在使用Go模块)。
测试
Go为编写测试和基准提供了坚实的内置支持,并且使得模型化并发操作非常容易,因此在测试环境中建立起一个完整的nsqd实例很简单 。
然而,初始实现时有一个方面对测试造成了问题:全局状态(global state)。最明显的"违法者"(offendar)是使用全局变量,该全局变量在运行时保留了对nsqd实例的引用,例如:var nsqd *NSQd。
某些测试会使用短变量赋值,即在局部作用域内使用nsqd := NewNSQd(...)无意中屏蔽了此全局变量。这意味着全局引用未指向当前正在运行的实例,从而破坏了测试。
为了解决这个问题,传递了一个Context结构,该结构包含配置元数据和对父nsqd的引用。所有对全局状态的引用都被替换为局部 Context,从而使子程序(children: 主题topics,频道channel,协议处理程序protocol handlers等)可以安全地访问此数据,并使测试更加可靠。
鲁棒性
面对不断变化的网络状况或突发事件而不够健壮的系统,在分布式生产环境中是无法正常运行的。
NSQ的设计和实现方式允许系统容忍故障并以一致、可预测和平常的方式运行。
首要原则是快速失败,将错误视为致命错误,并提供一种方法调试所有发生的问题。
但是,为了做出反应,您需要能够发现异常情况……
心跳和超时
NSQ TCP协议是面向推送的。连接,握手和订阅后,消费者将处于的RDY状态0。当消费者准备好接收消息时,它将RDY状态更新为将要接收的消息数。NSQ客户端库在幕后持续对其进行管理,从而形成了流控制的消息流。
nsqd会定期通过连接发送心跳。客户端可以配置心跳间隔,但是nsqd在发送下一个心跳之前需要得到一个响应。
应用程序级别的心跳和RDY状态的组合避免了行首阻塞,否则可能导致心跳无用(即,如果消费者在处理消息流时落后,则操作系统的接收缓冲区将填满,从而阻塞心跳)。
为了保证进度,所有网络IO都必须有相对于配置的心跳间隔截止日期。这意味着您可以从字面上拔出nsqd与消费者之间的网络连接,它将检测并正确处理该错误。
当检测到致命错误时,客户端连接将被强制关闭。传输中的消息会超时并重新排队以传递给其他消费者。最后,将记录错误并增加各种内部指标。
管理Goroutine
启动goroutines非常容易。不幸的是,安排它们的清理却并不是那么容易。避免死锁也具有挑战性。通常,这归结为一个排序问题,即在go-chan上接收消息的goroutine在上游goroutine发送消息之前就退出了。
为什么要关心这个问题呢?很简单,孤立的goroutine就是内存泄漏。内存泄漏在长时间运行的守护进程中是很糟糕的,尤其是当其他所有操作都失败时,你期望你的程序稳定运行。
更复杂的是,典型的nsqd进程在消息传递中涉及许多goroutine。在内部,消息的"归属权"经常发生变化。为了在关闭时能够清理干净,考虑所有进程内的消息是非常重要的。
尽管没有任何灵丹妙药(magic bullets),但以下技术可以让管理更容易一些……
等待组
sync包提供了sync.WaitGroup,可用于执行实时goroutine计数(并提供一种等待它们退出的方法)。
为了减少典型的样板(boilerplate)代码,nsqd使用了以下包装:
type WaitGroupWrapper struct {
sync.WaitGroup
}
func (w *WaitGroupWrapper) Wrap(cb func()) {
w.Add(1)
go func() {
cb()
w.Done()
}()
}
// can be used as follows:
wg := WaitGroupWrapper{}
wg.Wrap(func() { n.idPump() })
...
wg.Wait()
退出信号
在多个子goroutine中触发事件的最简单方法是提供一个准备就绪时可以关闭的go-chan。该go-chan上的所有未决接收(pending receives)将激活,而不必向每个goroutine发送单独的信号。
func work() {
exitChan := make(chan int)
go task1(exitChan)
go task2(exitChan)
time.Sleep(5 * time.Second)
close(exitChan)
}
func task1(exitChan chan int) {
<-exitChan
log.Printf("task1 exiting")
}
func task2(exitChan chan int) {
<-exitChan
log.Printf("task2 exiting")
}
同步退出
要实现一个可靠的,无死锁的退出路径,这是非常困难的。一些提示:
- 理想情况下,负责向
go-chan发送消息的goroutine也应负责关闭go-chan。 - 如果不能丢失消息,请确保清空相关的
go-chans(尤其是无缓冲的go-chan),以确保发送者可以取得进展。 - 此外,如果消息不再相关,则应该在发送单个
go-chan的情况下将其转换为select,并添加退出信号(如上所述),以确保进度。 - 一般顺序应为:
- 停止接受新的连接(关闭监听器)
- 向子
goroutine发出退出信号(如上) - 使用
WaitGroup等待goroutine退出(如上) - 恢复缓冲的数据
- 清除磁盘上剩余的所有内容
日志
最后,最重要的工具是记录goroutine的进入和退出!在死锁或内存泄漏的情况下,这将使罪魁祸首的确定变得无限容易。
nsqd日志行包含goroutine与其同级(和父级)相关联的信息,例如 客户端的远程地址 或 主题/通道名称。
日志是冗长的,但不是说需要冗长的日志。nsqd倾向于在发生故障时在日志中提供更多信息,而不是尝试以牺牲有用性来减少闲谈(chattiness)。