消息队列

44 阅读11分钟

队列

队列的是一种先进先出的数据结构,下面用python演示一下队列的作用

import queue
q=queue.Queue(maxsize=10)
q.put(111)
q.put(222)
q.put(333)
print(q.get())
print(q.get())
print(q.get())
print(q.get())

输出结果

111
222
333

如果再获取一次,程序就会阻塞q.get(),直到有新的数据 如果获取的时候传递一个参数,block=False,那么程序就会直接报错

Traceback (most recent call last):
  File "<pyshell#4>", line 1, in <module>
    q.get(block=False)
_queue.Empty

什么是消息队列(MQ)

MQ全称为Message Queue 消息队列(MQ)是一种应用程序对应用程序的通信方法。MQ是消费-生产者模型的一个典型的代表,一端往消息队列中不断写入消息,而另一端则可以读取队列中的消息。这样发布者和使用者都不用知道对方的存在。

消息队列的作用

消息队列中间件是分布式系统中重要的组件,主要解决应用解耦,异步消息,流量削锋等问题,实现高性能,高可用,可伸缩和最终一致性架构。目前使用较多的消息队列有ActiveMQ,RabbitMQ,ZeroMQ,Kafka,MetaMQ,RocketMQ。

解耦

这个还是比较好理解的,不同模块或者系统之间,通过消息队列作为中间者,只需要通过消息队列传递信息。彼此之间并不强关联,只要存储和获取消息,至于消息怎么处理彼此并不关心。

异步消息

这个也很好理解,系统之间传递和接收消息,彼此之间并不需要等待响应。

流量消峰

将请求放入消息队列,对于系统的多个服务器,每个服务器从消息队列获取请求并处理,这样就避免了服务器崩溃

查看下面外卖这个例子

  • 解耦
  • 异步 不同系统之间通过消息队列通信,不关心彼此的处理,不需要返回 image.png
  • 流量消峰

image.png

有哪些消息队列

目前使用较多的消息队列有ActiveMQ,RabbitMQ,ZeroMQ,Kafka,MetaMQ,RocketMQ。

RabbitMQ

RabbitMQ 是一个由 Erlang 语言开发的 AMQP 的开源实现。

rabbitMQ是一款基于AMQP协议的消息中间件,它能够在应用之间提供可靠的消息传输。在易用性,扩展性,高可用性上表现优秀。使用消息中间件利于应用之间的解耦,生产者(客户端)无需知道消费者(服务端)的存在。而且两端可以使用不同的语言编写,大大提供了灵活性。

官方文档 RabbitMQ tutorial - "Hello world!" | RabbitMQ

RabbitMQ常用的几种模式

  • 简单模式
  • 交换机模式
    • 发布订阅
    • 关键字模式
    • 模糊匹配

简单模式

生产者消费者

操作步骤

  • 生产者:
    • 1 连接rabbitmq
    • 2 创建队列
    • 3 向指定队列插入数据
  • 消费者
    • 1 链接rabbitmq
    • 2 监听模式
    • 3 确定回调函数
### 生产者
import pika

# 连接rabbitmq
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
# 连接通道
channel = connection.channel()
# 创建队列,参数队列名称
channel.queue_declare(queue='hello')
# 向指定队列插入数据 
channel.basic_publish(exchange='',   # 简单模式,交换机为空
                      routing_key='hello',  # 指定队列
                      body='Hello World!')  # 指定数据

print(" [x] Sent 'Hello World!'")

### 消费者

import pika

# 连接rabbitmq
connection = pika.BlockingConnection(pika.ConnectionParameters('localhost'))
# 连接通道
channel = connection.channel()
# 创建队列,生产者和消费者无法确定启动的先后,但是需要有一个队列
channel.queue_declare(queue='hello')
# 回调函数
def callback(ch, method, properties, body):
    # ch, method, properties属性参数
    # body 从消息队列中获取到的数据
    print(" [x] Received %r" % body)

# 确定监听队列
channel.basic_consume(queue='hello', # 监听hello队列
                      auto_ack=True, # 自动应答
                      on_message_callback=callback) # 获取到消息后执行的回调函数
                     

print(' [*] Waiting for messages. To exit press CTRL+C')
# 开始消费(监听)
channel.start_consuming()

交换机模式

发布订阅fanout

生产者会创建一个交换机,每个生产者会创建一个队列,队列绑定到交换机,每当交换机有数据就会发送给所有订阅者相同的数据。也就是一对多发送消息 image.png

# 生产者
import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()
# 声明一个名为logs类型为fanout交换机
channel.exchange_declare(exchange='logs',  # 交换机名称
                         exchange_type='fanout') # 发布订阅模式
# logs交换机插入数据
message = "info: Hello World!"
channel.basic_publish(exchange='logs', # 交换机名称
                      routing_key='',
                      body=message)
print(" [x] Sent %r" % message)
connection.close()

# 消费者
import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
# 声明一个交换机,无法确定生产者和消费者谁先启动,先创建一个交换机
channel.exchange_declare(exchange='logs',
                         exchange_type='fanout')
# 创建一个队列,exclusive随机生成队列名字
result = channel.queue_declare("",exclusive=True)
# 获取队列名字
queue_name = result.method.queue
# 将指定队列绑定对交换机上
channel.queue_bind(exchange='logs',
                   queue=queue_name)

print(' [*] Waiting for logs. To exit press CTRL+C')

def callback(ch, method, properties, body):
    print(" [x] %r" % body)


channel.basic_consume(queue=queue_name,
                      auto_ack=True,
                      on_message_callback=callback)

channel.start_consuming()
关键字模式

这个模式是对发布订阅模式的增强,使得可以根据关键字筛选消息。

与普通的发布订阅模式不同的是,生产者在发布数据的时候会绑定一个关键字,消费者获取的时候也会绑定关键字 image.png

# 生产者
import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()
# 声明一个名为logs类型为fanout交换机
channel.exchange_declare(exchange='logs2',  # 交换机名称
                         exchange_type='direct') # 关键字模式
# logs交换机插入数据
message = "info: Hello World!"
channel.basic_publish(exchange='logs2', # 交换机名称
                      routing_key='info', # 相比多了这么一个参数
                      body=message)
print(" [x] Sent %r" % message)
connection.close()

# 消费者
import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
# 声明一个交换机,无法确定生产者和消费者谁先启动,先创建一个交换机
channel.exchange_declare(exchange='logs2',
                         exchange_type='direct')
# 创建一个队列,exclusive随机生成队列名字
result = channel.queue_declare("",exclusive=True)
# 获取队列名字
queue_name = result.method.queue
# 将指定队列绑定对交换机上
channel.queue_bind(exchange='logs2',
                   queue=queue_name,
                   routing_key='error')# 多了这么一步绑定一个关键字
#绑定多个关键字
channel.queue_bind(exchange='logs2',
                   queue=queue_name,
                   routing_key='info')

channel.queue_bind(exchange='logs2',
                   queue=queue_name,
                   routing_key='warnning')
                   
print(' [*] Waiting for logs. To exit press CTRL+C')

def callback(ch, method, properties, body):
    print(" [x] %r" % body)


channel.basic_consume(queue=queue_name,
                      auto_ack=True,
                      on_message_callback=callback)

channel.start_consuming()

交换机之通配符

通配符交换机”与之前的路由模式相比,它将信息的传输类型的key更加细化,以“key1.key2.keyN....”的模式来指定信息传输的key的大类型和大类型下面的小类型,让消费者可以更加精细的确认自己想要获取的信息类型。而在消费者一段,不用精确的指定具体到哪一个大类型下的小类型的key,而是可以使用类似正则表达式(但与正则表达式规则完全不同)的通配符在指定一定范围或符合某一个字符串匹配规则的key,来获取想要的信息。

“通配符交换机”(Topic Exchange)将路由键和某模式进行匹配。此时队列需要绑定在一个模式上。符号#匹配一个或多个词,符号*仅匹配一个词。因此“audit.#”能够匹配到“audit.irs.corporate”,但是“audit.”只会匹配到“audit.irs”。(这里与我们一般的正则表达式的“”和“#”刚好相反,这里我们需要注意一下。)
下面是一个解释通配符模式交换机工作的一个样例

image.png 上面的交换机制类似于一个国际新闻讯息网站的机制。


# 看起来使不出差别不大,就是交换机的类型和路由的关键字不一样

# 生产者
import pika

connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='logs3',
                         exchange_type='topic')   # 交换机类型topic

message = "info: Hello ERU!"
channel.basic_publish(exchange='logs3',
                          routing_key='europe.weather',   # 路由关键字
                      body=message)
print(" [x] Sent %r" % message)
connection.close()

# 消费者

import pika
import sys

connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()

channel.exchange_declare(exchange='logs3',
                         exchange_type='topic')  # 交换机类型topic

result = channel.queue_declare("",exclusive=True)
queue_name = result.method.queue



channel.queue_bind(exchange='logs3',
                   queue=queue_name,
                   routing_key="#.news")   # 路由关键字

print(' [*] Waiting for logs. To exit press CTRL+C')

def callback(ch, method, properties, body):
    print(" [x] %r" % body)


channel.basic_consume(queue=queue_name,
                      auto_ack=True,
                      on_message_callback=callback)

channel.start_consuming()

参数的使用

应答参数

是否自动应答,参数默认为True,也就是说消费者程序获取完之后就自动应答了,消息就从消息队列中移除了。是否启用自动应答看场景需求。

那么想想这么一种情况,在消费者程序中的回调函数执行出错了,程序未处理完成,消息不见了,这种时间手动应答的作用就体现出来了,当程序崩溃了,处理完bug重启消费者程序就还能获取到消息。

设置为手动应答auto_ack=False

手动确认应答 ch.basic_ack(delivery_tag=method.delivery_tag)

持久化参数

持久化,数据存储到硬盘中,其作用是希望rabbitmq中途崩溃了,能够从持久化数据中恢复。

在生产者和消费者声明队列的使用需要加上参数durable=True,将队列变成可持久化队列。然后生产者在发布消息basic_publish的时候,需要添加一个参数delivery_mode=2,使当前这条消息持久化

#声明queue
# 声明一个可持久化队列,durable=True
channel.queue_declare(queue='hello2', ,durable=True)  # 若声明过,则换一个名字

channel.basic_publish(exchange='',
                      routing_key='hello2',
                      body='Hello World!',
                      properties=pika.BasicProperties(
                          delivery_mode=2,  # make message persistent,对当前这条消息起作用
                          )
                      )

分发参数

有两个消费者同时监听一个的队列。其中一个线程sleep2秒,另一个消费者线程sleep1秒,但是处理的消息是一样多。这种方式叫轮询分发(round-robin)不管谁忙,都不会多给消息,总是你一个我一个。想要做到公平分发(fair dispatch),必须关闭自动应答ack,改成手动应答。使用basicQos(perfetch=1)限制每次只发送不超过1条消息到同一个消费者,消费者必须手动反馈告知队列,才会发送下一个。

channel.basic_qos(prefetch_count``=``1``)

基于rabbitmq的RPC实现

rpc的实现

image.png 如图我们可以看出生产端client向消费端server请求处理数据,他会经历如下几次来完成交互。

  • 1.生产端 生成rpc_queue队列,这个队列负责帮消费者 接收数据并把消息发给消费端。
  • 2.生产端 生成另外一个随机队列,这个队列是发给消费端,消费这个用这个队列把处理好的数据发送给生产端。
  • 3.生产端 生成一组唯一字符串UUID,发送给消费者,消费者会把这串字符作为验证再发给生产者。
  • 4.当消费端处理完数据,发给生产端,时会把处理数据与UUID一起通过随机生产的队列发回给生产端。
  • 5.生产端,会使用while循环 不断检测是否有数据,并以这种形式来实现阻塞等待数据,来监听消费端。
  • 6.生产端获取数据调用回调函数,回调函数判断本机的UUID与消费端发回UID是否匹配,由于消费端,可能有多个,且处理时间不等所以需要判断,判断成功赋值数据,while循环就会捕获到,完成交互。

client

import pika
import uuid
import time

# 斐波那契数列 前两个数相加依次排列
class FibonacciRpcClient(object):
    def __init__(self):
        # 赋值变量,一个循环值
        self.response = None
        # 链接远程
        self.connection = pika.BlockingConnection(pika.ConnectionParameters(
                host='localhost'))
        self.channel = self.connection.channel()

        # 生成随机queue
        result = self.channel.queue_declare("",exclusive=True)
        # 随机取queue名字,发给消费端
        self.callback_queue = result.method.queue

        # self.on_response 回调函数:只要收到消息就调用这个函数。
        # 声明收到消息后就 收queue=self.callback_queue内的消息


        self.channel.basic_consume(queue=self.callback_queue,
                                   auto_ack=True,
                              on_message_callback=self.on_response)

    # 收到消息就调用
    # ch 管道内存对象地址
    # method 消息发给哪个queue
    # body数据对象
    def on_response(self, ch, method, props, body):
        # 判断本机生成的ID 与 生产端发过来的ID是否相等
        if self.corr_id == props.correlation_id:
            # 将body值 赋值给self.response
            self.response = body

    def call(self, n):


        # 随机一次唯一的字符串
        self.corr_id = str(uuid.uuid4())

        # routing_key='rpc_queue' 发一个消息到rpc_queue内
        self.channel.basic_publish(exchange='',
                                   routing_key='rpc_queue',
                                   properties=pika.BasicProperties(

                                         # 执行命令之后结果返回给self.callaback_queue这个队列中
                                         reply_to = self.callback_queue,
                                         # 生成UUID 发送给消费端
                                         correlation_id = self.corr_id,
                                         ),
                                   # 发的消息,必须传入字符串,不能传数字
                                   body=str(n))
        # 没有数据就循环收
        while self.response is None:
            # 非阻塞版的start_consuming()
            # 没有消息不阻塞
            self.connection.process_data_events()
            print("no msg...")
            time.sleep(0.5)
        return int(self.response)

# 实例化
fibonacci_rpc = FibonacciRpcClient()


response = fibonacci_rpc.call(50)
print(" [.] Got %r" % response)

server

#_*_coding:utf-8_*_
import pika
import time
# 链接socket
connection = pika.BlockingConnection(pika.ConnectionParameters(
        host='localhost'))
channel = connection.channel()

# 生成rpc queue
channel.queue_declare(queue='rpc_queue')

# 斐波那契数列
def fib(n):
    if n == 0:
        return 0
    elif n == 1:
        return 1
    else:
        return fib(n-1) + fib(n-2)


# 收到消息就调用
# ch 管道内存对象地址
# method 消息发给哪个queue
# props 返回给消费的返回参数
# body数据对象
def on_request(ch, method, props, body):
    n = int(body)

    print(" [.] fib(%s)" % n)
    # 调用斐波那契函数 传入结果
    response = fib(n)

    ch.basic_publish(exchange='',
                     # 生产端随机生成的queue
                     routing_key=props.reply_to,
                     # 获取UUID唯一 字符串数值
                     properties=pika.BasicProperties(correlation_id = \
                                                   props.correlation_id),
                     # 消息返回给生产端
                     body=str(response))
    # 确保任务完成
    # ch.basic_ack(delivery_tag = method.delivery_tag)

# rpc_queue收到消息:调用on_request回调函数
# queue='rpc_queue'从rpc内收
channel.basic_consume(queue="rpc_queue",
                      auto_ack=True,
                      on_message_callback=on_request)
print(" [x] Awaiting RPC requests")
channel.start_consuming()

参考文章 消息队列之真知灼见 - Mr·Yuan - 博客园 (cnblogs.com)