一、什么是Celery
1.1、celery是什么
Celery是一个简单、灵活且可靠的,处理大量消息的分布式系统,专注于实时处理的异步任务队列,同时也支持任务调度。
Celery的架构由三部分组成,消息中间件(message broker),任务执行单元(worker)和任务执行结果存储(task result store)组成。
消息中间件
Celery本身不提供消息服务,但是可以方便的和第三方提供的消息中间件集成。包括,RabbitMQ, Redis等等
任务执行单元
Worker是Celery提供的任务执行的单元,worker并发的运行在分布式的系统节点中。
任务结果存储
Task result store用来存储Worker执行的任务的结果,Celery支持以不同方式存储任务的结果,包括AMQP, redis等
另外, Celery还支持不同的并发和序列化的手段
- 并发:Prefork, Eventlet, gevent, threads/single threaded
- 序列化:pickle, json, yaml, msgpack. zlib, bzip2 compression, Cryptographic message signing 等等
1.2、使用场景
celery是一个强大的 分布式任务队列的异步处理框架,它可以让任务的执行完全脱离主程序,甚至可以被分配到其他主机上运行。我们通常使用它来实现异步任务(async task)和定时任务(crontab)。
异步任务:将耗时操作任务提交给Celery去异步执行,比如发送短信/邮件、消息推送、音视频处理等等
定时任务:定时执行某件事情,比如每天数据统计
1.3、Celery具有以下优点
Simple(简单)
Celery 使用和维护都非常简单,并且不需要配置文件。
Highly Available(高可用)
woker和client会在网络连接丢失或者失败时,自动进行重试。并且有的brokers 也支持“双主”或者“主/从”的方式实现高可用。
Fast(快速)
单个的Celery进程每分钟可以处理百万级的任务,并且只需要毫秒级的往返延迟(使用 RabbitMQ, librabbitmq, 和优化设置时)
Flexible(灵活)
Celery几乎每个部分都可以扩展使用,自定义池实现、序列化、压缩方案、日志记录、调度器、消费者、生产者、broker传输等等。
1.4、Celery安装
你可以安装Celery通过Python包管理平台(PyPI)或者源码安装
使用pip安装:
$ pip install -U Celery
或着:
$ sudo easy_install Celery
二、Celery执行异步任务
2.1、基本使用
下面用redis做示例
创建项目celerypro
创建异步任务执行文件celery_task:
# 充当消费者的角色,处理异步任务
import celery
import time
# 下方test是应用名称,broker代理,存储消息队列的地方,backend存储结果的地方
backend='redis://127.0.0.1:6379/1'
broker='redis://127.0.0.1:6379/2'
cel=celery.Celery('test',backend=backend,broker=broker)
@cel.task
def send_email(name):
print("向%s发送邮件..."%name)
time.sleep(5)
print("向%s发送邮件完成"%name)
return "ok"
创建执行任务文件,produce_task.py:
# 生产者
# 这里的send_email是我们自定义的任务函数,这个函数有什么特别的,还记得我们用@cel.task装饰器吗
from celery_task import send_email
# 生产者,"yuan"将作为任务函数的参数
result = send_email.delay("yuan")
print(result.id)
result2 = send_email.delay("alex")
print(result2.id)
注意,控制台中异步任务文件命令执行:
celery worker -A celery_app_task -l info
其中celery_app_task是你定义的模块的名称,-l info运行时显示INFO类型信息
创建py文件:result.py,查看任务执行结果,
from celery.result import AsyncResult
from celery_task import cel # celery_task为你定义的模块的名称
# 在上面produce_task.py文件中可以看到,生产者会有一个id,可以根据这个id获取结果
async_result=AsyncResult(id="c6ddd5b7-a662-4f0e-93d4-ab69ec2aea5d", app=cel)
if async_result.successful():
result = async_result.get()
print(result)
# result.forget() # 将结果删除
elif async_result.failed():
print('执行失败')
elif async_result.status == 'PENDING':
print('任务等待中被执行')
elif async_result.status == 'RETRY':
print('任务异常后正在重试')
elif async_result.status == 'STARTED':
print('任务已经开始被执行')
2.1、多任务结构
不难看出下方celery.py充当消费者,produce_task.py为生产者
celery.py:
from celery import Celery
cel = Celery('celery_demo',
broker='redis://127.0.0.1:6379/1',
backend='redis://127.0.0.1:6379/2',
# 包含以下两个任务文件,去相应的py文件中找任务,对多个任务做分类
include=['celery_tasks.task01',
'celery_tasks.task02'
])
# 可以配置其他的一些配置
# 时区
cel.conf.timezone = 'Asia/Shanghai'
# 是否使用UTC
cel.conf.enable_utc = False
task01.py,task02.py:
#task01
import time
from celery_tasks.celery import cel
@cel.task
def send_email(res):
time.sleep(5)
return "完成向%s发送邮件任务"%res
#task02
import time
from celery_tasks.celery import cel
@cel.task
def send_msg(name):
time.sleep(5)
return "完成向%s发送短信任务"%name
produce_task.py:
from celery_tasks.task01 import send_email
from celery_tasks.task02 import send_msg
# 立即告知celery去执行test_celery任务,并传入一个参数
result = send_email.delay('yuan')
print(result.id)
result = send_msg.delay('yuan')
print(result.id)
check_result.py:
from celery.result import AsyncResult
from celery_tasks.celery import cel
async_result = AsyncResult(id="562834c6-e4be-46d2-908a-b102adbbf390", app=cel)
if async_result.successful():
result = async_result.get()
print(result)
# result.forget() # 将结果删除,执行完成,结果不会自动删除
# async.revoke(terminate=True) # 无论现在是什么时候,都要终止
# async.revoke(terminate=False) # 如果任务还没有开始执行呢,那么就可以终止。
elif async_result.failed():
print('执行失败')
elif async_result.status == 'PENDING':
print('任务等待中被执行')
elif async_result.status == 'RETRY':
print('任务异常后正在重试')
elif async_result.status == 'STARTED':
print('任务已经开始被执行')
开启work:celery worker -A celery_task -l info -P eventlet,添加任务(执行produce_task.py),检查任务执行结果(执行check_result.py)
上述命令各参数解释:
- celery worker: - 这是启动Celery worker进程的命令。worker是Celery中负责执行任务的实际进程。它监听消息队列(由broker提供),接收任务并执行它们。
- -A celery_task: -
-A或--app选项用于指定Celery应用的实例。在这个例子中,celery_task应该是一个Python模块名,该模块中应该包含一个名为celery的Celery实例。例如,在celery_task.py文件中,你可能会有类似app = Celery('celery_task')的代码。这个参数告诉Celery worker要加载哪个应用实例。- -l info: -
-l或--loglevel选项用于设置日志级别。在这个例子中,info表示将日志级别设置为信息级别。这意味着worker将记录信息级别的日志,包括任务开始、成功、失败等事件。其他可用的日志级别包括debug(详细调试信息)、warning(警告信息)、error(错误信息)和critical(严重错误信息)。- -P eventlet: -
-P或--pool选项用于指定worker使用的并发池类型。在这个例子中,eventlet是一种异步I/O库,它允许在单个线程中并发执行多个I/O操作。使用eventlet作为并发池类型,可以使Celery worker能够更有效地处理I/O密集型任务,如网络请求或数据库查询。然而,需要注意的是,eventlet可能不适用于所有类型的任务,特别是那些依赖于多线程或多进程的CPU密集型任务。
三、Celery执行定时任务
设定时间让celery执行一个定时任务,produce_task.py:
from celery_task import send_email
from datetime import datetime
# 方式一
# 可以看出这里v2是v1转化为时间戳而来的,这里v1写的是一个固定的时间
v1 = datetime(2020, 3, 11, 16, 19, 00)
print(v1)
v2 = datetime.utcfromtimestamp(v1.timestamp())
print(v2)
# 可以注意到这里使用了apply_async方法,他与delay的作用类似,不过提供了更多的参数选项,
# `delay`方法只接受任务函数所需的参数(`args`和`kwargs`)
result = send_email.apply_async(args=["egon",], eta=v2)
print(result.id)
# 方式二
ctime = datetime.now()
# 默认用utc时间
utc_ctime = datetime.utcfromtimestamp(ctime.timestamp())
from datetime import timedelta
time_delay = timedelta(seconds=10)
task_time = utc_ctime + time_delay
# 使用apply_async并设定时间
# 这里的task_time是根据当前的时间加上时间间隔而来的
result = send_email.apply_async(args=["egon"], eta=task_time)
print(result.id)
多任务结构中celery.py修改如下:
from datetime import timedelta
from celery import Celery
from celery.schedules import crontab
cel = Celery('tasks', broker='redis://127.0.0.1:6379/1', backend='redis://127.0.0.1:6379/2', include=[
'celery_tasks.task01',
'celery_tasks.task02',
])
cel.conf.timezone = 'Asia/Shanghai'
cel.conf.enable_utc = False
# 这里定义了beat_schedule,配置了一个定时任务
cel.conf.beat_schedule = {
# 名字随意命名
'add-every-10-seconds': {
# 执行tasks1下的test_celery函数
'task': 'celery_tasks.task01.send_email',
# 每隔2秒执行一次
# 'schedule': 1.0,
# 'schedule': crontab(minute="*/1"),
'schedule': timedelta(seconds=6),
# 传递参数
'args': ('张三',)
},
# 'add-every-12-seconds': {
# 'task': 'celery_tasks.task01.send_email',
# 每年4月11号,8点42分执行
# 'schedule': crontab(minute=42, hour=8, day_of_month=11, month_of_year=4),
# 'args': ('张三',)
# },
}
启动 Beat 程序
$ celery beat -A projCelery Beat进程会读取配置文件的内容,周期性的将配置中到期需要执行的任务发送给任务队列`
之后启动 worker 进程
.$ celery -A proj worker -l info或者$ celery -B -A proj worker -l info
四、Django中使用celery
四、Django中使用celery
项目编写使用celery模块,放到django项目的根目录中,从前面的内容可以看出,celery的生产者和消费者的代码的耦合的,所以似乎应当是这么回事,如果你期望把django项目和celery项目放到不同的地方,比如部署到不同的服务器上,也应当复制一份你所编写的celery代码对django项目中方便业务代码的编写。
如果你有更好的方法请在评论去分享一下
项目根目录创建celery包,目录结构如下:
mycelery/
├── config.py
├── __init__.py
├── main.py
└── sms/
├── __init__.py
├── tasks.py
配置文件config.py:
broker_url = 'redis://127.0.0.1:6379/15'
result_backend = 'redis://127.0.0.1:6379/14'
任务文件tasks.py:
celery的任务必须写在tasks.py的文件中,别的文件名称不识别!!!
# celery的任务必须写在tasks.py的文件中,别的文件名称不识别!!!
from mycelerys.main import app
import time
import logging
log = logging.getLogger("django")
@app.task # name表示设置任务的名称,如果不填写,则默认使用函数名做为任务名
def send_sms(mobile):
"""发送短信"""
print("向手机号%s发送短信成功!"%mobile)
time.sleep(5)
return "send_sms OK"
@app.task # name表示设置任务的名称,如果不填写,则默认使用函数名做为任务名
def send_sms2(mobile):
print("向手机号%s发送短信成功!" % mobile)
time.sleep(5)
return "send_sms2 OK"
最后在main.py主程序中对django的配置文件进行加载
# 主程序
import os
from celery import Celery
# 创建celery实例对象
app = Celery("sms")
# 把celery和django进行组合,识别和加载django的配置文件
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'celeryPros.settings.dev')
# 通过app对象加载配置
app.config_from_object("mycelerys.config")
# 加载任务
# 参数必须必须是一个列表,里面的每一个任务都是任务的路径名称
# app.autodiscover_tasks(["任务1","任务2"])
app.autodiscover_tasks(["mycelerys.sms",])
# 启动Celery的命令
# 强烈建议切换目录到mycelery根目录下启动
# celery -A mycelery.main worker --loglevel=info
Django视图调用:
from django.shortcuts import render
# Create your views here.
from django.shortcuts import render,HttpResponse
from mycelerys.sms.tasks import send_sms,send_sms2
from datetime import timedelta
from datetime import datetime
def test(request):
################################# 异步任务
# 1. 声明一个和celery一模一样的任务函数,但是我们可以导包来解决
# send_sms.delay("110")
# send_sms2.delay("119")
# send_sms.delay() 如果调用的任务函数没有参数,则不需要填写任何内容
################################# 定时任务
# ctime = datetime.now()
# # 默认用utc时间
# utc_ctime = datetime.utcfromtimestamp(ctime.timestamp())
# time_delay = timedelta(seconds=10)
# task_time = utc_ctime + time_delay
# result = send_sms.apply_async(["911", ], eta=task_time)
# print(result.id)
return HttpResponse('ok')
redis和rabbitMq选择那个作为消息代理呢?
redis作为信息代理,具有高吞吐低延迟的特性,但是rabbitMq支持消息确认和持久消息传递、消息确认和发布者确认等功能,以确保消息得到可靠的传递和处理。
作为消息代理的 Redis
Redis 是一种开源的内存数据结构存储,可用作 Celery 的消息代理。它以简单、高性能和多功能而闻名。以下是 Redis 作为消息代理的一些主要特点:
- 速度:Redis 的内存特性使其速度快得惊人。它能以低延迟处理高吞吐量的信息,因此适合实时和高性能应用。
- 简单:Redis 的架构简单明了。它提供了一套基本的数据结构,如字符串、列表、集合和哈希值,可用于高效地实现消息队列。
- 持久性:虽然 Redis 主要是内存存储,但它提供了快照和只附加文件(AOF)持久化等持久化选项。这允许你将消息队列数据持久化到磁盘上,以保证持久性。
-
发布/订阅消息:Redis 开箱即支持发布/订阅消息模式。这可实现实时通信,并向多个订阅者广播消息。
-
可扩展性:Redis 可通过使用 Redis 集群进行横向扩展,从而将消息队列分布到多个 Redis 节点上。这提供了更好的可扩展性和容错性。
不过,Redis 作为消息代理有一些局限性:
- 有限的消息路由:Redis 并不提供开箱即用的高级消息路由功能。它依赖于基本的数据结构,如列表和 pub/sub 通道来进行消息分发。
- 没有原生消息确认: Redis 没有对消息确认的内置支持。Celery 需要在 Redis 的基础上实现自己的确认机制,以确保可靠的消息处理。
RabbitMQ 作为消息代理
RabbitMQ 是 Celery 中另一个受欢迎的消息代理选择。它是一款功能丰富的开源消息队列软件,实现了高级消息队列协议(AMQP)。让我们探讨一下 RabbitMQ 作为消息代理的特点:
- 可靠性:RabbitMQ 在设计时充分考虑了可靠性。它提供了持久消息传递、消息确认和发布者确认等功能,以确保消息得到可靠的传递和处理。
- 高级路由:RabbitMQ 提供灵活而强大的消息路由功能。它支持各种交换类型(direct, fanout, topic, headers)密钥和模式的复杂路由方案。
- 可扩展性:RabbitMQ 可通过在单个节点上添加更多资源进行纵向扩展,也可通过将多个节点集群在一起进行横向扩展。它具有高可用性,可在多个节点之间分配消息负载。
- 管理和监控:RabbitMQ 具有用户友好的管理用户界面和一套监控工具。这些工具可让您深入了解队列统计、消息速率和整个系统的健康状况。
- 插件生态系统:RabbitMQ 拥有丰富的插件生态系统,可扩展其功能。插件可添加消息跟踪、延迟消息传递和与其他系统集成等功能。
不过,RabbitMQ 也有一些注意事项:
- 更高的复杂性:与 Redis 相比,RabbitMQ 的架构和设置过程更为复杂。它需要更多的配置和对 AMQP 概念的理解。
- 资源开销:由于功能丰富,RabbitMQ 需要比 Redis 更多的资源。它可能会消耗更多内存和 CPU,尤其是在处理大量消息和复杂路由场景时。
在 Redis 和 RabbitMQ 之间做出选择
选择 Redis 还是 RabbitMQ 作为 Celery 的消息代理取决于您的具体要求和应用程序的特性。以下是一些需要考虑的因素:
- 性能:如果您的应用程序要求高吞吐量和低延迟,Redis 可能是更好的选择,因为它具有内存性质且简单易用。
- 可靠性:如果消息可靠性和保证交付对您的应用程序至关重要,那么 RabbitMQ 的高级功能(如消息确认和持久消息传递)将使其成为有力的竞争者。
- 路由复杂性:如果您的应用程序需要复杂的消息路由方案和高级路由功能,RabbitMQ 的交换类型和绑定选项可提供更大的灵活性。
- 可扩展性:Redis 和 RabbitMQ 都提供可扩展性选项,但 RabbitMQ 的集群和高可用性功能可能更适合大规模部署。
- 生态系统和集成:考虑每个消息代理可用的生态系统和集成选项。RabbitMQ 拥有更大的插件生态系统,支持多种编程语言和框架。
- 熟悉程度和专业知识:考虑您的团队对每个消息代理的熟悉程度和专业知识。如果您的团队之前有过使用 Redis 或 RabbitMQ 的经验,这可能会影响决策过程。
值得注意的是,Celery 同时支持 Redis 和 RabbitMQ 作为消息代理,因此您可以先使用其中一个,然后根据需要切换到另一个。您还可以将两者结合使用,根据每个任务的具体要求,在某些任务中使用 Redis,在其他任务中使用 RabbitMQ。
参考文章: