onion(celery的介绍和使用)
celery介绍
celery是一个异步任务框架 ,它可以执行异步任务 、延迟任务 、定时任务
异步任务框架简述:
1)celery可以不依赖任何服务器 ,通过自身命令,启动服务(内部支持socket) 2)celery服务为为其他项目服务提供异步解决任务需求的 注:会有两个服务同时运行 ,一个是项目服务 ,一个是celery服务 ,项目服务将需要异步处理的任务交给celery服务 ,celery就会在需要时异步完成项目的需求Celery架构
Celery的架构由三部分组成 ,消息中间件(message broker)、任务执行单元(worker)和 任务执行结果存储(task result store)组成 。
消息中间件Celery本身不提供消息服务 ,但是可以方便的和第三方提供的消息中间件集成 。包括 ,RabbitMQ, Redis等等
任务执行单元Worker是Celery提供的任务执行的单元 ,worker并发的运行在分布式的系统节点中 。
任务结果存储Task result store用来存储Worker执行的任务的结果 ,Celery支持以不同方式存储任务的结果,包括AMQP, redis等
使用场景
异步执行:解决耗时任务,将耗时操作任务提交给Celery去异步执行 ,比如发送短信/邮件 、消息推送 、音视频处理等等
延迟执行:解决延迟任务
定时执行:解决周期(周期)任务,比如每天数据统计
Celery的安装配置
pip install celery gevent
windows环境下启动celery
# module为python module名 celery -A <module> worker -l info -P gevent celery执行异步任务采用包架构封装(多任务结构)
在项目文件project下新建一个celery包
project ├── celery_task # celery包 │ ├── __init__.py # 包文件 │ ├── celery.py # celery连接和配置相关文件 ,且名字必须叫celery.py │ └── tasks.py # 所有任务函数 ├── add_task.py # 添加任务 └── get_result.py # 获取结果celery.py
# 导入模块 from celery import Celery # 指定任务中间件和任务处理仓库为redis里的第一个库,后面1表示第一个 ,2表示第二个 。 broker = redis://127.0.0.1:6379/1 backend = redis://127.0.0.1:6379/2 # backend=redis://:123456@127.0.0.1:6379/1 redis加密码写法 # include列表里表示celery_task包里的task.py交给app处理 app = Celery(__name__,broker=broker, backend=backend, include=[celery_task.tasks])task.py
from .celery import app import time @app.task #添加该装饰器表示这个函数任务使用了celery框架的异步处理 def add(n, m): print(n) print(m) time.sleep(10) print(n+m的结果:%s % (n + m)) return n + m @app.task def low(n, m): print(n) print(m) print(n-m的结果:%s % (n - m)) return n - madd_task.py
这个py文件是用来添加任务的 ,可以建在任意位置 from celery_task import tasks # 添加立即执行任务 t1 = tasks.add.delay(10, 20) t2 = tasks.low.delay(100, 50) print(t1) # 获取的就是这个任务的id号 # 添加延迟任务 from datetime import datetime, timedelta eta=datetime.utcnow() + timedelta(seconds=10) tasks.low.apply_async(args=(200, 50), eta=eta)get_result.py
这个py文件是用来获取任务处理的结果的 from celery_task.celery import app from celery.result import AsyncResult id = 21325a40-9d32-44b5-a701-9a31cc3c74b5 #输入任务的id号 if __name__ == __main__: async = AsyncResult(id=id, app=app) if async.successful(): #如果这个任务执行成功 result = async.get() #得到结果 print(result) elif async.failed(): print(任务失败) elif async.status == PENDING: print(任务等待中被执行) elif async.status == RETRY: print(任务异常后正在重试) elif async.status == STARTED: print(任务已经开始被执行) celery执行延迟任务在add_task.py里书写:
# 添加延迟任务 from datetime import datetime, timedelta # datetime.utcnow()表示获取当前的utc时间,timedelta(seconds=10)表示加10秒timedelta括号里之后是时间类型 ,可以相加减 eta=datetime.utcnow() + timedelta(seconds=10) # 使用的是apply_async这个方法 ,tasks.add这个是函数名 ,args括号里是函数add需要传的参数 ,eta必须是utc时间 tasks.add.apply_async(args=(200, 50), eta=eta) celery执行定时任务将celery.py添加以下定时配置
# 导入模块 from celery import Celery # 指定任务中间件和任务处理仓库为redis里的第一个库 ,后面1表示第一个 ,2表示第二个 。 broker = redis://127.0.0.1:6379/1 backend = redis://127.0.0.1:6379/2 # backend=redis://:123456@127.0.0.1:6379/1 redis加密码写法 # include列表里表示celery_task包里的task.py交给app处理 app = Celery(__name__,broker=broker, backend=backend, include=[celery_task.tasks]) # 定时任务配置 # 时区 app.conf.timezone = Asia/Shanghai # 是否使用UTC app.conf.enable_utc = False # 任务的定时配置 from datetime import timedelta from celery.schedules import crontab app.conf.beat_schedule = { add-task: { task: celery_task.tasks.add, # celery_task.tasks.low这个是你函数任务的位置 ,task是固定的 schedule: timedelta(seconds=3), # 每隔三秒执行一次 # schedule: crontab(hour=8, day_of_week=1), # 每周一早八点 args: (300, 150), # 函数任务需要传入的参数 } }然后在终端下cd到scripts文件夹
执行celery -A celery_task beat
表示开始定时发布任务创心域SEO版权声明:以上内容作者已申请原创保护,未经允许不得转载,侵权必究!授权事宜、对本内容有异议或投诉,敬请联系网站管理员,我们将尽快回复您,谢谢合作!