Python爬虫调度如何实现_celery与定时任务结合【教程】

Celery实现Python爬虫调度的核心是将任务标准化为异步、定时、可重试、可监控的作业,关键在于任务拆分、触发时机、失败处理与资源隔离。

用 Celery 实现 Python 爬虫调度,核心是把爬虫任务变成可异步执行、可定时触发、可重试、可监控的“标准作业”。关键不在写多少代码,而在理清任务拆分、触发时机、失败处理和资源隔离这几个环节。

一、为什么不用 APScheduler 而选 Celery?

APScheduler 适合单机轻量定时(比如每5分钟拉一次天气),但爬虫场景常需:

  • 多 worker 分布式抓取(避免单点崩溃或 IP 被封)
  • 任务排队与优先级控制(如首页 > 列表页 > 详情页)
  • 失败自动重试 + 指数退避(网络抖动、反爬响应时稳住节奏)
  • 与 Django/Flask 集成后,能从后台页面手动触发或查看任务状态

Celery 天然支持这些,尤其配合 Redis 或 RabbitMQ 做 broker,稳定性远超内存型调度器。

二、基础结构:三组件必须配齐

一个可用的 Celery 爬虫调度系统,至少包含:

  • Broker(消息中间件):推荐 Redis(简单)、RabbitMQ(高可靠)。负责暂存待执行任务。安装:pip install redis,启动:redis-server
  • Celery 实例:定义任务、配置序列化、设置重试策略。不要写在爬虫脚本里,单独建 celery_app.py
  • Worker 进程:真正运行爬虫逻辑的后台服务,启动命令:celery -A celery_app.celery worker --loglevel=info

三、爬虫任务怎么写才“可调度”?

别把整个 Scrapy 项目塞进 task 函数。应按职责拆解:

  • 入口任务(@app.task):只做参数组装和触发,例如:fetch_category.delay(category_id=123, retry_count=0)
  • 原子任务:单次 HTTP 请求 + 解析 + 存库,带明确超时和异常捕获。示例:
@app.task(bind=True, autoretry_for=(requests.RequestException,), retry_kwargs={'max_retries': 3, 'countdown': 60})
def fetch_page(self, url):
    try:
        resp = requests.get(url, timeout=10)
        resp.raise_for_status()
        save_to_db(parse_html(resp.text))
    except requests.RequestException as exc:
        raise self.retry(exc=exc)

注意:bind=True 让任务能调用 self.retry()autoretry_for 自动重试指定异常;countdown 控制重试间隔(首次失败后等60秒再试)。

四、定时任务不是 cron,而是 beat + schedule

Celery Beat 是独立调度进程,读取 CELERY_BEAT_SCHEDULE 配置,向 broker 发送周期性任务。不依赖系统 crontab:

  • celery_app.py 中配置:
CELERY_BEAT_SCHEDULE = {
    'crawl-homepage-every-10-mins': {
        'task': 'tasks.fetch_page',
        'schedule': 600.0,  # 秒
        'args': ['https://example.com/']
    },
    'crawl-category-daily-at-2am': {
        'task': 'tasks.fetch_category_list',
        'schedule': crontab(hour=2, minute=0),
        'args': [1]
    }
}
  • 启动调度器:celery -A celery_app.celery beat --loglevel=info
  • 注意:beat 和 worker 可运行在不同机器,只要连同一个 Redis 即可协同

五、实战提醒:几个容易踩的坑

  • 全局变量/数据库连接不能跨 task 复用:每个 task 是独立进程/线程,连接对象要每次新建或用连接池(如 SQLAlchemy 的 scoped_session)
  • 不要在 task 里 sleep() 控制频率:该用 rate_limit='1/m'throttle 插件限制单位时间调用次数
  • 日志别打屏,统一走 Celery 日志系统:配置 CELERY_WORKER_LOG_FORMAT,方便用 ELK 或 Sentry 收集异常
  • 敏感参数(如 Cookie、Token)别硬编码在 schedule 里:改用数据库查或环境变量注入,避免定时任务重启就失效

不复杂但容易忽略。把任务当接口写,把调度当服务用,爬虫才能长期稳住。