我用 OpenClaw 搭建了自动化内容创作工作流,每天节省 2 小时

3 阅读6分钟

作为一个运维工程师,我同时在做内容创作(知乎/掘金/快手)。

之前每天要花 3-4 小时:

  • 找选题:30 分钟
  • 写草稿:60-90 分钟
  • 发布 + 回复:30 分钟
  • 数据统计:30 分钟

现在每天花 1 小时:

  • 审核草稿:20 分钟
  • 发布 + 回复:20 分钟
  • 其他自动化处理

每天节省 2 小时,一个月就是 60 小时。

今天分享一下我是怎么用 OpenClaw 搭建自动化工作流的。


一、OpenClaw 是什么?

简单说,OpenClaw 是一个 AI 自动化框架,可以帮你:

  • 定时执行任务(类似 cron,但更智能)
  • 调用各种技能(搜索/数据抓取/内容生成)
  • 自动提醒 + 日报汇总
  • 管理子代理(多任务并行)

核心优势:

  • 技能生态丰富(clawhub.com 有现成技能)
  • 配置简单(相比自己写脚本)
  • 可扩展(支持自定义技能)

二、我的工作流架构

┌─────────────────────────────────────────────────────┐
│                   我的工作流                         │
├─────────────────────────────────────────────────────┤
│                                                     │
│  🌅 早间 (08:00)                                    │
│  ├─ 自动获取知乎热榜                                 │
│  ├─ 筛选 5-10 个潜力问题                              │
│  └─ 生成工作看板                                     │
│                                                     │
│  ☀️ 下午 (15:00)                                    │
│  ├─ 更新热榜数据                                     │
│  ├─ 检查评论/邀请                                   │
│  └─ 提醒发布草稿                                     │
│                                                     │
│  🌙 晚间 (22:00)                                    │
│  ├─ 汇总日报(阅读/赞同/评论)                        │
│  ├─ 筛选明日问题                                     │
│  └─ 发送总结到飞书/邮箱                              │
│                                                     │
└─────────────────────────────────────────────────────┘

三、核心功能实现

1. 知乎热榜自动获取

技能: zhihu-fetcher

配置:

# 安装技能
clawhub install zhihu-fetcher

# 自动获取 Cookie(关键!)
bash /root/.openclaw/workspace/skills/zhihu-fetcher/scripts/auto_extract_cookie.sh

效果:

  • 每天 08:00/15:00/22:00 自动获取热榜
  • 自动保存到 SQLite 数据库
  • 生成 HTML 可视化报告

代码示例:

# scripts/save_to_db.py
import sqlite3
from datetime import datetime

# 获取热榜并保存
def fetch_hot_list(limit=50):
    # 调用知乎 API
    # 保存到数据库
    # 生成报告
    pass

2. Cookie 自动更新(解决痛点!)

之前最烦的就是 Cookie 过期,每天都要手动更新。

现在我写了个脚本,自动处理:

#!/bin/bash
# auto_extract_cookie.sh

# 1. 检查 Firefox 是否运行 → 自动关闭
# 2. 检查 Cookie 是否过期(>24 小时)
# 3. 自动打开 Firefox → 登录 → 提取 Cookie
# 4. 更新配置文件
# 5. 测试配置是否生效

定时任务:

# 每天凌晨 3 点自动检查
0 3 * * * bash /root/.openclaw/workspace/skills/zhihu-fetcher/scripts/check_and_update_cookie.sh

从此 Cookie 再也不用管了!


3. 问题筛选自动化

之前: 人工刷热榜,一个个看哪些值得回答
现在: 自动筛选,输出推荐列表

筛选逻辑:

def select_questions(hot_list):
    """
    筛选标准:
    1. 热度 > 50(保证流量)
    2. 匹配我的领域(运维/AI/副业)
    3. 竞争度适中(回答数 < 100)
    4. 问题质量(有细节描述)
    """
    filtered = []
    for question in hot_list:
        if question.heat > 50 and \
           question.matches_my_topics() and \
           question.answer_count < 100:
            filtered.append(question)
    return filtered[:10]  # 推荐 Top 10

输出示例:

## 🎯 推荐回答 TOP 5

1. token 译名迫在眉睫,为何难翻译? (92 热度)
   创作方向:AI 翻译 + 技术术语

2. 24GB 和 48GB 内存是最均衡方案吗? (68 热度)
   创作方向:运维实战 + 服务器配置

4. 草稿自动生成

技能: 内置 AI 写作

流程:

1. 选择问题 → 2. AI 生成草稿 → 3. 人工审核 → 4. 发布

提示词模板:

你是一个运维工程师,在知乎分享实战经验。

写作要求:
1. 用第一人称,真实经历
2. 有案例/数据支撑
3. 给出可操作建议
4. 语气真诚,不装专家
5. 字数 1000-1500 字

问题:{question}
我的经历:{my_experience}

生成效果:

  • 初稿质量 80 分
  • 人工修改 20 分钟
  • 比从头写快 3 倍

5. 数据自动统计

之前: 每天手动登录后台,复制数据
现在: 自动获取,生成报表

输出示例:

## 📊 数据日报(2026-03-24)

### 知乎
| 指标 | 数值 | 较前日 |
|------|------|--------|
| 总阅读 | 8,873 | +43 |
| 总赞同 | 53 | +2 |
| 总评论 | 22 | +1 |

### 掘金
| 指标 | 数值 | 较前日 |
|------|------|--------|
| 总展现 | 7,245 | +63 |
| 总阅读 | 200 | +17 |

报警阈值:

# 单篇回答阅读 > 1 万 → 发送飞书通知
# 单篇文章阅读 > 1000 → 发送飞书通知
# 有任何收入进账 → 发送邮件通知

四、效果对比

时间对比

任务之前现在节省
找选题30 分钟0100%
写草稿90 分钟20 分钟78%
数据统计30 分钟0100%
每日总计150 分钟20 分钟87%

质量对比

指标之前现在提升
日均发布0.5 篇1.5 篇200%
平均阅读50080060%
互动率2%4%100%

原因:

  • 发布频率提高(算法推荐更多)
  • 有更多时间优化内容质量
  • 数据驱动选题(更精准)

五、技术栈

组件技术说明
框架OpenClaw自动化框架
语言Python + Bash脚本开发
数据库SQLite本地存储
定时任务Cron系统级调度
通知飞书 API + SMTP消息推送
AI 模型Qwen3.5-Plus内容生成

六、部署指南

1. 安装 OpenClaw

# 官方安装脚本
curl -fsSL https://openclaw.ai/install.sh | bash

# 配置
openclaw configure

2. 安装技能

# 搜索技能
clawhub search zhihu

# 安装技能
clawhub install zhihu-fetcher
clawhub install multi-search-engine

# 安全审查(重要!)
clawhub inspect zhihu-fetcher

3. 配置定时任务

# 编辑 crontab
crontab -e

# 添加任务
0 8 * * * openclaw wake "早间工作流"
0 15 * * * openclaw wake "下午工作流"
0 22 * * * openclaw wake "晚间日报"

4. 配置通知

# 飞书(备用)
export FEISHU_APP_ID=cli_xxx
export FEISHU_APP_SECRET=xxx

# 邮箱(主要)
export SMTP_SERVER=smtp.qq.com
export SMTP_USER=your_email@qq.com

七、踩坑记录

坑 1: Cookie 频繁过期

问题: 知乎 Cookie 每天过期,要手动更新
解决: 写自动提取脚本,每天凌晨检查更新

坑 2: 技能安全问题

问题: 有些技能有安全风险(被 VirusTotal 标记)
解决:

  • 安装前用 skill-vetter 审查
  • 只安装高信誉作者的技能
  • 敏感操作手动确认

坑 3: 平台数据无法自动获取

问题: 知乎/掘金/快手的个人后台数据无法自动获取
解决:

  • 接受限制,每周手动刷新 1-2 次
  • 专注公开数据(热榜/搜索)
  • 精力放在内容创作上

八、总结

这套工作流给我带来的价值:

  1. 时间自由 - 每天节省 2 小时,陪家人/学习/休息
  2. 效率提升 - 发布频率提高 3 倍,流量增长 60%
  3. 数据驱动 - 自动统计,快速迭代
  4. 可扩展 - 随时添加新技能/新功能

适合人群:

  • 内容创作者(知乎/掘金/公众号)
  • 自媒体运营
  • 需要定时执行任务的开发者
  • 想解放双手的运维工程师

不适合人群:

  • 只想白嫖,不想投入时间学习
  • 完全不懂技术,希望一键搞定
  • 对数据隐私极度敏感(需要本地部署)

九、资源链接


最后说一句:

自动化不是目的,解放时间去创造更大价值才是。

我节省下来的 2 小时,用来:

  • 陪孩子(无价)
  • 学习新技术(投资自己)
  • 探索新机会(搞钱)

这才是自动化的意义。


如果这篇文章对你有帮助,欢迎点赞/收藏/评论交流。

有问题也可以私信我,看到都会回复。