保姆级操作指南在第四点
一、工作流整体概览
该工作流(该工作流源自博主:‘秋芝2046’)的核心功能是每日定时从4个AI相关RSS源抓取新闻,筛选当日内容后通过LLM整理格式,最终统一存入飞书多维表格,实现ai新闻信息的自动化聚合与归档。
- 关键 节点类型:定时触发、RSS读取、数据限制、字段编辑、条件筛选、LLM处理、飞书集成
- 触发频率:每日2次(7:00和21:00)
- 数据来源:4个AI/科技类RSS源
- 最终输出:飞书多维表格(含标题、日期、内容、链接、媒体来源字段)
二、核心模块与节点配置详解
按“触发→抓取→处理→筛选→AI整理→存储”的流程,分模块拆解各节点配置。
1. 定时触发模块(2个节点)
负责设定工作流的启动时间,两个触发器分别控制早、晚两次执行。
| 节点名称 | 类型 | 核心配置参数 | 功能说明 |
|---|---|---|---|
| Schedule Trigger | 定时触发器 | 触发规则:每日7:00(triggerAtHour: 7) | 控制每日早间新闻抓取 |
| Schedule Trigger1 | 定时触发器 | 触发规则:每日21:00(triggerAtHour: 21) | 控制每日晚间新闻抓取 |
配置注意:无需额外修改时间 zone,默认与n8n服务器时区一致(建议确认服务器时区为“Asia/Shanghai”)。
2. RSS抓取模块(4个节点)
从4个指定RSS源读取新闻数据,是工作流的数据源入口。
| 节点名称 | 类型 | 核心配置参数 | 对应RSS源 |
|---|---|---|---|
| xinzhiyuan | RSS Feed Read | URL:https://plink.anyfeeder.com/weixin/AI_era;忽略SSL:关闭 | 新智元(AI时代) |
| aibase | RSS Feed Read | URL:https://rsshub.app/aibase/news;忽略SSL:关闭 | AI Base |
| tengxunkeji | RSS Feed Read | URL:https://plink.anyfeeder.com/weixin/qqtech;忽略SSL:关闭 | 腾讯科技 |
| liangziwei | RSS Feed Read | URL:https://www.qbitai.com/feed;忽略SSL:关闭 | 量子位 |
配置注意:若RSS源链接失效,需替换为对应平台最新的RSS地址;“忽略SSL”仅在链接SSL证书异常时开启。
3. 数据限制与字段编辑模块(7个节点)
对RSS抓取的原始数据进行“数量限制”和“字段映射”,统一数据格式(如提取标题、日期、内容等关键字段)。
3.1 数据限制节点(2个)
控制单RSS源的最大抓取数量,避免数据过量。
- Limit:对应“aibase”节点,限制最大条目数为6条(
maxItems: 6) - Limit1:对应“liangziwei”节点,限制最大条目数为6条(
maxItems: 6)
3.2 字段编辑节点(5个)
通过“Set”节点提取原始JSON中的字段,并添加“媒体来源”标识,统一输出字段为“标题、日期、内容、链接、媒体”。
| 节点名称 | 关联RSS源 | 核心字段映射(仅列关键配置) |
|---|---|---|
| Edit Fields1 | xinzhiyuan | 标题:{{ $json.title }};内容:{{ $json['content:encodedSnippet'] }};媒体:“国内媒体新” |
| Edit Fields | aibase | 标题:{{ $json.title }};内容:{{ $json.content }};媒体:“聚合网站” |
| Edit Fields2 | tengxunkeji | 标题:{{ $json.title }};内容:{{ $json['content:encodedSnippet'] }};媒体:“腾讯科技” |
| Edit Fields3 | liangziwei | 标题:{{ $json.title }};内容:{{ $json.content }};媒体:“国内媒体量” |
| Edit Fields4 | LLM输出 | 标题:空(需后续确认逻辑);内容:{{ $json.output['内容'] }};链接:{{ $json.output['链接'] }} |
4. 条件筛选模块(1个节点)
筛选出“当日发布”的新闻,避免历史数据重复存储。
-
节点名称:filter_today
-
核心筛选条件:通过日期对比实现,仅保留“新闻日期 = 当天日期”的数据
- 左值(新闻日期):
{{ new Date($json["日期"]).toISOString().slice(0,10) }}(提取新闻日期的“年-月-日”) - 右值(当天日期):
{{ new Date().toISOString().slice(0,10) }}(提取当前系统日期的“年-月-日”) - 运算符:等于(
equals)
- 左值(新闻日期):
5. LLM处理模块(3个节点)
通过大模型对筛选后的新闻进行“格式整理+内容摘要”,输出结构化数据。
| 节点名称 | 类型 | 核心配置参数 | 功能说明 |
|---|---|---|---|
| Ollama Chat Model | 大模型节点 | 模型:qwen3:32b | 提供LLM计算能力,为后续Chain提供模型支持 |
| Structured Output Parser | 输出解析器 | JSON Schema示例:含“标题、日期、内容、媒体、链接”字段 | 强制LLM输出符合Schema的结构化JSON,避免格式混乱 |
| Basic LLM Chain | 链节点 | 提示词:把你收到的新闻信息都整理成干净的格式,内容需要总结为摘要,以下是新闻:标题:{{ $json['标题'] }} 内容:{{ $json['内容'] }} 日期:{{ $json['日期'] }} 链接:{{ $json['链接'] }} 媒体:{{ $json['媒体'] }} | 串联“模型+解析器”,实现“输入新闻→LLM整理→结构化输出” |
配置注意:需确保n8n已安装@n8n/n8n-nodes-langchain节点包;Ollama模型需提前在服务器部署,或替换为OpenAI等云模型。
6. 飞书写入模块(1个节点)
将LLM处理后的结构化新闻数据写入飞书多维表格。
-
节点名称:Feishu Node
-
核心配置:
-
资源:
bitable(飞书多维表格) -
操作:
bitable:table:record:add(添加表格记录) -
请求体(关键字段映射):
- 标题:
{{ $json['标题'] }} - 日期:
{{ new Date($json['日期']).toLocaleString('zh-CN', { timeZone: 'Asia/Shanghai', hour12: false }).replace(/\//g, '-').replace(',', '') }}(转换为“2024-10-22 14:30:00”格式) - 内容:
{{$json['内容'].replace(/<[^>]+>/g, '').replace(/[^\p{L}\p{N}\s]/gu, '').replace(/[\r\n\t]/g, ' ')}}(去除HTML标签、特殊字符和换行) - 链接:文本“AI新闻原文”,链接地址
{{ $json["链接"].replace(/\n/g, "") }} - 媒体:
{{ $json['媒体'] }}
- 标题:
-
配置注意:需提前在飞书开放平台创建应用,获取“App ID”和“App Secret”并配置到n8n的飞书凭证中;确保应用有“多维表格写入权限”,且表格字段(标题、日期等)与请求体字段匹配。
三、节点连接与执行逻辑
1. 连接关系(核心流向)
graph TD
A[Schedule Trigger(7:00)] --> B[RSS节点(4个)]
C[Schedule Trigger1(21:00)] --> B
B --> D[Limit/Edit Fields(数据处理)]
D --> E[filter_today(筛选当日)]
E --> F[Basic LLM Chain(LLM整理)]
G[Ollama模型] --> F
H[Structured Output Parser] --> F
F --> I[Edit Fields4(字段映射)]
I --> J[Feishu Node(写入飞书)]
2. 执行顺序
- 定时触发器(7:00/21:00)启动,同时触发4个RSS节点抓取数据;
- 抓取的数据经“Limit”限制数量后,通过“Edit Fields”统一字段格式;
- 统一格式后的数据进入“filter_today”,仅保留当日新闻;
- 当日新闻传入“Basic LLM Chain”,由Ollama模型整理格式并生成摘要,经解析器输出结构化数据;
- 结构化数据经“Edit Fields4”二次映射后,由“Feishu Node”写入飞书多维表格。
四、操作指南
1. 工作流导入
- 在n8n中进入“Credentials”→“Add Credential”,→搜索选择“Feishu”;
- 随后打开n8n控制台,点击左侧“Workflows”→“Import”;
- 粘贴提供的JSON配置,点击“Import”完成导入;(工作流源自博主:“秋芝2046”)
暂时无法在飞书文档外展示此内容
2. 关键凭证配置(飞书)
- 进入飞书开放平台(open.feishu.cn),点击右上角开发者后台,创建“企业自建应用”;
- 随后进入左侧开发配置,权限管理,搜索“多维表格”,勾选全选,开通
- 左侧应用发布,应用管理与发布中,发布应用
- 在“应用凭证”中获取“App ID”和“App Secret”;
- 随后创建多维表格,表格地址中(第一个是表格token,第二个是表格id)此时看到的url中应该包含“base字段”,如下图所示:务必确保url开头包含base。如果你的不是base,而是 wiki ,说明创建的是知识库表格
如果你是 飞书 企业用户,必须在多维表格中点击分享,然后将权限设置为可编辑
- 随后配置表格字段,如下图:链接的类型为超链接
- 随后在右上角三个点处点击更多,找到添加文档应用,搜索自己刚刚配置的应用名,添加上去
- 随后打开n8n,找到飞书节点,填写飞书配置“App ID”和“App Secret”,
- 随后按如下方法填写表格ai与key(多维表格id和key位置在上面介绍了 第13点)
- 随后下方填入json请求体,保存后关联“Feishu Node”节点。飞书文档配置到此结束
{
"fields": {
"标题": "{{$json['标题']}}", "日期": "{{new Date($json['日期']).toLocaleString('zh-CN',{timeZone:'Asia/Shanghai',hour12:false}).replace(/\\//g,'-').replace(',','')}}",
"内容": "{{$json['内容']}}", "链接": { "text": "AI新闻原文", "link": "{{$json['链接'].replace(/\\n/g,'')}}"
},
"媒体": "{{$json['媒体']}}"
}
}
- 随后配置LLM,本人选用的是deepseek,方便好用便宜,想用其他模型的请自行摸索
- 打开deepseek官网,找到api平台,选择充钱,然后创建api keys,将获取到的key填入模型配置
- 好啦,现在我们的工作流就配置好啦,大家快试试吧!
3. 测试与调试
- 选中任意定时触发器节点,点击右上角“Execute Node”手动触发一次执行;
- 查看每个节点的“Execution History”,若节点报错,根据“Error Message”调整配置(如RSS链接、LLM模型、飞书权限);
- 首次测试建议关闭“Limit”节点的数量限制,确保数据流转正常后再开启。
五、注意事项
- RSS源维护:若某RSS源长期无数据,需检查链接有效性,替换为对应平台的最新RSS地址;
- 日期格式:飞书表格的“日期”字段需设置为“日期时间”类型,避免数据写入后格式异常;
- 执行日志:定期查看n8n的“Execution Logs”,若出现失败执行,及时排查(如网络波动、飞书接口限流)。