2026 Agent 元年实战:用 n8n + DeepSeek 搭建你的专属 AI 科技情报局
摘要:在 OpenAI Atlas 开启“AI 重构一切”的时代,如何拒绝信息过载?本文将带你通过一行 npx n8n 启动自动化工作流,结合 DeepSeek 大模型与 JS 代码逻辑,构建一套自动抓取、筛选、总结科技新闻的“第二大脑”。
引言:当 AI 开始“重做”浏览器
最近,OpenAI 推出了 AI 浏览器 Atlas,这不仅仅是一个新产品,更是一个信号: “AI Remake Everything” (AI 重构一切)的时代已经全面到来。
如果说过去十年我们是在为互联网生产内容,那么从 2026 年开始,我们将进入 AI Agent(智能体)自动化元年。作为开发者,我们面临的最大痛点不再是获取信息,而是如何从海量噪音中提取高价值的信号。
为什么要每天手动刷 20 个科技网站?这种重复性的低效劳动,早就该交给 Workflow(工作流) 了。今天,我就带大家用 Node.js 生态中最强的自动化工具 n8n,配合国产高性能大模型 DeepSeek,打造一个自动化的“科技新闻速览”机器人。
拒绝无效阅读,把时间留给深度思考。
一、 工具准备:为什么是 n8n?
在 Low-Code/No-Code 领域,n8n 是当之无愧的王者,特别是对于前端和全栈开发者而言。
-
启动极简:基于 Node.js,只要你的环境里有 Node,一行命令即可启动:
codeBash
npx n8n -
生态通吃:它不仅能运行在服务器、Docker 中,甚至可以跑在单片机里。
-
JS 友好:它的核心逻辑处理完全兼容 JavaScript。对于开发者来说,这比那些纯图形化但逻辑僵硬的工具要灵活一万倍。
二、 实战演练:构建“科技情报局”
我们的目标很明确:每天定时抓取《连线》(Wired) 杂志的最新科技新闻 -> 筛选出今天的文章 -> 喂给 DeepSeek 进行深度总结 -> 生成日报文件。
下面是完整的工作流拆解:
1. 信号源:RSS Trigger & XML
工作流的起点可以是 Cron(定时任务),也可以是手动触发。
数据源我们选择 RSS。相比于爬虫,RSS 是结构化最好的数据来源。
让我们点击右上角的加号进行添加
- 节点选择:RSS Read
- URL:路径 (URL填写你想要的数据源路径,这里我选择的是www.wired.com/feed/rss)
- 作用:它就像一个 HTTP 请求,直接把 XML 数据转换成 JSON 对象流,数据类型的转发方便了后续对数据的处理。
2. 核心逻辑:Filter (使用 JS 过滤“今日”新闻)
这是很多新手卡住的地方。RSS 返回的是最近几十条数据,但我们只要过去 24 小时内发布的。这里我们需要用到 n8n 的表达式或 JS 代码。
在 n8n 的 Filter 节点或者 If 节点中,我们可以利用 JavaScript 强大的 Date 对象来处理。
核心代码逻辑如下:
codeJavaScript
// 获取当前时间的时间戳(毫秒)
const now = new Date().getTime();
// 获取新闻发布时间的时间戳
// n8n 中通常通过 item.json.pubDate 获取 RSS 的发布时间
const pubTime = new Date($json.pubDate).getTime();
// 定义一天的毫秒数
const oneDay = 24 * 60 * 60 * 1000;
// 逻辑判断:如果 (当前时间 - 发布时间) 小于 一天,则保留
return (now - pubTime) < oneDay;
同样还有一种更为简单的方法 :
令我感到n8n体验感良好的是它可以接收上一个节点的数据字段,并且可以直接抓取放入(使用过的掘友们应该都能体会到),这样我们就可以很快的拿到我们想要的数据了。
老司机提示:在 n8n 中,善用 JavaScript 的 Date 类型处理时间差是非常基础且重要的技能。很多无代码工具处理时间极其麻烦,但在 n8n 里,就是一行代码的事。
3. 数据清洗:Edit Fields & Aggregate
AI 不需要冗余的 HTML 标签或链接,它只需要 Title,link,pubDate, Content。
coontent_block()->这个字段是将content和title两个字段打包在了一起,待会AI对数据进行处理就只需要拿到这个字段。
- Aggregate:这是一个关键步骤。如果不聚合,RSS 有 10 篇文章,你的 AI 节点就会运行 10 次(费钱且碎片化,说实话国外的大模型还是挺烧钱的,家里有矿的大佬当我没说)。聚合后,我们将 10 篇文章打包成一段长文本,一次性发给 AI。
- Edit Fields:格式化日期为 yyyy-MM-dd,并将标题和正文拼接。
4. 核心大脑:AI Agent (DeepSeek Model)
这是工作流的灵魂。我们使用 DeepSeek Chat Model 来处理文本,不同的工作流使用不同的AI来对数据进行处理(根据自身的工作需求来),由于n8n是国外的开发者开发的产品,在调用AI这方面选择性会更多,模型也都更为的强大,如Google Gemini,openAI 等。
在配置 AI Agent 时,有两个核心点决定了输出质量:
A. Temperature (温度)
这个参数决定了 AI 的“创造力”:
- 0 (Stable) :最稳定、最理性。适合做数据提取、严格的摘要。我们选这个,因为新闻简报需要准确,不需要 AI 瞎编乱造。
- 1 (Creative) :最不稳定、最发散。适合写小说、生成创意灵感。
B. Prompt (提示词)
大模型工作的关键在于 Prompt。你需要给它设定一个 Role(角色)。
参考 Prompt:
“你是一位专业的科技媒体主编。请根据我提供的 RSS 新闻列表,为我生成一份简明扼要的‘每日科技速览’。要求:
- 提炼每条新闻的核心观点,去掉客套话。
- 对于涉及 AI、芯片、自动化的新闻进行重点标记。
- 保持语气专业、客观。
- 最后给出一个‘今日洞察’的总结。”
4. 关键转折:Convert to File (文本转二进制)
⚠️ 这里有个大坑!
AI 节点输出的是 JSON 文本字符串(Text),但后续的文件写入节点需要的是 二进制文件对象(Binary)。如果你直接连线,会报错。
我们需要使用 Convert to File 节点:
- Operation: Convert Text to File
- File Name: 动态设置文件名,例如 daily-news-{{ $today.format('yyyy-MM-dd') }}.md
- MIME Type: text/markdown
这一步的意义:它将内存中的一段文字字符串,“封装”成了一个可以在操作系统中存在的“虚拟文件对象”。
5. 落袋为安:Write to Disk
最后,将 AI 生成的 Markdown 内容通过 To File 和 Write to Disk 节点保存到本地。你可以配合 Obsidian 或 Notion API,直接打通你的知识库。
三、 效果展示
运行工作流后,你不再需要打开浏览器跳转无数个页面。你的本地文件夹中会自动生成一份 daily-tech-news-2025-xx-xx.md:
codeMarkdown
# 📅 2025-01-04 科技速览
## 🚀 核心动态
- **OpenAI 发布 Atlas**:不仅仅是浏览器,更是 OS 级入口,Web 生态面临重构。
- **DeepSeek 性能霸榜**:国产模型在 Coding 能力上实现反超,API 调用成本极低。
## 💡 今日洞察
AI 正从“聊天机器人”形态向“Agent 自动化”形态演进。通过 n8n 这样的编排工具,开发者正在掌握重塑信息流的主动权。
总结与展望
2026 年, “会用 AI” 和 “会造 AI 应用” 的差距将迅速拉大。
通过 n8n + DeepSeek,我们只用了不到半小时,就构建了一个自动化的信息获取系统。这不仅是一个 Demo,更是一种思维方式的转变:将重复的交给机器(n8n),将思考的交给模型(DeepSeek),将创造留给自己。
One More Thing:
Node.js 赋予了 n8n 极强的扩展性。下一步,你可以尝试把这个日报推送到飞书、钉钉机器人,或者直接生成语音播报。
动手试试吧,运行 npx n8n,开启你的自动化之旅!
NEXT06