经常听说,如果一件事请让你感到焦虑,那就去做这件事。这句话很对道理也很简单,但为什么大家没有去做,不还是有困难,有问题,有点懒。
下面我从个人角度,给大家做一份缓解焦虑的套餐,包含AI消息获取工具,AI网站分析和导航
很多人都使用openclaw做AI资讯聚合和定时通知,但是实际下来来源不可控,Token费用不可控,不如用AI写一套自己工作流。这工具只是我在工作的短暂的空余时间,通过AI对话完成,基本等于没有时间成本。
一、聚合AI资讯,掌握最新动向
1.1 消息获取工具-基础
**基础流程跑通后,就具备了完整使用能力,但是rss信息源较少。**后面拓展rsshub,是为了扩充rss信息源和稳定性。
工具主要是聚合rss、github、arxiv、hackernews四个方向数据,arxiv是论文,rss和hackernews是资讯,github是热门最新代码库。
已支持
- 支持不同的rss数据源(可以去rsshub平台找)
- 支持配置ai筛选AI内容和翻译(仅deepseek,比较便宜)
- 支持notion同步信息
- 有web浏览界面,便于预览
- 支持灵活配置开关各个数据源和AI能力
待支持
- 消息资讯类token优化,降低deepseek成本
- skill能力,更加便于使用,可以集成到ide等
- MCP版本能力(低优先级)
需要使用者具备能力
- 会下载安装Python,要求3.10.x以上版本
- 会下载安装Node,要求20.x.x以上版本
- 本地启动rsshub,用docker启动也行(不启动也可以,就是有些rss获取不到或不稳定)
- 如果要使用deepseek做AI筛选和翻译,会购买deepseek以及sk的获取(没有AI筛选获取的信息比较杂不一定和AI相关)
使用有些成本,对于研发来说比较简单,对于非研发还是有些上手成本。有需要可以跟随我的流程来操作。
第一步:下载工具
第二步:安装python
第三步:检测Python安装正常
python -V
第四步:安装依赖
第五步:启动服务
- 可以把start.sh这个立即执行的注释放开(去掉#号),这样启动服务后会立即拉取数据,否则必须到固定时间才会获取(定时任务时间在config/sources.json文件内配置)
- 先跑起来给自己一些信心,然后在配置其他的
- 抓去数据比较多,当你能看到
http://localhost:5001/这个链接时,证明可以在浏览器访问web界面查看抓到的数据了
第六步:配置deepseek支持AI筛选信息
- 重启上面第五步操作,让deepseek生效
1.2 消息获取工具-拓展本地rsshub
以下教程是启动本地的RSSHub工具,如果不用本地,可以使用https://rsshub.app/域名。但是稳定性不够,且需要翻墙。
第一步:安装Node
- 最好是最新版本24.x.x版本
第二步:四步走操作
下载/克隆代码 => pnpm i => pnpm build => pnpm start
第三步:打开本地地址
第四步:找到别人做好的rss
第五步:可以用本地ip获取到rss信息
http://172.22.122.217:1200/anthropic/engineering
可以看我这里就用的本地
- 如果不想启动本地,那可以把本地地址,换成
https://rsshub.app/,但是不够稳定且需要爬梯次。
1.3 支持自动化gzh选题和发布
该工具搭配大模型,也支持文章选题评估
评估内容后支持自动创作
二、网站分析和导航工具
AI工具太多了,不知道怎么选对不对?网站太多不知道怎么找到?该工具给聚合了500多个网站,同时把他们最近一个月的用户活跃pv给你显示出来。是不是突然觉得好像知道怎么选择付费产品了?
第一步:下载这个项目(是个谷歌插件)
第二步:按照readme执行
解释说明
-
该工具提供了基础的网站,我个人也会更新。但主要看心情,没有准确时间。推荐自己在这个基础上,更新自己喜欢的网站
-
你可以接入任何域名,访问量是域名纬度,所以github上的项目都不能很好的识别,最终所有github访问量都是以github.com流量为准
-
当你有多个功能类似的平台,不妨使用该工具,通过网站访问量,来简单评估哪个更适合作为你的选择。必经流量大的还是有其独特的能力