make 体验地址
这套自动化流程就是帮我完成自动采集feed订阅的rss地址, 利用ChatGPT对采集的内容进行翻译总结,再发布到notion, 还可以做社区推送,比如 Telegram, 因为我没有Telegram账号,所以流程中暂时没有加入
实现的效果如下图,前端日报体验地址
当然也有一些不足,后面会提到,下面逐一说明创建的步骤
创建场景
使用模板
社区当中有特别多的模板,比如
- 监听x的推文,推送到discord
- 监听RSS的订阅地址,推送给Telegram
- 使用ChatGPT和Airtable自动回复商业邮件
- ...
手动创建
1、连接feedly
与feedly建立连接,这一步是需要收费的,需要升级feedly pro。我选的是最便宜的Pro版本
然后在feedly订阅一些你感兴趣的博客地址
建立好连接后,就会看到目录,我选的是category of feeds, limit代表处理的信息条数
采集的数据详细结构
2、通过Text Parser的replace去除html标签
- pattern
<[^>]*>|\n去除html标签的正切 - new value
emptystring替换成空字符串 - text
Summary, 是第一步feedly采集的数据字段,注意有时是空的,那就是第1步数据没有采集上
输入
输出
3、通过Text Parser的Match pattern截取文本的长度
- Pattern
^.{1,2000}, 因为chatGPT有token限制,太长容易出错 - Text
text, 去掉第2步html标签的文本
4、通过Open AI对文本内容进行总结、翻译
这一步,想要ChatGPT做什么,就看你的prompt怎么写
首先还是要和OpenAI建立连接,输入API Key, 注意一定是在https://platform.openai.com/充值过的,其他三方平台的不行,因为并不能支持更改API地址。
- prompt
我会给出文章标题、内容,请你用中文进行总结,要求不少于200字, 要求按照以下格式输出: {"标题":"中文翻译后的标题","文章摘要":"请以200字左右的中文,总结关键信息和重要内容,不要在结尾使用特殊符号。"},请勿输出其他内容。谢谢。
仅供参考。你还可以要求GPT为你筛选文章,并且给出一个评分。我这里仅仅是希望对标题、内容进行总结并且用中文输出json格式即可
5、用JSON的Parse JSON功能解析输出结果
因为在4步的时候,让GPT按照json格式输出了,所以这步需要解析下
输入与输出结果
6、在Notion中插入数据
·首先你得有Notion账号,建立连接,然后创建自己的数据库
- Fields 在这里我感觉是没有多大意义。其实就是对应下图创建的字段,默认会有个名称吧
在这里添加的字段,会在 Fields 看到,默认会有名称,创建日期是不会展示的
7、往page content插入内容
关于pageId 我还找了很久,原来就是双击打开,可以在浏览器的地址栏看到
- Content Objects
就是填入插入到 page content 的标题、段落,选取第6步
json解析后标题、内容的字段填入
设置执行时间
我设置的是每天执行一次,当然还有更多选项,比如每周、每个月、指定日期
不足
这个工作流有个不足之处,就是page Id是写死的,并且每次都会往数据库插入数据,这样会造成和page content的数据重复或者冗余,但是工作流中在notioncreate datebase item又是必须的,不然怎么能知道是往哪个数据中插入呢?
期待的效果是往数据中每天动态插入【前端资讯】日期xx,然后再往每个page插入采集到的前端资讯, 然后pageId可以动态获取,目前是手动调整的