【AI】如何利用Make打造前端日报流

710 阅读3分钟

make 体验地址

这套自动化流程就是帮我完成自动采集feed订阅的rss地址, 利用ChatGPT对采集的内容进行翻译总结,再发布到notion, 还可以做社区推送,比如 Telegram, 因为我没有Telegram账号,所以流程中暂时没有加入

image.png

实现的效果如下图,前端日报体验地址

image.png

当然也有一些不足,后面会提到,下面逐一说明创建的步骤

创建场景

使用模板

社区当中有特别多的模板,比如

  • 监听x的推文,推送到discord
  • 监听RSS的订阅地址,推送给Telegram
  • 使用ChatGPT和Airtable自动回复商业邮件
  • ...

image.png

手动创建

image.png

1、连接feedly

feedly建立连接,这一步是需要收费的,需要升级feedly pro。我选的是最便宜的Pro版本

image.png

然后在feedly订阅一些你感兴趣的博客地址

image.png

建立好连接后,就会看到目录,我选的是category of feeds, limit代表处理的信息条数

image.png

采集的数据详细结构

image.png

2、通过Text Parser的replace去除html标签

image.png

image.png

  • pattern <[^>]*>|\n 去除html标签的正切
  • new value emptystring 替换成空字符串
  • text Summary, 是第一步feedly采集的数据字段,注意有时是空的,那就是第1步数据没有采集上

输入

image.png

输出

image.png

3、通过Text Parser的Match pattern截取文本的长度
  • Pattern ^.{1,2000}, 因为chatGPT有token限制,太长容易出错
  • Text text, 去掉第2步html标签的文本 image.png
4、通过Open AI对文本内容进行总结、翻译

这一步,想要ChatGPT做什么,就看你的prompt怎么写

image.png

首先还是要和OpenAI建立连接,输入API Key, 注意一定是在https://platform.openai.com/充值过的,其他三方平台的不行,因为并不能支持更改API地址。

  • prompt

我会给出文章标题、内容,请你用中文进行总结,要求不少于200字, 要求按照以下格式输出: {"标题":"中文翻译后的标题","文章摘要":"请以200字左右的中文,总结关键信息和重要内容,不要在结尾使用特殊符号。"},请勿输出其他内容。谢谢。

仅供参考。你还可以要求GPT为你筛选文章,并且给出一个评分。我这里仅仅是希望对标题、内容进行总结并且用中文输出json格式即可

image.png

5、用JSON的Parse JSON功能解析输出结果

image.png

因为在4步的时候,让GPT按照json格式输出了,所以这步需要解析下

输入与输出结果

image.png

6、在Notion中插入数据

·首先你得有Notion账号,建立连接,然后创建自己的数据库

image.png

image.png

  • Fields 在这里我感觉是没有多大意义。其实就是对应下图创建的字段,默认会有个名称吧

在这里添加的字段,会在 Fields 看到,默认会有名称,创建日期是不会展示的

image.png

7、往page content插入内容

关于pageId 我还找了很久,原来就是双击打开,可以在浏览器的地址栏看到

image.png

image.png

  • Content Objects 就是填入插入到 page content 的标题、段落,选取第6步json解析后标题、内容的字段填入

image.png

设置执行时间

image.png

我设置的是每天执行一次,当然还有更多选项,比如每周、每个月、指定日期

不足

这个工作流有个不足之处,就是page Id是写死的,并且每次都会往数据库插入数据,这样会造成和page content的数据重复或者冗余,但是工作流中在notioncreate datebase item又是必须的,不然怎么能知道是往哪个数据中插入呢?

image.png

期待的效果是往数据中每天动态插入【前端资讯】日期xx,然后再往每个page插入采集到的前端资讯, 然后pageId可以动态获取,目前是手动调整的