这个刚冲上 GitHub Trending 的 AI 插件,能帮你扒出全网过去 30 天最真实的讨论

3 阅读5分钟

这个刚冲上 GitHub Trending 的 AI 插件,能帮你扒出全网过去 30 天最真实的讨论

经常用 AI 写代码或者查资料的人,大概都遇到过一个痛点:AI 的知识库总是有延迟的。

当你问它“最近 Claude 出了什么新功能”或者“某个新框架的最优解是什么”,它通常会回答不知道,或者提供过时的资料。

传统的搜索引擎也有些吃力。搜索结果里充斥着 SEO 内容和二手文章。为了搞清楚“这个技术到底有没有人在生产环境里用”,很多时候你只能手动去刷 Reddit、Twitter(X)或者 Hacker News,翻看枯燥的讨论区。

最近直接冲上 GitHub Trending(趋势)榜单的开源项目 last30days-skill,正好切中了这个痛点。

项目地址: github.com/mvanhorn/la…


last30days-skill 是什么

它是一个专为 AI 终端(如 Claude Code、Gemini CLI)设计的扩展插件。

它的核心功能非常聚焦:跨平台抓取全网过去 30 天内,真实社区里关于某个话题的高质量讨论,并直接给你出一份带真实源链接的总结报告。

安装后,只需要在命令行里输入:

/last30days [你想查的话题]

它就会去各大圈子检索相关度最高、讨论最热烈的内容,并把精华摘要呈现给你。


它的思路有什么特别之处

1. 专注社区原声,依靠质量打分

普通的联网搜索经常只能导向官方文档或者公关通稿。last30days 倾向于检索真正的社区讨论空间。它默认抓取 Reddit、Hacker News 和 Polymarket(预测市场)。配上相应的 API 后,也能抓取 X(Twitter)、YouTube 字幕、Bluesky、TikTok 和 Instagram。

它并不只是在各大平台单纯做关键字匹配。这个插件有自己的权重打分系统,涵盖了帖子的点赞数、评论质量和内容关联度,比如 Reddit 的高赞评论会有额外加权。这种基于互动质量的过滤机制,能有效避开水军和噪音,找出社区里目前真正的共识。

2. 利用预测市场的真实数据

系统默认接入 Polymarket 这个预测市场的数据,这种设计很有趣。 在查询某个行业事件走向时,插件除了展现网友的分析,还会把预测市场上真金白银交易出来的发生概率一并呈现出来。很多时候,由资金跑出来的数据比单纯的社区情绪更客观。

3. 开箱可用,降低 API 申请门槛

聚合检索类工具常常面临一个麻烦:你需要先去各大平台申请五六个 API Key 才能开始用。

last30days 的做法很务实。它内置了对 Reddit 公共接口、Hacker News 和 Polymarket 的免密支持,意味着装上之后可以直接查询这三个平台。

此外,如果需要查询 X 或 YouTube,输入 /last30days setup,它会尝试调用浏览器的本地登录状态抓取数据,避免了申请官方昂贵 API 的繁琐步骤。


怎么安装使用

因为它是为 AI 终端打造的插件,主要通过命令行进行安装:

如果你用的是 Claude Code:

/plugin marketplace add mvanhorn/last30days-skill
/plugin install last30days@last30days-skill

如果你用的是 Gemini CLI:

gemini extensions install https://github.com/mvanhorn/last30days-skill.git

手动安装(适用于 Codex 等支持自定义技能的开发环境):

git clone https://github.com/mvanhorn/last30days-skill.git ~/.claude/skills/last30days

安装完成后,Reddit、Hacker News 和 Polymarket 已经可以直接免密查询。


一个实际的检索例子

比如你想查一个刚出的 AI 绘画工具(假设叫 Nano Banana Pro)真正好用的提示词怎么写,在终端里直接一搜:

/last30days nano banana pro prompting

经过几分钟的运行,它返回的结果包含了这些干货:

  • 提炼社区惯用套路:总结出目前的共识是“用 JSON 结构写提示词更好”,并指出自然语言写法的局限。
  • 列举真实案例:直接引用 @xxx 和 @yyy 这几位活跃作者在 X 上分享的具体 JSON 模板。
  • 提取具体公式:从 Reddit 相关子版块提取其他玩家总结的五元素公式(主体 + 构图 + 动作 + 场景 + 风格)。
  • 实战生成演示:最后,它甚至会利用刚总结出的技巧规则,直接帮你输出一套结构良好的提示词。

因为要在后台拉取多个平台的数据并跑完全文去重和打分,整个过程需要 2 到 8 分钟不等。它做不到“秒回”,但这几分钟的等待,绝对比你自己去外网手动翻几十个英文长帖要划算得多。


适合什么需求

如果你只是想查一个简单的代码函数,用传统的通用搜索就够了。但在遇到新东西时,你有下面这些痛点,它会是一个极佳的辅助工具:

  • 寻找某款工具真实的“最佳实践”:想知道真实项目里大家是怎么把 Cursor 和某个小众框架结合的,看推特和 Reddit 上的吐槽往往比官方文档靠谱得多。
  • 看懂陌生领域的核心争议:免去逛水贴的时间,让 AI 把真正的圈内分歧点整理给你看。
  • 长期追踪特定话题:它的开源版本提供了一个 Watchlist(监视列表)功能,可以配置定时任务,每周自动帮你抓取关注的赛道动态,存到本地。

在当今注水文章满天飞的网络环境里,能有一个帮你自动去各大核心社区“打捞真话”的搜索工具,这本身就已经是非常实在的生产力了。