GitHub 上 90% 的人找工具的方法都是错的

8 阅读4分钟
GitHub 上找工具,用搜索框的都是认真找的吗?

我见过最常见的场景是这样的:

打开 GitHub,搜索框里打一个词,按 stars 排序,翻三页,发现结果跟第一页差不多,但还是硬着头皮翻下去。 不是因为他想翻,是因为不翻就找不到真正新的东西。 GitHub 搜索本质上是关键词匹配。Star 只是曝光度的代理变量,跟工具质量几乎没有直接关系。 Star 只能说明:有人看到了,点了赞。仅此而已。

好工具的真正指标是什么?

我一直相信一个判断:被其他项目依赖,才是一个工具真正有价值的信号

Star 是单向的,我喜欢这个项目,我点个赞。依赖是双向的,我的项目用了这个库,我认真评估过它的稳定性。

一个库被 67 个 GitHub 项目依赖,远比 45,000 个 star 但零依赖引用更说明问题。

这就是我做了 AitFind 的原因 — 收录了 10,197 个 AI 开源项目(持续增加中),每个项目都按七个维度综合打分:

  • 被其他项目依赖数
  • 近期活跃度(最近更新)
  • 贡献者数量
  • 是否有 CI/CD
  • 是否有正式 Release
  • 文档完整度
  • Star 数量

七个维度综合评分,不再让老旧高 star 项目永远排在前面。


实测:自然语言搜出来的工具有多离谱

GitHub 搜索只能放关键词。但我真正想找的时候,脑子里不是关键词,是需求。

比如我今天想找一个不需要联网的本地 OCR 工具

GitHub 搜索框里你会怎么搜?"offline OCR Python"?"local OCR"?然后发现排前面的全是发了五年的老仓库。

在 AitFind 里,我直接打:

"不需要联网的本地 OCR,支持中文"

返回的第一个结果是 PaddleOCR,本地部署、支持 80+ 语言、中文识别率极高、服务于数千个实际项目。这不是我翻三页能找到的结果。

再比如,我想找一个帮我自动做代码 review 的工具,直接在搜索框里写:

"自动代码 review GitHub Actions"

返回的第一条是 SWE-agent,OpenAI 出品的代码修复 Agent,专门处理真实 bug,不是玩具项目。

GitHub 搜索能搜出这个吗?大概率搜 "code review" 然后被各种大型老旧项目淹没。


趋势榜单里的那些被低估的神器

最近我在看 AitFind 的趋势榜单 — 基于最近 7 天项目被浏览和访问的次数综合计算,能发现一些正在爆发但还没被广泛知道的工具。

build-your-own-x — 483k stars,这个很多人都知道。但很多人不知道的是,这个项目在最近 7 天的趋势热度依然居高不下,说明它一直在被新进来的开发者发现和学习。收录了几百个"从零实现技术"的教程,是那种你收藏了永远不会后悔的项目。

Continue — VS Code 上的 AI 代码助手,比 Copilot 更开放,支持自定义模型。Star 不算高,但在开发者社区口碑极好,是真正被低估的效率工具。

Meilisearch — 比 Elasticsearch 轻量十倍的搜索引擎,安装即用,对中小型项目来说是更务实的选择。文档极度友好,很多创业公司在用,但 GitHub Star 远低于 Elasticsearch。

v2ray-core — 在技术圈子里几乎是刚需,但官方从不刷 star,长期被更"营销"的项目压着。


GitHub 搜索的根本问题

不是 GitHub 做得好不好,而是它的产品定位就不是"发现工具"。

GitHub 的任务是:托管代码、管理协作、处理 CI/CD。搜索只是一个附属功能。

Star 排序是为了让热门项目有更多曝光,这是合理的。但对于真正想找到合适工具的开发者,这个机制让大量优质新项目永远沉在搜索结果的底部。

真正有价值的发现,需要:

  1. 语义理解 — 理解"帮我找一个不用联网的 OCR"和"offline OCR library"是同一个需求
  2. 多维质量评估 — 不只看 Star,还要看活跃度、依赖数、更新频率
  3. 结构化信息 — 返回安装方式、适用场景、类比工具,而不是一个链接让你自己去看 README

这就是我做 AitFind 的第三个原因 — 让好工具被真正需要的人找到。


工具永远免费,希望真的有人用得上

AitFind 现在收录了 10,197 个(持续增加中) AI 开源项目,覆盖前端、后端、移动端、安全、数据科学等全品类。

每个项目有完整的中文摘要、适用场景标签、质量评分。可以直接访问:

aitfind.com