你知道吗?昨天 GitHub 上有一个项目一天暴涨 1.1 万颗星,但它既不是大模型,也不是什么炫酷的 AI Agent——它只是一个让你和 AI 对话时"越聊越懂你"的学习闭环系统。
这就是我今天要聊的主角之一。
最近几天,我每天早上刷 GitHub Trending 养成了一个习惯——不只是看哪个项目 star 多,而是看哪个项目解决了真正的痛点。因为 2026 年的 AI 开源圈,已经过了"炫技"的阶段,真正能留下来的,都是能落地的实用工具。
今天这篇文章,我从最近热榜里筛出了 6 个全新项目,它们每一个都代表着一个不同的技术方向,有的是在解决"AI 越用越笨"的问题,有的是在解决"Mac 上跑不动大模型"的问题,还有的是在解决"你的浏览器被网站一眼识破"的问题。
没有一个是凑数的。
一、Hermes Agent:让 AI 自己学会变聪明
项目名:NousResearch/hermes-agent
Stars:143,000+ ⭐(本月新增 92,000+)
GitHub:github.com/NousResearc…
一句话评价:这是我见过最接近"数字分身"的项目。
先说个真实场景:你们公司有没有那种 AI 助手,刚部署的时候挺好用的,用了两周就开始"失忆"、重复犯同样的错、越来越不懂你的说话习惯?
Hermes Agent 就是来解决这个问题的。
它的核心是一个内置学习闭环的代理系统——你的每一次对话、每一个任务,它都会记住,并且自动生成技能(Skills)来固化这个经验。
什么意思呢?举个例子。你让它帮你 review 代码,它发现你团队有个规范是"禁止使用幻读"。它不仅这次帮你标出来,下次它自己就会把这个规范固化到技能里,以后每次 review 代码都会默认检查这个点——不用你教第二遍。
这听起来好像不稀奇?但实际操作起来,完全不一样。我之前用其他 Agent,写过一次"不要用 magic number",下次它还是忘。Hermes Agent 真正做到了让 AI 在使用过程中自我进化。
它的功能列表也很扎实:
- 多模型支持:支持 200+ 个模型,包括 OpenAI、Claude、各种国产模型(GLM、Kimi 等),用
hermes model一条命令切换 - 跨平台消息网关:Telegram、Discord、Slack、WhatsApp、Email 都能接,一个进程管所有
- 定时自动化:用自然语言写 cron 任务,比如"每天早上 9 点给我发一份今日 GitHub 热榜摘要"
- 会话搜索:聊过的内容随时能找回来,不是靠"记得",是靠 FTS5 全文索引 + LLM 总结
部署方式也很灵活——本地、Docker、SSH 远程,甚至 Vercel Sandbox。它还有一个 Daytonaa 的无服务器模式,代理环境在空闲时休眠,按需唤醒,几乎不在会话之间产生费用。
我的感受:如果你用过 Claude Code 或 Cursor,再试试 Hermes Agent,会有一种"从功能机换到智能机"的错觉——不是多了什么功能,而是整个交互逻辑都不一样了。
二、GenericAgent:3300 行代码长成的技能树
项目名:lsdefine/GenericAgent
Stars:10,700+ ⭐(本月新增 9,500+)
GitHub:github.com/lsdefine/Ge…
一句话评价:它不是"装了很多技能的工具",它是一个会自己长技能的系统。
Hermes Agent 解决的问题是"AI 越用越懂你",GenericAgent 解决的问题更激进—— "不预设任何技能,靠自己长出来" 。
这个项目的设计哲学非常有意思:它从一个极简的种子开始,不是一堆预设好的提示词模板,而是一个 92 行的 Agent Loop 核心文件,加上大约 3300 行支撑代码。然后它通过感知-思考-行动的循环,自动生长出任务所需的技能。
它的能力覆盖范围非常广:
- 浏览器控制:不只是"打开网页",是可以完成完整的网页操作流程
- 终端操作:执行命令、解释输出、处理错误
- 文件系统:读写、搜索、整理
- 键鼠操控:直接控制输入设备
- 视觉理解:看截图、分析界面
- ADB 控制:手机自动化
重点来了——它用 6 倍更少的 token 消耗,实现了完整的系统控制。
这意味着什么?意味着你让它去完成一个需要跨多个工具的任务,它不是每次都从头开始理解上下文,而是靠分层记忆系统记住之前的推理过程和经验。下次遇到类似任务,直接调用"技能树"里的节点,不用重新推演。
我觉得它的定位很有意思:它不是要替代 Claude Code 或 Cursor,而是想做那些需要长期规划、多步推理的复杂任务的专用引擎。如果你的工作流里有大量"需要 AI 持续跟踪状态、跨多个系统操作"的需求,GenericAgent 值得深入研究。
三、oMLX:Mac 用户终于不用眼馋别人了
项目名:jundot/omlx
Stars:13,500+ ⭐(本月持续增长)
官网:omlx.ai
一句话评价:在 Mac 上跑大模型,终于不用忍受 Ollama 的那些痛了。
我身边用 Mac 的开发者朋友,每次聊到本地跑大模型都一脸无奈——Ollama 是方便,但长对话一长就开始"重新预热" ,上下文稍微一多就卡顿,想同时跑多个模型还得手动管理。
oMLX 就是来解决这些问题的。
它专为 Apple Silicon 打造,核心技术是分层 KV 缓存:
- 热层(RAM) :频繁访问的上下文块保留在内存里,毫秒级响应
- 冷层(SSD) :热缓存满了就自动卸载到 SSD,下次需要的时候从磁盘直接恢复,不用重新计算
最关键的是——即使服务器重启,冷缓存依然有效。你跑了 30 轮对话,服务器崩了,重启之后前 30 轮的上下文全在,不用从头再来。
它还有连续批处理(Continuous Batching),什么意思呢?就是多个请求同时来的时候,它不是排队一个个处理,而是动态拼成一个 batch 一起算,最大并发可配置。这对用 AI 编程工具的人来说特别实用——比如你同时开了代码补全和代码解释两个功能,它们可以共享前缀计算,节省大量重复推理。
还有一个细节特别戳人——Claude Code 专项优化:
- 上下文缩放支持,让较小上下文的模型也能适配 Claude Code
- 自动调整报告的 token 计数,让 Claude Code 的"自动压缩上下文"在正确时机触发
- SSE keep-alive 防止长预填充期间超时
用一句话总结:oMLX 不是 Ollama 的"更好用版本",而是在 Apple Silicon 上重新思考了"本地推理"这件事本身。
四、CloakBrowser:30/30 全过,这才是真正的隐身
项目名:CloakHQ/CloakBrowser
Stars:5,200+ ⭐(本周新增)
官网:cloakbrowser.dev
一句话评价:它不是"更难被检测",它是从源码层面改掉了 Chromium 被检测的基因。
做过网页数据采集或者自动化测试的朋友,一定有这个痛:Playwright、Selenium、Puppeteer,不管你调得再像真人,网站一看 User-Agent 和 Canvas 指纹,就知道你是机器人。
很多人第一反应是装插件、改配置——但这只是"遮遮掩掩",内核还是那个会被检测的内核。
CloakBrowser 的思路完全不同。
它不是一个浏览器插件,而是一个从源码层面修改过的 Chromium 分发版。项目团队直接对 Chromium 做了 49 项 C++ 级别的补丁,从二进制层面修改了浏览器指纹生成逻辑。
所以它能通过所有主流指纹检测测试——30/30 全过。
这意味着什么?意味着你用它来做自动化测试、网页数据采集、竞品监控,或者 AI 爬虫,不需要再花冤枉钱买第三方指纹服务了——自己本地就能搞定,而且更稳定、更安全。
它的使用体验也做了优化:支持通过 Playwright 的标准接口直接调用,不需要改代码,是一个 drop-in replacement(直接替换品) 。
不过项目文档也特别说明了——它解决的是"不被检测到"的问题,而不是"解决验证码"的问题。CAPTCHA 是另一个维度的事,CloakBrowser 的思路是让验证码根本不出来。
我的判断:这个项目在 AI 编程和数据采集领域的价值被严重低估了。当 AI Agent 需要大量访问网页、操作浏览器的时候,一个"不会被识破的浏览器"就是基础设施级别的需求。
五、Kronos:让 AI 真正"看懂"金融市场
项目名:shiyu-coder/Kronos
Stars:23,900+ ⭐(本月新增 11,400+)
GitHub:github.com/shiyu-coder…
一句话评价:它不是又一个"预测股价"的玩具,它是真正在解决金融数据理解这个问题的模型。
AI + 金融,是个被说烂了的方向。但大多数项目,都是在"用 AI 预测明天涨跌"这个错误命题上卷。
Kronos 做的不是这件事。
它是一个金融市场基础模型,定位是让 AI 能够真正"理解"金融市场数据——新闻、公告、财报、交易数据、宏观经济指标,不只是"看到",而是能够跨模态理解它们之间的关系和逻辑。
它的核心能力:
- 多模态金融理解:不只是处理数字,还能理解文本语义、图表含义
- 时间序列分析:捕捉市场数据的时序规律
- 事件驱动推理:理解"这个公告会导致什么市场反应"这类逻辑
和之前 GitHub 上热门的 TradingAgents(多 Agent 交易框架)不同,Kronos 更偏底层能力,解决的是"AI 能不能真正读懂金融"的问题,TradingAgents 解决的是"多个 AI Agent 怎么协作交易"的问题——两者是互补关系,不是竞争关系。
一个有意思的现象:GitHub 上金融 AI 相关项目最近增长特别快,从 TradingAgents 到 AI-Trader 再到 Kronos,说明开发者社区对"用 AI 做金融分析"这个方向非常感兴趣,而且开始从"套壳"走向"深度"。
六、multica:开源版 AutoGPT,让 AI Agent 真正托管化
项目名:multica-ai/multica
Stars:27,000+ ⭐(本月新增 21,600+)
GitHub:github.com/multica-ai/…
一句话评价:它把 AI Agent 做成了一个可以托管、协作、扩展的平台,而不是一个本地跑的工具。
AutoGPT 当年火的时候,大家都觉得 AI 自主代理的时代到了。但真用起来,问题一大堆——本地跑不稳定、任务长了上下文就爆、多任务协作更是想都别想。
multica 就是来解决这些问题的。
它是一个开源的托管式多 Agent 平台,核心理念是:
- 托管运行:你的 AI Agent 不再是本地进程,而是跑在云端或者你自己的服务器上,24 小时可用
- 多 Agent 协作:多个 Agent 可以分工合作,共享上下文,协同完成复杂任务
- 能力扩展:支持插件式的工具扩展,随时接入新的能力
- 透明可控:开源意味着你可以审计它的每一个决策逻辑,不是个黑箱
它的定位很有意思——既不是"更智能的 ChatGPT",也不是"更自动化的脚本",而是一个完整的 AI 工作流平台,适合企业或者团队来构建自己的 AI 自动化能力。
我觉得它的想象空间很大:以后每个公司可能都有一个内部的 multica 实例,跑着各种定制化的 AI Agent,财务、法务、运营、研发各一个,互相协作——这才是"AI 原生企业"真正落地的样子。
写到最后:2026 年的 AI 开源,正在从"玩具"变成"工具"
刷了这几天的 GitHub 热榜,我有一个很明显的感觉:2026 年的 AI 开源生态,已经进入了"工程化"阶段。
不是说没有新模型了,而是大家的关注点变了——
- 不再比谁家模型更强,而是比谁能把模型用得更好
- 不再比谁的功能更多,而是比谁能解决真实场景的痛点
- 不再比谁的概念更新,而是比谁的东西真正能跑起来
从 Hermes Agent 的"越用越懂你",到 GenericAgent 的"自己长技能",到 oMLX 的"Mac 上跑大模型不再受罪",到 CloakBrowser 的"源码级反检测",到 Kronos 的"让 AI 读懂金融",再到 multica 的"托管化 AI Agent 平台"——
这 6 个项目,代表了 6 个不同的技术方向,但它们有一个共同点:都是 先发现问题,再解决问题,而不是先造个概念,再贴个标签。
这才是我眼中,2026 年 AI 开源该有的样子。
你用过这些项目吗?有什么坑或者心得?欢迎评论区聊聊。
《免责声明:以上内容基于公开报道及个人经验撰写,纯属个人观察与观点。行业在变,勤劳致富的逻辑不变》