大家好,今天分享一个我最近的开源项目 —— Kocort,一个主打极致简单的类似龙虾的AI桌面助手。
核心亮点,先说人话
1️⃣ 下载解压双击,就这么简单
没有命令行,没有环境配置,没有依赖安装。
1. 下载压缩包
2. 解压
3. 双击运行
4. 开始用
就这么简单。配置界面都是图形化的,改个配置不用 edit YAML。
2️⃣ 内置本地模型,可以不接云端
这是 Kocort 最大的不同:
其他框架: 必须配置 OpenAI/Anthropic/国内大厂的 API Key Kocort: 内置本地模型支持,完全可以不接任何云端
内置了本地模型推理引擎,下载模型放进去就能用:
- 不需要自己部署 Ollama
- 不需要配置 LM Studio
- 不需要跑 Docker
模型文件放进去,自动识别,自动加载。
3️⃣ 双脑架构,智能分工
┌─────────────────────────────────────┐
│ 主代理 (Main) │
│ 负责任务协调调度 │
└─────────────────────────────────────┘
↓ ↓
┌──────────────┐ ┌──────────────────┐
│ Brain │ │ Cerebellum │
│ (本地大模型) │ │ (本地小模型) │
│ 复杂推理 │ │ 快速响应 │
└──────────────┘ └──────────────────┘
- Brain - 大模型,处理复杂任务(写代码、分析文档、逻辑推理)
- Cerebellum - 小模型,处理简单任务(问答、分类、提取)
好处:
- 小任务小模型处理,快且省资源
- 大任务大模型处理,准确
- 完全本地运行,数据不出电脑
- 也可以接云端模型,看你需要
实际使用场景
场景 1:完全本地运行(隐私敏感)
"帮我整理这个文件夹里的文档,提取关键信息"
→ 全部本地处理,文件不上传,API 不调用
场景 2:混合模式(成本优化)
"今天天气怎么样?" → 本地小模型
"帮我分析这份财报" → 本地大模型 或 云端(可配置)
场景 3:浏览器自动化
"打开知乎,登录后查看我发布的文章"
→ 自动打开可见浏览器,完成操作
场景 4:代码辅助
"帮我找出项目中所有使用 fetch 的地方,改成 axios"
→ 本地搜索 + 本地模型分析
和同类产品的区别
| 特性 | Kocort | 其他框架 |
|---|---|---|
| 启动方式 | 下载解压双击 | 命令行 + 配置 |
| 本地模型 | 内置引擎,开箱即用 | 需自建 Ollama 等 |
| 云端依赖 | 可选,可完全不用 | 必须配置 API Key |
| 配置复杂度 | 图形界面 | YAML/JSON 手写 |
| 双脑架构 | 内置 | 无/需自配 |
适合谁用?
- 不想折腾配置的 - 下载双击就能用
- 对隐私有要求的 - 可以完全本地运行
- 想省 API 费用的 - 小任务本地处理
- 断网环境使用的 - 本地模型不依赖网络
- 想试试 AI 代理的 - 门槛最低
项目状态
- ✅ 双脑架构实现
- ✅ 内置本地模型引擎(GGUF 支持)
- ✅ 云端模型可选接入
- ✅ 图形化配置界面
- ✅ 工具系统(浏览器/文件/搜索/命令)
- ✅ 记忆系统
- ✅ 子代理系统
- ✅ 技能扩展
技术细节(给感兴趣的朋友)
- Go 语言开发,支持Win/Mac/Linux几乎所有主流平台
- 内置 llama.cpp 集成
- 支持 GGUF 格式模型
- 插件化工具架构
- 支持多渠道接入(微信等)
反馈与交流
特别想请教大家:
- 本地模型大家常用哪些?7B?13B?32B?
- 双脑架构的设计是否符合大家的使用习惯?
- 还有什么功能是最需要的?
欢迎提 Issue、PR,也欢迎在评论区聊聊~
P.S. 项目还在早期阶段,核心功能已可用。有任何问题欢迎交流!
P.P.S. 完全本地运行时,记得准备个够大的模型(当然需要一个好显卡..),效果会更好~