我做了个 Agent桌面助手,下载解压双击就能用!

4 阅读3分钟

大家好,今天分享一个我最近的开源项目 —— Kocort,一个主打极致简单的类似龙虾的AI桌面助手。

核心亮点,先说人话

1️⃣ 下载解压双击,就这么简单

没有命令行,没有环境配置,没有依赖安装。

1. 下载压缩包
2. 解压
3. 双击运行
4. 开始用

就这么简单。配置界面都是图形化的,改个配置不用 edit YAML。

2️⃣ 内置本地模型,可以不接云端

这是 Kocort 最大的不同:

其他框架: 必须配置 OpenAI/Anthropic/国内大厂的 API Key Kocort: 内置本地模型支持,完全可以不接任何云端

内置了本地模型推理引擎,下载模型放进去就能用:

  • 不需要自己部署 Ollama
  • 不需要配置 LM Studio
  • 不需要跑 Docker

模型文件放进去,自动识别,自动加载。

3️⃣ 双脑架构,智能分工

┌─────────────────────────────────────┐
│           主代理 (Main)              │
│         负责任务协调调度              │
└─────────────────────────────────────┘
         ↓                    ↓
┌──────────────┐    ┌──────────────────┐
│   Brain      │    │   Cerebellum     │
│  (本地大模型) │    │  (本地小模型)     │
│  复杂推理     │    │  快速响应        │
└──────────────┘    └──────────────────┘
  • Brain - 大模型,处理复杂任务(写代码、分析文档、逻辑推理)
  • Cerebellum - 小模型,处理简单任务(问答、分类、提取)

好处:

  • 小任务小模型处理,快且省资源
  • 大任务大模型处理,准确
  • 完全本地运行,数据不出电脑
  • 也可以接云端模型,看你需要

实际使用场景

场景 1:完全本地运行(隐私敏感)

"帮我整理这个文件夹里的文档,提取关键信息"
→ 全部本地处理,文件不上传,API 不调用

场景 2:混合模式(成本优化)

"今天天气怎么样?" → 本地小模型
"帮我分析这份财报" → 本地大模型 或 云端(可配置)

场景 3:浏览器自动化

"打开知乎,登录后查看我发布的文章"
→ 自动打开可见浏览器,完成操作

场景 4:代码辅助

"帮我找出项目中所有使用 fetch 的地方,改成 axios"
→ 本地搜索 + 本地模型分析

和同类产品的区别

特性Kocort其他框架
启动方式下载解压双击命令行 + 配置
本地模型内置引擎,开箱即用需自建 Ollama 等
云端依赖可选,可完全不用必须配置 API Key
配置复杂度图形界面YAML/JSON 手写
双脑架构内置无/需自配

适合谁用?

  • 不想折腾配置的 - 下载双击就能用
  • 对隐私有要求的 - 可以完全本地运行
  • 想省 API 费用的 - 小任务本地处理
  • 断网环境使用的 - 本地模型不依赖网络
  • 想试试 AI 代理的 - 门槛最低

项目状态

  • ✅ 双脑架构实现
  • ✅ 内置本地模型引擎(GGUF 支持)
  • ✅ 云端模型可选接入
  • ✅ 图形化配置界面
  • ✅ 工具系统(浏览器/文件/搜索/命令)
  • ✅ 记忆系统
  • ✅ 子代理系统
  • ✅ 技能扩展

技术细节(给感兴趣的朋友)

  • Go 语言开发,支持Win/Mac/Linux几乎所有主流平台
  • 内置 llama.cpp 集成
  • 支持 GGUF 格式模型
  • 插件化工具架构
  • 支持多渠道接入(微信等)

反馈与交流

项目地址:github.com/kocort/koco…

特别想请教大家:

  1. 本地模型大家常用哪些?7B?13B?32B?
  2. 双脑架构的设计是否符合大家的使用习惯?
  3. 还有什么功能是最需要的?

欢迎提 Issue、PR,也欢迎在评论区聊聊~


P.S. 项目还在早期阶段,核心功能已可用。有任何问题欢迎交流!

P.P.S. 完全本地运行时,记得准备个够大的模型(当然需要一个好显卡..),效果会更好~