Lite-Claw: 轻量级本地 AI Agent 框架
项目介绍
Lite-Claw 是一个开源的轻量级本地 AI Agent 框架,集成了现代化的 AI 能力和灵活的扩展机制。无论是命令行工具、Web 应用,还是桌面软件,都能通过统一的框架来实现 AI 驱动的自动化和智能任务处理。
核心特性
🔌 MCP 协议双向支持
- 既能调用外部 MCP 服务(作为客户端)
- 也能暴露自身功能给 Claude Desktop、Cursor 等工具(作为服务端)
🧠 完整的记忆系统
- 短期对话历史管理
- 长期向量化记忆(基于 SQLite + Embedding)
- 智能上下文提取和召回
🦞 技能扩展生态
- 兼容 OpenClaw 和 Moltbot 的 SKILL.md 格式
- 支持从 GitHub 直接安装技能
- 内置 30+ 常用技能
📡 多渠道部署
- CLI 命令行界面
- Web 浏览器界面(Vue.js)
- 飞书集成
- 微信接入
- 可扩展的渠道架构
🤖 多模型支持
- Ollama 本地部署
- OpenAI 兼容 API
- Qwen、DeepSeek 等云服务
- 智能模型选择
🖥️ 桌面应用
- Tauri 跨平台打包
- 性能优异,体积轻量
- Windows、macOS、Linux 支持
🛠️ 原生工具调用
- Function Calling 支持
- 自定义工具集成
- 工具链编排
快速开始
安装
# 克隆项目
git clone https://github.com/your-repo/lite-claw.git
cd lite-claw
# 安装依赖
pnpm install
启动 Agent
# CLI 模式(命令行交互)
pnpm agent start -c cli
# Web 模式(浏览器界面)
pnpm agent start -c web
# 开发模式(含前端热更新)
pnpm dev
配置
编辑 config/agent.yaml 配置 AI 模型和技能:
ai:
provider: ollama
model: qwen2.5:32b
baseUrl: http://localhost:11434/v1
skills:
- shell # 执行系统命令
- read-file # 读取文件
- write-file # 写入文件
- list-dir # 列出目录
- open-url # 打开网页
- publish-blog # 发布博客
channels:
cli:
enabled: true
web:
enabled: true
memory:
enabled: true
dbPath: ./data/memory.db
内置技能库
| 技能 | 功能说明 |
|---|---|
shell | 执行系统命令 |
read-file | 读取文件内容 |
write-file | 写入文件 |
list-dir | 列出目录 |
open-url | 打开网页/截图 |
publish-blog | 发布博客到掘金 |
generate-blog | 生成博客内容 |
web-search | 网络搜索 |
computer-use | 控制电脑操作 |
schedule-task | 定时任务 |
| 更多... | 支持自定义扩展 |
架构设计
项目结构
lite-claw/
├── src/
│ ├── agent.ts # Agent 核心入口
│ ├── core/ # 核心模块(类型、配置、加载器)
│ ├── ai/ # AI Provider 抽象层
│ ├── skills/ # 内置技能实现
│ ├── channels/ # 多渠道支持(CLI/Web/飞书)
│ ├── mcp/ # MCP 协议实现
│ ├── memory/ # 记忆系统
│ └── publishers/ # 发布器集合
├── frontend/ # Vue.js Web 前端
├── src-tauri/ # Tauri 桌面应用
├── skills/openclaw/ # OpenClaw 格式技能库
└── config/ # 配置文件
工作流程
- 输入层:接收用户请求(CLI/Web/飞书/MCP)
- 处理层:Agent 分析意图并选择合适的技能
- 执行层:技能执行(命令、文件操作、网络请求等)
- 输出层:多渠道反馈结果
- 记忆层:保存交互记录和关键信息
MCP 集成
作为 MCP 客户端
在配置中添加外部 MCP 服务:
mcp:
enabled: true
servers:
- name: filesystem
command: npx
args: ["-y", "@modelcontextprotocol/server-filesystem", "C:/"]
- name: github
command: npx
args: ["-y", "@modelcontextprotocol/server-github"]
env:
GITHUB_TOKEN: "your-token"
作为 MCP 服务端
启动 MCP 服务,供 Claude Desktop 等工具使用:
pnpm agent mcp
在 Claude Desktop 配置中添加:
{
"mcpServers": {
"lite-claw": {
"command": "npx",
"args": ["tsx", "/path/to/src/agent.ts", "mcp"]
}
}
}
应用场景
✅ 自动化工作流
- 定时任务执行
- 文件批量处理
- 数据同步和备份
✅ 智能助手
- 信息查询和搜索
- 内容生成和发布
- 任务规划和提醒
✅ 开发工具
- 代码生成和分析
- 文档自动化
- 项目管理集成
✅ 企业应用
- 飞书工作流集成
- 微信企业号接入
- 自定义业务流程
开发命令
# 启动 Agent(支持多种模式)
pnpm agent start # 默认启动
pnpm agent start -c cli # CLI 模式
pnpm agent start -c web # Web 模式
# 启动 MCP 服务
pnpm agent mcp
# 初始化配置
pnpm agent init
# 开发模式(含热更新)
pnpm dev
# Tauri 桌面应用开发
pnpm tauri:dev
# 构建桌面应用
pnpm tauri:build
扩展技能
创建自定义技能
技能遵循简单的接口规范:
export interface Skill {
name: string;
description: string;
params: SkillParam[];
handler: (params: any) => Promise<any>;
}
集成 OpenClaw 技能
将 SKILL.md 文件放在 skills/openclaw/ 目录:
skills/openclaw/
├── web-search/
│ └── SKILL.md
├── youtube-transcript/
│ └── SKILL.md
└── ...
技术栈
- 后端:Node.js + TypeScript
- AI:Ollama、OpenAI API
- 记忆:SQLite + Vector Embedding
- 前端:Vue.js 3
- 桌面:Tauri + Rust
- 协议:MCP(Model Context Protocol)
性能指标
- ⚡ 轻量级:核心包体积 < 5MB
- 🚀 快速启动:< 2 秒
- 💾 低内存:基础运行 < 100MB
- 🔄 高并发:支持多任务并行处理
社区与贡献
欢迎提交 Issue 和 Pull Request!
- GitHub Issues:报告 bug 和功能建议
- Discussions:讨论设计和最佳实践
- Pull Requests:贡献代码
License
MIT
立即开始:克隆项目、配置 AI 模型、选择渠道,三步即可拥有自己的 AI Agent!
如有问题,欢迎在 GitHub 提 Issue 或参与讨论。