1. 前言
在AI个人助理赛道竞争愈发激烈的今天,如何拥有一个真正"为你工作、与你成长"的AI助手成为了技术圈的热门话题。市面上的AI助手要么功能单一只能聊天,要么接入渠道有限只支持网页端,要么部署门槛极高需要专业运维知识,普通开发者想要拥有一个多平台、可扩展、支持记忆的私人AI助理一直是个难题。
还记得上个月我们那篇1分钱部署私人AI助手!百度云OpenClaw极速版,3分钟搞定零代码吗?当时百度智能云推出了0.01元抢购轻量应用服务器的活动,不少小伙伴都成功上车拿到了一台2核4G的云服务器。虽然那个1分钱活动已经结束了,但服务器还在手里呢!今天我们就要物尽其用,在这台百度云服务器上部署阿里刚开源的重磅项目——CoPaw(协同个人智能体工作台),让你的服务器从单一的OpenClaw升级为支持钉钉、飞书、QQ等多平台接入的全能AI个人助理。
这2天CoPaw非常火爆,话不多说,今天我们就在百度云轻量应用服务器上手把手教大家部署这个阿里开源的AI个人助理平台,体验和感受一下CoPaw"你的搭档小爪子"的强大能力。
2. 项目介绍
什么是CoPaw?
CoPaw是阿里AgentScope团队推出的开源AI个人助理平台,名称寓意"你的搭档小爪子"(Co-Paw)及"协同个人智能体工作台"(Co Personal Agent Workstation)。项目采用Apache 2.0开源协议,主打"安装极简、本地与云上均可部署;支持多端接入、能力轻松扩展"。
简单来说,CoPaw就是一个可以帮你连接各种聊天平台、具备记忆能力、支持自定义技能扩展的AI个人助理框架。和之前我们部署的OpenClaw相比,CoPaw在多平台接入和个性化定制方面有着更大的优势。
GitHub地址:github.com/agentscope-…
✨ 核心能力
- 🌐 全域触达:支持钉钉、飞书、QQ、Discord、iMessage等多个频道的无缝接入,一个助手,随心连接
- 🧠 个性化掌控:记忆与个性化设置完全由你掌控,支持本地或云端部署,还能定时向指定频道发送协作内容
- 🔧 灵活扩展:内置定时任务(Cron)和自定义技能目录(Skills),系统自动加载无需绑定,没有厂商锁定
- 💻 多端部署:支持pip安装、一键脚本、Docker容器、魔搭创空间、阿里云ECS等多种部署方式
- 🤖 本地模型:支持llama.cpp(跨平台)和MLX(Apple Silicon)本地运行大模型
🛠️ 技术栈
| 组件 | 说明 |
|---|---|
| 核心框架 | AgentScope Runtime |
| 记忆引擎 | ReMe 技术 |
| 编程语言 | Python 3.10 ~ <3.14 |
| 控制台 | Web UI(端口8088) |
| 部署方式 | pip / 一键脚本 / Docker |
| 协议 | Apache License 2.0 |
🎯 应用场景
- 社交媒体追踪:小红书、知乎、Reddit热帖摘要,视频更新提醒
- 生产力工具整合:邮件摘要、日历管理、联系人同步
- 创意内容生成:从选题到成片的全流程创作辅助
- 知识研究与学习:资讯追踪、知识库检索、学术论文速读
- 桌面文件管理:文档整理、文件检索、自动化处理
CoPaw vs OpenClaw 对比
| 特性 | OpenClaw | CoPaw |
|---|---|---|
| 开源团队 | GitHub社区 | 阿里AgentScope团队 |
| 部署难度 | 极简(百度一键部署) | 简单(pip/Docker) |
| 平台接入 | 飞书/钉钉/企微/QQ | 钉钉/飞书/QQ/Discord/iMessage等 |
| 记忆能力 | 基础对话记忆 | 深度个性化记忆(ReMe引擎) |
| 技能扩展 | 百度官方Skills | 自定义技能目录,自动加载 |
| 定时任务 | 不支持 | 内置Cron定时任务 |
| 本地模型 | 不支持 | 支持llama.cpp/MLX |
| 控制台 | 百度云管理面板 | Web控制台(8088端口) |
好家伙,从对比来看CoPaw在功能丰富度和可扩展性上确实更胜一筹,特别是记忆引擎、定时任务和本地模型支持这几个特性,让它更适合作为长期使用的个人AI助理。
3. 部署实战
接下来我们就在百度云轻量应用服务器上部署CoPaw。如果你之前通过1分钱活动拿到了百度云服务器,现在正好派上用场;如果没有,用其他云服务器也完全可以,部署步骤是一样的。
3.1 连接百度云服务器
首先我们需要通过SSH连接到百度云轻量应用服务器。目前我这服务还有半个月到期,先把它用起来,嘿嘿。
我这里使用FinalShell链接百度云轻量应用服务器
连接成功后,我们先看一下服务器的基本信息:
# 查看系统信息
cat /etc/os-release
# 查看内存和磁盘
free -h
df -h
3.2 环境准备
CoPaw需要Python 3.10及以上版本,我们先检查一下服务器的Python环境:
# 检查Python版本
python3 --version
如果Python版本低于3.10,我们需要安装合适的版本:
# 更新系统包
apt update && apt upgrade -y
# 安装Python 3.10+所需的依赖
apt install -y software-properties-common
add-apt-repository ppa:deadsnakes/ppa -y
apt update
# 安装Python 3.11
apt install -y python3.11 python3.11-venv python3.11-dev
# 验证安装
python3.11 --version
之前平台已经安装python3.12, 上面步骤就可以省略了。如果你的服务器没有上述环境是需要安装python运行环境的。
建议创建一个虚拟环境来隔离CoPaw的依赖:
# 创建虚拟环境
python3 -m venv copaw-env
# 激活虚拟环境
source copaw-env/bin/activate
# 确认Python版本
python --version
pip --version
我们使用python虚拟运行环境,这样运行环境不破坏已经运行其他应用和服务。
3.3 安装CoPaw
环境准备好了,接下来安装CoPaw。官方提供了多种安装方式,在百度云服务器上我们推荐使用pip方式:
方式一:pip安装(推荐)
# pip安装CoPaw
pip install grpcio>=1.58.0 -i https://pypi.tuna.tsinghua.edu.cn/simple/
pip install copaw
方式二:一键安装脚本
如果你不想手动管理Python环境,也可以使用官方一键安装脚本,它会自动处理Python环境:
# Linux一键安装
curl -fsSL https://copaw.agentscope.io/install.sh | bash
方式三:Docker安装
如果服务器已经安装了Docker,也可以使用Docker方式部署:
# 拉取CoPaw镜像
docker pull agentscope/copaw:latest
# 运行CoPaw容器
docker run -d \
--name copaw \
-p 8088:8088 \
-v copaw-data:/root/.copaw \
--restart unless-stopped \
agentscope/copaw:latest
3.4 初始化配置
安装完成后,我们需要初始化CoPaw的配置。这一步会引导你设置大模型API Key等关键参数:
# 交互式初始化(推荐,会逐步引导配置)
copaw init
初始化过程中会询问以下关键配置:
- 大模型API Key:支持DashScope(阿里云通义)、ModelScope等
- 频道配置:选择你要接入的消息平台(钉钉/飞书/QQ等)
- 记忆存储:选择本地存储或云端存储
关于配置这块我们可以在图形界面配置安装,后面给大家讲解,这里就简单快速过一下。
模型这里也有选择 DashScope(阿里云通义)、ModelScope等
我们选择魔搭社区提供的免费的api
默认的模型提供2个Qwen3-235B-A22B-Instruct-2507、DeepSeek-V3.2 我就选第一个
如果你想快速体验,也可以使用默认配置:
# 使用默认配置初始化
copaw init --defaults
初始化完成后,你也可以通过环境变量或.env文件来调整配置:
# 创建.env配置文件
cat > .env << 'EOF'
# 大模型API配置(以通义千问为例)
DASHSCOPE_API_KEY=your-dashscope-api-key
# 或者使用其他模型服务
# OPENAI_API_KEY=your-openai-api-key
# MODELSCOPE_API_KEY=your-modelscope-api-key
EOF
3.5 启动服务
配置完成,激动人心的时刻来了!启动CoPaw服务:
# 启动CoPaw
copaw app --host 0.0.0.0 --port 8088
启动成功后,你会看到控制台输出服务运行信息,默认Web控制台端口为8088。
重要:如果你使用的是百度云轻量应用服务器,需要在防火墙中放通8088端口:
# 如果使用iptables
iptables -A INPUT -p tcp --dport 8088 -j ACCEPT
# 或者在百度云控制台的防火墙规则中添加8088端口
使用下面命令查看网络
netstat -ntpl
3.6 控制台配置
打开浏览器,访问 http://你的服务器IP:8088/,即可进入CoPaw的Web控制台。
补充说明:这样通过公网访问这个WEB 不安全,因为这个WEB没有登录鉴权,第一配置我只是方便使用。
大家启动的时候还是用copaw app 来启动,这样就不会映射到公网了。
模型配置
在控制台的设置页面中,你可以配置大模型API:
- DashScope(通义千问):填入阿里云通义千问的API Key
- ModelScope:填入魔搭平台的API Key
- 其他模型:支持OpenAI兼容接口
我前面通过命令行方式配置了模型,所以能看到魔搭模型配置成功。这个copaw 配置管理还是比较符合中文人的使用习惯的。对小白也比较友好。如果大家安装openclaw 不熟悉的小伙伴也是可以选择这个作为替代。
频道接入
CoPaw的亮点之一就是多平台接入,在控制台中可以配置:
- 钉钉:填入钉钉机器人的AppKey和AppSecret
- 飞书:填入飞书机器人的App ID和App Secret
- QQ:配置QQ机器人接入信息
- Discord:填入Discord Bot Token
我这里就接入钉钉
下面我们重点介绍一下钉钉的配置
钉钉的频道接入
-
打开 钉钉开发者后台
-
进入"应用开发→企业内部应用→钉钉应用→创建 应用"
-
在"应用能力→添加应用能力"中添加 「机器人」
-
配置机器人基础信息,设置消息接收模式为 Stream 模式(流式接收),点击发布
-
在"应用发布→版本管理与发布"中创建新版本,填写基础信息后保存
-
在"基础信息→凭证与基础信息"中获取:
- Client ID(即 AppKey)
- Client Secret(即 AppSecret)
-
(可选) 将服务器 IP 加入白名单 — 调用钉钉开放平台 API(如下载用户发送的图片和文件)时需要此配置。在应用设置中进入 "安全设置→服务器出口 IP",添加运行 CoPaw 的机器的公网 IP。可在终端执行
curl ifconfig.me查看公网 IP。若未配置白名单,图片和文件下载将报Forbidden.AccessDenied.IpNotInWhiteList错误。
绑定应用
可以在console前端配置,或者修改~/.copaw/config.json。
方法1: 在console前端配置
从“控制→频道”找到DingTalk,点击后填入刚刚获取的Client ID和Client Secret
方法2: 修改~/.copaw/config.json
在 config.json 里找到 channels.dingtalk,填入对应信息,例如:
复制
"dingtalk": {
"enabled": true,
"bot_prefix": "[BOT]",
"client_id": "你的 Client ID",
"client_secret": "你的 Client Secret"
}
Skills技能配置
CoPaw支持自定义技能扩展,你可以在控制台中管理已加载的技能:
目前这个CoPaw提供几个skill 默认都给你安装了,还是比较贴心的
3.7 功能测试验证
一切配置完毕,我们来测试一下CoPaw的各项功能。
Web端对话测试
直接在Web控制台中与CoPaw对话:
多平台接入测试
如果你配置了钉钉或飞书,可以在对应平台上测试,我这边接入钉钉就给大家看一下效果。
4. 总结
今天主要带大家了解并实现了阿里开源CoPaw(协同个人智能体工作台)在百度云轻量应用服务器上的完整部署流程,该AI个人助理平台以"AgentScope Runtime + ReMe记忆引擎"为核心优势,结合多平台接入和个性化AI助理场景需求,通过百度云轻量应用服务器与CoPaw Web控制台(8088端口),形成了一套从pip安装到多平台AI助理的全链路开源解决方案。通过这套实践方案,有一定基础的开发者能够高效突破传统AI助手部署的技术门槛——借助pip一键安装(pip install copaw)、交互式初始化配置(copaw init引导设置API Key和频道信息)、以及Web控制台可视化管理(模型配置、频道接入、Skills技能管理),无需复杂的微服务架构知识、无需手动对接各平台API、无需从零开发记忆系统,就能快速拥有支持钉钉飞书QQ等多平台接入的AI个人助理(如本次演示的"百度云服务器部署CoPaw并实现多平台对话")。
无论是社交媒体热帖摘要追踪、邮件日历生产力工具整合,还是创意内容全流程生成、知识研究资讯追踪,都能通过CoPaw的Skills技能扩展和Cron定时任务完成配置,极大提升了个人效率和AI助理的实用价值。在实际应用中,CoPaw不仅支持DashScope通义千问、ModelScope等多种大模型接入,还内置llama.cpp和MLX本地模型运行能力,适配性远优于依赖单一云端模型的传统方案;特别是通过ReMe记忆引擎的深度个性化记忆,有效解决了AI助手"健忘症"——无法记住用户偏好和历史上下文的难题。
同时,方案具备良好的扩展性——小伙伴们可以基于此扩展更多应用场景,如企业内部知识库智能问答、自动化日报周报生成、多平台内容同步发布等,进一步发挥CoPaw在个人效率、团队协作、知识管理等领域的应用价值。感兴趣的小伙伴可以按照文中提供的步骤进行实践,根据实际消息平台需求调整钉钉飞书QQ Discord的接入配置。今天的分享就到这里结束了,我们下一篇文章见。