GMI Cloud Inference Engine 是全球 AI 模型统一接入与在线使用的“高性能推理引擎平台”,底层搭载 H100/H200 芯片,集成全球近百个最前沿的大语言模型和视频生成模型,如 Minimax、DeepSeek、GPT OSS、Qwen、Kling 等,为 AI 开发者与企业提供速度更快、质量更高的模型服务。
欢迎来到!🎉🎉🎉
GMI Cloud Inference Engine AI 场景实践案例集【龙虾篇】上。
本期任务目标:在 OpenClaw 中接入 GMI Inference Engine 的模型 API,借助 OpenClaw 高度灵活的扩展能力,打造专属的本地化 AI 工作助手~
OpenClaw 是一款强大的 AI 助手集成平台,支持将各类前沿大模型与飞书等主流协作工具无缝对接,高度灵活的扩展能力可实现自定义 API 接入、多消息通道配置,轻松打造专属的本地化 AI 工作助手。
话不多说,跟着步骤操作,轻松完成对接,解锁全新使用体验~
01
准备工作:环境就绪
Get ready?
首先确认设备满足基础环境要求,让后续操作更顺畅!具体配置要求是这样的:
满足系统要求后,还需要安装好Git,直接前往 Git 官网按照提示完成安装即可,操作简单无难度。
💻 安装 OpenClaw
本文以 Windows 系统为例展开讲解,同时附上 Mac 和 Linux 的安装方式,大家可根据自己的设备系统自行选择。
在管理员 身份的 PowerShell中执行命令:
npm install -g openclaw-cn@latest
Mac和Linux端则在终端中运行以下命令:
curl -fsSL https://openclaw.ai/install.sh | bash
该命令将自动完成以下操作:
✅ 在用户环境中安装 OpenClaw
✅ 自动安装所需的依赖项
✅ 启动 OpenClaw 引导配置流程
💡 异常处理(仅 Windows)
若遇 “无法加载脚本” 错误,依次执行以下命令修复:Get-ExecutionPolicy → 若返回 Restricted,执行 Set-ExecutionPolicy RemoteSigned 输入 Y 确认,重新执行安装命令即可。
安装完成后,启动交互式引导配置流程,执行命令:
openclaw-cn onboard --install-daemon
程序启动后弹出安全警告,选择【Yes】继续,后续出现 "快速启动(Quickstart)" 选项直接选中,开启后续配置~
02
API 接入步骤
API Connection Guide
引导流程中按提示依次操作,完成 GMI Inference Engine 中模型 API 与 OpenClaw 的对接,每一步都超清晰,跟着做就对了!
步骤1:选择模型提供商
提示 Model / auth provider 时,Windows 端选择【自定义模型 (兼容 OpenAI/Anthropic) 】 后选择 【Custom Provider API key】;
Mac/Linux 用户选择 【Custom Provider (Any Open or Anthropic compatible endpoint)】 (列表倒数第二位)
步骤2:输入 API Base URL
在Windows 端,在提示 Select protocol 时我们需选【OpenAI Compatible】 随后输入的 ID 输入 gmi , 提示 API Base URL 时,输入:
https://api.gmi-serving.com/v1
Mac/Linux 用户直接输入即可;
步骤3:选择 API Key 提供方式
到这一步,Windows 端可以先确认自己心仪的模型,这些都是可选的模型示例:
Mac/Linux 用户会提示 How do you want to provide this API key? 时,这时选择Paste API key now,回车确认;
步骤4:获取 API Key
打开 GMI Cloud Inference Engine 平台并登录,点击右上角头像→【API Keys】→【Create API Key】,自定义名称后生成密钥,立即复制保存(仅创建时可见,刷新后将无法查看) ;
步骤5:粘贴 API Key
在引导程序的 API Key 输入框中,粘贴复制的 API Key(若无法粘贴,可以试着右键窗口直接粘贴或手动输入),回车确认;
步骤6:选择端点类型
Windows 端在输入完 API Key 后,选 gmi,再在后面的模型列表里选你想要的模型,即可大功告成;
Mac/Linux 用户提示 Endpoint compatibility 时,选择【OpenAPI-compatible (Uses /chat/completions)】 ,回车确认,随后继续完成以下操作:
步骤7:选择模型 ID
提示 Model ID 时,输入 GMI Cloud 支持的模型 ID,即步骤3的示例模型;
步骤8:设置端点别名
提示 Endpoint ID 时,输入自定义别名(如 GMI),回车确认;
步骤9:设置模型别名(可选)
提示 Model alias (optional) 时,可输入别名(如 Gemini)或直接回车,完成后系统将自动验证配置有效性,验证通过即进入消息通道配置~
如果想学习如何配置消息交互通道,不妨点击关注我们,下一期将为大家详细分享具体操作方法~