还没搞定 OpenClaw+GMI Cloud Inference Engine?来尝尝我们这盘“虾”!

0 阅读4分钟

图片

GMI Cloud Inference Engine 是全球 AI 模型统一接入与在线使用的“高性能推理引擎平台”,底层搭载 H100/H200 芯片,集成全球近百个最前沿的大语言模型和视频生成模型,如 Minimax、DeepSeek、GPT OSS、Qwen、Kling 等,为 AI 开发者与企业提供速度更快、质量更高的模型服务。

欢迎来到!🎉🎉🎉

GMI Cloud Inference Engine AI 场景实践案例集【龙虾篇】上。

本期任务目标:在 OpenClaw 中接入 GMI Inference Engine 的模型 API,借助 OpenClaw 高度灵活的扩展能力,打造专属的本地化 AI 工作助手~

OpenClaw 是一款强大的 AI 助手集成平台,支持将各类前沿大模型与飞书等主流协作工具无缝对接,高度灵活的扩展能力可实现自定义 API 接入、多消息通道配置,轻松打造专属的本地化 AI 工作助手。

OpenClaw

话不多说,跟着步骤操作,轻松完成对接,解锁全新使用体验~

01

准备工作:环境就绪

Get ready?

首先确认设备满足基础环境要求,让后续操作更顺畅!具体配置要求是这样的:

图片

满足系统要求后,还需要安装好Git,直接前往 Git 官网按照提示完成安装即可,操作简单无难度。

💻 安装 OpenClaw

本文以 Windows 系统为例展开讲解,同时附上 Mac 和 Linux 的安装方式,大家可根据自己的设备系统自行选择。

管理员 身份的 PowerShell中执行命令:

npm install -g openclaw-cn@latest

Mac和Linux端则在终端中运行以下命令:

curl -fsSL https://openclaw.ai/install.sh | bash

该命令将自动完成以下操作:

✅ 在用户环境中安装 OpenClaw

✅ 自动安装所需的依赖项

✅ 启动 OpenClaw 引导配置流程

💡 异常处理(仅 Windows)

若遇 “无法加载脚本” 错误,依次执行以下命令修复:Get-ExecutionPolicy → 若返回 Restricted,执行 Set-ExecutionPolicy RemoteSigned 输入 Y 确认,重新执行安装命令即可。

安装完成后,启动交互式引导配置流程,执行命令:

openclaw-cn onboard --install-daemon

程序启动后弹出安全警告,选择【Yes】继续,后续出现  "快速启动(Quickstart)"  选项直接选中,开启后续配置~

02

API 接入步骤

API Connection Guide

引导流程中按提示依次操作,完成 GMI Inference Engine 中模型 API 与 OpenClaw 的对接,每一步都超清晰,跟着做就对了!

步骤1:选择模型提供商

提示 Model / auth provider 时,Windows 端选择【自定义模型 (兼容 OpenAI/Anthropic) 】 后选择 【Custom Provider API key】;

图片

Mac/Linux 用户选择 【Custom Provider (Any Open or Anthropic compatible endpoint)】 (列表倒数第二位)

图片

步骤2:输入 API Base URL

在Windows 端,在提示 Select protocol 时我们需选【OpenAI Compatible】 随后输入的 ID 输入 gmi , 提示 API Base URL 时,输入:

https://api.gmi-serving.com/v1

图片

Mac/Linux 用户直接输入即可;

步骤3:选择 API Key 提供方式

到这一步,Windows 端可以先确认自己心仪的模型,这些都是可选的模型示例:

图片

图片

Mac/Linux 用户会提示 How do you want to provide this API key? 时,这时选择Paste API key now,回车确认;

图片

步骤4:获取 API Key

打开 GMI Cloud Inference Engine 平台并登录,点击右上角头像→【API Keys】→【Create API Key】,自定义名称后生成密钥,立即复制保存(仅创建时可见,刷新后将无法查看)

飞书文档 - 图片

步骤5:粘贴 API Key

在引导程序的 API Key 输入框中,粘贴复制的 API Key(若无法粘贴,可以试着右键窗口直接粘贴或手动输入),回车确认;

步骤6:选择端点类型

Windows 端在输入完 API Key 后,选 gmi,再在后面的模型列表里选你想要的模型,即可大功告成;

图片

Mac/Linux 用户提示 Endpoint compatibility 时,选择【OpenAPI-compatible (Uses /chat/completions)】 ,回车确认,随后继续完成以下操作:

步骤7:选择模型 ID

提示 Model ID 时,输入 GMI Cloud 支持的模型 ID,即步骤3的示例模型;

步骤8:设置端点别名

提示 Endpoint ID 时,输入自定义别名(如 GMI),回车确认;

步骤9:设置模型别名(可选)

提示 Model alias (optional) 时,可输入别名(如 Gemini)或直接回车,完成后系统将自动验证配置有效性,验证通过即进入消息通道配置~

图片

如果想学习如何配置消息交互通道,不妨点击关注我们,下一期将为大家详细分享具体操作方法~