GMI Cloud Inference Engine 是全球 AI 模型统一接入与在线使用的“高性能推理引擎平台”,底层搭载 H100/H200 芯片,集成全球近百个最前沿的大语言模型和视频生成模型,如 Minimax、DeepSeek、GPT OSS、Qwen、Kling 等,为 AI 开发者与企业提供速度更快、质量更高的模型服务。
欢迎来到!🎉🎉🎉
GMI Cloud Inference Engine AI 场景实践案例集【语言工具篇】之二。
**本期任务目标:**在 IOS 端的【Para翻译】app 中接入 Inference Engine 的 API。
Para 翻译是一个 IOS 多平台翻译聚合工具,其具有截屏翻译、浮窗划词翻译、自定义翻译风格等功能,其会员用户支持自定义接入第三方 API,灵活满足用户的个性化需求。
本文将以接入 Inference Engine 中的 MiniMax-M2.1 API 为例,详细讲解在 Para 翻译中接入 API 的过程。Token福利文末自行领取!!
MiniMax-M2.1 界面:
console.gmicloud.ai/playground/…
01
准备工作:下载 APP
Get ready?
在 app store 里搜索并下载 Para 翻译。接入自定义 API 服务需要开通会员哦~
02
接入步骤
API Connection Guide
第一步,按照如下图所示步骤点击按钮,找到自定义 API 窗口。
第二步,填写 API 信息。
自定义翻译服务名称可以随意命名,建议包含“GMI Cloud”或“Inference Engine”,以及模型名称登关键词,方便查找。
自定义 API 接口地址可直接复制:api.gmi-serving.com/v1/chat/com…
APIKEY 和模型名称则填写从 GMI Cloud 官网上获得的信息。API KEY、对应的模型设置,需要到 GMI Cloud 官网获取。
模型名称可在模型对应页面找到,比如我这里用的 MiniMax-M2.1,对应界面为:
console.gmicloud.ai/playground/…
点击页面下方的“验证”,确认接通后就可以开始使用啦~
最后,我们再找一个英文界面尝试一下!
首先在 app 里选择好我们刚刚设置的 【GMI 翻译 API】。
打开悬浮窗,进入任意英文界面。
稍等片刻,翻译成功!