GMI Cloud Inference Engine 是全球 AI 模型统一接入与在线使用的“高性能推理引擎平台”,底层搭载 H100/H200 芯片,集成全球近百个最前沿的大语言模型和视频生成模型,如 Claude、GPT、Gemini、MiniMax、DeepSeek、Qwen、Kling 等,为 AI 开发者与企业提供速度更快、质量更高的模型服务。
欢迎来到!🎉🎉🎉
GMI Cloud Inference Engine AI 场景实践案例集【语言工具篇】之一。
本期任务目标: 在 Chrome 的【沉浸式翻译】插件中接入 Inference Engine 的 API。
沉浸式翻译网页翻译插件是一个 AI 双语翻译工具,无论是学术研究、跨境工作还是外语学习,它都能通过保留原文排版的双语呈现,让跨语言信息获取更流畅高效。Pro 用户支持自定义接入第三方 API,让用户既能享受现成的高效翻译服务,也能灵活适配个性化需求。
本文将以接入 Inference Engine 中的 MiniMax-M2.1 API 为例,详细讲解在 Chrome 的沉浸式翻译插件中接入 API 的过程。
MiniMax-M2.1 界面:
console.gmicloud.ai/playground/…
01
准备工作:安装浏览器插件
Get ready?
在 Chrome 商店中搜索并安装【沉浸式翻译-网页翻译插件】。
02
接入步骤
API Connection Guide
点击插件,在插件弹出页面中选择“翻译服务”,下拉菜单中滑动到最后,选择“更多翻译服务”。
选择“添加自定义翻译服务”,并按照引导输入文字。
选择“自定义 AI”。
在自定义翻译栏目填写对应的信息:
自定义翻译服务名称可以随意命名,建议包含“GMI Cloud”或“Inference Engine”,以及模型名称登关键词,方便查找。
自定义 API 接口地址可直接复制:
api.gmi-serving.com/v1/chat/com…
APIKEY 和模型名称则填写从 GMI Cloud 官网上获得的信息。模型名称可在模型对应页面找到。
配置好后点击右上角的测试,看到小绿勾则测试成功。
回到浏览器插件界面,勾选“启用 AI 精翻”,并选择刚刚自定义好的翻译服务。
最后用一个网页测试一下:稍等片刻即可翻译成功!
教程完毕! 😍😍😍 快去试试吧~