使用cloudflare提供的AI翻译模型m2m100

260 阅读1分钟

最近使用了cloudflare相关的一些服务,像pages和worker,相比传统的云计算厂商,cloudflare才是真正意义上的云计算。迅速把腾讯的对象存储的东西全部转移过来,虽说速度有一点点慢,但是真的省心。代码push到github上,不需要任何配置,服务自动就更新。

并且cloudflare提供了每天10k Neurons的免费AI使用量包括llama7b等一些重要模型,作为个人使用,完全足够了。

今天尝试了翻译模型m2m100,这也是一个facebook开源的一个翻译模型,支持全世界任何语言的翻译,这里使用中译英作为示例。

const model = '@cf/meta/m2m100-1.2b'
  const input = {
    text: "首个单一的大规模 MMT 模型,该模型可以实现 100x100 个语言对的直接翻译,而不依赖以英语为中心的数据。",
    source_lang: "chinese", // defaults to english
    target_lang: "english",
  }
  const response = await fetch(
    `https://api.cloudflare.com/client/v4/accounts/*****/ai/run/${model}`,
    {
      headers: { Authorization: "Bearer ***" },
      method: "POST",
      body: JSON.stringify(input),
    }
  );

翻译结果

image.png 预览地址