【硬核翻译】我给浏览器翻译装上了本地大模型,彻底告别 API 付费和隐私担忧!

132 阅读4分钟

Hi,各位掘金的开发者朋友们!

你是否也曾遇到过这样的场景:

  • 在 Stack Overflow 或 GitHub 上阅读英文文档,需要频繁翻译,但又不想离开当前页面?
  • 想翻译一段包含敏感代码或业务逻辑的文本,但又担心将数据发送给第三方翻译服务会带来隐私风险?
  • 厌倦了申请各种翻译 API 的 Key,还时不时因为调用频率超标而被收费?

如果你对以上任何一点感同身受,那么我开发的这款浏览器扩展——LLM Translate,可能就是你一直在寻找的生产力神器。

今天,我非常激动地宣布,它迎来了一个“硬核”更新:正式支持 Ollama 本地大语言模型!

setting-global-new.png

inpage.png


什么是 LLM Translate?

简单来说,LLM Translate 是一款开源的、注重隐私和高度可定制的浏览器划词翻译扩展。与其他翻译工具不同,它不依赖于任何单一的翻译服务 。相反,它将强大的大型语言模型(LLM)作为翻译引擎,让你可以在多个模型服务之间自由选择,包括 Google Gemini, 硅基流动等。当然,还有我们今天的主角——Ollama。

杀手级功能:Ollama 本地化翻译

这次更新的核心,就是让你能把翻译这件事,完全放在自己的电脑上离线完成。

这意味着什么?

  1. 绝对的隐私安全 你的任何文本,尤其是那些包含着商业机密或未开源的代码片段,都不会离开你的电脑。数据在本地处理,从源头上杜绝了隐私泄露的可能。

  2. 永久的免费使用 Ollama 社区有大量高质量的开源模型(如 Llama 3, Qwen, Gemma)。你只需在本地运行它们,就可以无限次、无限制地免费使用翻译功能,再也不用担心 API 调用次数和账单。

  3. 极致的定制化 你可以根据自己的需求,选择最适合的本地模型。想翻译代码?试试 CodeLlama。需要通用翻译?Llama 3 效果拔群。你可以尽情“折腾”,找到最顺手的那个“它”。

  4. 闪电般的速度 在性能不错的设备上,本地模型的响应速度甚至可以超越云端 API,给你带来更流畅的翻译体验。

如何三步用上本地翻译?

配置过程极其简单:

  1. 安装 Ollama: 访问 ollama.com (ollama.com/),一键安装 Ollama 到你的电脑。
  2. 下载模型: 打开终端,运行 ollama run llama3 (或任何你喜欢的模型) 来下载并运行模型。
  3. 配置扩展:
    • 从 Chrome商店安装 LLM Translate(国内用户可以在 github 项目页下载已发布的压缩包解压加载浏览器扩展)。
    • 进入设置页面,在 “模型提供商” 中选择 Ollama。
    • (可选)如果你修改了 Ollama 的默认地址,可以自定义一下。
    • 保存,开始享受吧!

不仅仅是 Ollama

当然,LLM Translate 依然支持你连接到其他主流的 LLM 服务:

  • Google AI (Gemini Pro): 通过 Google AI Studio 申请免费 Key,即可使用。
  • 硅基流动 (国内用户推荐): 支持各类第三方模型,也有免费模型如 qwen 系列。

我们致力于将选择权交到你的手中。

开源,与社区共建

LLM Translate 是一个完全开源的项目。我深知一个人的力量是有限的,因此我非常欢迎各位开发者朋友们:

  • 前来体验: 安装扩展,让它成为你日常工作流的一部分。
  • 提出建议: 在 GitHub Issues 中分享你的想法或遇到的问题。
  • 贡献代码: 如果你对这个项目感兴趣,欢迎提交 Pull Request,一起让它变得更强大!

我们刚刚发布了 v0.7.0 版本,这只是一个新的开始。未来,我们计划加入更多实用的功能,例如自定义 Prompt、多语言对照等等。

如果你觉得这个项目对你有帮助,请不要吝啬你的 Star!这对我是最大的鼓励。


传送门

感谢你的阅读,期待 LLM Translate 能成为你爱不释手的工作伴侣!