Hi,各位掘金的开发者朋友们!
你是否也曾遇到过这样的场景:
- 在 Stack Overflow 或 GitHub 上阅读英文文档,需要频繁翻译,但又不想离开当前页面?
- 想翻译一段包含敏感代码或业务逻辑的文本,但又担心将数据发送给第三方翻译服务会带来隐私风险?
- 厌倦了申请各种翻译 API 的 Key,还时不时因为调用频率超标而被收费?
如果你对以上任何一点感同身受,那么我开发的这款浏览器扩展——LLM Translate,可能就是你一直在寻找的生产力神器。
今天,我非常激动地宣布,它迎来了一个“硬核”更新:正式支持 Ollama 本地大语言模型!
什么是 LLM Translate?
简单来说,LLM Translate 是一款开源的、注重隐私和高度可定制的浏览器划词翻译扩展。与其他翻译工具不同,它不依赖于任何单一的翻译服务 。相反,它将强大的大型语言模型(LLM)作为翻译引擎,让你可以在多个模型服务之间自由选择,包括 Google Gemini, 硅基流动等。当然,还有我们今天的主角——Ollama。
杀手级功能:Ollama 本地化翻译
这次更新的核心,就是让你能把翻译这件事,完全放在自己的电脑上离线完成。
这意味着什么?
-
绝对的隐私安全 你的任何文本,尤其是那些包含着商业机密或未开源的代码片段,都不会离开你的电脑。数据在本地处理,从源头上杜绝了隐私泄露的可能。
-
永久的免费使用 Ollama 社区有大量高质量的开源模型(如 Llama 3, Qwen, Gemma)。你只需在本地运行它们,就可以无限次、无限制地免费使用翻译功能,再也不用担心 API 调用次数和账单。
-
极致的定制化 你可以根据自己的需求,选择最适合的本地模型。想翻译代码?试试 CodeLlama。需要通用翻译?Llama 3 效果拔群。你可以尽情“折腾”,找到最顺手的那个“它”。
-
闪电般的速度 在性能不错的设备上,本地模型的响应速度甚至可以超越云端 API,给你带来更流畅的翻译体验。
如何三步用上本地翻译?
配置过程极其简单:
- 安装 Ollama: 访问 ollama.com (ollama.com/),一键安装 Ollama 到你的电脑。
- 下载模型: 打开终端,运行 ollama run llama3 (或任何你喜欢的模型) 来下载并运行模型。
- 配置扩展:
- 从 Chrome商店安装 LLM Translate(国内用户可以在 github 项目页下载已发布的压缩包解压加载浏览器扩展)。
- 进入设置页面,在 “模型提供商” 中选择 Ollama。
- (可选)如果你修改了 Ollama 的默认地址,可以自定义一下。
- 保存,开始享受吧!
不仅仅是 Ollama
当然,LLM Translate 依然支持你连接到其他主流的 LLM 服务:
- Google AI (Gemini Pro): 通过 Google AI Studio 申请免费 Key,即可使用。
- 硅基流动 (国内用户推荐): 支持各类第三方模型,也有免费模型如 qwen 系列。
我们致力于将选择权交到你的手中。
开源,与社区共建
LLM Translate 是一个完全开源的项目。我深知一个人的力量是有限的,因此我非常欢迎各位开发者朋友们:
- 前来体验: 安装扩展,让它成为你日常工作流的一部分。
- 提出建议: 在 GitHub Issues 中分享你的想法或遇到的问题。
- 贡献代码: 如果你对这个项目感兴趣,欢迎提交 Pull Request,一起让它变得更强大!
我们刚刚发布了 v0.7.0 版本,这只是一个新的开始。未来,我们计划加入更多实用的功能,例如自定义 Prompt、多语言对照等等。
如果你觉得这个项目对你有帮助,请不要吝啬你的 Star!这对我是最大的鼓励。
传送门
- GitHub 仓库 (求 Star ⭐): [github.com/licon/llm-t…]
- Chrome 应用商店: [chromewebstore.google.com/detail/llm-…]
感谢你的阅读,期待 LLM Translate 能成为你爱不释手的工作伴侣!