Goose:免费开源的本地化AI编程助手

4 阅读13分钟

Goose:免费开源的本地化AI编程助手,挑战Claude Code每月200美元的高昂费用

人工智能编程革命伴随一个显著问题:成本高昂。

Anthropic推出的终端AI代理Claude Code能够自主编写、调试和部署代码,激发了全球软件开发者的想象力。但其定价模式——根据使用量每月20至200美元不等——却在它意欲服务的程序员群体中引发了日益强烈的不满。

如今,一款免费替代品正获得广泛关注。Goose是由某金融科技公司Block开发的开源AI代理,它提供与Claude Code几乎相同的功能,但完全运行在用户的本地机器上。无需订阅费,不依赖云端,也没有每五小时重置的使用限制。

"你的数据始终由你掌控,就这么简单。"一位软件工程师在近期直播中演示该工具时强调。这句话道出了其核心吸引力:Goose让开发者能完全掌控AI驱动的工作流程,包括在离线环境下(甚至在飞机上)工作的能力。

该项目人气飙升。Goose在代码共享平台GitHub上已获得超过26,100颗星,自发布以来有362名贡献者参与,并发布了102个版本。最新版本1.20.1于2026年1月19日推出,其开发速度足以媲美商业产品。

对于因Claude Code定价结构和用量限制而感到沮丧的开发者而言,Goose代表了AI行业中日益罕见的选择:一个真正免费、无附加条件、可用于严肃工作的工具。

Anthropic新的速率限制引发开发者抵制

要理解Goose为何重要,需先了解Claude Code的定价争议。

Anthropic将Claude Code作为其订阅层级的一部分提供。免费计划完全无法使用。Pro计划(年付每月17美元或月付20美元)将用户限制为每五小时仅10到40次提示——这一限制在深度工作时几分钟内就会耗尽。

Max计划(每月100美元和200美元)提供更多空间:分别为50到200次和200到800次提示,并可访问Anthropic最强大的模型Claude 4.5 Opus。但即使是这些高级层级也带有激怒开发者社区的限制。

七月底,Anthropic宣布了新的周速率限制。根据新系统,Pro用户每周可获得40到80小时的Sonnet 4使用时间。200美元档次的Max用户每周可获得240到480小时的Sonnet 4使用时间,外加24到40小时的Opus 4使用时间。近五个月后,用户的不满情绪仍未消退。

问题出在哪里?这些"小时"并非实际时间。它们代表基于令牌的限制,而令牌消耗量因代码库大小、对话长度和处理代码的复杂度而有很大差异。独立分析表明,实际每次会话的限制大致相当于Pro用户44,000个令牌,200美元Max计划用户220,000个令牌。

"这令人困惑且含糊不清,"一位开发者在广为传播的分析中写道。"当他们说'24-40小时的Opus 4'时,这并没有告诉你任何关于你实际能获得什么的有用信息。"

Reddit和开发者论坛上的强烈反对声浪高涨。一些用户报告称,在密集编码的30分钟内就用完了每日限制。其他人则干脆取消了订阅,称新限制是"笑话","无法用于实际工作"。

Anthropic为这些变化辩护,称限制影响不到5%的用户,针对的是"全天候不间断在后台运行"Claude Code的人。但该公司未澄清该数字是指Max订阅者的5%,还是所有用户的5%——这一区别至关重要。

Block如何构建一款可离线工作的免费AI编程代理

Goose解决同一问题的方法截然不同。

Goose由某支付公司Block开发,工程师称之为"机器上AI代理"。与将查询发送到Anthropic服务器处理的Claude Code不同,Goose可以使用您自行下载和控制的本地开源语言模型,在本地计算机上完全运行。

项目文档将其描述为超越"代码建议",能够"与任何LLM(大语言模型)进行安装、执行、编辑和测试"。最后一句——"任何LLM"——是关键区别。Goose在设计上与模型无关。

如果您有API访问权限,可以将Goose连接到Anthropic的Claude模型。您可以使用某机构的GPT-5或某中心 的Gemini。您可以通过Groq或OpenRouter等服务路由它。或者——这是最有趣的部分——您可以使用Ollama等工具完全在本地运行,这些工具允许您在自己的硬件上下载和执行开源模型。

实际意义重大。使用本地设置,没有订阅费,没有使用上限,没有速率限制,也无需担心代码被发送到外部服务器。您与AI的对话永远不会离开您的机器。

"我经常在飞机上使用Ollama——这很有趣!"一位工程师在演示中指出,强调了本地模型如何将开发者从互联网连接的限制中解放出来。

Goose能做而传统代码助手不能做的事情

Goose作为命令行工具或桌面应用程序运行,可以自主执行复杂的开发任务。它可以从头开始构建整个项目、编写和执行代码、调试故障、跨多个文件编排工作流程,以及与外部API交互——所有这些都无需持续的人工监督。

其架构依赖于AI行业所称的"工具调用"或"函数调用"——即语言模型向外部系统请求特定操作的能力。当您要求Goose创建新文件、运行测试套件或检查GitHub拉取请求的状态时,它不仅会生成描述应该发生什么的文本,还会实际执行这些操作。

此功能在很大程度上依赖于底层语言模型。根据伯克利函数调用排行榜,Anthropic的Claude 4模型目前在工具调用方面表现最佳,该排行榜根据模型将自然语言请求转换为可执行代码和系统命令的能力进行排名。

但较新的开源模型正在迅速赶上。Goose的文档重点介绍了几种具有强大工具调用支持的选项:某公司的Llama系列、某公司的Qwen模型、某中心的Gemma变体,以及某公司的以推理为中心的架构。

该工具还与模型上下文协议集成,这是一种用于将AI代理连接到外部服务的新兴标准。通过MCP,Goose可以访问数据库、搜索引擎、文件系统和第三方API——将其功能扩展到基础语言模型提供的范围之外。

使用本地模型设置Goose

对于希望完全免费、保护隐私设置的开发者,该过程涉及三个主要组件:Goose本身、Ollama(在本地运行开源模型的工具)以及兼容的语言模型。

步骤1:安装Ollama

Ollama是一个开源项目,极大地简化了在个人硬件上运行大型语言模型的过程。它通过简单的界面处理下载、优化和服务模型的复杂工作。

从ollama.com下载并安装Ollama。安装后,您可以使用单个命令拉取模型。对于编码任务,Qwen 2.5提供强大的工具调用支持: ollama run qwen2.5

模型会自动下载并开始在您的机器上运行。

步骤2:安装Goose

Goose既可作为桌面应用程序,也可作为命令行界面使用。桌面版本提供更直观的视觉体验,而CLI则吸引喜欢完全在终端中工作的开发者。

安装说明因操作系统而异,但通常涉及从Goose的GitHub发布页面下载或使用包管理器。Block为macOS(Intel和Apple Silicon)、Windows和Linux提供预构建的二进制文件。

步骤3:配置连接

在Goose Desktop中,导航到“设置”,然后“配置提供商”,并选择Ollama。确认API主机设置为http://localhost:11434(Ollama的默认端口),然后单击“提交”。

对于命令行版本,运行goose configure,选择“配置提供商”,选择Ollama,并在提示时输入模型名称。

就是这样。Goose现在已连接到完全在您硬件上运行的语言模型,准备好在没有任何订阅费或外部依赖的情况下执行复杂的编码任务。

您需要了解的内存、处理能力和权衡

显而易见的问题是:您需要什么样的计算机?

在本地运行大型语言模型需要比典型软件更多的计算资源。主要限制是内存——在大多数系统上是RAM,如果使用专用显卡加速,则是VRAM。

Block的文档建议,32GB内存为"更大的模型和输出提供了坚实的基准"。对于Mac用户来说,这意味着计算机的统一内存是主要瓶颈。对于使用独立某公司 显卡的Windows和Linux用户,GPU内存在加速方面更为重要。

但您不一定需要昂贵的硬件才能开始。参数较少的较小模型可以在更普通的系统上运行。例如,Qwen 2.5有多个大小版本,较小的变体可以在16GB内存的机器上有效运行。

"您无需运行最大的模型也能获得出色的结果,"一位工程师强调。实际建议:从一个较小的模型开始测试您的工作流程,然后根据需要扩展。

作为参考,某公司 配备8GB内存的入门级MacBook Air难以运行大多数有能力的编码模型。但配备32GB内存的MacBook Pro——在专业开发者中越来越普遍——可以轻松处理它们。

为什么将代码保留在云端之外比以往任何时候都重要

带有本地LLM的Goose并非Claude Code的完美替代品。两者之间存在开发者应了解的实际权衡。

模型质量:Claude 4.5 Opus,Anthropic的旗舰模型,仍然是软件工程任务中最有能力的AI。它擅长理解复杂代码库、遵循细微指令并在首次尝试时生成高质量代码。开源模型已显著改进,但差距仍然存在——尤其是在最具挑战性的任务上。

一位改用200美元Claude Code计划的开发者直言不讳地描述了这种差异:"当我说'让它看起来现代'时,Opus明白我的意思。其他模型给我的是大约2015年的Bootstrap。"

上下文窗口:通过API访问的Claude Sonnet 4.5提供了巨大的百万令牌上下文窗口——足以加载整个大型代码库,而无需分块或进行上下文管理。大多数本地模型默认限制为4,096或8,192个令牌,尽管许多可以配置为更长的上下文,但代价是增加内存使用量和降低处理速度。

速度:像Claude Code这样的基于云的服务在专为AI推理优化的专用服务器硬件上运行。在消费级笔记本电脑上运行的本地模型处理请求通常较慢。这种差异对于需要快速更改并等待AI反馈的迭代工作流程来说很重要。

工具成熟度:Claude Code受益于Anthropic的专用工程资源。诸如提示缓存和结构化输出等功能经过精心打磨且文档齐全。Goose虽然积极开发并已发布102个版本,但依赖于社区贡献,可能在特定领域缺乏同等程度的精炼。

Goose与Cursor、GitHub Copilot以及付费AI编程市场的比较

Goose进入了一个拥挤的AI编程工具市场,但占据了独特的位置。

Cursor是一款流行的AI增强代码编辑器,其Pro级别每月收费20美元,Ultra级别收费200美元——与Claude Code的Max计划定价相当。Cursor在Ultra级别每月提供约4,500次Sonnet 4请求,这与Claude Code的每小时重置模式截然不同。

Cline、Roo Code等类似的开源项目提供AI编码辅助,但自主性和工具集成水平各不相同。许多侧重于代码补全,而非定义Goose和Claude Code的代理任务执行能力。

某机构的CodeWhisperer、GitHub Copilot以及主要云提供商的企业产品针对的是拥有复杂采购流程和专用预算的大型组织。它们对于寻求轻量级、灵活工具的个人开发者和小型团队而言不太相关。

Goose结合了真正的自主性、模型无关性、本地运行和零成本,创造了独特的价值主张。该工具并非试图在精致度或模型质量上与商业产品竞争。它竞争的是自由度——无论是财务上的还是架构上的。

AI编程工具每月200美元的时代可能即将结束

AI编程工具市场发展迅速。开源模型正以不断缩小与专有替代品差距的速度改进。某公司的Kimi K2和某公司的GLM 4.5现在的基准测试接近Claude Sonnet 4的水平——而且它们可免费使用。

如果这种趋势持续下去,证明Claude Code高价合理的质量优势可能会被侵蚀。Anthropic届时将面临压力,需要在功能、用户体验和集成方面而非原始模型能力上进行竞争。

目前,开发者面临一个明确的选择。那些需要绝对最佳模型质量、能够负担高昂定价并接受使用限制的人,可能会偏爱Claude Code。而那些优先考虑成本、隐私、离线访问和灵活性的人,在Goose中拥有一个真正的替代品。

一个每月200美元的商业产品,竟有一个核心功能相当、完全免费且开源的竞争对手,这本身就引人注目。它既反映了开源AI基础设施的成熟,也反映了开发者对尊重其自主性的工具的渴望。

Goose并非完美。它比商业替代品需要更多的技术设置。它依赖于并非每位开发者都拥有的硬件资源。其模型选项虽然快速改进,但在复杂任务上仍落后于最佳的专有产品。

但对于一个不断壮大的开发者社区而言,这些限制是可以接受的权衡,以换取在AI领域日益稀缺的东西:一个真正属于他们自己的工具。

Goose可在github.com/block/goose下载。Ollama可在ollama.com获取。两个项目都是免费且开源的。FINISHED