2026 年团队 AI 编程工具选型指南——七款付费工具横评
因为工作原因需要抉择付费 AI 工具,今年以来我前前后后试了不少主流的 AI 编程工具,有些只是短暂上手,有些用了很长时间。这篇就按自己的实际体验整理一下。如果你的团队也在做 AI 编程工具选型,希望能省一点来回试错的时间。
市面上叫得出名字的 AI 编程工具少说七八款,每一家都有各种套餐和定价方式,有的按请求数计费,有的按 token 计费,有的甚至搞了一套自己的计费规则。下面从几个维度来对比一下这些工具,理清下思路。
先说结论
如果你时间有限,直接看这张表:
| 团队类型 | 推荐方案 | 月费/人 |
|---|---|---|
| 非开发团队、轻度使用 | Codex(ChatGPT Plus) | $20 |
| 开发团队、性价比优先 | VS Code Copilot Pro 或 Trae Pro | $10 |
| 开发团队、体验优先 | Cursor Pro | $20 |
| 专业场景、重度使用 | 有 Claude 账号就选 Claude Code,没有就 Cursor Pro+ / Ultra + Codex | $60~$200+ |
下面展开来说说每一款。
一、逐个拆解
1. GitHub Copilot(VS Code)
一句话:门槛最低,生态最广,但"聪明程度"中规中矩。
GitHub Copilot 的最大优势是无缝集成——你已经在用 VS Code 和 GitHub,装个插件就能跑。不需要换编辑器,不需要适应新的交互方式。
定价方面(官方定价页):
| 档位 | 月费 | 高级请求额度 | 可用模型 |
|---|---|---|---|
| Free | $0 | 50/月 | GPT-4o、GPT-4.1、Claude Haiku 4.5 等(Free 档所有模型均消耗高级请求,无免费模型) |
| Pro | $10 | 300/月 | GPT-4o、GPT-4.1(标准,不扣额度)+ Claude Sonnet 4.5/4.6、Gemini 2.5 Pro、o3 等全线高级模型 |
| Pro+ | $39 | 1,500/月 | 全部 Pro 模型 + Claude Opus 4.6 Fast Mode(独占) |
| Business | $19/人 | 300/人/月 | 同 Pro |
| Enterprise | $39/人 | 1,000/人/月 | 同 Pro+,全模型访问 |
这里有个关键概念:高级模型请求(Premium Requests)。在付费档(Pro 及以上),GPT-4o、GPT-4.1 这类标准模型不消耗高级请求额度,随便用。但 Free 档不一样——所有模型每次都扣 1 次高级请求,50 次用完就得等下个月。付费档切到 Claude Sonnet(1x)、Gemini 2.5 Pro(1x)、Claude Opus 4.6(3x)这些模型时就开始扣了,而且不同模型的消耗倍率不一样——用一次 Opus 4.6 相当于扣 3 次高级请求,Fast 模式更夸张,一次扣 30 次。所以 $10 的 Pro 档 300 次额度,如果主要用 Sonnet 级别够了,但想经常用 Opus 就得上 Pro+。
但实话说,Copilot 的交互体验一直没跟上——问一个稍微复杂的问题,它要读半天上下文,最后给你的回答还是会有小纰漏。当你习惯了 Cursor 的速度之后,回来用 Copilot 会有明显的"钝感"。
适合:已经全栈 GitHub 生态的团队,对工具体验要求不那么极致,需要企业级管理功能。
2. Cursor
一句话:体验最好,理解能力最强,Tab 补全最准。
Cursor一直是体感最流畅的 AI 编辑器。它的核心能力在于上下文理解——同样一段代码,Cursor 能更快"看懂"你在干什么,Tab 补全的准确率明显高于其他工具。
| 档位 | 月费 | 用量倍率 | 可用模型 |
|---|---|---|---|
| Hobby | $0 | 有限 | 基础模型(限量使用,前沿模型需 Pro 以上) |
| Pro | $20 | 1x | Claude Sonnet 4.5/4.6、GPT-4o/4.1、Gemini 2.5 Pro/3 Flash、Cursor 自研 Composer 系列,以及 Claude Opus、Grok 4 等(需开启 Max Mode,按 API 价格 +20% 扣费) |
| Pro+ | $60 | 3x | 同 Pro,所有模型用量翻三倍 |
| Ultra | $200 | 20x | 同 Pro,所有模型用量翻二十倍,新功能优先体验 |
| Teams | $40/人 | - | 同 Pro,共享规则、集中管理、SSO |
Cursor 的模型策略比较大方:付费档位都能用所有模型,区别只在用量(Hobby 免费档前沿模型受限)。Pro 的标准额度覆盖了主流模型的日常使用,但如果你想用 Claude Opus 4.6 或 GPT-5.4 这类重量级模型,需要在请求时开启 Max Mode,费用按对应模型的 API 价格 +20% 实时扣。
我自己的体感是,最开始那种按次数用的方式会更舒服一点,心里负担没那么重。现在 Pro 按 token 跑,如果你用得比较狠,额度其实很快就见底了。超出部分按各模型的 API 价格扣费,用的也很快。如果重度使用,建议上 Pro+ 或 Ultra。
适合:对编码体验要求高的开发团队,愿意为生产力多付一点。
3. Trae(字节跳动)
一句话:价格还行,回答质量感觉和copilot差不多。
Trae 是字节跳动做的 AI IDE,之前在国内推了一阵。短暂体验下来,基础功能可用,但聊多了模型就开始"发呆",回答质量肉眼可见地下滑。
定价确实便宜(官方定价页):
| 档位 | 月付 | 年付月均 | 基础用量/月 | 说明 |
|---|---|---|---|---|
| Free | $0 | - | $3 | GPT-5 系列、Gemini 3.1 Pro/3 Flash/2.5 Flash、DeepSeek V3.1、MiniMax M2.7、Kimi K2 等,补全 5,000 次/月 |
| Lite | $3 | $2.25 | $5 | 同 Free,无限自动补全 |
| Pro | $10 | $7.50 | $20 | 同上 + SOLO 模式,快速队列(≤15s),10 个并发云任务 |
| Pro+ | $30 | $22.50 | $90 | 同上,15 个并发云任务 |
| Ultra | $100 | $75 | $400 | 同上 + 抢先体验新模型,20 个并发云任务 |
Trae 的模型池更新很快,目前已经覆盖了 OpenAI(GPT-5.4、GPT-5.3-Codex、GPT-5.2 等)、Google(Gemini 3.1 Pro、3 Flash、2.5 Flash)、DeepSeek(V3.1)、MiniMax(M2.7)、Kimi(K2)等。没有 Claude/Anthropic 系的模型,这是和 Cursor、Copilot 相比比较明显的短板。现在改成了按 token 计费,各档位能用的模型基本一样,区别在于用量额度。
月付的话 Pro 只要 $7.50/月,几乎是 Cursor 的三分之一。
说心里话,很想支持国产产品。但工具这个东西,用着不顺手的话,省下来的钱会以"多花时间修代码"的方式加倍还回来。
适合:预算极度有限的小团队,或者只需要基础补全和简单问答的场景。
4. Zed
一句话:编辑器本身优秀,但是我没有太深度体验
Zed 是一款用 Rust 写的高性能编辑器,启动速度和响应速度都很快。但它的 AI 策略和其他工具不太一样——核心思路是让你用自己的 API Key(官方定价页)。
| 档位 | 月费 | 可用模型 |
|---|---|---|
| Personal | $0 | 2,000 次编辑预测/月;自带 API Key 可接任何模型(Anthropic、OpenAI、Google、DeepSeek、Mistral、Ollama 等十几家) |
| Pro | $10 | 无限编辑预测,含 $5 token 额度;Zed 托管模型包括 Claude Opus 4.5/4.6、Sonnet 4.5/4.6、Haiku 4.5、GPT-5.4、Gemini 3.1 Pro、Grok 4 等,超出按 API 价格 + 10% 扣费 |
| Student | $0(限一年) | 在校大学生可申请,含 $10/月 token 额度,不含 Claude Opus 和 GPT-5.4 pro |
| Enterprise | 定制 | SSO、数据安全、集中管理 |
Zed 的模型策略最灵活:免费档就能接自己的 API Key 用任何模型(支持 OpenRouter、Amazon Bedrock 等十几种供应商),Pro 档则提供 Zed 托管的模型,省去自己配 Key 的麻烦。Pro 档只加 10% 的加价率,比 OpenRouter 的 5.5% 高一点,但一站式省心。
我下了但没深度用。编辑器体验确实流畅,不过 AI 功能更像是"搭了个架子让你自己接",对于想要开箱即用的团队来说,配置成本不低。
适合:已经有 API Key、想要灵活选择模型的技术团队。
5. Antigravity
一句话:接近 Cursor 的体验,有门槛——账号需要非中国区。
如果只看我自己的实际体感,Antigravity 大概就是现在最接近 Cursor 的那一档工具。编辑器本身没什么学习成本,还是 VS Code 这一套,操作上手很快(官方定价页)。
| 档位 | 月费 | 说明 |
|---|---|---|
| AI Plus | $7.99 | 基础限额,适合体验 |
| AI Pro | $19.99 | 更高 Agent 用量,含 $10/月 Google Cloud 额度 |
| AI Ultra | $249.99 | 最高 Agent 用量,含 $100/月 Google Cloud 额度 |
我自己的使用感受是,它在编辑器体验上确实做得不错,整体路子也很像 Cursor,所以切过去不会太难受。
但它的问题也很明显。
第一,账号有门槛,需要非中国区。自己偶尔折腾一下还行,真要在团队里推,让每个人都去处理账号问题,比较麻烦,因为现在google账号切区不太好同意了。
第二,它虽然接近 Cursor,但还没到 Cursor 那个程度。我自己的感受是,拿它做轻中度使用没问题,查代码、补点小改动、日常问答都能用;但如果高强度连续用,或者把很多复杂任务都压上去,整体手感还是会比 Cursor 差一点。
适合:团队成员本身就有海外账号、或者公司有统一海外实体的情况。
6. OpenAI Codex
一句话:速度快,理解力强,像一个能干活的朋友——但没有 IDE,纯Agent Window。
Codex 是 OpenAI 的云端编程 Agent,跑在 ChatGPT 里。它会给你开一个沙盒环境,克隆你的仓库,改代码,跑测试,全在云上完成(ChatGPT 定价页)。
使用方式:
| 档位 | 月费 | 可用模型 |
|---|---|---|
| ChatGPT Plus | $20 | GPT-4o、o3、o4-mini(有用量上限)、Codex Agent(有限次/天),使用 codex-1 / GPT-5.3-Codex 模型 |
| ChatGPT Pro | $200 | 同 Plus 全部模型 + 无限/极高用量 + o1 pro / o3 pro 模式(加强推理)+ GPT-5.3-Codex-Spark(更快变体)优先体验 |
| API | 按量 | codex-mini 模型直接调用 |
Codex Agent 底层跑的是 codex-1(基于 o3 专门为编程任务训练的版本),后来升级到了 GPT-5.3-Codex。Pro 用户额外能用 Codex-Spark——跑在 Cerebras 硬件上的加速版本,响应更快。
Codex 的体感确实好——响应快,理解意图准确,像是和一个熟悉项目的同事在对话。但它没有独立的 IDE,你得在 ChatGPT 的 Web 界面里操作,或者用 Codex CLI(一个开源的终端工具,登录 OpenAI 我每次都要 切美国节点)。
对于非开发团队来说,Windows 上用 Codex 的 Web 端反而挺方便——不需要装 IDE,打开浏览器就能让 AI 帮你改代码、跑脚本。
适合:已经在用 ChatGPT 付费版的团队,或者需要云端 Agent 帮忙做大块任务的场景。
7. Claude Code
一句话:顶级能力,顶级门槛。
Claude Code 是 Anthropic 出的编程工具,能力毫无疑问是第一梯队的。它有两种用法:
方式一:订阅制(官方定价页)
| 档位 | 月费 | 可用模型 |
|---|---|---|
| Pro | $20 | Claude Sonnet 4.5/4.6、Haiku 4.5(默认 Sonnet,Opus 受限) |
| Max 5x | $100 | 同 Pro + Claude Opus 4.5/4.6 完整访问,5 倍 Pro 用量 |
| Max 20x | $200 | 同 Max 5x,20 倍 Pro 用量,新功能优先体验 |
| Team | $30/人 | 最少 5 人,模型访问同 Max |
| Enterprise | 定制 | 全功能 |
注意:Pro 档主要用的是 Sonnet 级别的模型,Opus 的使用受限。想在 Claude Code 里稳定用上 Opus 4.6,得上 Max 档。这也是为什么很多人选择走 API Key——按量付费,想用什么模型用什么模型,没有档位限制。
方式二:API Key 按量付费(API 模型定价)
不需要订阅,直接在 console.anthropic.com 充值,按实际 token 用量扣费。这种方式更灵活,适合用量波动大的团队。
Claude Code 的 CLI 方式反而更方便——不需要登录 App,直接配好 provider 就能用。但如果走 App 端(claude.ai),注册需要非大陆手机号。自己可以去接码平台搞,但让团队每个人都这么操作不太现实,也容易封号。
适合:技术能力强的团队,能自己配置 API Key 和 CLI 环境,追求最强模型能力。
二、四维对比
维度一:适用场景
| 场景 | 最佳选择 | 说明 |
|---|---|---|
| 代码补全(Tab) | Cursor > Antigravity > Copilot/Trae | 这一项 Cursor 还是最稳,Antigravity 也不错,但我自己的手感还是差半档 |
| 代码生成(整块功能) | Claude Code / Codex / Cursor Agent | 这三家都能接大块任务,Claude Code 更稳,Codex 更快,Cursor 胜在编辑器里来回切换最顺 |
| 文档生成 | Claude Code > Codex > Copilot | Claude 写长一点的说明、总结、分析,整体还是最顺 |
| 测试辅助 | Cursor / Claude Code / Codex | 这一项更看你怎么用。要在编辑器里边看边补,Cursor 顺手;要让它自己多读一点上下文,Claude Code 和 Codex 也很能打 |
| 代码审查 | Claude Code > Codex > Copilot | Claude Code 看长 diff 和跨文件问题时更细,Codex 也不错 |
| CI/CD 集成 | Copilot > Claude Code > Codex > Cursor | Copilot 和 GitHub 贴得最紧,Claude Code 更容易直接塞进脚本和流程里,Codex 现在更偏交互式 |
文档生成方面,我发现Gemini模型的效果是最好的,远超Claude和GPT
维度二:生成质量
按我的实际体感排序:
- Claude Code(Opus 4.6)—— 理解深、输出稳定、几乎不瞎编
- Cursor(可选多种模型)—— 理解快、补全准,偶尔有小瑕疵
- Codex —— 意图理解准确,但遇到复杂架构偶尔会偏
- Copilot —— 中规中矩,简单任务够用,复杂任务容易出岔子
- Antigravity —— 接近 Cursor,稍逊一点
- Trae —— 轻度使用没问题,问深了质量会往下掉
- Zed —— 我没深度用过,最后效果很看你接的模型和自己的配置
维度三:使用成本
这里把"成本"拆成三个层面:
学习成本
| 工具 | 学习门槛 |
|---|---|
| Copilot | 几乎为零,装插件就行 |
| Cursor | 低,和 VS Code 操作类似 |
| Trae | 低 |
| Codex | 低,Web 端开箱即用 |
| Antigravity | 中,需要海外账号 |
| Zed | 中,需要适应新编辑器 |
| Claude Code | 中到高,CLI 很直接,但真想用顺,还是得花时间配 provider、命令习惯和项目规则 |
月费对比(开发者个人)
把各家最常用的档位拉在一起看:
| 工具 | 入门档 | 主力档 | 重度档 |
|---|---|---|---|
| Copilot | $0 | $10(Pro) | $39(Pro+) |
| Cursor | $0 | $20(Pro) | 200(Ultra) |
| Trae | $0 | $10(Pro,月付) | $100(Ultra,月付) |
| Zed | $0 | $10(Pro) | 按量超出 |
| Antigravity | $7.99(AI Plus) | $19.99(AI Pro) | $249.99(AI Ultra) |
| Codex | $20(ChatGPT Plus) | $200(ChatGPT Pro) | API 按量 |
| Claude Code | $20(Pro) | $100(Max 5x) / API 按量 | $200(Max 20x) / API 按量 |
响应速度
Cursor 体感最快。Codex和Claude Code 整轮处理时间会比较长,尤其任务复杂一点的时候,你得给它时间自己读文件、跑命令、来回修。Copilot 中等,Trae 偶尔会掉速。
维度四:CI/CD 集成
| 工具 | CI/CD 友好度 | 说明 |
|---|---|---|
| Copilot | ★★★★★ | GitHub Actions 原生支持,代码审查直接集成 |
| Claude Code | ★★★★☆ | CLI 可以写进任何 CI 脚本,官方有 GitHub Action |
| Codex | ★★★☆☆ | 云端 Agent 可以接 GitHub,但主要是交互式使用 |
| Cursor | ★★☆☆☆ | 桌面工具,CI 集成需要额外配置 |
| 其他 | ★★☆☆☆ | 主要面向本地开发,CI 集成有限 |
三、模型费用:算一笔明白账
不管用哪个工具,背后都是大模型在干活。了解模型的 token 价格,能帮你判断工具定价是否合理,也能帮你决定是否直接走 API。
主流模型价格(每百万 token)
| 模型 | 输入价格 | Cached 价格 | 输出价格 | 定位 | 定价来源 |
|---|---|---|---|---|---|
| gpt-5.4-pro | $30.00 | - | $180.00 | OpenAI 高阶模型 | OpenAI API 定价 |
| Claude Opus 4.6 | $5.00 | $0.50(cache hit) | $25.00 | Anthropic 顶级模型 | Anthropic 定价 |
| Claude Sonnet 4.6 | $3.00 | $0.30(cache hit) | $15.00 | Anthropic 主力模型 | Anthropic 定价 |
| GPT-4o | $2.50 | $1.25 | $10.00 | OpenAI 主力 | OpenAI GPT-4o |
| gpt-5.4 | $2.50 | $0.25 | $15.00 | OpenAI 新一代主力模型 | OpenAI API 定价 |
| GPT-4.1 | $2.00 | $0.50 | $8.00 | OpenAI 主力非推理模型 | OpenAI GPT-4.1 |
| o3 | $2.00 | $0.50 | $8.00 | OpenAI 推理模型 | OpenAI o3 |
| Gemini 2.5 Pro | 2.50(>200k) | 0.25(>200k) | 15.00(>200k) | Google 主力 | Google AI 定价 |
| o4-mini | $1.10 | $0.275 | $4.40 | 推理模型(轻量) | OpenAI o4-mini |
| Claude Haiku 4.5 | $1.00 | $0.10(cache hit) | $5.00 | Anthropic 快模型 | Anthropic 定价 |
| gpt-5.4-mini | $0.75 | $0.075 | $4.50 | GPT-5.4 轻量版 | OpenAI API 定价 |
| Kimi K2 | $0.60 | $0.15 | $2.50 | 代码和 Agent 能力比较强的国产模型 | Kimi API Platform |
| Kimi K2.5 | $0.60 | $0.10 | $3.00 | Kimi 当前更高阶版本 | Kimi API Platform |
| Gemini 3 Flash Preview | $0.50 | $0.05 | $3.00 | Google 新一代快模型 | Google AI 定价 |
| MiniMax M2.7 | $0.30 | $0.06 | $1.20 | MiniMax 主力文本模型 | MiniMax Prompt Caching |
| GLM-4.5 | ¥0.8 | - | ¥2.0 | 智谱主力代码/Agent 模型 | GLM-4.5 官方文档 |
注:表格按输入价格从高到低排列。各家的 cached 口径并不完全一样,不能简单当成同一种折扣来横比。OpenAI 这里是 cached input;Anthropic 同时区分 cache write 和 cache hit,这里放的是更常拿来估算成本的 cache hit;Google 这里是 context caching,另外还有单独的存储费用;Kimi 用的是 cache hit;MiniMax 同时区分 prompt caching read 和 write,这里先放 read 价格;GLM 公开页目前主要给到输入和输出价格,没有在这一页单独展开缓存价格。另外,这张表按官方原币种保留,OpenAI、Anthropic、Google、Kimi、MiniMax 用美元,GLM 官方文档这里给的是人民币。
实际花费估算
拿一个中等强度的编程场景来算:每次对话大概消耗 2,000~5,000 token 输入,加上 1,000~3,000 token 输出。假设一天 50 次交互,一个月按 22 个工作日算,总量大概是 220万~550万 输入 token,加上 110万~330万 输出 token。
下面这些数字,按官方 API 原价粗算,不把 cached 命中算进去:
- Claude Opus 4.6:约
$38.5~$110/月 - Claude Sonnet 4.6:约
$23.1~$66/月 - GPT-5.4:约
$22~$63.3/月 - GPT-4o:约
$16.5~$46.8/月 - Kimi K2.5:约
$4.6~$13.2/月 - Gemini 3 Flash Preview:约
$4.4~$12.7/月 - MiniMax M2.7:约
$2~$5.6/月
所以订阅型工具看起来贵不贵,很多时候还是要看它背后到底给你包了多少模型额度。
像 Cursor Pro 这种 $20/月 的档位,如果你平时主要用的是中档模型,或者不少请求能落到更便宜的快模型上,通常还能撑住。真要长时间高频跑 Claude Opus 4.6、gpt-5.4 这一档,$20/月 很快就不够了。
四、OpenRouter:另一种思路
聊完工具和模型,有一个方案值得单独说一下——OpenRouter。
OpenRouter 是一个模型路由网关,把 300 多个模型统一到一个 API 接口下。你充值一笔钱,想用哪个模型就用哪个,按实际 token 消耗扣费,平台收 5.5% 的手续费。
这意味着什么?
用 Claude Sonnet 4.6 的实际费用:
- 直接用 Anthropic API:输入 $3.00 / 百万 token
- 通过 OpenRouter:输入 $3.165 / 百万 token(贵 5.5%)
5.5% 的加价换来的是:
- 一个 API Key 通吃所有模型——OpenAI、Anthropic、Google、DeepSeek、Mistral,全在一个入口
- 自动故障转移——某个供应商挂了,自动切到其他供应商
- 统一的用量看板——团队可以在一个地方看所有模型的消耗
对于团队来说,OpenRouter 的价值在于降低管理复杂度。你不需要分别在 OpenAI、Anthropic、Google 各开一个账号、各配一把 Key、各管一套计费。特别是配合 Zed 或 Claude Code 这种支持自定义 provider 的工具,OpenRouter 可以作为统一的模型供应层。
但也有局限:
- 响应延迟比直连多几十毫秒(路由有开销)
- 部分模型的最新版本可能上线略晚
- 5.5% 的手续费在大量使用时也是一笔钱
是否值得用 OpenRouter:如果团队只用一两个模型,直接走官方 API 更省;如果需要灵活切换多个模型、或者想给不同项目分配不同模型策略,OpenRouter 是一个很好的中间层。
五、选型建议
说回最开始的问题,团队到底该怎么选,我自己的建议大概是这样。
情况一:非开发团队(产品、运营、设计等)
推荐 ChatGPT Plus(3/月)。
这类团队通常不太需要 IDE 深度集成,更多是让 AI 帮忙写脚本、整理数据、生成文档,或者直接做一点小修改。Codex 的好处是门槛低,理解力也够,打开就能用。Trae 的优势主要还是便宜,也更适合中文环境。
情况二:开发团队,性价比优先
推荐 VS Code + GitHub Copilot Pro(10/月)。
Copilot 的优势是学习成本低,和 GitHub、VS Code 这一套接得最顺,拿来做日常补全、简单问答、基础生成已经够用了。Trae 价格更低一些,但如果用得比较深,质量和稳定性还是会差一截,所以更适合轻中度使用。
情况三:开发团队,体验优先
推荐 Cursor Pro(60/月)。
如果只看编辑器里的整体手感,我现在还是会把 Cursor 放在前面。它理解上下文快,Tab 也准,日常开发确实舒服。问题也很直接,Pro 现在按 token 跑,重度用户额度掉得很快,所以团队里高频使用的人,最好一开始就按 Pro+ 去看。
情况四:专业场景,已经把 AI 真正用进日常工作流
推荐 Cursor + Codex。
Cursor 负责编辑器里的主力体验,Codex 负责接大块任务、复杂改动、长链路处理,这一套更贴近我自己现在的实际用法。它的好处是分工清楚,而且整体门槛比 Claude Code 更低一些。
如果团队本身已经能稳定使用 Claude Code CLI / API,那它也很值得加进来,特别是在大规模重构、代码审查、长文档生成这些场景里,能力还是很强。但这一步更适合已经能处理好 provider、账号和团队接入问题的团队。
如果团队会长期混用多种模型,再叠一层 OpenRouter 也可以,主要是为了统一 key、统一计费和统一路由。
写在最后
上面说的所有体验,都是基于工具的出厂配置。如果你愿意花时间配置自定义 Prompt、Rules 和 Skill,每个工具的上限都会再提高一大截。但选型阶段,我更看重的是"到手即用"的体验。
以上所有观点都是个人使用的真实体验,如果有不准的地方,欢迎指正。