(这是一个长期工作,目前只是在AI辅助下做了一版,会持续更新的)
一、纯小白用户,按需求直接使用现成软件
通用AI目前还不能完全达到专业级别的要求,只能满足轻量级需求。
以下推荐内容受作者的主观倾向影响:
| 需求 | 软件 | 备注 | 价格 |
|---|---|---|---|
| 随便问点什么 | 海外:ChatGPT 国内:豆包 | ChatGPT有免费版和会员版;DeepSeek免费 | |
| 写简单、需求明确、要求措辞严谨、专业、不带强烈感情色彩的文案,如通知、请假条、公文、新闻稿等 | DeepSeek | 不涉及对很多上下文内容、多模态材料的理解,对搜索需求不高 | 免费 |
| 整理文案(如整理语音转录稿) | 如果要大幅度修改、润色用ChatGPT或豆包,如果希望基本保持原意用DeepSeek | 免费 | |
| 写评论、投诉信等 | 海外:ChatGPT 国内:豆包 | 免费 | |
| 阅读理解单篇长文,如报告、通知等 | Kimi | 免费(有会员) | |
| 处理文档 | 豆包、WPS AI | 免费(WPS AI有会员) | |
| 开发简单代码脚本 | 海外:ChatGPT 国内:DeepSeek | 如果有正式的写代码需求,需要考虑上下文依赖关系、前后端交互等,建议使用专业的AI编程智能体工具。见本系列第四篇文章 | 免费 |
| 网页翻译 | 沉浸式翻译 | 免费(有会员版) | |
| 做PPT | 豆包 | 免费 | |
| 图片理解、识别文字 | 豆包、元宝(Hunyuan模型)、千问 | 免费 | |
| 绘制简单图形,如表情包、更换颜色等简单P图 | 豆包(即梦)、元宝(Hunyuan模型)、千问 | 免费(即梦用完免费额度后需要开会员) | |
| 高精度绘图 | 海外:Gemini(nano banana) 国内:即梦 | 有免费额度 | |
| 语音转文字 | 通义听悟 | 有免费额度 | |
| 语音输入 | 海外:typeless 国内:秘塔回响 | 如果能忍搜狗输入法的广告和捆绑软件,搜狗输入法也挺好的 | typeless有免费额度,秘塔回响、搜狗输入法免费 |
| 提取抖音视频文字 | 豆包 | 免费 | |
| 提取小红书视频文字 | 点点AI | 免费 | |
| 智能查询全网内容 | 海外:谷歌(Gemini) 国内:百度(文心一言) | CSDN、博客园等技术博客平台和知乎的SEO都做得很好,内容容易在搜索引擎中查到(因此也容易被抄),可以直接用通用搜索工具搜到,只有下面这几个比较难从外部搜索到的平台建议使用专门的搜索工具👇 | 免费(有会员版) |
| 智能查询小红书内容(做旅游攻略) | 点点AI | 免费 | |
| 智能查询微信系内容(查公众号的教程长文) | 元宝、微信内置智能搜索 | 免费 | |
| 智能查询微博内容 | 微博内置智能搜索 | 免费 |
二、主流LLM速查表:名称、版本、价格/模型尺寸
为了方便快速对比,我们整理了2025年主流大语言模型的关键信息:
| 模型名称 | 提供商 | 核心版本 | 官方API价格(每百万tokens) | 上下文长度 | 一句话定位 | 开源情况 |
|---|---|---|---|---|---|---|
| GPT-5 | OpenAI | Standard | 输入$1.25/输出$10 | 400K | 全能王者,贵但最省心 | |
| Claude 4 Opus | Anthropic | Opus 4.5 | $5/$25(降价后) | 200K-500K | 安全+长文,程序员最爱 | |
| Gemini 2.5 Pro | 2.5 Pro | 按量计费,60 qpm免费档 | 2M | 多模态+搜索,谷歌全家桶 | ||
| 文心一言4.5 | 百度 | ERNIE-4.5 | 0.012元/1k token | 128K | 中文搜索+知识图谱 | |
| 豆包大模型 | 字节跳动 | Doubao-Pro-128k | 0.0008元/1k token | 128K | 抖音同款,短视频场景 | |
| 通义千问 | 阿里巴巴 | Qwen3-Max | 0.006元/1k token | 128K | 中文开源最活跃 | |
| 混元大模型 | 腾讯 | Hunyuan-Large | 0.0005元/1k token(Lite版) | 256K | 腾讯生态集成 | |
| DeepSeek | 深度求索 | V3.1 / R1 | 0.0004元/1k token | 256K | 数学/代码怪兽,训练成本碾压 | |
| Kimi | 月之暗面 | 2M-Preview | 0.0018元/1k token | 2M | 长文档处理专家 |
开源模型(可本地部署)
本文在这里列举的是模型官方提供的尺寸范围,不包括民间可以进行的量化工作。
| 模型名称 | 参数规模 | 许可证 | 一句话总结 |
|---|---|---|---|
| Llama 4 Maverick | MoE架构:400B总参,17B激活 | 商业许可 | 本地部署首选,注意许可(月活跃用户超过 7 亿的企业必须向 Meta 单独申请许可) |
| Llama 4 Scout | MoE架构:109B总参,17B激活 | ||
| Qwen3-235B | 235B总参,22B激活 | Apache 2.0 | 性能超越GPT-4o,推理成本低至1/3 |
| DeepSeek-R1 | 多种尺寸可选 | MIT许可 | 代码生成、数学推理专家 |
| GPT-OSS-120B | 120B参数 | Apache 2.0 | 企业级“闭源杀手” |
| Qwen3-32B | 32B参数 | Apache 2.0 | 中英文均衡,逻辑推理能力强 |
| Gemma 3 27B | 27B参数 | 开源商用 | 谷歌开源多模态模型 |
| Qwen3-8B | 8B参数 | Apache 2.0 | 手机端绝佳尺寸 |
| Mistral Large 2 |
RAG优化:
| 模型名称 | 参数规模 | 许可证 |
|---|---|---|
| Command R+ |
编程能力优化:
| 模型名称 | 参数规模 | 许可证 |
|---|---|---|
| Qwen 2.5 Coder | ||
| DeepSeek Coder V2 |
注:价格信息截至2025年11月,具体以官方实时报价为准
三、四大选型维度:如何评估最适合你的模型
选择LLM不是简单的“哪个最强用哪个”,而是要在能力、成本、部署和风险之间找到最佳平衡点。
1. 能力覆盖与适配性
- 通用能力:GPT-5在综合推理、多模态处理上仍处领先地位
- 中文场景:国产模型如通义千问、文心一言在中文理解、政策术语处理上更有优势
- 专业领域:Claude在编程、法律文档分析上表现突出;DeepSeek在数学、代码生成上性价比极高
2. 成本效益分析
- API调用成本:DeepSeek、腾讯混元Lite在成本上最具优势
- 私有部署成本:开源模型前期投入高但长期可控,适合高频使用场景
- 总拥有成本(TCO):需综合考虑API费用、运维成本、人力投入等
3. 部署方式与灵活性
- 公有云API:快速上手,免运维,适合初创团队和临时项目
- 私有化部署:数据安全可控,适合金融、政务等高合规要求场景
- 边缘端部署:Qwen3-8B、Gemma 3等轻量模型可在手机、汽车端侧运行
4. 风险与合规性
- 数据出境风险:涉及敏感数据时优先选择国产模型或本地部署
- 内容安全:商业API通常内置安全过滤,开源模型需自行处理
- 服务稳定性:商业API提供SLA保障,自建服务需考虑容灾备份
四、场景化选型建议:不同需求的最佳匹配
场景1:企业级通用AI助手
推荐组合:Claude 4 Opus + Llama 4混合架构
- 理由:Claude处理敏感文档(法律/财务),Llama 4本地部署处理日常问答
- 成本测算:100万月活用户场景下,年成本约$24万(对比纯API方案节省60%)
- 部署架构:前端Llama 4处理实时交互,后端Claude 4处理复杂任务
场景2:研发与编程辅助
推荐模型:DeepSeek-R1(开源)+ GPT-5 API(高端任务)
- 优势:DeepSeek本地部署支持代码库分析,GPT-5处理复杂调试
- 开发效率:较传统工具提升40%代码生成速度,bug率降低27%
- 典型配置:开发者工作站部署DeepSeek-R1-7B,关键任务调用GPT-5 o3推理
场景3:医疗/金融等高合规场景
必选方案:国产闭源模型(文心一言4.5/通义千问3.0)
- 合规保障:数据全链路国产化,符合《生成式AI服务管理暂行办法》
- 性能验证:医疗领域Cohen’s Kappa值0.81(接近主任医师水平)
- 实施路径:先API测试,后私有化部署(需8×昇腾910芯片集群)
场景4:边缘设备与嵌入式场景
最优选择:Llama 4 Scout(1000万上下文)
- 部署规格:单H100 GPU(Int4量化)或4×RTX 4090
- 关键指标:推理延迟<1.2秒,支持50路并发音频处理
- 典型应用:工业质检、智能汽车座舱交互
场景5:个人开发者与小团队
性价比之选:DeepSeek API + Qwen3开源模型
- 低成本启动:DeepSeek API价格极低(0.0004元/1k token)
- 灵活扩展:Qwen3系列提供从0.6B到235B的全尺寸选择
- 生态支持:完善的文档和社区资源
六、本地部署硬件选型
GPU优先:重视显存(VRAM)
- NVIDIA(N卡):现在大模型依然基本都是基于N卡的cuda系统做的
消费级:RTX 4090
RTX 5090
专业级:RTX PRO 6000
A100
H100
(A100和H100基本上已经快是企业部署GPU的高配代名词了……) - AMD(A卡):ROCm
RX 7900 XTX - Intel(I卡)
苹果系
MLX 框架
M 系列芯片采用 CPU 和 GPU 共享的统一内存
M4 Pro
(国产显卡以后再做)
五、未来趋势与建议
2025年的大模型市场正朝着几个明确方向发展:
- Agent原生架构普及:LLM将不再只是“回答问题”,而是能自主规划、调用工具、执行任务
- 小模型+大模型混合架构:用小模型处理高频简单任务,大模型处理复杂推理
- 行业专用LLM成为主流:医疗、法律、制造等领域将出现“开箱即用”的垂直模型
对于刚接触LLM的团队,建议采取“三步走”策略:
- 先用API验证:选择1-2个主流API服务,快速验证业务场景
- 逐步引入开源:在关键场景尝试开源模型部署,积累技术经验
- 构建混合架构:根据业务特点,设计公有云+私有部署的混合方案
记住,最好的模型不是参数最大或跑分最高的那个,而是在可控成本下,能稳定创造业务价值的那个。让技术真正服务于业务,这才是选型的最终目的。
本文基于2025年11月前的公开信息整理,模型价格和能力可能随时间变化,建议在实际选型前查阅最新官方资料。