近期开源的 DeepSeek V4 不负众望,在 Agent 能力、推理和世界知识方面站在了开源模型的领头羊位置。这次沉寂已久的更新带来了两个不同版本——DeepSeek-V4-Pro 和 DeepSeek-V4-Flash,可谓是一则探寻能力天花板,另一则强调工程落地与效率优化。
DeepSeek-V4-Pro的参数规模达到 1.6T,在 Agentic Coding 评测中已达到当前开源模型最佳水平,并在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。
而 DeepSeek-V4-Flash 作为性价比之选,基于 284B 的模型参数,展现出了与 Pro 版本接近的推理能力。在 Agent 测评中,DeepSeek-V4-Flash 在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,但在高难度任务上仍有差距。
对比来看,DeepSeek-V4-Pro 更偏向能力上限的探索,而 DeepSeek-V4-Flash 则在保留较强模型能力的同时,通过更轻量的结构设计与推理优化,在延迟、吞吐以及资源消耗方面都有明显改善。尤其是在实际部署场景中,Flash 版本对显存和算力的要求更低,可以在更广泛的硬件条件下运行,并显著降低长期推理成本。
目前,HyperAI 官网(hyper.ai)的教程版块已经上线了「一键部署 DeepSeek-V4-Flash」,完成环境配置,进一步降低模型使用门槛。
在线运行:
demo 示例
更多在线教程:
欢迎登录官网查看更多内容:
Demo 运行
1.进入 hyper.ai 首页后,选择「教程」页面,或点击「查看更多教程」,选择「一键部署 DeepSeek-V4-Flash」,点击「运行此教程」。
2.页面跳转后,点击右上角「Clone」,将该教程克隆至自己的容器中。
注:页面右上角支持切换语言,目前提供中文及英文两种语言,本教程文章以英文为例进行步骤展示。
3.按照教程预先配置的资源类型,点击「Continue job execution(继续执行)」。
HyperAI 为新用户准备了注册福利,仅需 7),资源永久有效。
4.等待分配资源,当状态变为「Running(运行中)」后,点击「Open Workspace」进入 Jupyter Workspace。
效果展示
1.页面跳转后,点击左侧 README 文件,进入后点击上方 Run(运行)。
2.待运行完成,根据 README 提示启动 Open WebUI 后,即可点击右侧 API 地址跳转至 demo 页面。
- 注:由于模型较大,启动 vllm 服务约需 30 min。如输出为「等待超时,请检查 vllm.log 日志文件」,请重新运行此单元格