在线教程丨高性能与易部署兼得,DeepSeek-V4-Flash模型参数284B,简单任务可媲美1.6T Pro版模型

0 阅读2分钟

近期开源的 DeepSeek V4 不负众望,在 Agent 能力、推理和世界知识方面站在了开源模型的领头羊位置。这次沉寂已久的更新带来了两个不同版本——DeepSeek-V4-Pro 和 DeepSeek-V4-Flash,可谓是一则探寻能力天花板,另一则强调工程落地与效率优化。

DeepSeek-V4-Pro的参数规模达到 1.6T,在 Agentic Coding 评测中已达到当前开源模型最佳水平,并在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。

而 DeepSeek-V4-Flash 作为性价比之选,基于 284B 的模型参数,展现出了与 Pro 版本接近的推理能力。在 Agent 测评中,DeepSeek-V4-Flash 在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,但在高难度任务上仍有差距。

图片

对比来看,DeepSeek-V4-Pro 更偏向能力上限的探索,而 DeepSeek-V4-Flash 则在保留较强模型能力的同时,通过更轻量的结构设计与推理优化,在延迟、吞吐以及资源消耗方面都有明显改善。尤其是在实际部署场景中,Flash 版本对显存和算力的要求更低,可以在更广泛的硬件条件下运行,并显著降低长期推理成本。

目前,HyperAI 官网(hyper.ai)的教程版块已经上线了「一键部署 DeepSeek-V4-Flash」,完成环境配置,进一步降低模型使用门槛。

在线运行:

go.hyper.ai/502Mg

图片

demo 示例

更多在线教程:

hyper.ai/notebooks

欢迎登录官网查看更多内容:

hyper.ai/

Demo 运行

1.进入 hyper.ai 首页后,选择「教程」页面,或点击「查看更多教程」,选择「一键部署 DeepSeek-V4-Flash」,点击「运行此教程」。

图片

图片

2.页面跳转后,点击右上角「Clone」,将该教程克隆至自己的容器中。

注:页面右上角支持切换语言,目前提供中文及英文两种语言,本教程文章以英文为例进行步骤展示。

图片

3.按照教程预先配置的资源类型,点击「Continue job execution(继续执行)」。

HyperAI 为新用户准备了注册福利,仅需 1,即可获得20小时RTX5090算力(原价1,即可获得 20 小时 RTX 5090 算力(原价 7),资源永久有效。

图片

图片

4.等待分配资源,当状态变为「Running(运行中)」后,点击「Open Workspace」进入 Jupyter Workspace。

图片

效果展示

1.页面跳转后,点击左侧 README 文件,进入后点击上方 Run(运行)。

图片

图片

2.待运行完成,根据 README 提示启动 Open WebUI 后,即可点击右侧 API 地址跳转至 demo 页面。

  • 注:由于模型较大,启动 vllm 服务约需 30 min。如输出为「等待超时,请检查 vllm.log 日志文件」,请重新运行此单元格

图片

图片