Deepseek-V4 (Flash & Pro) 模型现已接入 FlowyAIPC!token成本仅为原来的10%~20%

0 阅读2分钟

来感受一下用 Deepseek-V4 养虾到底有多强! 完成同样的需求,不仅体验拉满,token还少了,本地引擎更是迎来了史诗级进化。

Deepseek-V4 正式接入

云端大模型新增Deepseek-V4 Flash 与 Pro 大模型版本任你切换:

  • ⚡ 响应更快,准确率更高:同样的需求,更极致的处理速度与精准度,auto模式下的简单任务优先使用flash模型。
  • 极致性价比:Token 积分消耗仅为原来的 10%~20%!放心大胆地尽情对话。
  • 无缝切换:只需在界面模型区域切换即可使用。(小贴士:如果您没看到该模型,重启一下 FlowyAIPC 就能刷新出来啦!)

牧马人本地推理引擎深度优化

不仅云端发力,本地端我们同样王炸开局!FlowyAIPC 率先完成对 OpenClaw 2026 年 4 月原生本地模型优化栈 的深度适配。

针对大家跑本地大模型常遇到的“上下文窗口溢出、内存占用过高、长会话不稳定、低配设备推理失败”等四大痛点,我们实现了对运行时上下文的全生命周期智能治理:

  • LocalModelLean 轻量化模式:精简默认提示词与工具负载,从源头降低基础上下文开销。

  • ️ Compaction 智能上下文压缩:当窗口临近上限时,自动浓缩早期会话摘要,释放宝贵的有效空间。

  • ✂️ Context Pruning 会话动态剪枝:精准清理冗余的工具输出与无效历史,严格控制输入体积。

  • ️ 主动内存防护机制: 提前预判并拦截超限风险,告别跑到一半突然崩溃中断的噩梦。

最终效果:无论你是处理超长文本、进行多轮复杂交互,还是解析大文件,现在都能在资源受限的环境中稳如泰山!显著降低了因上下文超限导致的任务失败率,让 7B/14B 等主流模型在你的本地设备上跑得更稳、更长、更高效!

打开 FlowyAIPC 体验Deepseek-V4养虾吧!

FlowyAIPC — 让你的PC真正成为主动生产工具