大家好,我是 Ai 学习的老章
最近工作特别忙,写个短文
推荐三个我高频使用的 DeepSeek 模型
DeepSeek-R1-0528-Qwen3-8B
这是最新的 DeepSeek-R1-0528 思维链蒸馏提取后对 Qwen3-8B-Base 后训练而来:DeepSeek-R1-0528 蒸馏 Qwen3:8B 大模型,双 4090 本地部署,深得我心
这个模型我最喜欢的几个点:
- • 成本极低,模型文件 16GB,默认参数下,两张 4090 显卡顺畅运行
- • 性能很强,无论是各种 Bench 上的解释结果,还是我个人使用体验,打参数和模型文件都 4 倍与其的 Qwen32-B 都没问题
- • 速度极快,2 张 4090 启动时,90Tonken/s
目前 DeepSeek-R1-0528-Qwen3-8B 我主要用于知识库意图识别、问题改写、问题分类
缺点:无法关闭思考,我用 vllm 启动,用在 Dify 中,直接关闭还是提示词中加 no_think 都不行
DeepSeek-R1-0528
R1 的小版本升级,但是很明显,性能和推理能力都加强很多:DeepSeek R1 最新版本模型,排名第三
这个模型应该是 0 成本可以用到的最牛逼的模型了吧
网页版我倒是用的很少,主要是调 API,主要用在 Obsidian 上查资料,翻译,写文章
和在 Cursor 上写代码
缺点:很慢,Cursor 上写代码也不支持 Agent 模式
DeepSeek-V3-Fast
前段时间发现的一个小众版本DeepSeek-V3-Fast,它是DeepSeek V3 0324 的高 TPS 极速版
API 申清:
www.sophnet.com/#?code=IXFC…
最大优点就是推理速度,快如闪电⚡️
目前我主要把它用在 Obsidian 做总结,还有沉浸式插件中当翻译 (真的快如闪电)
缺点是能力不及 R1,不稳定
制作不易,如果这篇文章觉得对你有用,可否点个关注。给我个三连击:点赞、转发和在看。若可以再给我加个🌟,谢谢你看我的文章,我们下篇再见!