下载ollama
去网站Download Ollama on WindowsOllamaDownload Ollama on Windows
下载完Ollama,双击安装
安装完,会在桌面小图标处显示,默认安装到C盘,你也莫得办法,所以本地部署C盘得稍微留点磁盘空间 哦
下载模型
接下来下载模型
点击左上角,那个Models
出现了模型界面,目前很火的就是deepseek了
他给你排到了第一个
点进去后,显示
找到下拉框的位置,选择对应的模型
你就可以看到详细的内容
一般来说1.5b谁都 带的动
模型对应的配置要求
- DeepSeek-R1-1.5B
CPU: 最低 4 核(推荐 Intel/AMD 多核处理器)
内存: 8GB+
硬盘: 3GB+ 存储空间(模型文件约 1.5-2GB)
显卡: 非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)
场景:
低资源设备部署(如树莓派、旧款笔记本)
实时文本生成(聊天机器人、简单问答)
嵌入式系统或物联网设备 - DeepSeek-R1-7B
CPU: 8 核以上(推荐现代多核 CPU)
内存: 16GB+
硬盘: 8GB+(模型文件约 4-5GB)
显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)
场景:
本地开发测试(中小型企业)
中等复杂度 NLP 任务(文本摘要、翻译)
轻量级多轮对话系统 - DeepSeek-R1-8B
硬件需求: 与 7B 相近,略高 10-20%
场景:
需更高精度的轻量级任务(如代码生成、逻辑推理) - DeepSeek-R1-14B
CPU: 12 核以上
内存: 32GB+
硬盘: 15GB+
显卡: 16GB+ 显存(如 RTX 4090 或 A5000)
场景:
企业级复杂任务(合同分析、报告生成)
长文本理解与生成(书籍/论文辅助写作) - DeepSeek-R1-32B
CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)
内存: 64GB+
硬盘: 30GB+
显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)
场景:
高精度专业领域任务(医疗/法律咨询)
多模态任务预处理(需结合其他框架) - DeepSeek-R1-70B
CPU: 32 核以上(服务器级 CPU)
内存: 128GB+
硬盘: 70GB+
显卡: 多卡并行(如 2x A100 80GB 或 4x RTX 4090)
场景:
科研机构/大型企业(金融预测、大规模数据分析)
高复杂度生成任务(创意写作、算法设计) - DeepSeek-R1-671B
CPU: 64 核以上(服务器集群)
内存: 512GB+
硬盘: 300GB+
显卡: 多节点分布式训练(如 8x A100/H100)
场景:
国家级/超大规模 AI 研究(如气候建模、基因组分析)
通用人工智能(AGI)探索
通用建议
量化优化:使用 4-bit/8-bit 量化可降低显存占用 30-50%。
推理框架:搭配 vLLM、TensorRT 等加速库提升效率。
云部署:70B/671B 建议优先考虑云服务以弹性扩展资源。
能耗注意:32B+ 模型需高功率电源(1000W+)和散热系统。
//DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
//DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
//DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
//DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
//DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
//DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
AI写代码
直接找个AI路径,开始下载
模型使用
下载完模型,/?会告诉你help,请求帮助
直接输入文字,他就会回答你
搞得我嗨以为有啥特殊符号,才能触发
不过你可以设置提示词解锁
但是我只是拿他,嘿嘿嘿的
配置声明链接
原文链接:blog.csdn.net/deepseek_r1…