3分钟实现Ollama+DeepSeek+ChatBox本地AI部署指南

1,741 阅读3分钟

前言

——无需代码基础,快速搭建私有化大模型

随着人工智能技术的飞速发展,大语言模型(如 GPT 系列)在多个领域展现出了巨大潜力。然而,依赖云端服务可能带来性能瓶颈和数据隐私问题。在算力成本逐渐降低的今天,本地化部署大型语言模型(LLM)已成为AI应用的新趋势。尤其是deepseek的出现,让算法突破算力的限制成为新方向,随之而来的是各种低成本高性能模型出现。如今大模型已有成熟的API规范,安装使用也简化到与普通软件操作无差,本文将以Ollama+DeepSeek+ChatBox为核心工具,教你3分钟内完成从模型下载到可视化交互的全流程,实现完全离线的AI助手部署。


一、工具准备:Ollama与ChatBox

  1. 安装Ollama
    Ollama是专为本地化设计的开源工具,支持一键部署多种大模型。访问Ollama官网,根据操作系统(Windows/Mac/Linux)下载安装包。

image.png

安装后,在命令行输入ollama --version验证安装成功(显示版本号如0.5.7)。

image.png

  1. 下载ChatBox
    ChatBox是一款轻量级AI交互客户端,支持本地模型连接。从官网或GitHub仓库下载安装包,支持全平台。

image.png


二、模型部署:一键拉取DeepSeek

  1. 选择模型版本
    DeepSeek提供不同参数量级的模型,如1.5B(低配设备)、7B(均衡性能)、32B(高性能需求)、70b671b(科研)。很多人不知道自己的电脑性能,可以先从最低要求的1.5b模型开始使用。

image.png

  1. 拉取模型
    打开终端,在终端命令行执行以下命令(以1.5B为例):
   ollama pull deepseek-r1:1.5b

下载完成后,输入ollama list查看已安装模型。

image.png

三、可视化交互:ChatBox连接配置

  1. 启动Ollama服务
    运行Ollama后,默认在11434本地端口启动本地API服务。若未自动启动,可在命令行输入ollama serve手动开启。

  2. 配置ChatBox

    • 打开ChatBox,进入 设置 → 模型提供方 → 选择“Ollama API”

image.png

  • API地址填写http://127.0.0.1:11434 ,在模型列表中选择已下载的DeepSeek版本(如deepseek-r1:1.5b)。

image.png

  • 点击“保存”后返回主界面,即可开始对话。

image.png


四、常见问题与解决方案

  1. 模型无法连接

    • 检查Ollama服务是否运行,端口11434是否被占用。
    • 确保防火墙未拦截本地连接。
  2. 显存不足

    • 选择更小模型(如从7B切换至1.5B)。
    • 关闭其他占用显存的程序。

结语

通过Ollama+DeepSeek+ChatBox的组合,用户无需依赖云端服务即可实现高效、私密的AI交互。无论是代码生成、文案创作,还是学术研究,这一方案均能提供稳定支持。未来,随着模型轻量化技术的进步,本地化部署将成为AI普惠应用的重要方向。立即动手体验,开启你的智能助手之旅吧!

参考资源