如何使用 Ollama 和 Docker 设置 DeepSeek

795 阅读2分钟

随着对高效且强大的 AI 模型需求的不断增加,DeepSeek 凭借其先进的语言处理能力而广受欢迎。Ollama 提供了一种简单的方法,用于在本地运行和管理 AI 模型,使其成为部署 DeepSeek 的绝佳选择。

在本指南中,我们将介绍使用 OllamaDeepSeek 设置指南,确保安装和配置过程顺利进行。

🚀 DeepSeek 是什么?

DeepSeek 是一个开源的大型语言模型(LLM),针对高性能推理和微调进行了优化。它是像 LLaMA、GPT 和 Mistral 这样的模型的强大替代品。DeepSeek AI 提供快速处理和可扩展的能力,使其成为研究和开发的理想选择。

🏗️ Ollama 是什么?

Ollama 是一个在本地运行 AI 模型的框架。它允许您拉取、运行并与 LLM 交互,无需复杂的配置。Ollama 简化了 DeepSeek AI 的部署,方便开发人员和研究人员使用。

🛠️ 先决条件

在开始之前,请确保您已安装以下内容:

🔧 如何在 Ollama 上安装 DeepSeek?

对于 macOS 和 Linux

curl -fsSL https://ollama.ai/install.sh | sh

对于 Windows

安装完成后,验证 Ollama 是否正常工作:

ollama version

📦 如何在 Ollama 中拉取 DeepSeek 模型?

Ollama 允许您使用简单命令运行 DeepSeek AI

ollama pull deepseek-r1:1.5b

这将在您的系统上下载并安装 DeepSeek LLM (1.5B) 。如果您想尝试不同大小或配置的模型,请查看官方库:DeepSeek on Ollama

🚀 如何在本地运行 DeepSeek AI?

模型下载完成后,您就可以使用它了:

ollama run deepseek-r1:1.5b

这将启动与 DeepSeek AI 的交互式聊天会话。

🖥️ 如何使用 Ollama API 使用 DeepSeek AI

Ollama 提供了一个 API,用于将 DeepSeek AI 集成到您的应用程序中。

运行服务:

ollama serve

使用 curl 发送请求:

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:1.5b",
  "prompt": "What is DeepSeek?",
  "stream": false
}'

🏗️ 在 Docker 容器中运行 DeepSeek AI

如果您更倾向于使用 Docker,请创建一个 Dockerfile

FROM ubuntu:latest
RUN apt update && apt install -y curl
RUN curl -fsSL https://ollama.ai/install.sh | sh
RUN ollama serve & \
    sleep 5 && \
    ollama pull deepseek-r1:1.5b
COPY ./entrypoint.sh /entrypoint.sh
RUN chmod +x /entrypoint.sh
ENTRYPOINT ["/entrypoint.sh"]

接下来,创建一个 entrypoint.sh 文件:

#!/bin/bash
ollama serve &
sleep 5
ollama run deepseek-r1:1.5b

然后,构建并运行容器:

docker build -t deepseek-ollama .
docker run -it deepseek-ollama

🎯 结论

您现在已经成功使用 Ollama 设置了 DeepSeek AI!无论您是将其用于研究、聊天应用程序,Ollama 都使 DeepSeek 的部署变得轻松

如果您想扩展此设置,可以考虑对 DeepSeek 进行微调,或者使用 Next.jsFastAPI 等框架将其集成到 Web 应用程序中。

原文:www.infinitecircuits.dev/blogs/blog/…