Ollama 本地部署 DeepSeek 1.5B 极简入门

358 阅读1分钟

1、首先到官网下载安装

ollama.com/download

我是 Windows 系统,下载的 OllamaSetup.exe(1000M,很慢,可以自己找找镜像下载)。

下载下来后直接安装,安装完成后就有 ollama 这个环境变量了。

2、部署 deepseek-r1:1.5b

ollama.com/library/dee…

我这破电脑就只能跑跑 1.5b 了,有条件的可以试试更大参数的。

找个命令行运行以下命令:

ollama run deepseek-r1:1.5b

deepseek-r1:1.5b 有1点几G,下载挺快的。

截图.png

上图是部署成功的效果。

Ollama 会在本地启动一个 Web 服务,并默认开放11434端口。

访问 http://127.0.0.1:11434 可以看到 Ollama 运行状态。

image.png

3、调用接口

github.com/ollama/olla…

参照 Ollama 的 api 文档,直接在控制台试试效果:

  • 问一个简单的问题,非流式的形式
const res = await fetch('http://localhost:11434/api/generate', {
  method: 'POST',
  body: JSON.stringify({
    "model": "deepseek-r1:1.5b",
    "prompt": "你是谁?",
    "stream": false
  })
})
console.log(await res.json())

image1.png

  • 再问一个稍复杂些的问题,接口默认是流式的
const res = await fetch('http://localhost:11434/api/generate', {
  method: 'POST',
  body: JSON.stringify({
    model: 'deepseek-r1:1.5b',
    prompt:
      'CSS Flex 布局中,属性 align-self 的值 start 和 flex-start 有什么区别?'
  })
})
const reader = res.body.getReader()
const decoder = new TextDecoder('utf-8')
while (true) {
  const { done, value } = await reader.read()
  if (done) break 
  const chunk = decoder.decode(value, { stream: true })
  console.log(chunk)
}

image3.png

image2.png