1、首先到官网下载安装
我是 Windows 系统,下载的 OllamaSetup.exe(1000M,很慢,可以自己找找镜像下载)。
下载下来后直接安装,安装完成后就有 ollama
这个环境变量了。
2、部署 deepseek-r1:1.5b
我这破电脑就只能跑跑 1.5b 了,有条件的可以试试更大参数的。
找个命令行运行以下命令:
ollama run deepseek-r1:1.5b
deepseek-r1:1.5b 有1点几G,下载挺快的。
上图是部署成功的效果。
Ollama 会在本地启动一个 Web 服务,并默认开放11434端口。
访问 http://127.0.0.1:11434 可以看到 Ollama 运行状态。
3、调用接口
参照 Ollama 的 api 文档,直接在控制台试试效果:
- 问一个简单的问题,非流式的形式
const res = await fetch('http://localhost:11434/api/generate', {
method: 'POST',
body: JSON.stringify({
"model": "deepseek-r1:1.5b",
"prompt": "你是谁?",
"stream": false
})
})
console.log(await res.json())
- 再问一个稍复杂些的问题,接口默认是流式的
const res = await fetch('http://localhost:11434/api/generate', {
method: 'POST',
body: JSON.stringify({
model: 'deepseek-r1:1.5b',
prompt:
'CSS Flex 布局中,属性 align-self 的值 start 和 flex-start 有什么区别?'
})
})
const reader = res.body.getReader()
const decoder = new TextDecoder('utf-8')
while (true) {
const { done, value } = await reader.read()
if (done) break
const chunk = decoder.decode(value, { stream: true })
console.log(chunk)
}