1. ollama本地部署
1.1 什么是ollama
是开源跨平台大模型工具,让用户能够在本地高效运行大型语言模型,专注于开发和部署先进的大型语言模型(LLM)。
官网地址:https://ollama.com/
1.2 下载安装
访问下载:https://ollama.com/download,在这里我们选择Windews版本的。
默认下载是OllamaSetup.exe文件,直接双击打开安装即可,默认会安装在C盘,检查C盘空间是否充足。
1.3 验证ollama安装是否成功及启停操作
打开CDM命令窗口,输入ollama回车,显示如下所示,ollama安装成功,可以查看ollama基本命令操作,包括ollama启停,模型创建、拉取、运行、查询等操作。
1.4 环境变量配置
这里为什么需要做环境变量配置呢,因为默认ollama去下载部署deepseek模型时会将下载至C盘,考虑到C盘存储空间问题,建议修改环境变量让后续模型下载到其它盘符中。
配置好之后,ollama重启或重启电脑让环境变量生效。
2. deepseek本地部署
下载地址:https://ollama.com/library/deepseek-r1 ,根据电脑配置情况在这里我们选择下载最小的 deepseek-r1:1.5b ,如果你的电脑配置还ok可以选择模型规模大点的体验。
2.1 模型参考配置
2.2 模型部署
直接复制ollama 命令执行本地部署:
ollama run deepseek-r1:1.5b
命令窗口显示如下表示安装成功:
3. deekseek调用
ollama默认监听本机localhost 和 端口11434。接下来我们主要介绍三种方式来访问调用deekseek。
第一种:
graph TD
CMD终端 --> deepseek模型
第二种:
graph TD
pycharm写代码 --> 访问deepseekapi
第三种:
graph TD
web页面 --> deepseek交互
3.1 终端调用
3.2 基于PyCharm环境实现API调用
对话相关的API有两个:
/api/generate,该 API 主要用于基于给定的提示信息生成文本内容。它适用于一次性生成特定文本的场景,不涉及对话上下文的维护。
/api/chat,用于模拟对话交互,它会维护对话的上下文,使得模型能够根据之前的对话内容生成合适的回复,实现更自然、连贯对话效果。
往下我们基于pycharm工具结合案例来请求调用,需要安装好python 环境和requests模块。
3.2.1 /api/generate 调用
import requests
if __name__ == '__main__':
'''
请求参数说明:
URL :访问接口路径地址
model:要使用的模型名称,例如 `deepseek-r1:1.5b`。
promp: 提示信息,即向模型提供的输入文本,模型会根据该提示生成相应的内容。
可选参数:还可以包含其他参数来控制生成的行为,如 `temperature`(控制生成文本的随机性,值越大越随机)、`max_tokens`(限制生成文本的最
令牌数)等。
'''
res = requests.post(url="http://localhost:11434/api/generate",
json={
"model": "deepseek-r1:1.5b",
"prompt": "帮我介绍一下自媒体!",
"stream": False
})
res_data = res.json()
print(res_data)
3.2.2 /api/chat 调用
import requests
if __name__ == '__main__':
'''
请求参数说明:
url: 访问接口路径地址
model:要使用的模型名称,例如 `deepseek-r1:1.5b`。
messages:一个包含对话消息的列表,每个消息对象包含 role(角色,如 user 表示用户消息,assistant 表示模型回复)和 content(消息内容)。
可选参数:还可以包含其他参数来控制生成的行为,如 `temperature`(控制生成文本的随机性,值越大越随机)、`max_tokens`(限制生成文本的最
令牌数)等。
'''
talk_message_list = [] # 将会话消息保存下来
while True:
input_talk_text = input("在这里可以输入会话:")
user_talk = {"role": "user", "content": input_talk_text}
talk_message_list.append(user_talk)
res = requests.post(
url="http://localhost:11434/api/chat",json={
"model": "deepseek-r1:1.5b",
"messages":talk_message_list,
"stream": False,
"temperature": 0.8
}
)
res_data = res.json()
res_message = res_data['message']
print(res_message)
talk_message_list.append(res_message)
3.3 web页面交互
3.3.1 ollama-webui-lite-main源代码下载
访问并下载:https://github.com/ollama-webui/ollama-webui-lite
3.3.2 ollama-webui-lite-main安装、启动
将下载好的项目源代码解压至VisualStudioCode工作空间并打开它,安装前需要有nodejs环境。
3.3.3 ollama-webui-lite-main网站访问并操作deepseek会话
访问地址: http:localhost:9001
4. 软件包下载
以上软件包可以加微信传: