基于windows本地环境,简易体验ollama+deepseek部署使用

332 阅读3分钟

1. ollama本地部署

1.1 什么是ollama

  是开源跨平台大模型工具,让用户能够在本地高效运行大型语言模型,专注于开发和部署先进的大型语言模型(LLM)。
  官网地址:https://ollama.com/

1.2 下载安装

 访问下载:https://ollama.com/download,在这里我们选择Windews版本的。

ollama下载截屏.jpg 默认下载是OllamaSetup.exe文件,直接双击打开安装即可,默认会安装在C盘,检查C盘空间是否充足。 image.png

1.3 验证ollama安装是否成功及启停操作

打开CDM命令窗口,输入ollama回车,显示如下所示,ollama安装成功,可以查看ollama基本命令操作,包括ollama启停,模型创建、拉取、运行、查询等操作。

image.png

1.4 环境变量配置

这里为什么需要做环境变量配置呢,因为默认ollama去下载部署deepseek模型时会将下载至C盘,考虑到C盘存储空间问题,建议修改环境变量让后续模型下载到其它盘符中。

image.png 配置好之后,ollama重启或重启电脑让环境变量生效。

2. deepseek本地部署

下载地址:https://ollama.com/library/deepseek-r1 ,根据电脑配置情况在这里我们选择下载最小的 deepseek-r1:1.5b ,如果你的电脑配置还ok可以选择模型规模大点的体验。

2.1 模型参考配置

image.png

image.png

2.2 模型部署

直接复制ollama 命令执行本地部署:

ollama run deepseek-r1:1.5b

命令窗口显示如下表示安装成功: image.png

3. deekseek调用

ollama默认监听本机localhost 和 端口11434。接下来我们主要介绍三种方式来访问调用deekseek。

第一种:

graph TD
CMD终端 --> deepseek模型

第二种:

graph TD
pycharm写代码 --> 访问deepseekapi

第三种:

graph TD
web页面 --> deepseek交互

3.1 终端调用

image.png

3.2 基于PyCharm环境实现API调用

对话相关的API有两个:
   /api/generate,该 API 主要用于基于给定的提示信息生成文本内容。它适用于一次性生成特定文本的场景,不涉及对话上下文的维护。
   /api/chat,用于模拟对话交互,它会维护对话的上下文,使得模型能够根据之前的对话内容生成合适的回复,实现更自然、连贯对话效果。

往下我们基于pycharm工具结合案例来请求调用,需要安装好python 环境和requests模块。

3.2.1 /api/generate 调用

import requests  
  
if __name__ == '__main__':  
    '''  
    请求参数说明:  
    URL :访问接口路径地址  
    model:要使用的模型名称,例如 `deepseek-r1:1.5b`。  
    promp: 提示信息,即向模型提供的输入文本,模型会根据该提示生成相应的内容。  
    可选参数:还可以包含其他参数来控制生成的行为,如 `temperature`(控制生成文本的随机性,值越大越随机)、`max_tokens`(限制生成文本的最  
    令牌数)等。  
    '''  
    res = requests.post(url="http://localhost:11434/api/generate",  
    json={  
    "model": "deepseek-r1:1.5b",  
    "prompt": "帮我介绍一下自媒体!",  
    "stream": False  
    })  
    res_data = res.json()  
    print(res_data)

image.png

3.2.2 /api/chat 调用

import requests  
  
if __name__ == '__main__':  
'''  
请求参数说明:  
url: 访问接口路径地址  
model:要使用的模型名称,例如 `deepseek-r1:1.5b`。  
messages:一个包含对话消息的列表,每个消息对象包含 role(角色,如 user 表示用户消息,assistant 表示模型回复)和 content(消息内容)。  
可选参数:还可以包含其他参数来控制生成的行为,如 `temperature`(控制生成文本的随机性,值越大越随机)、`max_tokens`(限制生成文本的最  
令牌数)等。  
'''  
talk_message_list = [] # 将会话消息保存下来  
while True:  
input_talk_text = input("在这里可以输入会话:")  
user_talk = {"role": "user", "content": input_talk_text}  
talk_message_list.append(user_talk)  
res = requests.post(  
url="http://localhost:11434/api/chat",json={  
"model": "deepseek-r1:1.5b",  
"messages":talk_message_list,  
"stream": False,  
"temperature": 0.8  
}  
)  
res_data = res.json()  
res_message = res_data['message']  
print(res_message)  
talk_message_list.append(res_message)

image.png

3.3 web页面交互

3.3.1 ollama-webui-lite-main源代码下载

访问并下载:https://github.com/ollama-webui/ollama-webui-lite

image.png

3.3.2 ollama-webui-lite-main安装、启动

将下载好的项目源代码解压至VisualStudioCode工作空间并打开它,安装前需要有nodejs环境。

image.png

3.3.3 ollama-webui-lite-main网站访问并操作deepseek会话

 访问地址: http:localhost:9001 

image.png

image.png

4. 软件包下载

image.png

以上软件包可以加微信传:

b4c26713571d969e48c71bee4840ac4.jpg