本地部署大语言模型,使用Ollama部署Gemma-2b

1,171 阅读1分钟

Ollama 简介

Ollama 是一款开源大语言模型管理工具

Ollama 下载并安装

增加系统环境变量

指定模型下载位置,如果不指定会默认下到 C 盘 变量名:OLLAMA_MODELS,变量值 D:\OllamaLib(需要在 D 盘新建 OllamaLib 文件夹)

<!-- 如果已经安装好 Ollama,则需要重启 Ollama -->
<!-- windows 在任务栏右键退出再打开命令行执行 -->
ollama serve

设置环境变量

下载安装

下载地址:ollama.com/download

下载地址 下载完成后直接 install 安装,提示安装完成后,打开命令行执行

ollama --version

代码

正常显示版本号即为安装成功!

安装模型

官网地址:ollama.com/library

ModelParametersSizeDownload
Llama 27B3.8GBollama run llama2
Mistral7B4.1GBollama run mistral
Dolphin Phi2.7B1.6GBollama run dolphin-phi
Phi-22.7B1.7GBollama run phi
Neural Chat7B4.1GBollama run neural-chat
Starling7B4.1GBollama run starling-lm
Code Llama7B3.8GBollama run codellama
Llama 2 Uncensored7B3.8GBollama run llama2-uncensored
Llama 2 13B13B7.3GBollama run llama2:13b
Llama 2 70B70B39GBollama run llama2:70b
Orca Mini3B1.9GBollama run orca-mini
Vicuna7B3.8GBollama run vicuna
LLaVA7B4.5GBollama run llava
Gemma2B1.4GBollama run gemma:2b
Gemma7B4.8GBollama run gemma:7b

我下载的是 gemma:2b,安装完成后即可与 gemma:2b 对话

gemma:2b转存失败,建议直接上传图片文件

安装可视化对话工具

Ollama 推荐了一些,我选择的是 Open WebUI

alt text转存失败,建议直接上传图片文件

需要安装 docker

下载地址:www.docker.com/products/do…

与安装 ollama 一样,直接下载安装,执行 docker -v 显示版本代表安装成功。

执行安装命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

image.png 执行完成后,即可点击,进入网站使用

image-1.png

image-2.png