Ollama + AnythingLLM + LLM Studio部署实践

1,068 阅读2分钟
  1. 1. ollama部署

Ollama 是一个用于在本地运行大型语言模型的工具,比如llama2、千文qwen、mistral等,可以在Windows、Linux、MacOS系统上进行部署。下面将介绍如何在不同操作系统上安装和使用 Ollama。

官网:ollama.com 

Github:github.com/ollama/olla…

2. ollama部署

本文安装环境为:Windows10专业版

下载: Ollama下载地址:ollama.com/download

现在Ollama已经安装完了,我们需要在终端中输入下方命令运行一个大语言模型进行测试,这里以对在中文方面表现相对好些的千问为例,大家也可以使用其他的模型。

2.1 模型下载运行

下并运行模型,这里选择一个比较小的本机运行
ollama run gemma:2b

这里还有很多支持的模型查询: ollama.com/library

Note: You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models.

2.2 ui界面搭配

这里很多教程推荐open webUI来配合使用,这里的目的是方便的切换模型;安装Docker

windows上面安装Docker,需要安装wsl虚拟环境;如果是Windows请使用WSL2(2虚拟了完整的Linux内核,相当于Linux)Linux安装

open-webui/open-webui: User-friendly WebUI for LLMs (Formerly Ollama WebUI) 地址:github.com/open-webui/…

2.3 模型地址修改

3. API介绍:

  1. REST API

除了命令行,Ollama 默认提供了一个 REST API 端口,允许用户通过 API 调用和管理模型。

生成补全

curl http://localhost:11434/api/generate -d '{
  "model": "gemma:2b",
  "prompt":"为什么天空是蓝的?"
}'

生成聊天补全

curl http://localhost:11434/api/chat -d '{
  "model": "gemma:2b",
  "messages": [
    { "role": "user", "content": "为什么天空是蓝的?" }
  ]
}'
  1. 4. 参考文章

    1. Windows本地部署Ollama+qwen本地大语言模型Web交互界面并实现公网访问

    2. 上百大语言模型快速部署调用工具 Ollama使用指南

    3. 如何在 Windows 上安装和使用 Ollama WebUI