Ollama部署本地模型

1,844 阅读2分钟

 Ollama使用

什么是Ollama

下载

配置模型下载地址

首先,把启动着的ollama关闭,然后在用户环境变量中点击新建环境变量

编辑

OLLAMA_MODELS的值为你希望模型所在的地址。

OLLAMA_ORIGINS = "*"

设置后需要重启ollama服务和vscode

ollama版本需要>0.2.0

你可以通过在终端中输入ollama -v来检查你的版本

启动ollama服务ollama serve

再打开一个新的终端,在终端输入ollama run codegeex4

在本地模式中配置接口地址

在插件的配置页配置模型地址http://localhost:11434/v1/chat/completions

打开模型高级模式,在模型名称栏中填写:codegeex4

提高ollama下载模型速度

可能存在的问题

  1. Error: listen tcp 127.0.0.1:11434: bind: Only one usage of each socket address

    windows中默认开机启动了ollama,首先退出ollama,然后打开任务管理器,启动应用中 禁用掉ollama,并在进程中结束掉ollama的任务,参考Error: listen tcp 127.0.0.1:11434: bind: Only one usage of each socket address-CSDN博客

Reference

‍‍‬‍⁠‬‬⁠‬⁠‬‌‌‬‍‬‍‌‬⁠‍‍‌‬‍CodeGeeX 本地模式使用指南 - 飞书云文档 (feishu.cn)

THUDM/GLM-4: GLM-4 series: Open Multilingual Multimodal Chat LMs | 开源多语言多模态对话模型 (github.com)

glm4 (ollama.com)

常见问题解答 - Ollama中文网

CodeGeeX4/README_zh.md at main · THUDM/CodeGeeX4 (github.com)

codegeex4 (ollama.com)

CodeGeeX4/guides/Local_mode_guideline_zh.md at main · THUDM/CodeGeeX4 (github.com)

Ollama教程——入门:开启本地大型语言模型开发之旅_ollama中文说明书-CSDN博客