window系统如何用Ollama体验本地大模型

1,052 阅读4分钟

banner.png

引言

去年7月份的时候就听说过chatgpt大模型,作为AI小白也不知道怎么入门,对机器的门槛也是比较高,一时也不知道该怎么玩。后来在github上找到一个基于Meta发布的可商用大模型Llama-2开发,是中文LLaMA&Alpaca大模型

1.gif

下载了机器配置要求最低的模型版本——Chinese-Alpaca-2-1.3B,推理部分用llama.cpp,一路按着教程步骤操作:克隆和编译llama.cpp、生成量化版本模型、加载并启动模型......

一顿操作下来,愣是卡在中途, 不是python版本不对,就是make不行。好不容易make搞好了,编译又出现了问题。唉,搞了3-4天的功夫,最后还是放弃了(这里有一说一,为啥程序猿都喜欢用mac电脑,实在因为window有太多环境需要配置了,也可能我是个渣渣)

转折

直到有了 Ollama——一个简明易用的本地大模型运行框架。

2.png

Ollama 安装十分简单,macOS 直接在官网下载安装包打开运行。

Liunx用户直接运行以下命令安装。

curl https://ollama.ai/install.sh | sh

window用户,官方还未提供安装包。

没办法,那只能使用WSL在windows上安装 Liunx来体验。

3.png

先看看我的机器配置,CPU是i5-4570、内存是20G,window 10 专业版,模型最低配置要8G,我这个配置应该勉强够跑。

4.png

打开命令行工具,输入安装WSL命令

wsl --install

5.jpg

这一步安装比较快,然后就是设置用户名和密码

6.png

接下来就是运行安装ollama命令

curl https://ollama.ai/install.sh | sh

这一步会出现网络超时的问题,试了一下修改代理地址上vpn,试了很久还是安装失败,这个方法并没有起什么作用。

7.png

最后找到一个方法,通过修改hosts文件,直接将github.com做个ip指向。

sudo vim /etc/hosts

输入密码后,按 i 增加以下配置

# github 注意下面的IP地址和域名之间有一个空格
140.82.114.3 github.com
199.232.69.194 github.global.ssl.fastly.net
185.199.108.153 assets-cdn.github.com
185.199.109.153 assets-cdn.github.com
185.199.110.153 assets-cdn.github.com
185.199.111.153 assets-cdn.github.com

按 Esc 退出输入模式, :wq 保存完后,在ping 一下 github.com

8.png

执行成功~

9.png

接着是下载模型文件,使用以下命令可以下载 llama2-chinese 中文模型。

ollama pull llama2-chinese

10.png 等了许久,3.8GB的模型终于下载完了。

可以使用 run 命令运行模型,直接将消息附在命令后。

ollama run llama2-chinese "菊花为什么是红色的?"

11.gif

撒花庆祝~~

只是这个机器配置太低了,体验很差劲~~不过,终于是在window上体验了一把本地大模型了。

更多模型可以上官方github找命令下载安装,根据你的机器配置来,7B最低配置是内存要8GB,如果配置更好,可以跑13B或者33B的模型。

12.png

上手

如果仅仅只是命令行的形式,总觉得体验不是很好,ollama同样提供了很多周边工具做选择。

其中体验较好的是ollama-webui用于聊天交互的用户友好的 Web 界面。

13.gif

其特点就是从ChatGPT中汲取友好的聊天界面,使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,还可以在不同聊天模型之间无缝切换,实现多样化交互。

ollama-webui 的安装也很简单,直接使用docker命令安装就好了。

先用浏览器访问一下页面,看看ollama服务有没有在本机运行http://127.0.0.1:11434/

14.png

这里有个注意的点,就是window使用wsl运行的时候,看着像是两台机器,实际上可以直接访问.

15.png

新建一个cmd命令行窗口,如果是ollman在本机运行,运行一下docker命令,也是本人采用的方式。

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v ollama-webui:/app/backend/data --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main

如果你的ollama服务是运行在别处,请修改OLLAMA_API_BASE_URL变量中的值后,运行以下命令:

docker run -d -p 3000:8080 -e OLLAMA_API_BASE_URL=http://127.0.0.1:11434/api -v ollama-webui:/app/backend/data --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main

16.png

运行成功后,从docker-desktop中可以看到。如果没有docker-desktop,直接上docker官网下载。

17.png

用浏览器打开 http://localhost:3000/ ,哇哦,可以看到ollama-webui的界面了。

18.png

注册邮箱,设置密码,有可能出现一开始进来没找到ollama的服务的提示。

19.png

没事,我们在这里设置这里可以改变ollama的后台服务地址,点击同步,返回成功提示代表web界面跟后台服务打通了。

20.png

选择模型后,就可以开启一个对话了。

21.png

输入问题,体验一下吧~

22.png

结语

到这里,ollama-webui的体验告一段落了,还有更多的功能可以挖掘,例如OllamaHub 提供了各种令人兴奋的可能性来增强您与 Ollama 的聊天互动!🚀。如果文章反馈比较好,我可以出下一期关于ollamahub的内容。

如果你感兴趣,欢迎关注公众号:程序员小M,和我建立联系。