想在 Ubuntu 中运行像 LLM 一样的 ChatGPT 吗?
设置您的机器
sudo apt-get update
sudo apt-get upgrade
我有一个 NVidia GTX 1650。我已经为其安装了 NVidia 驱动程序,我可以通过运行来验证这一点:
nvidia-smi
我看到以下内容:
我想确保在这台机器上安装 CUDA。有几种方法可以做到这一点。你可以从 apt 安装它,或者如果你想要最新最好的版本,你可以自己编译它。
我没有做任何太花哨的事情,想保持简单,所以我只需输入:
sudo apt install nvidia-cuda-toolkit
安装完成后,您可以通过键入以下内容来验证它:
nvcc --version
如果您有支持 CUDA 的 NVidia 卡,您应该提前进行设置。
您不需要 Anaconda 来设置 Ollama,但是,如果您要使用人工智能/机器学习的东西,那么拥有它会很方便。这是必不可少的,所以我正在安装它,你也应该安装它。
cd /tmp
sudo apt-get install wget
然后,我们将下载 Anaconda 安装程序脚本。这是撰写本文时的最新一篇。
wget https://repo.anaconda.com/archive/Anaconda3-2023.09-0-Linux-x86_64.sh
然后运行它来验证它。
sha256sum Anaconda3-2023.09-0-Linux-x86_64.sh
如果没有错误,那就没问题了:
然后运行此命令进行安装:
bash Anaconda3-2023.09-0-Linux-x86_64.sh
你必须通读整个条款和条件,如果你按回车键太快,你就会被踢出脚本。如果您已阅读所有条款(我知道您会的!)并同意它们,请输入“是”,它会询问在哪里安装 Anaconda。
安装完成后,它会询问您是否要更新 shell 以自动初始化 Conda。我总是选择“否”,但是,这是个人喜好。
惊人的!我们现在准备安装 Ollama。
安装Ollama
为最简单的安装过程做好准备。
您可能需要安装curl:
sudo apt-get install curl
然后,您可以使用一个命令安装 Ollama:
curl https://ollama.ai/install.sh | sh
如果你看到这个,那你就很好了:
现在 Ollama 已启动并运行。超级简单。
下载模型
让我们加载一个模型。在上一篇文章中,我们加载了英特尔的神经聊天。这是一个非常快速且完整的模型,我非常喜欢。所以我们将在这里使用它。
在一个终端中加载
ollama serve
然后打开另一个终端并输入:
ollama run neural-chat
下载后,您将看到:
并且它已经启动并运行了。您可以将其用作简单的聊天界面,并询问您想要的任何内容。
您已经启动并运行了!但您可能需要一个网络界面。让我们在我的远程 Ubuntu 服务器上进行吧!
设置 Web 界面
在这里,我们将设置一个网络界面。我正在网络上的单独服务器上进行设置。
请勿使用这些说明来设置面向公众的服务器
构建面向公众的 Web 服务器时,过程有很大不同。这仅用于在本地计算机或网络上的计算机上设置 Web 界面。你已被警告过。
sudo apt install npm
然后在您想要放置 Web 界面的位置创建一个文件夹。然后将此存储库克隆到其中:
git clone https://github.com/ollama-webui/ollama-webui.git && cd ollama-webui/
然后复制一个新的.env:
cp -RPp example.env .env
然后安装它:
npm install
这只需几分钟。接下来,我们需要修改Ollama使其自动启动。在终端中,创建此文件夹:
sudo mkdir -p /etc/systemd/system/ollama.service.d
我们可以运行这些命令来为 Ollama 创建文本文件配置。这将确保应用程序可以向此 Web 界面公开 API:
echo '[Service]' >>/etc/systemd/system/ollama.service.d/environment.conf
echo 'Environment="OLLAMA_HOST=0.0.0.0:11434"' >>/etc/systemd/system/ollama.service.d/environment.conf
或者,如果您只想编辑文件,只需打开
/etc/systemd/system/ollama.service.d/environment.conf
并添加以下内容:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434 OLLAMA_ORIGINS=*"
并保存文件。
现在我们需要重新加载 systemd 并重新启动 Ollama:
systemctl daemon-reload
systemctl restart ollama
现在,您可以通过键入以下内容在本地运行服务器:
但我让它在我的网络服务器上运行。因此,我需要使用以下命令来构建它:
PUBLIC_API_BASE_URL='http://10.0.0.8:11434/api' npm run build
将 10.0.0.8 替换为 Ollama 安装所在的任何 IP。
然后运行
npm run dev
您应该会看到服务器启动。加载浏览器来检查:
现在你就得到了它!一个网络界面。
您可能需要在设置中设置 url。单击齿轮,然后选择常规:
你就可以走了。您可以在顶部选择一个型号:
并立即开始聊天!现在您也有了一个漂亮的网络界面。
结论
下面介绍了如何在专用 Ubuntu 计算机上设置 Ollama。如果您想了解有关大型语言模型的更多信息或只是想避免使用其他云服务的费用,这会很有帮助。这些模型不如 ChatGPT 或 Bard 等模型那么好,但它们也非常好。