Llama3.1一键本地部署最强开源大模型!支持Windows、Mac并可以可离线使用

445 阅读2分钟

amclubss.com/ai-Llama3.1…

《部署教程说明》

一、需要准备的前提资料

1.本地电脑安装的硬件要求:​

​Windows:3060以上显卡+8G以上显存+16G内存,硬盘空间至少20G

Mac:M1、M2、M3芯片 16G内存,20G以上硬盘空间

2. Llama 3.1 安装所需Ollama客户端

  • 我们需要安装Ollama客户端来进行本地部署Llama3.1大模型
  • 点击进入下载地址
  • 下载完成后解压文件,(win)然后双击安装 ,(mac)把Ollama.app文件拉到Applications里就可以完成安装

3. 获取SSH连接工具

二、开始安装

win打开powershell Mac打开终端工具(如iterm2) ai-Llama3.1

1.安装命令:

  • 安装llama3.1-8b,至少需要8G的显存,安装命令就是
ollama run llama3.1:8b
  • 安装llama3.1-70b,至少需要大约 70-75 GB 显存,适合企业用户,安装命令就是
ollama run llama3.1:78b
  • 安装llama3.1-405b,这是一个极其庞大的模型,安装和运行它在本地需要非常高的显存和硬件资源,至少需要大约 400-450 GB 显存,适合顶级大企业用户,安装命令就是
ollama run llama3.1:405b
ai-Llama3.1

2.退出聊天输入/bye然后回车就可以:

/bye

3.再次进入AI模型聊天就还是之前安装命令就可以,这次就不会再安装模型,直接进入聊天窗口了

ollama run llama3.1:8b

三、如何卸载删除?

​Windows:默认的安装目录是:C:\Users\你的用户名\.ollama 直接在你的安装目录下,删除ollama文件夹即可, 所有下载的数据和大模型文件都在里面

Mac:默认的安装目录是:~/Applications/Ollama

  • 1、卸载llama3.1:8b模型命令:
ollama rm llama3.1:8b
  • 2、在~/Applications/目录下删除 Ollama文件就可以

四、Llama3.1大模型免费在线平台

Huggingface平台已经托管了Llama3.1大模型,现在完全免费使用!

[点击观看视频教程]