零基础AI开发系列教程:Ollama安装教程

408 阅读1分钟

Ollama 是一个开源的大语言模型(LLM)部署工具,专为在本地机器部署和运行大模型而设计,通过简单的命令就可以在本地快速运行大模型(如DeepSeek、Llama、Gemma、QWQ等)。非常适合开发者、研究人员以及对数据安全和隐私有较高要求的企业和用户

1. 下载安装包

访问 Ollama 官网 下载 OllamaSetup.exe,官网下载速度慢的话可以访问 国内下载地址 下载

Image

2. 开始安装

由于双击安装包安装,会默认装到C盘,所以我们通过命令行的方式安装,这样就可以自定义安装目录。

以管理员身份运行CMD,并切换到OllamaSetup.exe所在的目录,比如我的在E:\Downloads目录下。通过/DIR指定安装目录

image-20250320210113991

e:
cd Downloads
OllamaSetup.exe /DIR=D:\ProgramFiles\Ollama

Image

通过/DIR指定安装在:\ProgramFiles\Ollama目录下,可以看到安装目录已经是我们指定的目录

Image

安装完,检查是否成功。
打开一个命令窗口,输入:ollama --version 可以看到版本号说明安装成功 Image

3. 设置存储路径

设置大模型下载文件存储的路径(默认存储在C:\Users\username.ollama)。

我的电脑右键 -> 属性 -> 系统 -> 高级系统设置 -> 环境变量

image-20250320213605717

系统变量 -> 新建
变量名为OLLAMA_MODELS
变量值为你希望存储模型的路径

Image

设置好后,如果 Ollama 已经在运行,右键Quit Ollama 退出应用程序,

image-20250320213049483

点击安装目录下的ollama.exe重新启动

image-20250320213014506

安装完成

至此,Ollama安装完成。下一节,我们将介绍DeepSeek + Dify 本地部署。

感兴趣的小伙伴可以关注我,从零学习AI智能体和AI应用的开发

扫码_搜索联合传播样式-标准色版.png