近期,Lemon AI 用户对自订阅模型中的 Ollama 模型平台产生了浓厚兴趣,用户希望尝试将本地部署的 Ollama 模型与 Lemon AI 结合使用,以探索其实际效果。本文将详细介绍如何在 Lemon AI 中配置 Ollama 的本地模型,供有兴趣的用户参考。
Ollama安装使用
1.下载 Ollama 安装文件
访问 ollama.com/download,选择… “Download for Windows (Preview)” 进行下载。
2.安装 Ollama
双击下载的安装文件OllamaSetup.exe,直接安装就可以了。安装完毕后软件会自动启动,在任务栏中看到Ollama图标时,即说明Ollama运行成功。
3.使用 Ollama
访问 ollama.com/library,搜索你… deepseek v3、qwen3、deepseek r1等,Ollama都支持。
- 选择首页左上角的Models
- 在打开的页面中可以搜索想要使用的模型,如要使用的qwen3
- 选择搜索到的模型链接,可以查看详细模型
- 选择不同大小的模型,点击进入可以查看详细模型信息以及安装模型的执行命令。
如图所示,若想要使用qwen3的14b模型,可以复制后使用命令ollama run qwen3:14b
- 启动PowerShell**(Mac启动终端),输入命令回车,软件会自动下载模型
默认情况下模型被下载到了路径 C:\Users\Administrator.ollama\models\blobs 下。下载完毕后如下图所示。
此时可以直接进行模型提问使用测试了,如果能正常回复说明模型安装成功,如下所示。
如果您之前安装过Ollama,可以使用查看模型列表命令 ollama list ,查看已安装模型。
如果您之前安装过Ollama的模型,想要删除模型,可以使用删除模型命令 ollama rm [模型名称] ,删除已安装的模型。
如果您之前安装过Ollama的模型,想要启动模型,可以使用启动模型命令 ollama run [模型名称] ,可以启动已安装的模型。
Lemon AI系统要求检查清单
在开始之前,请确保你的系统满足以下要求:
系统要求
- 支持 Docker Desktop的 MacOS
- 支持WSL和Docker Desktop 的Windows
建议使用具有现代处理器(建议Intel i5/AMD Ryzen 5以上)和至少4GB RAM的系统来运行 Lemon AI。
Docker部署Lemon AI
本次教程中只展示一种部署方式(即:Docker命令部署Lemon AI),如需要其他部署方式请参考底部相关部署文章。
Mac系统
Docker命令部署Lemon AI(适用于可以访问Docker官网的用户)
一.安装Docker 桌面
1.在 Mac 上安装 Docker Desktop(www.docker.com),根据Mac电脑的芯片(Intel芯片选择x86_64, 苹果芯片选择arm64)来下载对应的Docker。
2.下载后进行软件安装流程安装,安装完成后,启动 Docker Desktop。
3.打开 Docker Desktop,转到Settings > Advanced并确保Allow the default Docker socket to be used已启用。
二.启动Lemon AI应用程序
1.Desktop启动状态下,在Mac电脑,启动台中搜索终端,并启动终端。
2.在终端中按顺序输入命令,开始执行命令,等待执行完成。
- 在终端中输入,执行拉取Lemon AI沙盒命令
docker pull hexdolemonai/lemon-runtime-sandbox:latest
如果执行拉取命令时,出现以下报错,证明拉取失败(可能不具备访问外网能力),建议去官网使用网盘安装的方式,直接下载进行安装。
- 拉取沙盒命令执行完成后,在终端中,继续输入,运行Lemon AI 程序命令
3.命令执行完成后,docker中展示Lemon-app文件,复制终端中的访问链接或者在docker 中的Containers**中Lemon-app,点击端口链接,跳转页面进行Lemon AI访问。
配置Ollama模型服务
在Lemon AI本地网页端,设置 中依次需要配置自订阅模型服务 、搜索服务 、默认模型 ,如果配置模型服务为Ollama,需要先安装运行Ollama,配置完成就可以进行Lemon AI 任务问答体验了。
- 在设置中,选择模型服务的Ollama模型平台。
-
在Ollama平台中将API地址修改为以下地址(当前地址仅适用Docker命令部署):
- 在Ollama平台中,添加在Ollama中已安装的模型,配置模型信息。(推荐:qwen3:30b)
- 添加完成后,在Ollama平台中,开启模型服务。
- 模型服务配置完成后,选择搜索服务,进行搜索服务配置。
- 模型服务和搜索服务配置完成后,选择默认模型,选择Ollama配置的模型进行设置为默认模型。
- 配置完成后,返回任务页面,就可以进行本地模型 Lemon AI 任务问答体验了。
Windows系统 ** Docker命令部署Lemon AI(适用于可以访问Docker官网的用户)**
一.安装WSL
1.前提条件
您必须运行 Windows 10** 版本 2004 及更高版本(内部版本 19041 及更高版本)或 Windows 11** 才能使用以下命令。
如果您使用的是早期版本,
请参阅手动安装页面。(learn.microsoft.com/en-us/windows/wsl/install-manual)
2.安装 WSL命令
现在,只需一个命令即可安装运行 WSL 所需的一切。右键单击并选择“以管理员身份运行”,以管理员模式打开 PowerShell 或 Windows 命令提示符,输入 wsl --install 命令,然后重新启动计算机。**
wsl --install
此命令将启用运行 WSL 所需的功能并安装 Linux 的 Ubuntu 发行版。(此默认发行版可以更改)。
如果您正在运行旧版本,或者只是不想使用安装命令而希望获得分步指导,请参阅旧版本的 WSL 手动安装步骤。(learn.microsoft.com/en-us/windows/wsl/install-manual)
首次启动新安装的 Linux 发行版时,会打开一个控制台窗口,并提示您等待文件解压缩并存储到您的计算机上。之后的启动过程应该只需不到一秒钟。
3.wsl --version在 powershell 中运行并确认Default Version: 2。
wsl --version
4.安装完成后,重启计算机,在电脑应用中可以看到WSL。
二.安装Docker 桌面
1.在 Windows 上安装 Docker Desktop(www.docker.com),来下载Windows对应的Docker进行docker安装。
2.下载后进行软件安装流程安装,安装完成后,双击启动Docker,按照客户端指示进行安装,安装完成后保持运行启动状态。
3.打开Docker Desktop,前往Settings并确认以下内容:
- 常规:
Use the WSL 2 based engine已启用。
- 资源 > WSL 集成:
Enable integration with my default WSL distro已启用。
三.启动Lemon AI应用程序
1.在Windows电脑应用中,启动WSL,必须在 WSL 终端内运行以下用于启动应用程序的 docker 命令。
2.在WSL中按顺序输入命令,开始执行命令,等待执行完成。
- 在 WSL 中输入,执行拉取Lemon AI沙盒命令
docker pull hexdolemonai/lemon-runtime-sandbox:latest
如果执行拉取命令时,出现以下报错,证明拉取失败(可能不具备访问外网能力),建议去官网使用网盘安装的方式,直接下载进行安装 。
- 拉取沙盒命令执行完成后,在WSL中,继续输入,运行Lemon AI 程序命令
3.命令执行完成后,docker中展示Lemon-app文件,复制终端中的访问链接或者在docker 中的Containers中Lemon-app,点击端口链接,跳转页面进行访问。
配置Ollama模型服务
在Lemon AI本地网页端,设置中依次需要配置自订阅模型服务、搜索服务、默认模型,如果配置模型服务为Ollama,需要先安装运行Ollama,配置完成就可以进行Lemon AI 任务问答体验了。
- 在设置中,选择模型服务的Ollama模型平台。
-
在Ollama平台中将API地址修改为以下地址(当前地址仅适用Docker命令部署):
- 在Ollama平台中,添加在Ollama中已安装的模型,配置模型信息。(推荐:qwen3:30b)
- 添加完成后,在Ollama平台中,开启模型服务。
- 模型服务配置完成后,选择搜索服务,进行搜索服务配置。
- 模型服务和搜索服务配置完成后,选择默认模型,选择Ollama配置的模型进行设置为默认模型。
- 配置完成后,返回任务页面,就可以进行本地模型Lemon AI 任务问答体验了。