🍒 Cherry Studio 是一个支持国内主流大语言模型提供商的桌面软件,同时也支持调用 Ollama 本地模型。下面是具体使用步骤:
下载 Cherry Studio
官网直达:easys.run/cherry-ai/
这里可以根据操作系统来选择,下载完成并安装
配置 Ollama
首先我们要先启动 Ollama 软件,并下载好模型,然后打开 Cherry Studio
点击左下角设置按钮,在右侧服务商里找到 Ollama,然后点击右上角开关启用服务
然后点击管理,选择添加我们需要的模型即可
Ollama 测试
回到首页,按照箭头指示选择好我们的 Ollama 服务下面的模型,这里使用 Qwen:1.5b 作为示例。发送一个问题,我们看到本地模型很快就给出了回答。