下载安装ollama
ollma是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型而设计
可以帮助我们傻瓜式的部署本地大模型
它具有以下特点:
- 本地运行: 模型完全在您的本地计算机上运行,无需联网,保护您的隐私和数据安全。
- 简单易用: 通过简单的命令行指令,即可下载、运行和管理各种 LLM。
- 模型丰富: 支持 Llama 2、Deepseek、Mistral、Gemma 等多种流行的开源模型。
- 跨平台: 支持 macOS、Windows 和 Linux 系统。
- 开放API:支持与OpenAI兼容的接口,可以和其他工具集成。
下载地址:ollama.com/download
下载模型
选择对应的模型,复制命令到cmd中执行
这样子本地部署就完成了,可以直接发送你想问的问题向他提问
使用CherryStudioAI 助力大模型
CherryStudio 是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。 CherryStudio的高度自定义的设计、强大的扩展能力和友好的用户体验,使其成为专业用户和 AI 爱好者的理想选择。无论是零基础用户还是开发者,都能在 CherryStudio 中找到适合自己的AI功能,提升工作效率和创造力。
CherryStudio有两种接入大模型的方法,可以使用DeepSeek官网提供的API密钥进行接入,也可以使用本地的大模型进行接入。
这里展示本地方法:
点击本地的
添加好后点击检查看是否连接成功
最后演示一下如何使用
点击添加助手,在选择本地的大模型就能使用了
使用page-list让本地大模型联网
GitHub地址:github.com/n4ze3m/page…
概述:
下载插件 page-list插件 这里以谷歌游览器为例。
谷歌下载插件需要魔法!
谷歌商店: https://chromewebstore.google.com/category/extensions?utm_source=ext_sidebar&hl=zh-CN
下载完后打开该插件就是这样,会检测到正在运行的Ollama
以今天天气怎么样为例,测试联网与未联网下大模型的回答:
未联网时:
开启联网后: