1 Ollama PC本地化部署
1.1 下载Ollama
目前Ollama支持macOS、Linux、Windows,选择相应的系统,macOS和Windows直接下载,Linux系统需要执行下面命令:
| curl -fsSL ollama.com/install.sh | sh | | ----------------------------------------------- |
我这次选择Windows本地下载,直接安装即可。
1.2 选择模型
点击Models,第一条就是deepseek-r1模型。或者搜索框输入模型名称进行搜索。
点击进去后,查看各个模型,不同模型执行的命令不同,最后部分看你选择的参数模型。
7b命令:ollama run deepseek-r1:7b
1.5b命令:ollama run deepseek-r1:1.5b
DeepSeek R1提供多个版本,参数量越大,模型通常越强大,但也需要更多的计算资源。
比如1.5B代表有15亿个参数。
具体选择哪一个看你硬件设备了。
1.3 运行命令
我用的电脑配置不高,选了1.5b。如果你配置高,可以选择更大的,毕竟越大效果越好。
1.4 效果测试
当界面出现success显示安装成功。
输入你是谁,看到deepseek的回答。
2 DeepSeek+Chatbox网页端
本地命令行使用还是不太直观,可以选择Chatbox进行网页端访问,提高可交互性。
Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。
本地使用Ollama部署完成后,可以使用Chatbox进行调用。
根据官方文档给出的步骤进行配置
2.1 环境变量配置
默认情况下,Ollama 服务仅在本地运行,不对外提供服务。
要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:
OLLAMA_HOST:0.0.0.0
OLLAMA_ORIGINS:*
在 Windows 上,Ollama 会继承你的用户和系统环境变量。
1、通过任务栏退出 Ollama。
2、打开设置(Windows 11)或控制面板(Windows 10),并搜索“环境变量”。
3、点击编辑你账户的环境变量。
4、为你的用户账户编辑或创建新的变量 OLLAMA_HOST,值为 0.0.0.0; 为你的用户账户编辑或创建新的变量 OLLAMA_ORIGINS,值为 *。
5、点击确定/应用以保存设置。
6、从 Windows 开始菜单启动 Ollama 应用程序。
2.2 chatbox设置
1、打开官网:chatboxai.app/zh,选择启动网页版。
2、选择本地模型,如果找不到,点击左侧的设置按钮。
3、选择Ollama API。
4、选择模型,本地运行Ollama后会自动出现模型的选项,直接选择即可。
5、点击DISPLAY,选择简体中文,点击保存按钮。
6、在聊天窗口输入问题进行测试。
2.3 搭配GPTs使用
1、点击左侧我的搭档
2、选择一个你喜欢的应用,本示例选择夸夸机2.0
3、随便输入一个场景,看看大模型的回答。比如自嘲、尴尬、夸张的场景,看看他怎么花样夸你。
3 DeepSeek知识库搭建
我们还可以通过浏览器插件来访问本地部署的大模型,这个插件还支持本地知识库搭建。
1、安装插件Page Assist,搜索插件后添加至Chrome
2、选择本地搭建的模型,点击配置按钮,设置中文
3、RAG设置,模型选择本地搭建的。
4、点击左侧管理知识,可以添加本地知识库。
填写知识标题及上传文件,点击提交按钮。
状态为已完成就可以使用了。
新建聊天进行测试,在聊天窗口要记得点击右下角知识,选择刚才搭建的知识库名称,然后在上方看到就可以了。
对模型进行测试,看看是否可以根据知识库进行回答。
我问了一下知识库中的《量子纠缠通信:未来通信的革命》 价格是多少?
思考完成后,模型给出了最终答案,价格是299元。
上传知识库内容:为了测试方便,我只输入了5本虚构的书名和价格。
| 书名及价格: 1. 《量子纠缠通信:未来通信的革命》 - 价格:¥299 2. 《时间折叠理论:时间旅行的科学》 - 价格:¥349 3. 《暗物质能源:宇宙的未知宝藏》 - 价格:¥399 4. 《心灵感应网络:思维的直接交流》 - 价格:¥299 5. 《生物计算机:生物技术与计算的融合》 - 价格:¥499 |
|---|
跟着我的操作步骤,就可以在本地成功搭建自己的私有知识库了!