首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
人工智能
supermfc
创建于2025-02-27
订阅专栏
一些自己部署过程中的记录
暂无订阅
共10篇文章
创建于2025-02-27
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
Ubuntu24.04部署模型及DIFY
今天又接客户电话,让帮部署一台算力服务器,里面八张GPU卡,安装的Ubuntu系统。 环境准备 使用lsblk查看了一下磁盘空间,发现SDA3下面创建了一个逻辑组和逻辑卷,但还有244G空间剩余。 所
CentOS容器方式部署xinference
部署前准备 环境要求 操作系统:Linux/MacOS/Windows(WSL2) Docker:>20.10版本 GPU支持,需要CUDA 验证Docker环境 docker --version 部
dify插件离线安装
今天看到几个不错的插件,想离线部署到内网服务器上,开始以为从dify的市场上下载下来,然后在内网上本地安装插件就可以了,但是经过测试,发现安装过程特别慢,并且很不稳定,报安装成功,但是在插件列表里面看
Docker方式离线部署OpenWebUI
任务:需要将上一篇文章# CentOS 7.9部署OpenWebUI(容器方式)部署的OpenWebUI离线迁移到一个内网服务器上 1、停止OpenWebUI容器: docker stop open-
CentOS 7.9部署OpenWebUI(容器方式)
代码仓库:https://github.com/open-webui/open-webui 按照官方文档: 由于我在服务器上安装有Ollama,因此使用官方提供的脚本: -d:在后台运行容器 -p:配
CentOS7部署DeepSeek
中间接手一台服务器,应客户要求部署DeepSeek-r1:32B,服务器是一台公司定制的,里面安装了四张英伟达的T4卡,好在开机后发现已经安装了CentOS7.9,并且也已经安装了英伟达的显卡驱动,能
Dify 配置Ollama模型
1.在Dify添加模型供应商: 模型名称就是Ollama下本地下载的模型,可以通过ollama list 查看 2.主要在基础URL这里,按照Dify官方文档: host.docker.interna
CentOS 7 部署Dify
Dify 它是一个开源 LLM 应用开发平台。拥有直观的界面结合了 AI 工作流、RAG 管道、代理功能、模型管理、可观察性功能等,可以快速从原型开发到生产。 采用Docker方式部署 因为部署了宝塔
CentOS下指定目录安装ollama
默认情况下,按照官方脚本ollama将会安装到/root/.ollama或者当前用户的home目录下的.ollama目录内。 如果希望将ollama安装在其他目录,在执行官方脚本之前,可以通过设置OL
Ollama大模型的api接口
验证本机是否安装成功Ollama ollama -v 查看本地的模型 ollama list 运行模型 ollama run deepseek-r1:1.5b API接口 使用ApiPost软件,地址