首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
supermfc
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
3
文章 3
沸点 0
赞
3
返回
|
搜索文章
最新
热门
yum安装离线包
yum install --downloadonly --downloaddir=/tmp/rpm vsftpd 如果提示软件包已经安装,那么需要使用reinstall命令 提示没有–download
CentOS安装中文字体
原因:python matplotlib生成的图表中文都是方框。由于有过在windows下的经验,直觉是字体库的问题,所以直接在服务器上查看并解决: yum install -y fontconfig
Docker方式离线部署OpenWebUI
任务:需要将上一篇文章# CentOS 7.9部署OpenWebUI(容器方式)部署的OpenWebUI离线迁移到一个内网服务器上 1、停止OpenWebUI容器: docker stop open-
CentOS 7.9部署OpenWebUI(容器方式)
代码仓库:https://github.com/open-webui/open-webui 按照官方文档: 由于我在服务器上安装有Ollama,因此使用官方提供的脚本: -d:在后台运行容器 -p:配
CentOS7部署DeepSeek
中间接手一台服务器,应客户要求部署DeepSeek-r1:32B,服务器是一台公司定制的,里面安装了四张英伟达的T4卡,好在开机后发现已经安装了CentOS7.9,并且也已经安装了英伟达的显卡驱动,能
Dify 配置Ollama模型
1.在Dify添加模型供应商: 模型名称就是Ollama下本地下载的模型,可以通过ollama list 查看 2.主要在基础URL这里,按照Dify官方文档: host.docker.interna
CentOS 7 部署Dify
Dify 它是一个开源 LLM 应用开发平台。拥有直观的界面结合了 AI 工作流、RAG 管道、代理功能、模型管理、可观察性功能等,可以快速从原型开发到生产。 采用Docker方式部署 因为部署了宝塔
CentOS Docker升级到最新版本
查看目前的docker版本 docker info 或者 docker --version 显示1.31.1,很老的版本了。 升级前,先停止docker服务 systemctl stop docker
CentOS下指定目录安装ollama
默认情况下,按照官方脚本ollama将会安装到/root/.ollama或者当前用户的home目录下的.ollama目录内。 如果希望将ollama安装在其他目录,在执行官方脚本之前,可以通过设置OL
VMware Workstation 桥接模式配置
家里电脑虚拟机上安装的CentOS 8系统,原来一直采用的NAT模式,今天在测试过程中,需要和主机同一个网段,所以选择了桥接模式,但是系统启动后,发现网卡设置的DHCP,但一直无法从家里的路由器上获取
下一页
个人成就
文章被点赞
5
文章被阅读
13,358
掘力值
367
关注了
0
关注者
0
收藏集
4
关注标签
17
加入于
2022-07-19