首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
大模型
16_one
创建于2025-11-19
订阅专栏
大模型学习
暂无订阅
共5篇文章
创建于2025-11-19
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
Dify+Xinference+简单Rag知识库
云服务器准备 网络加速 安装驱动与CUDA 删除现有的CUDA包 删除之前的CUDA目录 清理apt源 重新安装CUDA 12.4 设置环境变量 重启系统 验证安装 安装Docker 更新系统包 安装
autoDL安装Open-WebUi+Rag本地知识库问答+Function Calling
基础环境搭建 open-webui安装 ollama在线安装 2.1. 将模型下载地址改到数据盘 2.2. 启动ollama 3. 安装deepseek-r1:14b模型 Embedding模型下载
vllm部署优化策略+在线推理应用
vllm离线部署-离线推理服务的大模型生命周期 vllm在线部署-服务器参数 vllm在线部署-服务启动参数 只需要关注--host 指定服务器的主机地址 和 --port 指定服务器的端口号 在au
autoDL安装vllm+deepseek推理模型+Qwen+调用离线推理api
部署vllm的要求 仅支持在linuxc操作系统 pyhon版本要求在3.8~3.12之间 部署操作流程 检查conda版本,若出现conda not found ,需要先安装conda环境 2. 创
autoDL安装ollama+deepseek-r1:1.5b+ollama多GPU部署
AutoDL服务器选择 根据gpu服务器显存大小,对比下方图中。目前租用3080,显存10GB,可以选择1.5b,7b,8b;为了节省gpu服务器资源,以最小模型安装1.5b; AutoDL安装oll