首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
咕噜服务器小米
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
咕噜服务器小米
5小时前
关注
游戏开发者必看:如何用云服务器实现全球低延迟部署?
在当今全球化的游戏市场中,玩家分布在世界各地,如何确保所有玩家都能获得流畅、低延迟的游戏体验,是每个游戏开发者必须面对的挑战。云服务器的出现为这一难题提供了理想的解决方案。...
0
评论
分享
咕噜服务器小米
3天前
关注
使用 GPUStack 高效管理 vLLM 和 SGLang 推理服务与生产化运维(中)
3. 官方与自定义推理镜像接入 GPUStack 支持接入官方及自定义推理镜像,以满足不同版本的 vLLM 和 SGLang 后端部署需求。 以下示例展示如何在沐曦 ...
0
评论
分享
咕噜服务器小米
4天前
关注
使用 GPUStack 高效管理 vLLM 和 SGLang 推理服务与生产化运维(中)
1.5 添加沐曦 GPU K8s 集群(可选)、 GPUStack 也支持导入 Kubernetes 集群,以纳管 K8s 集群中的 GPU 节点: 在沐曦 GPU...
0
评论
分享
咕噜服务器小米
5天前
关注
使用 GPUStack 高效管理 vLLM 和 SGLang 推理服务与生产化运维(上)
在当前大模型推理逐步走向生产化的背景下,如何在多样化硬件环境上高效、稳定地管理推理服务,在工程落地中尤其关键。尤其是在国产 GPU 场景中,不同推理引擎、驱动栈与部署...
0
评论
分享
咕噜服务器小米
6天前
关注
Gemma 4 私有部署与文本、图像工具调用全教程(上)
随着多模态和智能体能力逐渐成为大模型的标配,如何在本地环境中高效部署正在成为越来越多开发者关注的重点。近期,Gemma 4 正式发布,模型能力对标 Qwen 3.5,在推理...
0
评论
分享
咕噜服务器小米
7天前
关注
快速理清云计算、云主机、云服务器的关系
我将以通俗易懂的语言,先总述三者核心关联,再分别拆解概念、辨析云主机与云服务器的异同,最后梳理层级关系,用生活化类比帮助理解,完整理清三者逻辑,写成1000字左右的科普文章...
0
评论
分享
咕噜服务器小米
9天前
关注
GPUStack私有模型仓库配置教程
GPUStack 当前支持从 Hugging Face 和 Ollama Registry 模型仓库部署模型,其中 Ollama 使用了 OCI 分发规范来分发模型镜像...
0
评论
分享
咕噜服务器小米
10天前
关注
将GPT OSS私有部署推理性能提升100倍的部署教程(下)
部署 GPT OSS 模型 确认模型下载完成后,点击已下载模型右侧的部署按钮,部署模型。 在部署页面,展开高级配置,设置模型类别为 LLM。并在后端版本中,填写自定义后...
0
评论
分享
咕噜服务器小米
11天前
关注
将GPT OSS私有部署推理性能提升100倍的部署教程(上)
官方提供的 vLLM 推理需要一系列安装配置步骤才可正常运行,以下基于开源大模型服务平台 GPUStack,结合自定义安装的 vLLM 版本,完成 GPT OSS 系...
0
评论
分享
咕噜服务器小米
12天前
关注
GPUStack × CherryStudio:为企业用户构建安全可靠的本地私有化 AI 助手(下)
GPUStack 赋能:CherryStudio 的多模型能力 接入 GPUStack 后,可在 CherryStudio 中自由切换多类模型,覆盖更多应用场景: 模型...
0
评论
分享
咕噜服务器小米
17天前
关注
GPUStack × CherryStudio:为企业用户构建安全可靠的本地私有化 AI 助手(中)
步骤二:部署模型 1. 打开 GPUStack 网页端「模型库」页面 编辑 2. 选择要运行的模型(如 Qwen3) 编辑 3. 点击「保存」,转到「部署」页面,...
0
评论
分享
咕噜服务器小米
18天前
关注
GPUStack × CherryStudio:为企业用户构建安全可靠的本地私有化 AI 助手(上)
随着大模型的普及,越来越多的企业希望借助 AI 提升工作效率——从智能对话、文档分析到知识问答与研发辅助,AI 正在重塑企业的工作方式。但在实际落地中,数据安全与隐私合...
0
评论
分享
咕噜服务器小米
19天前
关注
昇腾多机推理极速上手:10倍简化的 DeepSeek R1 超大规模模型部署(下)
多机分布式部署 DeepSeek R1 模型 在名称中输入自定义的模型名称 将模型路径指定为提前下载并已挂载到容器中的 DeepSeek R1 模型的绝对路径 在后端...
0
评论
分享
咕噜服务器小米
20天前
关注
GPUStack新手教程: 组建GPU集群运行大模型(下)
作为平台管理员,你可以以管理员的角色登录到 GPUStack 并导航到菜单中的资源,在这里查看你当前的 GPU 资源状态和容量。 然后你可以导航到模型,将任何开源的大...
0
评论
分享
咕噜服务器小米
21天前
关注
GPUStack新手教程: 组建GPU集群运行大模型(上)
GPUStack 是一个用于运行 LLM(大型语言模型)的开源 GPU 集群管理器。 GPUStack 支持基于任何品牌的异构 GPU 构建统一管理的算力集群,无论目标...
0
评论
分享
咕噜服务器小米
24天前
关注
10倍简化的 DeepSeek R1 超大规模模型部署(上)
在昇腾 NPU 上部署超大规模模型,往往面临一个现实难题:目前主流的官方推理引擎 MindIE 的多机分布式推理虽然性能表现尚可,但配置流程异常复杂。从环境准备、配置...
0
评论
分享
咕噜服务器小米
25天前
关注
如何测算大模型对内存/显存的资源需求
测算运行大模型所需的 RAM/VRAM 是部署模型时的关键步骤,决定了模型能否被成功加载运行。在各种环境中,我们可以通过测算模型的资源需求来确定应该选择的模型参数规模...
0
1
分享
咕噜服务器小米
26天前
关注
这个大模型运行需要多少资源?
测算运行大模型所需的资源是部署模型时的关键步骤,决定了模型能否被成功加载运行。在前面的文章中,我们介绍了 GGUF Parser 工具,通过 GGUF Parser ...
0
评论
分享
咕噜服务器小米
27天前
关注
Continue+GPUStack打造免费的GitHub Copilot
Continue [https://github.com/continuedev/continue] 是 GitHub Copilot 的开源替代品,一个开源的 AI ...
0
评论
分享
咕噜服务器小米
28天前
关注
AnythingLLM+GPUStack打造专属的ChatGPT+知识库
AnythingLLM [https://github.com/Mintplex-Labs/anything-llm] 是一个一体化的 AI 应用,可以在桌面(Mac、...
0
评论
分享
下一页
个人成就
文章被点赞
2
文章被阅读
8,791
掘力值
552
关注了
0
关注者
2
收藏集
0
关注标签
2
加入于
2026-01-30