首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
咕噜服务器小米
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
AnythingLLM+GPUStack打造专属的ChatGPT+知识库
AnythingLLM [https://github.com/Mintplex-Labs/anything-llm] 是一个一体化的 AI 应用,可以在桌面(Mac、Windows 和 Linu
GPUStack Windows (WSL2) 部署指南
GPUStack v2 以高性能推理与生产级稳定性为核心演进方向,对整体架构进行了全面重构,实现了组件间的灵活解耦,并对多推理引擎和异构算力进行了深度优化,充分释放推理引擎在吞吐、延迟与并发方面
释放 H200 全部潜力:DeepSeek-V3.2 推理性能提升 161% 的优化秘籍
从通用部署到极致性能:DeepSeek-V3.2 的推理优化突破 在 AI 应用快速落地的今天,大语言模型的推理性能成为制约其广泛使用的关键因素。DeepSeek-V3.2 作为能力领先的开源模
阿里 PPU 加入 GPUStack 国产算力版图:异构算力统一调度的重磅里程碑(下)
API 服务与 AI 网关:统一接入企业应用 在企业环境中,大模型往往需要以标准化 API 服务的形式被业务系统调用。GPUStack 提供统一 API 代理与 AI 网关能力,支持 OpenAI
阿里 PPU 加入 GPUStack 国产算力版图:异构算力统一调度的重磅里程碑(上)
GPUStack v2.1 正式新增对阿里 PPU(平头哥)的支持,在 PPU 平台上实现 vLLM / SGLang 多版本切换、高性能模型推理、AI 网关访问控制、监控运营等企业级 MaaS
GPUStack 离线部署镜像准备与国内加速源
在 GPUStack 的实际部署中,经常会遇到一个问题: 离线环境如何准备完整的镜像? GPUStack 的核心服务镜像实际上只有一个:gpustack/gpustack。 无论是 Server
GPUStack × MaxKB:打造强大易用的开源企业级智能体平台(下)
在 MaxKB 中接入 GPUStack 模型 在 MaxKB 顶部导航栏选择 Model。 编辑 点击右上角 Add Model。 编辑 编辑 编辑 注意: API URL 和 API
GPUStack × MaxKB:打造强大易用的开源企业级智能体平台(中)
在 GPUStack 中部署模型 点击侧边栏 Deployments 打开模型部署页面。 如果当前没有部署模型,页面中间会出现 Deploy Now 按钮。 点击该按钮进入 Model Catal
GPUStack × MaxKB:打造强大易用的开源企业级智能体平台(上)
随着企业内部 AI 应用越来越多,越来越多团队开始关注两个核心问题: 如何高效管理和部署本地大模型 如何快速构建企业知识库与 AI Agent 如果你同时在寻找这两个问题的解决方案,那么 GPU
Token 不再焦虑:用 GPUStack + OpenClaw 搭一个“无限用”的本地 AI 助手(下)
四、首次授权与测试 在飞书中向机器人发送消息 首次会提示 Pairing 授权 在服务器执行: openclaw pairing approve feishu 编辑 如果出现反复授权,并提示:d
下一页
个人成就
文章被点赞
2
文章被阅读
4,415
掘力值
362
关注了
0
关注者
1
收藏集
0
关注标签
2
加入于
2026-01-30