首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
DigitalOcean
掘友等级
DigitalOcean
DigitalOcean 成立于 2012 年,为开发者易用、平价的云计算解决方案,从虚拟机、Kubernetes托管,到 GPU 云服务。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
如何在云端运行Kimi K2.5:从配置到部署全攻略
Moonshot AI 的又一力作。Kimi K2.5 是一款视觉智能体模型,在 OpenRouter热门模型榜单上名列前茅,且在多项基准测试中超越闭源模型,充分展现了研究层面的突破。从架构、
GPU对比:MI350X、MI325X、MI300X、H200、H100
过去几年间,以大型语言模型(LLM)和生成式 AI 为代表的新浪潮席卷全球,对算力基础设施提出了前所未有的严苛挑战。从 GPT-4 到 Llama 3.1,参数量级的飞跃不仅意味着计算复杂度的几何级数
DigitalOcean Gradient AI 推理云平台原生集成 LlamaIndex
DigitalOcean Gradient AI平台原生集成LlamaIndex,通过两个PyPI包简化RAG应用开发,让开发者快速构建生产级AI应用。
无服务器推理(Serverless Inference)是什么?与传统AI推理部署方式全面对比
随着大语言模型能力的持续跃升和应用场景的指数级扩展,2026年的企业AI落地已经进入了全新的阶段。希望保持竞争力的企业正急于将人工智能能力融入其产品和服务。在DigitalOcean针对成长型科技公司
面向 AI 推理的算力升级:AMD MI350X GPU Droplets云服务器上线
搭载 AMD MI350X 的 GPU Droplets上线,提升 AI 推理性能与吞吐,兼顾低延迟与成本可控。
Claude Opus 4.6 上线 DigitalOcean:百万上下文,一键调用
Claude Opus 4.6 通过 DigitalOcean Serverless Inference 正式上线,提供百万级上下文与 Agentic 能力,帮助团队在统一云环境中高效构建、部署并扩展
如何选择对象存储?Amazon S3 与 DigitalOcean Spaces 深度解析
从金融科技初创公司和SaaS提供商,到人工智能公司和电商平台,各类企业都依赖云对象存储来存储和管理其关键数据。企业使用云存储来存储应用程序源代码、训练好的机器学习模型、客户财务数据、应用程序日志和自动
教程:构建基于 Coreflux MQTT 与托管数据库的IoT数据管道
使用托管数据库部署 Coreflux MQTT 代理 MQTT 代理 通过发布-订阅消息模式连接物联网设备和应用程序,使其成为现代 物联网 基础设施的重要组成部分。Coreflux 是一个 低代码 M
10分钟,教你在云端部署 Moltbot/Clawdbot
这是一篇在云服务器上部署和配置AI助手Moltbot/Clawdbot的详细教程。其中包含了两种部署方法。
vLLM 推理 GPU 选型指南:显存、KV Cache 与性能瓶颈全解析
本文系统解析 vLLM 推理运行机制,深入讲清 Prefill 与 Decode 差异、KV Cache 显存增长逻辑及并行开销,结合主流 GPU 架构,对不同模型规模下的显存与性能选型给出清晰参考。
下一页
个人成就
文章被点赞
20
文章被阅读
49,166
掘力值
2,615
关注了
0
关注者
150
收藏集
0
关注标签
16
加入于
2018-02-27