首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
AI算力小知识
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
高校师生租用 GPU :去哪儿租,怎么选?
高校师生如何在算力云平台上理性租用 GPU。分析 RTX 3090、RTX 4090、A100 在课程作业、毕设、小论文和大模型科研中的适配场景与取舍;同时结合各种算力云平台的选择,给出建议。
GPU 单挑 CPU:从矩阵乘法到并行计算的入门
讲解了 CPU 与 GPU 在神经网络计算中的差异。通过分析串行与并行执行模型,解释了 GPU 在大规模矩阵运算中的性能优势,并结合 CUDA 编程流程,说明 GPU 加速的实际实现方式。
RTX 3090 在 GPU租赁市场的定位:“退役旗舰”是否真的老矣?
进入2026年,英伟达的RTX 3090显卡在算力云平台的GPU租赁市场到底现状如何?本文从大模型推理、文生图、模型微调及多卡 NVLink 等场景阐述3090显卡在AI应用领域的价值及适用场景。
ComfyUI 工作流下的显卡选择:算力还是显存?
大显存和更强的算力,到底哪个更重要? 这是一个在 AI 绘图和视频生成圈子里,被反复讨论的问题。这一期测试,正是围绕这个核心对比 5090 32GB 和 4090 48GB在ComfyUI的使用情况。
国内主流AI算力租赁平台盘点:谁更适合你?
随着AI的迅猛发展,现在算力变成了紧俏的资源,而市面上显卡的价格举高不下,GPU资源昂贵,尤其是像RTX 4090或A100这种高性能卡,对于大多数学生、个人开发者或初创小团队来说,直接购买成本太高。
模型训练场景5090和4090的算力比较
测试下英伟达这款最新的消费级旗舰和上一代RTX 4090在模型训练场景下性能差异多大? 基于Pytorch框架来训练ResNet-50模型,使用CIFAR-10数据集进行测试对比。
ComfyUI的Wan2.2工作流显卡性能实测
最新版ComfyUI的预置模板里面已经包含了多个Wan2.2模型的应用,这里基于ComfyUI的预置工作流模板来测试Wan2.2的模型在3090和4090两张显卡下文生视频的效率。
vLLM大模型推理场景显卡性能对比
使用`vLLM`测试下大模型并发推理场景下3090和4090两张显卡的性能表现,看下4090是否在高并发场景下具备更高的扩展性。
实测Ollama和vLLM大模型推理性能对比
Ollama和vLLM是目前最常见的两个大模型部署工具,在部署大模型推理服务的时候,对应的场景下如何选择,用于平衡部署的成本和推理的性能?这里用3090显卡实测Ollama和vLLM的推理性能对比
魔改3080 20G在大模型推理场景下性能实测
RTX 3080 20G显卡是基于3080 10G魔改的卡,目前市面比较多得被用于小规模参数的大语言模型推理场景,被认为是性价比比3090还高的推理显卡。 实测其大模型推理性能到底如何?
下一页
个人成就
文章被阅读
2,042
掘力值
138
关注了
0
关注者
0
收藏集
0
关注标签
4
加入于
2025-10-07