首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
努力犯错玩AI
掘友等级
前粗粮产品,AIGC爱好者,北漂20年,混迹各大互联网公司
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
4
文章 3
沸点 1
赞
4
返回
|
搜索文章
最新
热门
多模态SVG生成新标杆:StarVector从图像文本生成高精度SVG的AI模型
一、引言:矢量图形的崛起与挑战 在现代数字世界中,图像扮演着至关重要的角色,而可伸缩矢量图形(SVG)正因其独特的优势,在网页设计、图形设计等领域占据着越来越重要的地位。与传统的基于像素的栅格图像不同
仅凭视频输入,30秒生成物理正确3D布局!群核科技开源空间理解模型SpatialLM
一、空间理解新范式:SpatialLM为何引发行业震动? 2025年3月,群核科技在英伟达GTC全球大会上开源了空间理解模型SpatialLM,标志着具身智能领域的一次重大突破。该模型仅需一段普通手机
256M参数挑战7B巨头,IBM开源文档处理神器SmolDocling
一、引言:高效文档理解的需求与挑战 在信息爆炸的时代,我们每天都需要处理大量的文档,无论是工作中的合同、报告,还是学习中的论文、资料。如何高效地从这些文档中提取关键信息、理解其结构和内容,一直是困扰我
8卡L20满血运行 QwQ-32B ,每秒2600+ Tokens,压测数据全公开!
引言 Qwen团队开源的QwQ-32B大模型,凭借强大的生成能力,成为开发者关注的焦点。但如何在生产环境中高效部署并优化其性能?本文基于真实场景(8卡NVIDIA L20服务器),从环境配置、vLLM
单卡4090就能跑!Mistral开源多模态小模型3.1:128K上下文+超低延迟,性能碾压GPT-4o Mini
一、模型概述:开源多模态新标杆 法国AI公司Mistral AI于2025年3月18日正式开源Mistral Small 3.1,这是一款参数规模为240亿(24B)的多模态模型。凭借其128K超长上
轻松部署Gemma3-27B,L20服务器+最新版vLLM高效推理
Google最新开源的Gemma3-27B模型凭借其128K长上下文支持、多模态能力和接近闭源模型的性能表现,已成为企业级AI部署的热门选择。vLLM 0.7.4最新版已支持Gemma3-27B大模型
告别高门槛!老旧GPU也能玩转阿里 QwQ-32B 大模型
阿里千问团队推出的QwQ-32B模型近期引发热议,官方评测显示其性能直逼DeepSeek-R1,甚至在部分任务中表现更优。但面对动辄数百亿参数的模型,普通开发者如何用老旧GPU设备低成本部署?本文将以
生产环境H200部署DeepSeek 671B 满血版全流程实战(四):vLLM 与 SGLang 的性能大比拼
前言 经过前三篇文章的铺垫: 生产环境H200部署DeepSeek 671B 满血版全流程实战(一):系统初始化 生产环境H200部署DeepSeek 671B 满血版全流程实战(二):vLLM 安装
生产环境H200部署DeepSeek 671B 满血版全流程实战(三):SGLang 安装详解
前言 随着前两篇文章的推进生产环境H200部署DeepSeek 671B 满血版全流程实战(一):系统初始化 生产环境H200部署DeepSeek 671B 满血版全流程实战(二):vLLM 安装详解
生产环境H200部署DeepSeek 671B 满血版全流程实战(二):vLLM 安装详解
前言 在上一篇文章-生产环境H200部署DeepSeek 671B 满血版全流程实战(一):系统初始化,我们完成了H200服务器的系统初始化工作,包括驱动安装和CUDA环境配置,为DeepSeek 6
下一页
个人成就
文章被点赞
110
文章被阅读
104,524
掘力值
4,424
关注了
1
关注者
60
收藏集
1
关注标签
7
加入于
2023-11-19