首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
OneFlow一流科技
掘友等级
团队
|
一流科技
一流科技OneFlow团队的技术分享账号,专注于深度学习,擅长分布式相关。 ★ OneFlow深度学习框架:github.com/Oneflow-Inc/oneflow ★ OF云平台:oneflow.cloud
获得徽章 7
动态
文章
专栏
沸点
收藏集
关注
作品
赞
48
文章 48
沸点 0
赞
48
返回
|
搜索文章
最新
热门
GPT-4.5前瞻:代码解释器,编程新纪元
继ChatGPT、GPT-4引爆语言大模型之后,近日发布的代码解释器(Code Interpreter)又将这一领域推向了高潮。
ChatGPT架构师:语言大模型的多模态能力、幻觉与研究经验
OpenAI联合创始人,ChatGPT架构师John Schulman此前认为,添加多模态功能会给大模型带来极大的性能提升。
OneFlow v0.9.0正式发布
今天是 OneFlow 开源的第 903 天,OneFlow v0.9.0 正式发布,欢迎下载体验新版本,期待你的反馈。
35张图,直观理解Stable Diffusion
最近,AI图像生成引人注目,它能够根据文字描述生成精美图像,这极大地改变了人们的图像创作方式。Stable Diffusion作为一款高性能模型,是AI图像生成领域的里程碑。
语言大模型推理性能工程:最佳实践
在这篇文章中,MosaicML工程师团队分享了如何在生产环境中充分利用流行开源语言大模型(LLM)的最佳实践。
微调语言大模型选LoRA还是全参数?基于LLaMA 2深度分析
本文对比了全参数微调和LoRA,并分析了这两种技术各自的优势和劣势。作者使用了三个真实用例来训练LLaMA 2模型,这提供了比较特定任务的性能、硬件要求和训练成本的基准。
GLM国产大模型训练加速:性能最高提升3倍,显存节省1/3,低成本上手
2017 年,Google 提出了 Transformer 架构,随后 BERT 、GPT、T5等预训练模型不断涌现,并在各项任务中都不断刷新 SOTA 纪录。
Stable Diffusion XL优化终极指南
本文将介绍Stable Diffusion XL优化,旨在尽可能减少内存使用的同时实现最优性能,从而加快图像生成速度。我们将能够仅用4GB内存生成SDXL图像,因此可以使用低端显卡。
文生图王者登场:Stable Diffusion 3 Medium正式开源
Stability AI正式开源了Stable Diffusion 3 Medium(2B),这是迄今为止最先进的文生图开源模型,现在,硅基流动团队在SiliconCloud上线了该开源模型。
为什么开源大模型终将胜出?
本文作者 Varun Shenoy 在 AI 基础设施公司 Baseten 从事机器学习推理工作,他并不认同当前闭源 AI 垄断的发展态势,在他看来,开源 AI 通过微调可用于各种领域各种细分场景等。
下一页
个人成就
优秀创作者
文章被点赞
889
文章被阅读
477,177
掘力值
11,755
关注了
5
关注者
311
收藏集
0
关注标签
7
加入于
2021-12-13