日前,沉寂已久的 Black Forest Labs 再度发力,开源新一代图像生成与编辑模型 FLUX.2。2024 年 FLUX.1 横空出世,在生成人物、尤其是真实人物的场景时,达到了接近真人实拍的效果。如今,FLUX.2 的升级则是在图像质量和创作灵活性上达到了新高度,其在指令理解、视觉质量、细节呈现以及输出多样性方面都达到了行业 SOTA 水平。
FLUX.2 在不同任务上的表现
具体而言,FLUX.2 :
支持多图参考, 可以同时参考 10 张图像,实现当今最优的角色/产品/风格一致性。
提升图像细节与真实感, 实现了更精细的纹理细节、更锐利的质感表现及更稳定的光照效果,适用于产品拍摄、可视化呈现及摄影级应用场景。
支持文本渲染, 能够稳定生成复杂排版、信息图表、网络梗图及 UI 原型中的精细文本。
增强型指令遵循, 显著提升对复杂结构化指令的执行精度,包括多部分提示词与构图约束。
更好地理解世界, 基于现实世界知识、光照及空间逻辑的场景构建显著增强,呈现更符合预期行为的连贯场景。
更高分辨率与灵活输入输出比例, 支持高达 400 万像素的图像编辑。
据官方介绍,在开源图像模型领域,FLUX.2 在文本到图像生成、单参考编辑及多参考编辑方面均取得行业领先性能。目前,「FLUX.2-dev:图像生成与编辑模型」已上线 OpenBayes 公共教程板块, 快来开启你的创作之旅吧!
教程链接:
Demo 运行
01 Demo 运行阶段
1.登录 OpenBayes.com,在「公共教程」页面,选择「FLUX.2-dev:图像生成与编辑模型」教程。
2.页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
3.选择「NVIDIA RTX PRO 6000 Blackwell」以及「PyTorch」镜像,按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 5090 + 5 小时 CPU 的免费时长!
小贝总专属邀请链接(直接复制到浏览器打开):
4.等待分配资源,首次克隆需等待 3 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」旁边的跳转箭头,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。
02 效果演示
进入 demo 页面后即可开始你的创作之旅啦 ⬇️
以下为文生图(text-to-image generation)效果展示:
教程链接: