32B 参数还能本地跑?Flux.2-dev 这次是真的把「大模型」玩明白了

55 阅读3分钟

过去的开源图像模型有点像一柜子分科工具:这一个负责生成,那一个负责编辑,想让角色不崩还得再上个微调模型,流程又长又碎。而 Flux.2-dev 的出现就像突然给你塞了一把真正能干活的 AI 瑞士军刀——一句话能画图,一张图能修改,几张参考图还能自动融合成统一风格,整套流程一个模型就走通了,再也不用东拼西凑。
更让人惊讶的是,它明明有 32B 参数,却因为量化和推理优化做得非常激进,居然能在 RTX 5090,甚至更低显存的显卡上轻轻松松跑起来。以前这种级别的模型动不动就得上服务器,现在打开家用电脑就能流畅生成,体验直接跨了一个时代。
最爽的是——完全不需要 LoRA、不需要 DreamBooth、更不需要准备一堆微调数据。给它几张参考图,或者扔一句文本,它就能稳稳给出高质量结果。对设计师、创作者、开发者来说,这基本意味着第一次能把「高质量、多模态、可控」的生成能力真正装进自己的电脑里。
简单讲:Flux.2-dev 就像把过去散落在不同模型里的功能重新打包成了一台「本地超级生成器」。能画、能改、能融合,角色风格还不跑偏,让整个创作流程变得快、稳、省心。

教程链接:go.openbayes.com/pjbdf
使用云平台: OpenBayes
openbayes.com/console/sig…

首先点击「公共教程」,找到「FLUX.2-dev:图像生成与编辑模型」,单击打开。

页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。

在当前页面中看到的算力资源均可以在平台一键选择使用。平台会默认选配好原教程所使用的算力资源、镜像版本,不需要再进行手动选择。点击「继续执行」,等待分配资源。

数据和代码都已经同步完成了。容器状态显示为「运行中」后,点击「API 地址」,即可进入模型界面。

本教程提供 multi-reference editing、text-to-image generation 两个案例供测试,使用步骤如下:
multi-reference editing(多参考图像编辑)

具体参数:

  • Seed:一个输入到生成模型随机数生成器中的初始值,用于控制生成过程中的随机性。

  • Width:生成图像的宽。

  • Height:生成图像的高。

  • Number of inference steps:指生成模型在生成最终结果时所经历的迭代次数或处理步骤数。

  • Guidance scale:控制生成模型(如扩散模型)中条件输入对最终生成结果的影响程度。

    text-to-image generation(文本到图像生成)

具体参数:

  • Seed:一个输入到生成模型随机数生成器中的初始值,用于控制生成过程中的随机性。

  • Width:生成图像的宽。

  • Height:生成图像的高。

  • Number of inference steps:指生成模型在生成最终结果时所经历的迭代次数或处理步骤数。

  • Guidance scale:控制生成模型(如扩散模型)中条件输入对最终生成结果的影响程度。

    效果展示:
    multi-reference editing

text-to-image generation