FLUX.1文生图模型部署教程:从零开始到生成第一张图
最近AI绘画圈有个大新闻,一个叫FLUX.1的模型横空出世,据说效果能跟Midjourney

v6.0和DALL·E
3掰掰手腕。
更让人兴奋的是,它的开发版(dev)和快速版(schnell)都开源了,这意味着咱们普通开发者也能在本地电脑上跑起来。
今天我就带你从零开始,一步步在ComfyUI里部署FLUX.1模型,让你亲手生成第一张FLUX.1图片。
整个过程其实没想象中那么复杂,跟着我的步骤走,半小时内你就能看到成果。
1.
准备工作:了解FLUX.1是什么
在开始动手之前,咱们先简单了解一下FLUX.1。
你可以把它理解成一个全新的AI绘画模型,跟咱们熟悉的Stable
Diffusion是同一个赛道,但采用了更新的技术架构。
FLUX.1有三个版本:
- FLUX.1
[pro]
:效果最好的专业版,但需要付费使用 - FLUX.1
[dev]
:面向开发者的开源版本,效果接近pro版,但不能商用 - FLUX.1
[schnell]
:速度最快的版本,完全开源且可以商用
咱们今天要部署的就是dev和schnell这两个开源版本。
从社区测试的效果来看,FLUX.1在图像细节、提示词理解、风格多样性方面确实表现不错,特别是人体结构处理得比SD3要好。
2.
环境准备:安装和配置ComfyUI
如果你已经装好了ComfyUI,可以跳过这一步。
如果是第一次接触,别担心,安装其实很简单。
2.1
下载ComfyUI
ComfyUI是一个图形化的AI绘画工具,通过拖拽节点的方式工作,比WebUI更灵活。
你可以从GitHub下载:
#克隆仓库
https://github.com/comfyanonymous/ComfyUI.git
ComfyUI
requirements.txt
或者更简单的方法:直接下载别人打包好的整合包,解压就能用。
网上有很多现成的整合包,搜索“ComfyUI整合包”就能找到。
2.2
更新到最新版本
FLUX.1需要比较新的ComfyUI版本支持,所以确保你的ComfyUI是最新的:
#进入ComfyUI目录
requirements.txt
如果你用的是整合包,一般启动器里会有“更新”按钮,点一下就行。
3.
下载模型文件:三个关键文件
部署FLUX.1需要三个核心文件:主模型、文本编码器(Clip)、图像解码器(VAE)。
咱们一个一个来。
3.1
下载FLUX.1主模型
主模型就是FLUX.1的核心,负责生成图片。
咱们可以下载dev或schnell版本:
dev模型(效果更好):
- 下载地址:HuggingFace上的
black-forest-labs/FLUX.1-dev - 文件:
flux1-dev.sft,大小约12GB
schnell模型(速度更快,可商用):
- 下载地址:HuggingFace上的
black-forest-labs/FLUX.1-schnell - 文件:
flux1-schnell.sft,大小约12GB
FP8量化版本(显存要求更低):
如果你显卡显存只有12GB左右,可以下载这个版本:
- 下载地址:HuggingFace上的
Kijai/flux-fp8 - 文件大小:约11GB
下载小贴士:
如果访问HuggingFace比较慢,可以试试用镜像站,或者找国内网盘的搬运资源。
下载后把模型文件放到:
ComfyUI/models/unet/如果没有unet文件夹,就自己创建一个。
3.2
下载文本编码器(Clip模型)
FLUX.1用的文本编码器和SD3是一样的,需要两个文件:
t5xxl_fp16.safetensors或t5xxl_fp8.safetensors(二选一)clip_l.safetensors
下载地址:HuggingFace上的comfyanonymous/flux_text_encoders
下载后放到:
ComfyUI/models/clip/怎么选t5xxl版本:
- 如果你的显卡显存充足(16GB以上),选
t5xxl_fp16.safetensors - 如果显存紧张(12GB左右),选
t5xxl_fp8.safetensors
3.3
下载图像解码器(VAE模型)
FLUX.1用了自己训练的VAE,需要单独下载:
- 文件:
ae.sft - 下载地址:HuggingFace上的
black-forest-labs/FLUX.1-schnell仓库里
下载后放到:
ComfyUI/models/vae/4.
部署流程:一步步搭建工作流
现在所有文件都准备好了,咱们开始搭建工作流。
我建议你先下载一个现成的工作流文件,这样最省事。
4.1
导入基础工作流
- 启动ComfyUI(双击
run_nvidia_gpu.bat或对应的启动脚本) - 打开浏览器,访问
http://127.0.0.1:8188 - 把下载好的工作流JSON文件直接拖到ComfyUI页面里
工作流文件里已经预设好了所有节点和连接,你只需要加载对应的模型文件就行。
4.2
加载模型文件
工作流导入后,你会看到几个关键的加载节点:
加载Unet(主模型):
- 双击“Load
UNET”节点
- 点击“选择文件”,找到你下载的
flux1-dev.sft或flux1-schnell.sft - 在
weight_dtype选项里选择fp8(重要!不选这个24G显存都会爆)
加载Clip(文本编码器):
- 双击“Load
CLIP”节点
- 需要加载两个文件:
- 第一个加载
t5xxl_fp16.safetensors或t5xxl_fp8.safetensors - 第二个加载
clip_l.safetensors
- 第一个加载
加载VAE(图像解码器):
- 双击“Load
VAE”节点
- 选择你下载的
ae.sft文件
4.3
设置生成参数
现在模型都加载好了,咱们来设置生成参数:
采样器和调度器:
- 采样器(Sampler):选择
euler - 调度器(Scheduler):选择
normal - 注意:不要用SDE或karras,我测试过会出问题
步数和尺寸:
- 步数(Steps):
- dev模型:建议20-30步
- schnell模型:固定4步(这是它的特点,4步就能出好图)
- 图片尺寸:支持多种比例,比如1024x1024、1152x896等
提示词输入:
找到“SDXL
Styler”节点,在这里输入你的描述。
比如:
Abeautiful
生成第一张图:实战演示
所有设置都完成后,点击右上角的“Queue
Prompt”按钮,ComfyUI就开始生成图片了。
第一次运行会比较慢,因为要加载大模型和做量化转换。
我的双卡4090都要等一会儿,所以耐心点,只要后台没报错就没事。
5.1
测试dev模型
我用这个提示词测试dev模型:
Acyberpunk
logo.
等待几分钟后,得到了这张图:![]()
/>
效果确实不错,细节丰富,光影自然,文字也识别得很准。
5.2
测试schnell模型
换用schnell模型,提示词改成:
3magical
dragon.
重要设置:
- 步数改为4(schnell只需要4步)
- 采样器还是
euler - 调度器改成
simple
点击生成,速度明显快了很多,效果是这样的:![]()
/>
虽然只有4步,但画面质量并不差,三个巫师和龙都表现得很清楚。
6.
常见问题与解决方案
新手在部署过程中可能会遇到一些问题,这里我整理了几个常见的:
6.1
显存不足怎么办?
这是最常见的问题。
FLUX.1模型很大,即使量化后也需要不少显存。
解决方案:
- 使用FP8量化版本(前面提到的
Kijai/flux-fp8) - 在Unet加载器的
weight_dtype里一定要选fp8 - 降低图片分辨率,比如从1024x1024降到768x768
- 关闭其他占用显存的程序
6.2
模型加载失败怎么办?
有时候模型文件损坏或路径不对会导致加载失败。
检查步骤:
- 确认模型文件放对了位置:
- 主模型在
models/unet/ - Clip在
models/clip/ - VAE在
models/vae/
- 确认文件名正确,没有多余的空格或特殊字符
- 尝试重新下载模型文件
6.3
生成的图片模糊或有问题?
如果图片质量不好,可以调整这些参数:
提示词技巧:
- 描述要具体:不是“一个女孩”,而是“一个穿着红色裙子的女孩在花园里”
- 加上质量词:
8k,detailed,
masterpiece
- 指定风格:
animestyle,
cyberpunk
参数调整:
- 适当增加步数(dev模型可以试试30步)
- 调整CFG值(一般7-12之间)
- 换个种子(seed)重新生成
6.4
ComfyUI节点显示红色?
如果节点连接线变成红色,说明连接有问题。
解决方法:
- 检查节点之间的连接是否正确
- 确保所有必需的输入都有连接
- 右键出问题的节点,选择“强制刷新”
- 如果还不行,删除节点重新添加
7.
进阶技巧:让FLUX.1发挥更好
掌握了基础部署后,咱们可以玩点更高级的。
7.1
使用风格模板
FLUX.1工作流里自带了一个“SDXL
Prompt
Styler”节点,这里面预置了很多风格模板。
比如:
Cinematic(电影感)Photographic(摄影风格)Anime(动漫风格)DigitalArt
(数字艺术)
选中一个风格,它会自动帮你优化提示词,让生成效果更好。
7.2
调整图片比例
FLUX.1支持多种图片比例,不只是正方形。
在“Empty
Latent
Image”节点里可以设置:
- 1024x1024(1:1)
- 1152x896(约4:3)
- 896x1152(竖版)
- 1216x832(宽屏)
不同的比例适合不同的场景,比如竖版适合人物肖像,宽屏适合风景。
7.3
批量生成
如果想一次生成多张图,可以:
- 复制“KSampler”节点
- 连接多个输出
- 设置不同的种子(seed)
- 一次性生成多个变体
或者更简单的方法:在“Empty
Latent
Image”节点的batch_size里设置大于1的值。
7.4
与其他模型结合
ComfyUI的强大之处在于可以串联多个模型。
你可以:
- 先用FLUX.1生成基础图片
- 再用ControlNet控制姿势或构图
- 最后用另一个模型做精修或风格转换
这就需要更复杂的工作流搭建了,但效果也会更惊艳。
8.
总结与下一步建议
通过今天的教程,你应该已经成功在本地部署了FLUX.1,并且生成了第一张图片。
咱们来回顾一下关键步骤:
- 准备模型文件:下载主模型、Clip、VAE三个核心文件
- 配置ComfyUI:确保版本最新,导入工作流
- 加载模型:注意选择FP8量化以减少显存占用
- 设置参数:采样器用euler,调度器用normal或simple
- 输入提示词:描述越具体,效果越好
- 点击生成:耐心等待,第一次会比较慢
FLUX.1给我的感受:
- 出图质量确实不错,细节和光影处理得很好
- 对提示词的理解比较准确,特别是文字生成
- schnell版本速度真的快,4步出图很实用
- 显存要求比较高,需要做好量化
下一步你可以尝试:
- 测试不同的风格和主题,看看FLUX.1擅长什么
- 尝试与其他模型结合,比如先用SDXL生成草图,再用FLUX.1细化
- 研究更复杂的工作流,实现图生图、局部重绘等功能
- 关注FLUX.1的后续更新,开源社区应该会有更多优化和插件
FLUX.1的出现给开源AI绘画带来了新的选择,特别是它的schnell版本兼顾了速度和质量,而且可以商用,这对开发者来说是个好消息。
虽然现在部署还有点门槛,但随着社区的发展,肯定会越来越简单。
最重要的是动手试试。
纸上得来终觉浅,亲自生成几张图,你就能感受到这个模型的潜力了。
遇到问题别怕,AI绘画的乐趣就在于不断尝试和探索。
/>
获取更多AI镜像
想探索更多AI镜像和应用场景?访问
CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。


