Comfy-WaveSpeed workflows全解析:从FLUX到SDXL的优化方案
Comfy-WaveSpeed是ComfyUI的一站式推理优化解决方案,以其通用性、灵活性和高效性显著提升AI绘图工作流的性能。本文将深入解析从FLUX到SDXL的多种优化工作流,帮助新手用户快速掌握这一强大工具。## 核心优化技术:First Block Cache与模型编译Comfy-WaveSpeed的核心优势在于其创新的优化技术,主要包括First Block Cache(FBCa
Comfy-WaveSpeed workflows全解析:从FLUX到SDXL的优化方案
Comfy-WaveSpeed是ComfyUI的一站式推理优化解决方案,以其通用性、灵活性和高效性显著提升AI绘图工作流的性能。本文将深入解析从FLUX到SDXL的多种优化工作流,帮助新手用户快速掌握这一强大工具。
核心优化技术:First Block Cache与模型编译
Comfy-WaveSpeed的核心优势在于其创新的优化技术,主要包括First Block Cache(FBCache)和模型编译功能。这些技术能够显著减少推理时间,同时保持图像质量。
图1:Comfy-WaveSpeed的Compile Model+节点设置界面,展示了关键优化参数配置
First Block Cache (FBCache)
FBCache技术通过缓存模型的第一层计算结果,避免重复计算,从而加速推理过程。在工作流中,ApplyFBCacheOnModel节点负责应用这一优化。以FLUX模型为例,该节点的典型配置如下:
- 对象:diffusion_model
- 阈值:0.12
- 层数:1
模型编译优化
模型编译功能通过EnhancedCompileModel节点实现,支持多种编译器选项,包括:
- torch.compile:PyTorch官方编译器
- 后端选择:inductor等
- 动态形状支持:可根据需求启用
FLUX模型优化工作流详解
FLUX作为新一代生成模型,对计算资源要求较高。Comfy-WaveSpeed提供了专门优化的FLUX工作流,位于workflows/flux.json。
优化前后对比
图2:未使用Comfy-WaveSpeed优化的FLUX模型输出,耗时17秒,速度1.63it/s
图3:使用Comfy-WaveSpeed优化的FLUX模型输出,耗时6秒,速度提升至4.33it/s
从对比中可以明显看出,优化后的FLUX模型在保持图像质量的同时,推理速度提升了近3倍。
关键节点配置
FLUX工作流中的核心优化节点包括:
- Apply First Block Cache:应用FBCache技术
- Compile Model+:启用模型编译
- ModelSamplingFlux:自动调整采样参数
SDXL模型优化实践
对于SDXL模型,Comfy-WaveSpeed同样提供了高效的优化方案,工作流文件为workflows/sdxl.json。
SDXL工作流特点
SDXL优化工作流具有以下特点:
- 支持多种分辨率配置,从704×1408到1728×576
- 集成CLIPTextEncodeSDXL节点,支持文本引导
- 优化的KSampler设置,默认使用dpmpp_2m_sde采样器
推荐配置参数
在SDXL工作流中,ApplyFBCacheOnModel节点的推荐配置为:
- 对象:diffusion_model
- 阈值:0.2
- 层数:1
这些参数经过优化,能够在大多数硬件配置上实现性能与质量的平衡。
开始使用Comfy-WaveSpeed
要开始使用这些优化工作流,首先需要克隆仓库:
git clone https://gitcode.com/gh_mirrors/co/Comfy-WaveSpeed
然后将工作流文件复制到ComfyUI的workflows目录,即可在UI中加载并使用这些优化方案。
无论是追求极致速度的FLUX模型,还是需要平衡性能与资源的SDXL模型,Comfy-WaveSpeed都能提供简单而强大的优化解决方案,让AI绘图变得更加高效和愉悦。
更多推荐






所有评论(0)