ai - comfyui - vae, unet 与 clip的适配关系 :不能随意搭配,需要看官方的推荐

访问量: 5

refer to: https://www.doubao.com/thread/w91d912055ccace39

一、先给你一个「万能原则」
最稳的方案永远是:用模型作者 / 官方发布时,原配的 CLIP 和 VAE。
绝大多数模型在发布页、下载页,都会明确写清楚:
「This model is trained for [架构,如 Flux/SDXL/SD1.5]」
「Recommended VAE: xxx.safetensors」
「Uses CLIP: xxx」
你只需要照着抄就行,这是 99% 场景下的最优解。

模型架构 UNet 特征 必须用的 CLIP 必须用的 VAE
Flux 系列(你当前用的) 文件名含 flux、flux2、klein 等 只能用 Qwen 系列(如 qwen_3_8b/qwen_3_4b) 必须用 Flux 专用 VAE(如 full_encoder_small_decoder)
SDXL 系列 文件名含 sdxl、xl、sd3-xl 等 必须用 双 CLIP(OpenCLIP ViT-L/14 + ViT-G/14) 必须用 SDXL 专用 VAE(官方 VAE 或优化版)
SD 1.5 系列 文件名含 v1-5、anything、meina 等 只能用 SD1.5 专用 CLIP(OpenAI CLIP ViT-L/14) 通用 SD1.5 VAE 或作者指定 VAE
SD 3 系列 文件名含 sd3、sd3-medium 等 只能用 SD3 专用 CLIP(T5 + CLIP) 必须用 SD3 专用 VAE

订阅/RSS Feed

Subscribe