🟥 1️⃣ CLIP Text Encode(解析提示詞)
🔹 功能:讓 AI「理解」你的提示詞
🔹 節點名稱:CLIP Text Encode
🔹 輸入:文字(Prompt)
🔹 輸出:提示詞的數據格式(給 UNet 用)
💡 比喻:「CLIP 就像是 AI 的翻譯官,幫你把『我要畫賽博朋克女孩』翻成 AI 看得懂的語言!」
🟧 2️⃣ UNet(生成圖片)
🔹 功能:根據 CLIP 提供的提示詞,讓 AI「開始畫圖」
🔹 節點名稱:UNet
🔹 輸入:提示詞數據(來自 CLIP)+ 雜訊(隨機開始畫圖)
🔹 輸出:潛變量空間(Latent Space)的圖片
💡 比喻:「UNet 就像是畫家,拿著畫筆,從模糊的雜訊開始慢慢把畫面畫清楚!」
🟨 3️⃣ VAE Decode(轉回正常圖片)
🔹 功能:把 AI 生成的「隱形畫布(Latent Space)」轉成真實圖片
🔹 節點名稱:VAE Decode
🔹 輸入:UNet 產生的 Latent Space
🔹 輸出:可視化圖片(PNG、JPG 格式)
💡 比喻:「VAE 就像是一台影印機,幫你把 AI 生成的『草稿』印成一張清晰的照片!」
🟩 4️⃣ 圖片輸出(保存圖片)
🔹 功能:把 AI 生成的圖片輸出到硬碟上
🔹 節點名稱:Save Image
🔹 輸入:來自 VAE Decode 的圖片
🔹 輸出:最終圖片(存成 PNG / JPG)
💡 比喻:「這就像是你按下『存檔』按鈕,把 AI 畫好的圖存起來!」
💡💡在 ComfyUI 裡,UNet 和 Checkpoint(基礎模型)基本上是綁在一起的,可以直接合併成一個步驟!
🔹 Checkpoint(.safetensors / .ckpt) 是 完整的 AI 生圖模型,它內含:
- UNet(負責畫圖)
- VAE(負責修飾 & 解碼)
- CLIP(負責理解提示詞)
- 其他參數(例如 SD1.5、SDXL 的細節設定)
🔹 當你在 ComfyUI 加載一個 Checkpoint,它就會自動載入 UNet!
- 所以你不需要單獨手動加載 UNet,因為它本來就包含在 Checkpoint 裡。
💡 比喻:「Checkpoint 就像是一個『完整的畫家工具包』,裡面已經附帶畫筆(UNet)、調色盤(VAE)、參考書(CLIP)!」