Home / Uncategorized / ComfyUI 簡易生圖流程

ComfyUI 簡易生圖流程

🟥 1️⃣ CLIP Text Encode(解析提示詞)

🔹 功能:讓 AI「理解」你的提示詞
🔹 節點名稱:CLIP Text Encode
🔹 輸入:文字(Prompt)
🔹 輸出:提示詞的數據格式(給 UNet 用)

💡 比喻:「CLIP 就像是 AI 的翻譯官,幫你把『我要畫賽博朋克女孩』翻成 AI 看得懂的語言!」


🟧 2️⃣ UNet(生成圖片)

🔹 功能:根據 CLIP 提供的提示詞,讓 AI「開始畫圖」
🔹 節點名稱:UNet
🔹 輸入:提示詞數據(來自 CLIP)+ 雜訊(隨機開始畫圖)
🔹 輸出:潛變量空間(Latent Space)的圖片

💡 比喻:「UNet 就像是畫家,拿著畫筆,從模糊的雜訊開始慢慢把畫面畫清楚!」


🟨 3️⃣ VAE Decode(轉回正常圖片)

🔹 功能:把 AI 生成的「隱形畫布(Latent Space)」轉成真實圖片
🔹 節點名稱:VAE Decode
🔹 輸入:UNet 產生的 Latent Space
🔹 輸出:可視化圖片(PNG、JPG 格式)

💡 比喻:「VAE 就像是一台影印機,幫你把 AI 生成的『草稿』印成一張清晰的照片!」


🟩 4️⃣ 圖片輸出(保存圖片)

🔹 功能:把 AI 生成的圖片輸出到硬碟上
🔹 節點名稱:Save Image
🔹 輸入:來自 VAE Decode 的圖片
🔹 輸出:最終圖片(存成 PNG / JPG)

💡 比喻:「這就像是你按下『存檔』按鈕,把 AI 畫好的圖存起來!」

 

💡💡在 ComfyUI 裡,UNet 和 Checkpoint(基礎模型)基本上是綁在一起的,可以直接合併成一個步驟!

🔹 Checkpoint(.safetensors / .ckpt)完整的 AI 生圖模型,它內含:

  • UNet(負責畫圖)
  • VAE(負責修飾 & 解碼)
  • CLIP(負責理解提示詞)
  • 其他參數(例如 SD1.5、SDXL 的細節設定)

🔹 當你在 ComfyUI 加載一個 Checkpoint,它就會自動載入 UNet!

  • 所以你不需要單獨手動加載 UNet,因為它本來就包含在 Checkpoint 裡。

💡 比喻:「Checkpoint 就像是一個『完整的畫家工具包』,裡面已經附帶畫筆(UNet)、調色盤(VAE)、參考書(CLIP)!」