【初心者向け】ComfyUIワークフロー構築入門|ノードの繋ぎ方から実践まで

生成AI

要約

この記事では、ComfyUIのワークフロー構築を初心者向けに解説します。

「ノードって何?」「どう繋げばいいの?」という疑問を解消し、基本的なワークフローを自分で組めるようになることを目指します。デフォルトワークフローの理解から、img2img・LoRA追加などの応用パターンまで丁寧に説明していきます。

本記事は ComfyUI v0.15.0 / ComfyUI Frontend v1.39.19 をもとに解説しています。


はじめに|ノードベースUIを理解しよう

ComfyUIを初めて触ったとき、こんな疑問を持ちませんでしたか?

  • 「なんか線で繋がった四角がいっぱいある…」
  • 「Stable Diffusion WebUIと全然違う…」
  • 「どこをどう触ればいいの?」

ComfyUIはノードベースUIという仕組みを採用しています。
最初は戸惑うかもしれませんが、仕組みを理解すれば非常に柔軟で強力なツールになります。

モチベル
ノードベースって聞いただけで難しそう…
クーラット
大丈夫!料理のレシピみたいに考えれば、意外とシンプルだよ

ノードベースUIとは?|基本概念を理解する

ノードとは

ノード(Node)とは、特定の処理を行う「箱」のようなものです。

例えば:

  • Load Checkpoint:モデルを読み込む箱
  • CLIP Text Encode:プロンプトを処理する箱
  • KSampler:画像を生成する箱
  • Save Image:画像を保存する箱

これらの箱を線(ワイヤー)で繋ぐことで、データが流れていきます。

ワークフローとは

ノードを繋げて作った処理の流れ全体を「ワークフロー」と呼びます。

モデル読み込み → プロンプト処理 → 画像生成 → 保存

この一連の流れが、ComfyUIでのワークフローです。

ノードベースUIのメリット

メリット 説明
柔軟性 処理の順番や組み合わせを自由に変更できる
可視性 データの流れが視覚的に分かる
再利用性 作ったワークフローを保存・共有できる
拡張性 カスタムノードで機能を追加できる
モチベル
なるほど!処理の流れが見えるから、何が起きてるか分かりやすいのね
クーラット
そう!だから問題が起きたときも原因を特定しやすいんだ

キャンバスの基本操作

ノードを操作する前に、キャンバス自体の動かし方を覚えましょう。

画面の移動・ズーム

操作 動作
マウスホイール ズームイン / アウト
中クリックドラッグ(または Space+ドラッグ) 画面をパン(移動)
Ctrl+Shift+H または ダブルクリック(空白部分) 全体をウィンドウに収める(Fit)
ヒント

ノードが増えて画面が散らかってきたら Ctrl+Shift+H で全体表示に戻すと全体像を把握しやすいです。

ノードの選択

操作 動作
クリック 単一選択
Shift+クリック 複数選択に追加
ドラッグ(空白部分) 範囲選択
Ctrl+A 全選択

ノードの基本操作|これだけ覚えればOK

ノードの追加方法

方法1:右クリックメニュー

  1. キャンバス上で右クリック
  2. 「Add Node」を選択
  3. カテゴリから目的のノードを選ぶ

方法2:ダブルクリック検索

  1. キャンバス上でダブルクリック
  2. 検索バーにノード名を入力
  3. 候補から選択
ノード追加メニュー

ノードの接続方法

  1. 出力ソケット(右側)をドラッグ
  2. 入力ソケット(左側)にドロップ
  3. 線(ワイヤー)で繋がる
ノードの接続
ヒント

ソケットの色に注目!
同じ色のソケット同士を繋ぎます。

  • 紫:MODEL(モデルデータ)
  • 黄緑:CLIP(テキストエンコーダー)
  • オレンジ:CONDITIONING(条件付けデータ)
  • ピンク:LATENT(潜在空間データ)
  • 緑:IMAGE(画像データ)
  • 青:VAE

接続の解除

  • 線をクリックしてDeleteキー
  • または線の端をドラッグして空中で離す

ノードのコピー・移動・削除

操作 方法
コピー 選択してCtrl+C → Ctrl+V(設定値ごとコピーされる)
移動 ノードをドラッグ
複数まとめて移動 範囲選択してドラッグ
削除 選択してDeleteキー、または右クリック → Remove

ノードの整理:グループ機能

ノードが増えてきたらグループでまとめると管理しやすくなります。

  1. まとめたいノードを範囲選択(ドラッグ)
  2. Ctrl+G でグループ化
  3. グループにタイトルをつけて識別しやすくする
ノードのグループ化

また、ノード左上の灰色の丸ボタンをクリックすると折りたたむことができ、画面をすっきりさせられます。


画像生成の基本フロー|デフォルトワークフローを理解する

ComfyUIを起動すると、デフォルトのワークフローが表示されます。
まずはこれを理解しましょう。

デフォルトワークフローの全体像

デフォルトワークフローの全体像

各ノードの役割

1. Load Checkpoint(モデル読み込み)

役割:Stable Diffusionのモデル(チェックポイント)を読み込む

出力

  • MODEL:画像生成に使うモデル本体
  • CLIP:テキストを理解するエンコーダー
  • VAE:画像の圧縮・展開を行うモジュール
Load Checkpointノード

2. CLIP Text Encode(プロンプト処理)

役割:テキストプロンプトをモデルが理解できる形式に変換

入力

  • CLIP:Load Checkpointから受け取る
  • text:プロンプト(呪文)を入力

出力

  • CONDITIONING:条件付けデータ
情報

ポジティブプロンプト用とネガティブプロンプト用、2つ必要です。
CLIP Text Encodeノード

3. Empty Latent Image(空の潜在画像)

役割:生成する画像のサイズを決める「空のキャンバス」を作る

設定項目

  • width:画像の幅
  • height:画像の高さ
  • batch_size:一度に生成する枚数
ヒント

SD1.5系モデルは512×512〜768×768、SDXLモデルは1024×1024が推奨解像度です。SDXLを使う場合はここを変更するだけでOKで、他のノード構成は同じです。
Empty Latent Imageノード

4. KSampler(サンプラー)

役割:実際に画像を生成する「心臓部」

入力

  • model:使用するモデル
  • positive:ポジティブプロンプト
  • negative:ネガティブプロンプト
  • latent_image:生成のベースとなる潜在画像

主な設定項目

項目 説明 推奨値
seed 乱数シード -1で毎回ランダム
steps 生成ステップ数 20〜30
cfg プロンプトへの忠実度 7〜8
sampler_name サンプリング方法 euler_ancestral, dpmpp_2m等
scheduler スケジューラー normal, karras等
denoise ノイズ除去強度 1.0(txt2imgの場合)
KSamplerノード

5. VAE Decode(VAEデコード)

役割:潜在空間のデータを実際の画像に変換

入力

  • samples:KSamplerからの出力
  • vae:Load CheckpointからのVAE

出力

  • IMAGE:実際の画像データ
VAE Decodeノード

6. Save Image / Preview Image(画像保存・プレビュー)

役割:生成した画像を保存またはプレビュー表示

  • Save Image:outputフォルダに保存
  • Preview Image:画面に表示するだけ(保存しない)
Save Imageノード
モチベル
データがノードを通って、最終的に画像になるのね!
クーラット
そう!この流れを理解すれば、どこを変えれば何が変わるか分かるようになるよ

データの流れを理解する|色分けで覚えよう

ソケットの色と意味

ComfyUIでは、データの種類ごとにソケットの色が決まっています。

データ型 説明
MODEL AIモデル本体
黄緑 CLIP テキストエンコーダー
オレンジ CONDITIONING 条件付け(プロンプト処理後)
ピンク LATENT 潜在空間データ
IMAGE 画像データ
VAE 画像の圧縮/展開モジュール
水色 MASK マスクデータ
グレー INT/FLOAT 数値
STRING 文字列

データフローの図解

Load Checkpoint
    │
    ├─ MODEL(紫)─────────────────────────┐
    │                                      │
    ├─ CLIP(黄緑)─┬─ CLIP Text Encode ──── CONDITIONING(オレンジ)─┐
    │               │   (Positive)                                    │
    │               │                                                 ▼
    │               └─ CLIP Text Encode ──── CONDITIONING(オレンジ)─▶ KSampler
    │                   (Negative)                                    ▲
    │                                                                 │
    │                              Empty Latent Image ── LATENT(ピンク)┘
    │
    └─ VAE(青)──────────────────────────────────────────┐
                                                          │
                         KSampler ── LATENT ── VAE Decode ── IMAGE(緑)── Save Image
ヒント

困ったときは色を見る!
「繋がらない」と思ったら、ソケットの色を確認しましょう。
同じ色同士でないと接続できません。

実践:基本ワークフローを組んでみよう

実際に手を動かして、基本ワークフローを一から組んでみましょう。

1
Load Checkpointを追加

右クリック → Add Node → loaders → Load Checkpointを選択。
追加されたノードのckpt_nameドロップダウンから、使用するモデルを選択します。

Load Checkpointの追加

2
CLIP Text Encodeを2つ追加

右クリック → Add Node → conditioning → CLIP Text Encodeを選択。
同じ操作をもう一度行い、合計2つ追加します。
1つはポジティブプロンプト用、もう1つはネガティブプロンプト用です。

CLIP Text Encodeの追加

3
Empty Latent Imageを追加

右クリック → Add Node → latent → Empty Latent Imageを選択。
widthheightで画像サイズを設定します(例:512×512、768×768など)。

Empty Latent Imageの追加

4
KSamplerを追加

右クリック → Add Node → sampling → KSamplerを選択。
このノードが画像生成の中心となります。

KSamplerの追加

5
VAE Decodeを追加

右クリック → Add Node → latent → VAE Decodeを選択。
潜在空間のデータを画像に変換するノードです。

VAE Decodeの追加

6
Save Imageを追加

右クリック → Add Node → image → Save Imageを選択。
生成した画像を保存するノードです。

Save Imageの追加

7
すべてのノードを接続

以下の順番で接続していきます:

  1. Load Checkpoint → MODEL → KSampler(model)
  2. Load Checkpoint → CLIP → 両方のCLIP Text Encode(clip)
  3. CLIP Text Encode(ポジティブ) → KSampler(positive)
  4. CLIP Text Encode(ネガティブ) → KSampler(negative)
  5. Empty Latent Image → KSampler(latent_image)
  6. KSampler → VAE Decode(samples)
  7. Load Checkpoint → VAE → VAE Decode(vae)
  8. VAE Decode → Save Image(images)

全ノードの接続

8
プロンプトを入力して実行

  1. ポジティブ用のCLIP Text Encodeにプロンプトを入力

例:masterpiece, best quality, 1girl, silver hair, blue eyes, smile

  1. ネガティブ用のCLIP Text Encodeにネガティブプロンプトを入力

例:low quality, bad anatomy, blurry

  1. 画面右上の「Queue Prompt」ボタンをクリック

画像が生成され、Save Imageノードに表示されます!

画像生成の実行

モチベル
やった!自分でワークフローが組めた!
クーラット
これが基本形だから、ここから応用していけばいいんだよ

よく使うワークフローパターン

パターン1:LoRAを追加する

基本ワークフローにLoRAを組み込むパターンです。Load CheckpointとKSamplerの間に Load LoRA ノードを挟みます。

Load Checkpoint
    ├─ MODEL → Load LoRA → MODEL → KSampler
    └─ CLIP  → Load LoRA → CLIP  → CLIP Text Encode

LoRAを複数使いたい場合は、Load LoRAを直列に繋げることで積み重ねられます。

詳しくは ComfyUI LoRA活用ガイド を参照してください。

パターン2:画像からimg2img

既存の画像をベースに新しい画像を生成するパターンです。
Empty Latent Image の代わりに Load Image + VAE Encode を使います。

Load Image → VAE Encode → LATENT → KSampler
                              ↑
                             VAE(Load Checkpointから)

手順:

  1. Load Image ノードを追加(右クリック → Add Node → image → Load Image)
  2. VAE Encode ノードを追加(右クリック → Add Node → latent → VAE Encode)
  3. Load Image の IMAGE → VAE Encode の pixels に接続
  4. Load Checkpoint の VAE → VAE Encode の vae に接続
  5. VAE Encode の LATENT → KSampler の latent_image に接続
  6. KSampler の denoise を 0.5〜0.85 に下げる(1.0のままだと元画像が完全に無視される)
img2imgワークフロー
ヒント

denoiseの目安

  • 0.3〜0.5:元画像に近い、構図をほぼ維持
  • 0.5〜0.75:バランス型。スタイルを変えつつ構図を残す
  • 0.75〜0.9:大きく変化。元画像はほぼ参考程度

パターン3:ControlNetを使う

ポーズや線画を制御しながら生成するパターンです。基本ワークフローに ControlNet Apply ノードを追加します。

詳しくは ComfyUI ControlNet活用ガイド を参照してください。

パターン4:アップスケール

生成した画像を高解像度化するパターンです。

シンプルな方法(補完のみ):

IMAGE → Upscale Image(by) → IMAGE → Save Image

高品質な方法(AIアップスケーラー使用):

IMAGE → ImageUpscaleWithModel → IMAGE → Save Image
情報

アップスケールの詳しい手順や各手法の違いは、AI画像生成 アップスケール完全ガイドで解説しています。

パターン5:バッチ生成

複数の画像を一度に生成するパターンです。

  • Empty Latent Imageのbatch_sizeを増やすだけ
  • 例:batch_size = 4 で4枚同時生成
  • VRAMを多く消費するので、最初は2〜4枚程度から試しましょう

ワークフローの保存と読み込み

ワークフローの保存方法

方法1:JSON形式で保存

  1. メニュー → Save(またはCtrl+S)
  2. ファイル名を指定して保存

方法2:画像に埋め込み

  • ComfyUIで生成した画像には、自動的にワークフローが埋め込まれます
  • 生成画像をComfyUIにドラッグ&ドロップすると、ワークフローが復元されます
情報

画像埋め込みが便利!
生成画像を共有するだけで、他の人も同じワークフローを使えます。
SNSで見かけた画像も、ComfyUIで開けば再現できることがあります。

ワークフローの読み込み方法

方法1:JSONファイルを読み込み

  1. メニュー → Load(またはCtrl+O)
  2. 保存したJSONファイルを選択

方法2:画像をドラッグ&ドロップ

  1. ComfyUI生成画像をキャンバスにドロップ
  2. 自動的にワークフローが展開される

方法3:デフォルトに戻す

  1. メニュー → Load Default
  2. デフォルトワークフローが読み込まれる

トラブルシューティング|よくある問題と解決策

ノードが赤くなる

原因:入力が足りない、または不正

対処

  • 必要な入力がすべて接続されているか確認
  • ソケットの色が一致しているか確認

「Queue Prompt」しても何も起きない

原因:ワークフローに問題がある

対処

  • 赤いノードがないか確認
  • すべてのノードが繋がっているか確認
  • Save ImageまたはPreview Imageがあるか確認

接続できない

原因:データ型が異なる

対処

  • ソケットの色を確認
  • 同じ色(同じデータ型)同士を接続

画像が真っ黒になる

原因:VAEの問題

対処

  • Load CheckpointからVAEをVAE Decodeに接続しているか確認
  • 外部VAEを使う場合はLoad VAEノードを追加

SDXLで画質が悪い

原因:解像度や設定がSD1.5向けになっている

対処

  • Empty Latent Imageの解像度を1024×1024に変更
  • CLIP Text Encode をSDXL版に差し替えることを検討

よくある質問


Qノードが多すぎて画面が見づらい場合は?
A

以下の方法で整理できます:

  • ノードをグループ化(Ctrl+G)してタイトルをつける
  • ノードを折りたたむ(ノード上部をダブルクリック)
  • Ctrl+Shift+Hで全体をウィンドウに収める

Q特定のノードの設定値をコピーしたい場合は?
A

ノードを選択してCtrl+C → Ctrl+Vでコピーできます。
設定値も含めてコピーされます。

QWebUIのワークフローをComfyUIで使える?
A

直接互換性はありません。ただし、同じ設定値(モデル、サンプラー、ステップ数など)を手動で再現することで、似た結果を得られます。

Qカスタムノードはどこで入手できる?
A

ComfyUI Managerを導入すると、カスタムノードの検索・インストールが簡単にできます。
また、GitHubで「comfyui custom node」と検索すると多数見つかります。

Qワークフローを他の人と共有するには?
A

以下の方法があります:

  • JSONファイルをそのまま共有
  • 生成画像を共有(ワークフローが埋め込まれている)
  • OpenArtなどのワークフロー共有サイトに投稿



まとめ|ワークフローの基本をマスターしよう

この記事のポイント

  1. ノードとは:特定の処理を行う「箱」
  2. ワークフローとは:ノードを繋げた処理の流れ
  3. 色の意味:同じ色のソケット同士を接続
  4. SD1.5とSDXL:モデルによってノード構成と推奨解像度が異なる
  5. 応用パターン:LoRA追加・img2img・ControlNet・アップスケール
  6. 保存と共有:JSON保存または画像埋め込み

次のステップ

ワークフローの基本が理解できたら、次はカスタムノードで機能を拡張してみましょう。

モチベル
ワークフローの仕組み、やっと分かってきた!
クーラット
どんどん色んなワークフローを試して、自分だけの組み合わせを見つけてね!

関連記事

ComfyUIをもっと使いこなしたい方は、こちらの記事もどうぞ。

【2026年版】ローカルAI画像生成 初心者完全ガイド|ComfyUI・SDWEBUI どっちを使う?学習ロードマップ
ComfyUI・Stable Diffusion WebUI どちらを使えばいい?ローカルAI画像生成の始め方を初心者向けに解説。ツール選びからインストール・モデル準備・LoRA・ControlNetまで、学ぶべき順番と各記事へのリンクをまとめました。
【2026年版】ComfyUIインストール方法|AI画像生成ローカル環境構築ガイド
AI画像生成をローカルPCで始めるならComfyUIがおすすめ。Windows版のインストール方法を初心者向けに解説。Python・Git不要のポータブル版で簡単セットアップ。推奨GPU・必要スペックから初めての画像生成まで手順をスクショ付きで紹介。
【初心者向け】LoRAの使い方完全ガイド|導入・強度調整・おすすめまで
Stable DiffusionでLoRAを使う方法を初心者向けに解説。基礎知識からダウンロード、配置、強度調整、複数LoRAの組み合わせまで完全網羅。Civitaiでの探し方やおすすめLoRA、よくあるトラブル対処法も紹介。ComfyUI・SD WebUI両対応。
【初心者向け】ControlNet活用ガイド|ポーズ・線画・深度を自在にコントロール
ControlNetの使い方を初心者向けに徹底解説。OpenPose・Canny・Depth・Lineartなど各プリプロセッサの特徴、ControlNet Unionの導入、パラメータ調整まで完全網羅。ComfyUI・SD WebUI両対応。
【保存版】ComfyUIプロンプト集|380種類を7カテゴリで完全網羅
AI画像生成で使えるプロンプト380種類以上を7カテゴリ別に一覧掲載。キャラクター・表情・衣装・ポーズ・背景・カメラアングル・ライティングをコピペですぐ使える。ComfyUI・Stable Diffusion WebUI両対応の総合リファレンス。

コメント