【初心者向け】ControlNet活用ガイド|ポーズ・線画・深度を自在にコントロール

AI画像生成

⚠️ 注意: AI画像生成時は著作権・肖像権にご注意ください。商用利用前には各サービスの利用規約をご確認ください。当ブログは生成された画像に関する責任を負いかねます。

要約

この記事では、Stable DiffusionでControlNetを使う方法を初心者向けに解説します。

ControlNetって何ができるの?どうやって設定するの?…そんな疑問をお持ちの方も大丈夫。ControlNetの仕組みから、各プリプロセッサの特徴、実践的な使い方まで、スクリーンショット付きで丁寧に説明していきます。

ComfyUI・SD WebUIどちらでも使える共通の知識です。


はじめに|ControlNetでAI画像生成を自在にコントロール

「このポーズで描いてほしい」「この構図を維持したい」「線画から色を塗ってほしい」

プロンプトだけでは難しいこうした要望を実現するのがControlNetです。

ControlNetを使うと、こんなことができます:

  • 参照画像と同じポーズで新しいキャラを生成
  • 線画やラフスケッチから本格的なイラストを生成
  • 写真の構図を維持したまま別のシーンに変換
  • 建物や背景の形状を正確に再現
モチベル
すごい!プロンプトだけじゃできないことができるんだね
クーラット
そうなんだ。ControlNetは画像生成の可能性を大きく広げてくれるよ。LoRAとの組み合わせもおすすめだよ

ControlNetとは

ControlNetは、参照画像から特定の情報(ポーズ、エッジ、深度など)を抽出し、その情報に基づいて画像を生成する技術です。

ControlNetの仕組み


1
参照画像を用意

コントロールしたい情報が含まれた画像を用意します。
(ポーズ写真、線画、深度マップなど)

2
プリプロセッサで情報を抽出

参照画像から必要な情報(骨格、エッジ、深度など)を抽出します。

3
ControlNetモデルで画像生成を制御

抽出した情報をもとに、生成される画像の構図やポーズを制御します。

プリプロセッサとControlNetモデルの関係

用語 役割
プリプロセッサ 参照画像から情報を抽出 OpenPose、Canny、Depth等
ControlNetモデル 抽出した情報で生成を制御 control_v11p_sd15_openpose等

重要: プリプロセッサとControlNetモデルは種類を合わせる必要があります。
例:OpenPoseで抽出 → OpenPose用ControlNetモデルを使用

モチベル
プリプロセッサとモデルがセットになってるのね
クーラット
そう!種類を間違えると期待通りの結果にならないから注意してね

ControlNetの種類と特徴

主要なControlNetの種類を紹介します。目的に応じて使い分けましょう。

OpenPose|ポーズ制御

人物のポーズ(骨格)を検出・制御します。

用途:

  • 参照画像と同じポーズで別キャラを生成
  • 特定のポーズを正確に再現

検出される情報:

  • 体の関節位置(17点)
  • 手の関節(オプション)
  • 顔のランドマーク(オプション)
入力画像OpenPose入力画像
検出結果OpenPose検出結果

Canny|エッジ検出

画像の輪郭(エッジ)を検出します。

用途:

  • 線画風の画像生成
  • 形状を維持した変換
  • ロゴやイラストのスタイル変換

特徴:

  • シンプルで軽量
  • 細かい線も検出
  • しきい値で検出感度を調整可能
入力画像Canny入力画像
検出結果Canny検出結果

Depth|深度推定

画像の奥行き(深度)を推定します。

用途:

  • 立体感のある構図を維持
  • 背景と前景の関係を保持
  • 建物や風景の構造を再現

特徴:

  • 近いものは白、遠いものは黒で表現
  • 複雑な構図でも構造を維持
  • 背景生成に特に有効
入力画像Depth入力画像
検出結果Depth検出結果

Lineart|線画抽出

画像から線画を抽出します。

用途:

  • 線画からイラストを生成
  • スケッチを清書
  • アニメ調の線画変換

バリエーション:

  • Lineart:標準的な線画抽出
  • Lineart Anime:アニメ風に最適化
  • Lineart Coarse:太めの線で抽出
入力画像Lineart入力画像
検出結果Lineart検出結果

その他のControlNet

種類 用途 特徴
Scribble 落書きから画像生成 ラフなスケッチでもOK
SoftEdge ソフトなエッジ検出 Cannyより柔らかい印象
Segmentation 領域分割 各パーツを色分けして制御
Normal Map 法線マップ 3D的な凹凸を制御
Tile タイル処理 高解像度化に使用

ControlNet Union|SDXL時代の新標準

SDXLを使うなら、ControlNet Unionが最もおすすめです。

ControlNet Unionは、xinsir氏が開発したSDXL向けControlNetで、1つのモデルファイルで12種類以上の制御に対応しています。

モデル 対応制御の種類
ControlNet Union OpenPose / Canny / Depth / Lineart / Scribble / NormalMap 等12種類以上
ControlNet Union ProMax 上記 + Tile / Inpaint / Outpaint も含む拡張版

メリット:

  • 種類ごとにモデルをダウンロードする必要がない
  • 1ファイルで完結するため管理が楽
  • SDXL標準の画質を維持
モチベル
SDXLならUnionを1個入れれば全部対応できるの?
クーラット
そう!SD1.5は種類ごとに個別モデルが必要だけど、SDXLはUnionが一番使いやすいよ

事前準備|ControlNetモデルのダウンロードと導入

ControlNetモデルの入手先

ControlNetモデルはHugging FaceやCivitaiからダウンロードできます。

SD1.5用モデル

Hugging Face – lllyasviel/ControlNet-v1-1(公式リポジトリ)

ファイル形式は fp16 safetensors を推奨します。容量が約723MBと、通常版(約1.45GB)の半分で、品質面の差はほぼありません。ファイル名に _fp16.safetensors が付いているものを選んでください。

SDXL用モデル

SDXLにはControlNet Union(推奨)と個別モデルの2種類があります。

  • ControlNet Union(xinsir):1ファイルで全種類対応
  • ControlNet Union ProMax(xinsir作):Tile/Inpaint/Outpaintも含む拡張版(Hugging Faceで「controlnet-union-sdxl-promax」で検索)
  • 個別モデルも各開発者のリポジトリから入手可能

おすすめの初期導入モデル

SD1.5の場合:個別3種

最初は以下の3つがあれば多くの用途に対応できます。

モデル ファイル名(fp16) 容量 用途
OpenPose control_v11p_sd15_openpose_fp16.safetensors 723MB ポーズ制御
Canny control_v11p_sd15_canny_fp16.safetensors 723MB エッジ・線画
Depth control_v11f1p_sd15_depth_fp16.safetensors 723MB 深度・構図

SDXLの場合:ControlNet Union 1ファイルでOK

ControlNet Unionをダウンロードすれば、OpenPose・Canny・Depth・Lineart・Scribbleなど主要な制御がすべて1ファイルで利用できます。

モデルの配置場所

ComfyUIの場合

ComfyUI/
└── models/
    └── controlnet/          ← 小文字。ここにモデルを配置
        ├── control_v11p_sd15_openpose_fp16.safetensors
        ├── control_v11p_sd15_canny_fp16.safetensors
        └── ...

SD WebUI(AUTOMATIC1111 / Forge)の場合

stable-diffusion-webui/
└── models/
    └── ControlNet/          ← 大文字C。ここにモデルを配置
        ├── control_v11p_sd15_openpose_fp16.safetensors
        └── ...
注意

フォルダ名の大文字・小文字に注意
ComfyUIは models/controlnet/(小文字)、SD WebUIは models/ControlNet/(大文字C)です。間違えるとモデルが認識されません。
情報

ベースモデルに合わせたControlNetを使用してください

  • SD 1.5を使う場合 → SD 1.5用ControlNet
  • SDXLを使う場合 → SDXL用ControlNet(ControlNet Union推奨)

ツール別の追加セットアップ

ComfyUI:Controlnet Aux カスタムノード(必須)

ComfyUIでプリプロセッサを使うには Controlnet Aux カスタムノードが必要です。

カスタムノードの導入方法は ComfyUIカスタムノード入門 を参照してください

ComfyUI Managerで「controlnet aux」と検索してインストールします。

Controlnet Auxのインストール

SD WebUI (AUTOMATIC1111):sd-webui-controlnet 拡張をインストール

A1111ではControlNet拡張の追加が必要です。

  1. 「Extensions」タブ → 「Install from URL」を選択
  2. URL欄に https://github.com/Mikubill/sd-webui-controlnet を入力
  3. 「Install」をクリック
  4. 「Installed」タブで「Apply and restart UI」

SD WebUI (Forge):追加不要

ForgeにはControlNetが内蔵されているため、拡張のインストールは不要です。モデルを配置するだけで使えます。

モチベル
Forgeは最初から入ってるの!それは楽だね
クーラット
そうそう。A1111は拡張が必要だけど、Forgeなら設定の手間が減るよ。どちらもUIはほぼ同じだから操作に慣れたら応用しやすいよ

基本的な使い方

ControlNetの処理フローはどのツールでも共通です。

参照画像 → [プリプロセッサ] → 制御マップ → [ControlNet] → 生成制御
  1. 参照画像(ポーズ写真・線画・写真など)を用意する
  2. プリプロセッサで必要な情報(骨格・エッジ・深度など)を抽出する
  3. 抽出した情報でKSampler(生成プロセス)を制御する

ComfyUIでのControlNet設定

ここではOpenPoseを例に説明します。

1
参照画像を読み込む

「Load Image」ノードを追加し、ポーズの参考にしたい画像を読み込みます。

右クリック → Add Node → image → Load Image

Load Imageノード

2
プリプロセッサを追加

Controlnet Auxのプリプロセッサノードを追加します。

右クリック → Add Node → ControlNet Preprocessors → Faces and Poses Estimators → OpenPose Pose

接続:
Load Image の image → OpenPose Pose の image

プリプロセッサの追加

3
ControlNetモデルをロード

「Load ControlNet Model」ノードを追加します。

右クリック → Add Node → loaders → Load ControlNet Model

ドロップダウンからOpenPose用のモデルを選択します。

ControlNetモデルのロード

4
Apply ControlNetノードを追加

ControlNetを適用するノードを追加します。

右クリック → Add Node → conditioning → Apply ControlNet

接続:

  • positive conditioning → Apply ControlNet の conditioning
  • プリプロセッサの出力 → Apply ControlNet の image
  • Load ControlNet Model の出力 → Apply ControlNet の control_net

Apply ControlNetの接続

5
Apply ControlNetの出力を接続

Apply ControlNetの出力をKSamplerのpositiveに接続します。

接続:
Apply ControlNet の CONDITIONING → KSampler の positive

KSamplerへの接続

6
パラメータを調整して実行

Apply ControlNetノードのstrengthパラメータを調整します。

  • strength: ControlNetの効き具合(0.0〜2.0、よく言われる推奨値: 0.8〜1.0)

Queueボタンで画像を生成します。

ワークフローの実行

モチベル
ノードがたくさんあるけど、順番に繋げていけばいいのね
クーラット
そうそう!慣れれば簡単だよ。プリプロセッサの出力をプレビューして確認するのもおすすめ

SD WebUIでのControlNet設定

A1111とForgeはUIがほぼ同じです。ここではOpenPoseを例に説明します。

1
ControlNetパネルを展開

txt2imgまたはimg2imgタブの下部に「ControlNet」セクションがあります。クリックして展開します。

(A1111の場合、拡張がインストールされていないと表示されません)

2
参照画像をアップロード

「Image」欄に参照画像をドラッグ&ドロップ、またはクリックしてアップロードします。

3
プリプロセッサとモデルを選択

  • Preprocessoropenpose(またはopenpose_fullで手・顔も検出)
  • Modelcontrol_v11p_sd15_openpose_fp16(ダウンロードしたモデル名)

プリプロセッサとモデルは必ず同じ種類のものを選んでください。

4
Control Weightを設定

Control Weight(強度)を設定します。よく言われる推奨値は0.8〜1.0です。

チェックボックス「Enable」にチェックが入っていることを確認します。

5
生成実行

プロンプトを入力して「Generate」をクリックします。参照画像のポーズを維持した画像が生成されます。


パラメータ調整のコツ

ControlNetの効果を最適化するためのパラメータ調整方法を解説します。

strength(強度)

ControlNetの効き具合を調整します。

効果
0.0 ControlNet無効
0.3〜0.5 軽く参考にする程度
0.6〜0.8 バランスの取れた制御
1.0 標準(推奨)
1.2〜1.5 強めの制御
1.5以上 過剰(画質低下の可能性)

調整のコツ:

  • まずは1.0で試す
  • ポーズが崩れる場合は強度を上げる
  • 画質が低下する場合は強度を下げる

開始・終了タイミング

ControlNetが効くタイミングを調整します。

パラメータ 意味 一般的な推奨値
start_percent(ComfyUI)/ Guidance Start(SD WebUI) ControlNet開始タイミング 0.0(最初から)
end_percent(ComfyUI)/ Guidance End(SD WebUI) ControlNet終了タイミング 1.0(最後まで)

応用例:

  • 序盤だけ制御(0.0〜0.5):構図を決めて、後半は自由に
  • 後半だけ制御(0.5〜1.0):ある程度生成してから補正

ツール別のパラメータ名

同じ機能でもツールによってパラメータ名が異なります。

機能 ComfyUI SD WebUI
強度 strength Control Weight
開始タイミング start_percent Guidance Start
終了タイミング end_percent Guidance End

プリプロセッサ固有のパラメータ

Canny:

  • low_threshold:エッジ検出の下限(小さいほど細かい線も検出)
  • high_threshold:エッジ検出の上限(大きいほど強い線のみ検出)

OpenPose:

  • detect_hand:手の検出を有効化
  • detect_face:顔のランドマーク検出を有効化
  • detect_body:体の骨格検出を有効化

実践例

実践例1:ポーズ参照で別キャラを生成

参照画像のポーズを維持しながら、別のキャラクターを生成します。

設定:

  • プリプロセッサ:OpenPose Pose
  • ControlNet:openpose
  • 強度:1.0(ComfyUI: strength / SD WebUI: Control Weight)
参照画像ポーズ参照画像
OpenPose検出OpenPose検出結果
生成結果ポーズ制御の生成結果

実践例2:線画から着彩

手描きの線画やスケッチから、色付きのイラストを生成します。

設定:

  • プリプロセッサ:Lineart(線画がすでにある場合は不要)
  • ControlNet:lineart
  • 強度:0.8〜1.0(ComfyUI: strength / SD WebUI: Control Weight)
線画線画
生成結果着彩結果

実践例3:構図を維持したスタイル変換

写真の構図(深度情報)を維持しながら、別のスタイルで再生成します。

設定:

  • プリプロセッサ:Depth Midas
  • ControlNet:depth
  • 強度:0.7〜0.9(ComfyUI: strength / SD WebUI: Control Weight)
元の写真元の写真
深度マップ深度マップ
生成結果スタイル変換結果

複数のControlNetを組み合わせる

複数のControlNetを同時に使用して、より精密な制御が可能です。

組み合わせ例

OpenPose + Depth

  • ポーズと奥行きを同時に制御
  • 複雑なシーンでも安定した構図

Canny + OpenPose

  • 輪郭とポーズを両方維持
  • より正確なキャラクター再現

ComfyUIでの接続方法

Apply ControlNetノードを直列に繋げます。

positive → Apply ControlNet (OpenPose) → Apply ControlNet (Depth) → KSampler
複数ControlNetの接続(ComfyUIの例)

SD WebUIでの接続方法

SD WebUIではControlNetパネルにタブが複数あります(ControlNet Unit 0 / Unit 1 / Unit 2…)。

  1. 「ControlNet Unit 0」で1つ目のControlNetを設定
  2. 「ControlNet Unit 1」タブを開いて2つ目を設定
  3. 各ユニットの「Enable」にチェックを入れる

A1111・Forgeともに操作は同じです。

ヒント

複数使用時は各ControlNetの強度(strength / Control Weight)を下げる(よく言われる値: 0.5〜0.7程度)と、バランスが取りやすくなります。

トラブルシューティング

ControlNetが効かない

ComfyUIの場合:

  • プリプロセッサとControlNetモデルの種類が合っているか
  • strength が0になっていないか
  • Apply ControlNetの出力がKSamplerのpositiveに正しく接続されているか

SD WebUIの場合:

  • ControlNetパネルの「Enable」チェックが入っているか
  • プリプロセッサとモデルの種類が合っているか
  • Control Weightが0になっていないか

画質が低下する

対処法(共通):

  • 強度を下げる(0.6〜0.8程度に)
  • 終了タイミングを下げる(ComfyUI: end_percent 0.8 / SD WebUI: Guidance End 0.8)
  • ControlNetモデルのバージョンを確認(古いモデルは品質が低いことも)

プリプロセッサでエラーが出る

ComfyUIの場合:

  • Controlnet Auxを最新版に更新(ComfyUI Manager → Update)
  • 依存パッケージを再インストール
  • 画像サイズが極端に大きい場合はリサイズ

SD WebUIの場合:

  • sd-webui-controlnet拡張を最新版に更新(Extensions → Check for updates)
  • WebUIを再起動する

メモリ不足になる

ComfyUIの場合:

  • 画像サイズを小さくする
  • 使用するControlNetの数を減らす
  • プリプロセッサの解像度設定を下げる

SD WebUIの場合:

  • 起動オプションに --medvram(中程度削減)または --lowvram(大幅削減)を追加
  • 画像サイズを小さくする
  • 複数のControlNet Unitを同時に使う場合は数を減らす
モチベル
うまくいかないときは設定を見直せばいいのね
クーラット
そうそう。特にプリプロセッサとモデルの種類が合ってるかは最初に確認しよう

よくある質問


QControlNetモデルはどこでダウンロードできますか?
A

Hugging Faceで公式モデルが公開されています。SD1.5用は「lllyasviel/ControlNet-v1-1」、SDXL用はControlNet Union(xinsir/controlnet-union-sdxl-1.0)が1ファイルで全種類対応しておすすめです。Civitaiにも多くのControlNetモデルがあります。

QSDXLでもControlNetは使えますか?
A

はい、SDXL専用のControlNetモデルが公開されています。SD1.5用とは互換性がないため、SDXL用のモデルを別途ダウンロードする必要があります。SDXLにはControlNet Unionが特におすすめで、1ファイルで12種類以上の制御に対応しています。

Q複数のControlNetを同時に使えますか?
A

はい。ComfyUIではApply ControlNetノードを直列に繋げることで複数同時使用できます。SD WebUIでは「ControlNet Unit 0」「Unit 1」など複数のタブを使います。ポーズと深度を組み合わせるなど、より精密な制御が可能です。

Q自分で描いた線画をそのまま使いたい場合は?
A

線画をそのままControlNetに入力できます。ComfyUIではプリプロセッサをスキップして、線画画像を直接Apply ControlNetのimage入力に接続してください。SD WebUIでは「Preprocessor」を「none」に設定します。

QSD WebUIのControlNet拡張はA1111とForgeで違いますか?
A

操作はほぼ同じです。A1111は「sd-webui-controlnet」拡張を別途インストールする必要がありますが、ForgeにはControlNetが内蔵されているため追加の手順は不要です。UIの見た目・パラメータ名はほぼ同じなので、片方で覚えればもう片方も使えます。


まとめ|ControlNetで画像生成を自在にコントロールしよう

この記事のポイント

  1. ControlNetとは:参照画像から情報を抽出して生成を制御する技術。ComfyUI・SD WebUI共通の知識
  2. 主な種類:OpenPose(ポーズ)、Canny(エッジ)、Depth(深度)、Lineart(線画)
  3. SDXL用の新標準:ControlNet Union(1ファイルで全種類対応)
  4. 準備:モデルを配置し、ツールに合わせたセットアップを行う
  5. パラメータ:強度(ComfyUI: strength / SD WebUI: Control Weight)で効き具合を調整

次のステップ

  • まずはOpenPoseでポーズ制御を試してみる
  • Cannyで線画→イラスト変換に挑戦
  • SDXLを使うならControlNet Unionを導入してみる
  • 慣れてきたら複数ControlNetの組み合わせを試す

ControlNetを使いこなせば、「こんな構図で」「このポーズで」という要望を実現できるようになります。まずは1種類から試して、徐々にレパートリーを増やしていきましょう!

モチベル
ControlNetのこと、だいぶわかってきた!ポーズ制御から試してみる
クーラット
いいね!プリプロセッサの出力をプレビューしながら調整すると、何が起きてるかわかりやすいよ
ControlNetの処理が重いと感じたら

複数のControlNetを同時に使うとVRAM消費が大きくなります。ConoHa AI Canvasの速度検証では、ControlNet×3+LoRA×2の構成で約3.3倍の速度差が出ています。処理速度に不満がある方はクラウド環境も選択肢です。

関連記事

【2026年版】ComfyUIインストール方法|AI画像生成ローカル環境構築ガイド
AI画像生成をローカルPCで始めるならComfyUIがおすすめ。Windows版のインストール方法を初心者向けに解説。Python・Git不要のポータブル版で簡単セットアップ。推奨GPU・必要スペックから初めての画像生成まで手順をスクショ付きで紹介。
【2026年版】Stable Diffusion WebUIインストール方法|AI画像生成ローカル環境構築ガイド
AI画像生成をローカルPCで始めるならStable Diffusion WebUI(A1111)。Windows版のインストールをポータブル版・手動の両方で解説。推奨GPU・VRAM最適化設定から初めての画像生成まで手順をスクショ付きで紹介。
【初心者向け】AI画像生成モデル選び完全ガイド|Checkpoint・LoRA・VAEの違いとおすすめ
Stable Diffusionのモデル選びを初心者向けに徹底解説。Checkpoint・LoRA・VAE・Embeddingの違い、SD1.5とSDXLの比較、用途別おすすめモデル、ダウンロード先まで完全網羅。ComfyUI・SD WebUI両対応。
【初心者向け】LoRAの使い方完全ガイド|導入・強度調整・おすすめまで
Stable DiffusionでLoRAを使う方法を初心者向けに解説。基礎知識からダウンロード、配置、強度調整、複数LoRAの組み合わせまで完全網羅。Civitaiでの探し方やおすすめLoRA、よくあるトラブル対処法も紹介。ComfyUI・SD WebUI両対応。
404 NOT FOUND | FreeCraftLog
自由な発想で、世界を彩ろう

⚠️ AI画像生成をご利用の際の重要な注意事項

著作権・知的財産権について

  • 既存のキャラクター、作品、ブランドロゴなどの模倣・複製は著作権侵害にあたる可能性があります
  • 商用利用時は特に注意が必要です

肖像権について

  • 実在人物(著名人・一般人問わず)の顔や特徴を模倣した画像生成はお控えください
  • 無断での肖像権使用は法的トラブルの原因となります

利用規約の確認

  • 各AI画像生成サービスの利用規約を必ずご確認ください
  • 商用利用の可否、生成画像の権利関係は各サービスで異なります

免責事項

  • 当ブログの情報を参考にしたAI画像生成により生じた問題について、当ブログは一切の責任を負いません
  • 法的問題が生じた場合は、利用者の自己責任となります
  • 最新の法律・規約情報は公式情報をご確認ください

適切なAI画像生成を心がけ、創作活動を楽しみましょう。
詳細についてはAIと著作権についてをご覧ください。

コメント