⚠️ 注意: AI画像生成時は著作権・肖像権にご注意ください。商用利用前には各サービスの利用規約をご確認ください。当ブログは生成された画像に関する責任を負いかねます。
要約
この記事では、Stable DiffusionでControlNetを使う方法を初心者向けに解説します。
ControlNetって何ができるの?どうやって設定するの?…そんな疑問をお持ちの方も大丈夫。ControlNetの仕組みから、各プリプロセッサの特徴、実践的な使い方まで、スクリーンショット付きで丁寧に説明していきます。
ComfyUI・SD WebUIどちらでも使える共通の知識です。
はじめに|ControlNetでAI画像生成を自在にコントロール
「このポーズで描いてほしい」「この構図を維持したい」「線画から色を塗ってほしい」
プロンプトだけでは難しいこうした要望を実現するのがControlNetです。
ControlNetを使うと、こんなことができます:
- 参照画像と同じポーズで新しいキャラを生成
- 線画やラフスケッチから本格的なイラストを生成
- 写真の構図を維持したまま別のシーンに変換
- 建物や背景の形状を正確に再現
ControlNetとは
ControlNetは、参照画像から特定の情報(ポーズ、エッジ、深度など)を抽出し、その情報に基づいて画像を生成する技術です。
ControlNetの仕組み
コントロールしたい情報が含まれた画像を用意します。
(ポーズ写真、線画、深度マップなど)
参照画像から必要な情報(骨格、エッジ、深度など)を抽出します。
抽出した情報をもとに、生成される画像の構図やポーズを制御します。
プリプロセッサとControlNetモデルの関係
| 用語 | 役割 | 例 |
|---|---|---|
| プリプロセッサ | 参照画像から情報を抽出 | OpenPose、Canny、Depth等 |
| ControlNetモデル | 抽出した情報で生成を制御 | control_v11p_sd15_openpose等 |
重要: プリプロセッサとControlNetモデルは種類を合わせる必要があります。
例:OpenPoseで抽出 → OpenPose用ControlNetモデルを使用
ControlNetの種類と特徴
主要なControlNetの種類を紹介します。目的に応じて使い分けましょう。
OpenPose|ポーズ制御
人物のポーズ(骨格)を検出・制御します。
用途:
- 参照画像と同じポーズで別キャラを生成
- 特定のポーズを正確に再現
検出される情報:
- 体の関節位置(17点)
- 手の関節(オプション)
- 顔のランドマーク(オプション)


Canny|エッジ検出
画像の輪郭(エッジ)を検出します。
用途:
- 線画風の画像生成
- 形状を維持した変換
- ロゴやイラストのスタイル変換
特徴:
- シンプルで軽量
- 細かい線も検出
- しきい値で検出感度を調整可能


Depth|深度推定
画像の奥行き(深度)を推定します。
用途:
- 立体感のある構図を維持
- 背景と前景の関係を保持
- 建物や風景の構造を再現
特徴:
- 近いものは白、遠いものは黒で表現
- 複雑な構図でも構造を維持
- 背景生成に特に有効


Lineart|線画抽出
画像から線画を抽出します。
用途:
- 線画からイラストを生成
- スケッチを清書
- アニメ調の線画変換
バリエーション:
- Lineart:標準的な線画抽出
- Lineart Anime:アニメ風に最適化
- Lineart Coarse:太めの線で抽出


その他のControlNet
| 種類 | 用途 | 特徴 |
|---|---|---|
| Scribble | 落書きから画像生成 | ラフなスケッチでもOK |
| SoftEdge | ソフトなエッジ検出 | Cannyより柔らかい印象 |
| Segmentation | 領域分割 | 各パーツを色分けして制御 |
| Normal Map | 法線マップ | 3D的な凹凸を制御 |
| Tile | タイル処理 | 高解像度化に使用 |
ControlNet Union|SDXL時代の新標準
SDXLを使うなら、ControlNet Unionが最もおすすめです。
ControlNet Unionは、xinsir氏が開発したSDXL向けControlNetで、1つのモデルファイルで12種類以上の制御に対応しています。
| モデル | 対応制御の種類 |
|---|---|
| ControlNet Union | OpenPose / Canny / Depth / Lineart / Scribble / NormalMap 等12種類以上 |
| ControlNet Union ProMax | 上記 + Tile / Inpaint / Outpaint も含む拡張版 |
メリット:
- 種類ごとにモデルをダウンロードする必要がない
- 1ファイルで完結するため管理が楽
- SDXL標準の画質を維持
事前準備|ControlNetモデルのダウンロードと導入
ControlNetモデルの入手先
ControlNetモデルはHugging FaceやCivitaiからダウンロードできます。
SD1.5用モデル
Hugging Face – lllyasviel/ControlNet-v1-1(公式リポジトリ)
ファイル形式は fp16 safetensors を推奨します。容量が約723MBと、通常版(約1.45GB)の半分で、品質面の差はほぼありません。ファイル名に _fp16.safetensors が付いているものを選んでください。
SDXL用モデル
SDXLにはControlNet Union(推奨)と個別モデルの2種類があります。
- ControlNet Union(xinsir):1ファイルで全種類対応
- ControlNet Union ProMax(xinsir作):Tile/Inpaint/Outpaintも含む拡張版(Hugging Faceで「controlnet-union-sdxl-promax」で検索)
- 個別モデルも各開発者のリポジトリから入手可能
おすすめの初期導入モデル
SD1.5の場合:個別3種
最初は以下の3つがあれば多くの用途に対応できます。
| モデル | ファイル名(fp16) | 容量 | 用途 |
|---|---|---|---|
| OpenPose | control_v11p_sd15_openpose_fp16.safetensors | 723MB | ポーズ制御 |
| Canny | control_v11p_sd15_canny_fp16.safetensors | 723MB | エッジ・線画 |
| Depth | control_v11f1p_sd15_depth_fp16.safetensors | 723MB | 深度・構図 |
SDXLの場合:ControlNet Union 1ファイルでOK
ControlNet Unionをダウンロードすれば、OpenPose・Canny・Depth・Lineart・Scribbleなど主要な制御がすべて1ファイルで利用できます。
モデルの配置場所
ComfyUIの場合
ComfyUI/
└── models/
└── controlnet/ ← 小文字。ここにモデルを配置
├── control_v11p_sd15_openpose_fp16.safetensors
├── control_v11p_sd15_canny_fp16.safetensors
└── ...
SD WebUI(AUTOMATIC1111 / Forge)の場合
stable-diffusion-webui/
└── models/
└── ControlNet/ ← 大文字C。ここにモデルを配置
├── control_v11p_sd15_openpose_fp16.safetensors
└── ...
フォルダ名の大文字・小文字に注意
ComfyUIは
models/controlnet/(小文字)、SD WebUIは models/ControlNet/(大文字C)です。間違えるとモデルが認識されません。ベースモデルに合わせたControlNetを使用してください
- SD 1.5を使う場合 → SD 1.5用ControlNet
- SDXLを使う場合 → SDXL用ControlNet(ControlNet Union推奨)
ツール別の追加セットアップ
ComfyUI:Controlnet Aux カスタムノード(必須)
ComfyUIでプリプロセッサを使うには Controlnet Aux カスタムノードが必要です。
カスタムノードの導入方法は ComfyUIカスタムノード入門 を参照してください
ComfyUI Managerで「controlnet aux」と検索してインストールします。

SD WebUI (AUTOMATIC1111):sd-webui-controlnet 拡張をインストール
A1111ではControlNet拡張の追加が必要です。
- 「Extensions」タブ → 「Install from URL」を選択
- URL欄に
https://github.com/Mikubill/sd-webui-controlnetを入力 - 「Install」をクリック
- 「Installed」タブで「Apply and restart UI」
SD WebUI (Forge):追加不要
ForgeにはControlNetが内蔵されているため、拡張のインストールは不要です。モデルを配置するだけで使えます。
基本的な使い方
ControlNetの処理フローはどのツールでも共通です。
参照画像 → [プリプロセッサ] → 制御マップ → [ControlNet] → 生成制御
- 参照画像(ポーズ写真・線画・写真など)を用意する
- プリプロセッサで必要な情報(骨格・エッジ・深度など)を抽出する
- 抽出した情報でKSampler(生成プロセス)を制御する
ComfyUIでのControlNet設定
ここではOpenPoseを例に説明します。
「Load Image」ノードを追加し、ポーズの参考にしたい画像を読み込みます。
右クリック → Add Node → image → Load Image

Controlnet Auxのプリプロセッサノードを追加します。
右クリック → Add Node → ControlNet Preprocessors → Faces and Poses Estimators → OpenPose Pose
接続:
Load Image の image → OpenPose Pose の image

「Load ControlNet Model」ノードを追加します。
右クリック → Add Node → loaders → Load ControlNet Model
ドロップダウンからOpenPose用のモデルを選択します。

ControlNetを適用するノードを追加します。
右クリック → Add Node → conditioning → Apply ControlNet
接続:
- positive conditioning → Apply ControlNet の conditioning
- プリプロセッサの出力 → Apply ControlNet の image
- Load ControlNet Model の出力 → Apply ControlNet の control_net

Apply ControlNetの出力をKSamplerのpositiveに接続します。
接続:
Apply ControlNet の CONDITIONING → KSampler の positive

Apply ControlNetノードのstrengthパラメータを調整します。
- strength: ControlNetの効き具合(0.0〜2.0、よく言われる推奨値: 0.8〜1.0)
Queueボタンで画像を生成します。

SD WebUIでのControlNet設定
A1111とForgeはUIがほぼ同じです。ここではOpenPoseを例に説明します。
txt2imgまたはimg2imgタブの下部に「ControlNet」セクションがあります。クリックして展開します。
(A1111の場合、拡張がインストールされていないと表示されません)
「Image」欄に参照画像をドラッグ&ドロップ、またはクリックしてアップロードします。
- Preprocessor:
openpose(またはopenpose_fullで手・顔も検出) - Model:
control_v11p_sd15_openpose_fp16(ダウンロードしたモデル名)
プリプロセッサとモデルは必ず同じ種類のものを選んでください。
Control Weight(強度)を設定します。よく言われる推奨値は0.8〜1.0です。
チェックボックス「Enable」にチェックが入っていることを確認します。
プロンプトを入力して「Generate」をクリックします。参照画像のポーズを維持した画像が生成されます。
パラメータ調整のコツ
ControlNetの効果を最適化するためのパラメータ調整方法を解説します。
strength(強度)
ControlNetの効き具合を調整します。
| 値 | 効果 |
|---|---|
| 0.0 | ControlNet無効 |
| 0.3〜0.5 | 軽く参考にする程度 |
| 0.6〜0.8 | バランスの取れた制御 |
| 1.0 | 標準(推奨) |
| 1.2〜1.5 | 強めの制御 |
| 1.5以上 | 過剰(画質低下の可能性) |
調整のコツ:
- まずは1.0で試す
- ポーズが崩れる場合は強度を上げる
- 画質が低下する場合は強度を下げる
開始・終了タイミング
ControlNetが効くタイミングを調整します。
| パラメータ | 意味 | 一般的な推奨値 |
|---|---|---|
| start_percent(ComfyUI)/ Guidance Start(SD WebUI) | ControlNet開始タイミング | 0.0(最初から) |
| end_percent(ComfyUI)/ Guidance End(SD WebUI) | ControlNet終了タイミング | 1.0(最後まで) |
応用例:
- 序盤だけ制御(0.0〜0.5):構図を決めて、後半は自由に
- 後半だけ制御(0.5〜1.0):ある程度生成してから補正
ツール別のパラメータ名
同じ機能でもツールによってパラメータ名が異なります。
| 機能 | ComfyUI | SD WebUI |
|---|---|---|
| 強度 | strength | Control Weight |
| 開始タイミング | start_percent | Guidance Start |
| 終了タイミング | end_percent | Guidance End |
プリプロセッサ固有のパラメータ
Canny:
- low_threshold:エッジ検出の下限(小さいほど細かい線も検出)
- high_threshold:エッジ検出の上限(大きいほど強い線のみ検出)
OpenPose:
- detect_hand:手の検出を有効化
- detect_face:顔のランドマーク検出を有効化
- detect_body:体の骨格検出を有効化
実践例
実践例1:ポーズ参照で別キャラを生成
参照画像のポーズを維持しながら、別のキャラクターを生成します。
設定:
- プリプロセッサ:OpenPose Pose
- ControlNet:openpose
- 強度:1.0(ComfyUI: strength / SD WebUI: Control Weight)



実践例2:線画から着彩
手描きの線画やスケッチから、色付きのイラストを生成します。
設定:
- プリプロセッサ:Lineart(線画がすでにある場合は不要)
- ControlNet:lineart
- 強度:0.8〜1.0(ComfyUI: strength / SD WebUI: Control Weight)


実践例3:構図を維持したスタイル変換
写真の構図(深度情報)を維持しながら、別のスタイルで再生成します。
設定:
- プリプロセッサ:Depth Midas
- ControlNet:depth
- 強度:0.7〜0.9(ComfyUI: strength / SD WebUI: Control Weight)



複数のControlNetを組み合わせる
複数のControlNetを同時に使用して、より精密な制御が可能です。
組み合わせ例
OpenPose + Depth
- ポーズと奥行きを同時に制御
- 複雑なシーンでも安定した構図
Canny + OpenPose
- 輪郭とポーズを両方維持
- より正確なキャラクター再現
ComfyUIでの接続方法
Apply ControlNetノードを直列に繋げます。
positive → Apply ControlNet (OpenPose) → Apply ControlNet (Depth) → KSampler

SD WebUIでの接続方法
SD WebUIではControlNetパネルにタブが複数あります(ControlNet Unit 0 / Unit 1 / Unit 2…)。
- 「ControlNet Unit 0」で1つ目のControlNetを設定
- 「ControlNet Unit 1」タブを開いて2つ目を設定
- 各ユニットの「Enable」にチェックを入れる
A1111・Forgeともに操作は同じです。
複数使用時は各ControlNetの強度(strength / Control Weight)を下げる(よく言われる値: 0.5〜0.7程度)と、バランスが取りやすくなります。
トラブルシューティング
ControlNetが効かない
ComfyUIの場合:
- プリプロセッサとControlNetモデルの種類が合っているか
- strength が0になっていないか
- Apply ControlNetの出力がKSamplerのpositiveに正しく接続されているか
SD WebUIの場合:
- ControlNetパネルの「Enable」チェックが入っているか
- プリプロセッサとモデルの種類が合っているか
- Control Weightが0になっていないか
画質が低下する
対処法(共通):
- 強度を下げる(0.6〜0.8程度に)
- 終了タイミングを下げる(ComfyUI: end_percent 0.8 / SD WebUI: Guidance End 0.8)
- ControlNetモデルのバージョンを確認(古いモデルは品質が低いことも)
プリプロセッサでエラーが出る
ComfyUIの場合:
- Controlnet Auxを最新版に更新(ComfyUI Manager → Update)
- 依存パッケージを再インストール
- 画像サイズが極端に大きい場合はリサイズ
SD WebUIの場合:
- sd-webui-controlnet拡張を最新版に更新(Extensions → Check for updates)
- WebUIを再起動する
メモリ不足になる
ComfyUIの場合:
- 画像サイズを小さくする
- 使用するControlNetの数を減らす
- プリプロセッサの解像度設定を下げる
SD WebUIの場合:
- 起動オプションに
--medvram(中程度削減)または--lowvram(大幅削減)を追加 - 画像サイズを小さくする
- 複数のControlNet Unitを同時に使う場合は数を減らす
よくある質問
Hugging Faceで公式モデルが公開されています。SD1.5用は「lllyasviel/ControlNet-v1-1」、SDXL用はControlNet Union(xinsir/controlnet-union-sdxl-1.0)が1ファイルで全種類対応しておすすめです。Civitaiにも多くのControlNetモデルがあります。
はい、SDXL専用のControlNetモデルが公開されています。SD1.5用とは互換性がないため、SDXL用のモデルを別途ダウンロードする必要があります。SDXLにはControlNet Unionが特におすすめで、1ファイルで12種類以上の制御に対応しています。
はい。ComfyUIではApply ControlNetノードを直列に繋げることで複数同時使用できます。SD WebUIでは「ControlNet Unit 0」「Unit 1」など複数のタブを使います。ポーズと深度を組み合わせるなど、より精密な制御が可能です。
線画をそのままControlNetに入力できます。ComfyUIではプリプロセッサをスキップして、線画画像を直接Apply ControlNetのimage入力に接続してください。SD WebUIでは「Preprocessor」を「none」に設定します。
操作はほぼ同じです。A1111は「sd-webui-controlnet」拡張を別途インストールする必要がありますが、ForgeにはControlNetが内蔵されているため追加の手順は不要です。UIの見た目・パラメータ名はほぼ同じなので、片方で覚えればもう片方も使えます。
まとめ|ControlNetで画像生成を自在にコントロールしよう
この記事のポイント
- ControlNetとは:参照画像から情報を抽出して生成を制御する技術。ComfyUI・SD WebUI共通の知識
- 主な種類:OpenPose(ポーズ)、Canny(エッジ)、Depth(深度)、Lineart(線画)
- SDXL用の新標準:ControlNet Union(1ファイルで全種類対応)
- 準備:モデルを配置し、ツールに合わせたセットアップを行う
- パラメータ:強度(ComfyUI: strength / SD WebUI: Control Weight)で効き具合を調整
次のステップ
- まずはOpenPoseでポーズ制御を試してみる
- Cannyで線画→イラスト変換に挑戦
- SDXLを使うならControlNet Unionを導入してみる
- 慣れてきたら複数ControlNetの組み合わせを試す
ControlNetを使いこなせば、「こんな構図で」「このポーズで」という要望を実現できるようになります。まずは1種類から試して、徐々にレパートリーを増やしていきましょう!
複数のControlNetを同時に使うとVRAM消費が大きくなります。ConoHa AI Canvasの速度検証では、ControlNet×3+LoRA×2の構成で約3.3倍の速度差が出ています。処理速度に不満がある方はクラウド環境も選択肢です。
関連記事





⚠️ AI画像生成をご利用の際の重要な注意事項
著作権・知的財産権について
- 既存のキャラクター、作品、ブランドロゴなどの模倣・複製は著作権侵害にあたる可能性があります
- 商用利用時は特に注意が必要です
肖像権について
- 実在人物(著名人・一般人問わず)の顔や特徴を模倣した画像生成はお控えください
- 無断での肖像権使用は法的トラブルの原因となります
利用規約の確認
- 各AI画像生成サービスの利用規約を必ずご確認ください
- 商用利用の可否、生成画像の権利関係は各サービスで異なります
免責事項
- 当ブログの情報を参考にしたAI画像生成により生じた問題について、当ブログは一切の責任を負いません
- 法的問題が生じた場合は、利用者の自己責任となります
- 最新の法律・規約情報は公式情報をご確認ください
適切なAI画像生成を心がけ、創作活動を楽しみましょう。
詳細についてはAIと著作権についてをご覧ください。


コメント