⚠️ 注意: AI画像生成時は著作権・肖像権にご注意ください。商用利用前には各サービスの利用規約をご確認ください。当ブログは生成された画像に関する責任を負いかねます。
要約
この記事では、ComfyUIでIPAdapterを使う方法を初心者向けに解説します。
IPAdapterって何ができるの?どうやって設定するの?…そんな疑問をお持ちの方も大丈夫。IPAdapterの仕組みから、モデルの選び方、実践的な使い方まで、スクリーンショット付きで丁寧に説明していきます。
はじめに|IPAdapterで「この雰囲気で」が実現できる
「この画像みたいな雰囲気で描いてほしい」「この顔を維持したまま別のシーンを生成したい」
プロンプトだけでは伝えにくいこうした要望を実現するのがIPAdapterです。
IPAdapterを使うと、こんなことができます:
- 参照画像のスタイル・雰囲気を新しい画像に反映
- 特定の顔を維持したまま別のポーズや衣装で生成
- 複数の参照画像を組み合わせてオリジナルを作成
- キャラクターの一貫性を保った連続画像の生成
IPAdapterとは
IPAdapterは「Image Prompt Adapter」の略で、画像をプロンプトのように使える技術です。参照画像の特徴を抽出し、新しい画像生成に反映させます。
IPAdapterの仕組み
[参照画像] → [特徴抽出] → [生成に反映] → [新しい画像]
テキストプロンプトと組み合わせることで、「参照画像の雰囲気 + テキストの指示」という形で画像を生成できます。
ControlNetとの違い
| 項目 | IPAdapter | ControlNet |
|---|---|---|
| 制御対象 | スタイル・雰囲気・顔 | ポーズ・構図・形状 |
| 参照画像 | そのまま使用 | 前処理が必要 |
| 用途 | 「こんな雰囲気で」 | 「このポーズで」 |
| 組み合わせ | ControlNetと併用可能 | IPAdapterと併用可能 |
IPAdapterとControlNetは併用できます。「このポーズで、この雰囲気で」という複合的な制御が可能です。
IPAdapterの種類
IPAdapter(標準)
- 全体的なスタイル・雰囲気を反映
- 汎用的な用途に最適
IPAdapter Face
- 顔の特徴に特化
- 同じキャラクターの異なるシーンを生成
IPAdapter Plus
- より細かい特徴を反映
- 高品質な参照が可能
IPAdapter Plus Face
- 顔特化 + 高品質
- キャラクターの一貫性が重要な場合に
事前準備|必要なものをインストール
IPAdapterを使うには、カスタムノードとモデルの両方が必要です。
必要なカスタムノード
IPAdapter Plus(推奨)
ComfyUI Managerで「ipadapter plus」と検索してインストールします。

IPAdapterモデルのダウンロード
IPAdapterモデルは別途ダウンロードが必要です。
ダウンロード先:
主要なモデル一覧:
| モデル | ファイル名 | 用途 |
|---|---|---|
| IPAdapter | ip-adapter_sd15.safetensors | SD1.5用・標準 |
| IPAdapter Plus | ip-adapter-plus_sd15.safetensors | SD1.5用・高品質 |
| IPAdapter Face | ip-adapter-plus-face_sd15.safetensors | SD1.5用・顔特化 |
| IPAdapter SDXL | ip-adapter_sdxl.safetensors | SDXL用・標準(ViT-bigG必要) |
| IPAdapter Plus SDXL | ip-adapter-plus_sdxl_vit-h.safetensors | SDXL用・高品質 |
| IPAdapter Face SDXL | ip-adapter-plus-face_sdxl_vit-h.safetensors | SDXL用・顔特化 |
ファイル名の vit-h は使用する画像エンコーダーの種類(ViT-H)を示す識別子です。気にせず上記のファイル名をそのまま使えば問題ありません。
配置場所:
ComfyUI/
└── models/
└── ipadapter/ ← ここにモデルを配置
├── ip-adapter_sd15.safetensors
├── ip-adapter-plus_sd15.safetensors
└── ...
CLIPビジョンモデルのダウンロード
IPAdapterにはCLIPビジョンモデルも必要です。
ダウンロード先:
ダウンロード後は以下のファイル名にリネームして配置してください。
ip-adapter-plus 系のモデル(SD1.5・SDXL vit-h 版)はすべて同じ ViT-H のCLIPビジョンモデルを使います。CLIP-ViT-bigG が必要なのは ip-adapter_sdxl.safetensors(標準版)のみです。配置場所:
ComfyUI/
└── models/
└── clip_vision/ ← ここに配置
└── CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors
IPAdapterモデルとCLIPビジョンモデルの両方が必要です。片方だけではエラーになります。
ComfyUIでの基本的な使い方
実際にIPAdapterを使ってみましょう。
ワークフローの構成
IPAdapterを使う基本的なワークフロー構成は以下の通りです。
[Load Image] ──────────────────────────────┐
↓ image
[Load CLIP Vision] ──────────────────[IPAdapter Advanced] → [KSampler]
↑ ipadapter
[IPAdapter Model Loader] ──────────────────┘
↑ model
[Load Checkpoint] ─────────────────────────┘
基本ワークフローの構築手順
「Load Image」ノードを追加し、参照にしたい画像を読み込みます。
右クリック → Add Node → image → Load Image

「Load CLIP Vision」ノードを追加します。
右クリック → Add Node → loaders → Load CLIP Vision
ドロップダウンからCLIPビジョンモデルを選択します。

「IPAdapter Model Loader」ノードを追加します。
右クリック → Add Node → ipadapter → IPAdapter Model Loader
使用するIPAdapterモデルを選択します。

IPAdapterを適用するノードを追加します。
右クリック → Add Node → ipadapter → IPAdapter Advanced
接続:
- Load Checkpoint の MODEL → IPAdapter Advanced の model
- IPAdapter Model Loader → IPAdapter Advanced の ipadapter
- Load CLIP Vision → IPAdapter Advanced の clip_vision
- Load Image → IPAdapter Advanced の image

IPAdapter Advancedの出力をKSamplerに接続します。
接続:
IPAdapter Advanced の MODEL → KSampler の model

IPAdapter Advancedノードのweightパラメータを調整します。
- weight: IPAdapterの効き具合(0.0〜1.0、推奨: 0.6〜0.8)
Queueボタンで画像を生成します。

パラメータ調整のコツ
IPAdapterの効果を最適化するためのパラメータ調整方法を解説します。
weight(重み)
IPAdapterの効き具合を調整する最も重要なパラメータです。
| 値 | 効果 |
|---|---|
| 0.0 | IPAdapter無効 |
| 0.3〜0.5 | 軽く参考にする程度 |
| 0.6〜0.8 | バランスの取れた反映(推奨) |
| 1.0 | 強い反映 |
| 1.0以上 | 過剰(プロンプトが効きにくくなる) |
調整のコツ:
- まずは0.7程度で試す
- プロンプトを優先したい場合は下げる
- 参照画像に近づけたい場合は上げる
start_at / end_at
IPAdapterが効くタイミングを調整します。
| パラメータ | 意味 | 推奨値 |
|---|---|---|
| start_at | 開始タイミング | 0.0(最初から) |
| end_at | 終了タイミング | 1.0(最後まで) |
応用例:
- 序盤だけ適用(0.0〜0.5):雰囲気を参考に、後半はプロンプトで調整
- 後半だけ適用(0.5〜1.0):ベースを作ってから参照を反映
weight_type(重みのタイプ)
参照画像のどの要素を優先して反映するかを指定します。
| 値 | 効果 |
|---|---|
linear |
デフォルト。全体的にバランスよく反映 |
style transfer |
スタイル・色味のみ反映。構図・ポーズへの影響を抑える |
composition |
構図・レイアウトを優先して反映 |
ControlNetと組み合わせる場合は style transfer が特に有効です。 ControlNetがポーズを担当し、IPAdapterはスタイルだけを担当する役割分担ができます。
noise(ノイズ)
参照画像にノイズを加えて、より自由な生成を促します。
| 値 | 効果 |
|---|---|
| 0.0 | ノイズなし(参照に忠実) |
| 0.3〜0.5 | 適度な変化を許容 |
| 0.7以上 | 大きな変化を許容 |
実践例
実践例1:スタイル転送
参照画像の画風・雰囲気を新しい画像に反映させます。
設定:
- IPAdapter: ip-adapter-plus
- weight: 0.7
- プロンプト: 生成したい内容を記述



実践例2:顔の一貫性維持
同じキャラクターを異なるシーンで生成します。
設定:
- IPAdapter: ip-adapter-plus-face
- weight: 0.8〜1.0
- プロンプト: シーンや衣装を記述


実践例3:ControlNetとの組み合わせ
IPAdapter(スタイル)+ ControlNet(ポーズ)で、より精密な制御を行います。
接続の流れ:
[Checkpoint] ─── MODEL ──→ [IPAdapter Advanced] ─── MODEL ──→ [KSampler]
─── CLIP ──→ [CLIPTextEncode] ──→ [Apply ControlNet] ──→ positive/negative ──→ [KSampler]
[LoadImage(スタイル)] ──→ [IPAdapter Advanced]
[LoadImage(ポーズ)] ──→ [DWPreprocessor] ──→ [Apply ControlNet]
MODELの流れとConditioningの流れが分かれているのがポイントです。IPAdapter AdvancedはMODELを通し、Apply ControlNetはpositive/negativeのconditioning側に挟みます。
設定:
- IPAdapter weight: 0.3(低めにしてControlNetを優先)
- IPAdapter weight_type:
style transfer(ポーズへの影響を抑えてスタイルだけ反映) - ControlNet strength: 0.7
- Preprocessor: DWPreprocessor(OpenPoseより精度が高い)




IPAdapterとControlNetを併用する場合、それぞれのweightを下げてバランスを取りましょう。合計で1.2〜1.5程度が目安です。
複数の参照画像を使う
IPAdapterは複数の参照画像を組み合わせることもできます。
IPAdapter Batch
複数の画像をバッチ処理して、特徴を平均化します。
用途:
- 同じキャラクターの複数アングルから特徴を抽出
- 複数のスタイル画像を混ぜる
重み付け合成
異なるIPAdapterを直列に繋げて、それぞれの影響度を調整します。
[IPAdapter Advanced (顔)] → [IPAdapter Advanced (スタイル)] → [KSampler]
設定例:
- 顔IPAdapter: weight 0.8
- スタイルIPAdapter: weight 0.5
トラブルシューティング
IPAdapterが効かない
確認ポイント:
- IPAdapterモデルとCLIPビジョンモデルの両方がインストールされているか
- モデルがベースモデル(SD1.5/SDXL)に対応しているか
- weightが0になっていないか
参照画像に寄りすぎる
対処法:
- weightを下げる(0.5〜0.6程度に)
- noiseを上げる(0.3〜0.5程度に)
- プロンプトをより具体的に記述
顔が似ない(Face IPAdapter使用時)
対処法:
- 参照画像の顔が正面で大きく写っているものを使用
- ip-adapter-plus-faceを使用(通常のFaceより高品質)
- weightを上げる(0.8〜1.0程度に)
プロンプトが反映されない
対処法:
- weightを下げる(IPAdapterの影響を弱める)
- end_atを下げる(後半はプロンプトのみで生成)
- プロンプトの強調構文((prompt:1.2)など)を活用
メモリ不足になる
対処法:
- 画像サイズを小さくする
- 参照画像のサイズを縮小
- IPAdapter Plusの代わりに標準版を使用(軽量)
よくある質問
IPAdapterは「雰囲気・スタイル・顔」を反映したいとき、ControlNetは「ポーズ・構図・形状」を制御したいときに使います。両方を併用することで、「このポーズで、この雰囲気で」という複合的な指示が可能です。
はい、自分で撮った写真やイラストを参照画像として使用できます。ただし、著作権や肖像権には注意してください。また、顔写真を使う場合は本人の許可を得ることをおすすめします。
ip-adapter-plus-faceを使い、weightを0.8〜1.0程度に設定してください。参照画像は顔が正面で大きく写っているものが最適です。さらにControlNetのOpenPoseを併用すると、ポーズも制御できます。
まとめ|IPAdapterで「この雰囲気で」を実現しよう
この記事のポイント
- IPAdapterとは:画像をプロンプトのように使い、スタイルや顔を反映する技術
- 準備:IPAdapterモデル + CLIPビジョンモデルの両方が必要
- 使い分け:標準(スタイル全般)、Face(顔特化)、Plus(高品質)
- パラメータ:weightで効き具合を調整(推奨: 0.6〜0.8)
- ControlNetと併用:「このポーズで、この雰囲気で」が可能
次のステップ
- まずは標準IPAdapterでスタイル転送を試す
- Face IPAdapterでキャラクターの一貫性を実験
- ControlNetと組み合わせて複合的な制御に挑戦
IPAdapterを使いこなせば、言葉では伝えにくい「こんな感じ」を画像で指示できるようになります。参照画像を活用して、思い通りの画像生成を楽しんでください!
関連記事







⚠️ AI画像生成をご利用の際の重要な注意事項
著作権・知的財産権について
- 既存のキャラクター、作品、ブランドロゴなどの模倣・複製は著作権侵害にあたる可能性があります
- 商用利用時は特に注意が必要です
肖像権について
- 実在人物(著名人・一般人問わず)の顔や特徴を模倣した画像生成はお控えください
- 無断での肖像権使用は法的トラブルの原因となります
利用規約の確認
- 各AI画像生成サービスの利用規約を必ずご確認ください
- 商用利用の可否、生成画像の権利関係は各サービスで異なります
免責事項
- 当ブログの情報を参考にしたAI画像生成により生じた問題について、当ブログは一切の責任を負いません
- 法的問題が生じた場合は、利用者の自己責任となります
- 最新の法律・規約情報は公式情報をご確認ください
適切なAI画像生成を心がけ、創作活動を楽しみましょう。
詳細についてはAIと著作権についてをご覧ください。

コメント