Stable Diffusion完全ガイド【無料で始めるAI画像生成】
目次
「Stable Diffusionって無料で使えるって聞いたけど、難しそう…」そう思っていませんか?実は、2025年現在、Stable Diffusionは誰でも簡単に使えるレベルに進化しています。MidjourneyやDALL-Eと違い、完全無料で商用利用もOK。使いこなせば、月額費用ゼロでプロ級の画像を無限に生成できます。
💻 Stable Diffusion インストール方法3つの選択肢
- 完全無料
- 無制限生成可能
- プライバシー保護
- カスタマイズ自由
- 高性能GPUが必要
- セットアップが複雑
- 初期費用が高い
RAM: 16GB以上
ストレージ: 50GB以上
- すぐに始められる
- 高性能GPU利用可
- PCスペック不要
- メンテナンス不要
- 月額費用がかかる
- 生成数に制限
- ネット接続必須
RunPod
Paperspace
- インストール不要
- 即座に開始可能
- 初心者に優しい
- 無料枠あり
- 機能制限が多い
- 生成速度が遅い
- カスタマイズ困難
Lexica
Playground AI
✨ Stable Diffusion プロンプトテクニック集
基本構文
Negative: blurry, low quality, watermark
品質向上キーワード
ネガティブプロンプト(除外)
重み付け(Emphasis)
(keyword)
→ 1.1倍強調
((keyword))
→ 1.21倍強調
[keyword]
→ 0.9倍弱化
(keyword:1.5)
→ 1.5倍強調
本記事では、インストールから実践的な使い方まで、初心者でも今日から始められるように徹底解説します。この記事を読めば、Stable Diffusionで思い通りの画像を生成できるようになります。
Stable Diffusionとは?他ツールとの比較
Stable Diffusionは、テキストから画像を生成するオープンソースのAIモデルです。まずは主要ツールと比較してみましょう。
| ツール | 料金 | 品質 | カスタマイズ性 | 商用利用 | 難易度 |
|---|---|---|---|---|---|
| Stable Diffusion | 無料 | ★★★★☆ | ★★★★★ | ◯ | ★★★☆☆ |
| Midjourney | 月$10〜 | ★★★★★ | ★★☆☆☆ | 有料プランのみ | ★★☆☆☆ |
| DALL-E 3 | 月$20 | ★★★★☆ | ★★☆☆☆ | ◯ | ★☆☆☆☆ |
| Adobe Firefly | 無料〜 | ★★★★☆ | ★★★☆☆ | ◯ | ★★☆☆☆ |
| Leonardo.ai | 無料〜 | ★★★☆☆ | ★★★★☆ | ◯ | ★★☆☆☆ |
Stable Diffusionの5つのメリット
- 完全無料: インストール後は一切料金がかからない
- 生成枚数無制限: 何枚生成してもOK
- 商用利用自由: 生成した画像を販売・商用利用可能
- カスタマイズ可能: モデル・LoRA・拡張機能で自由にカスタマイズ
- オフライン動作: インターネット不要で使用可能
デメリット
- PCのスペックが必要(GPU推奨)
- 初期設定がやや複雑
- プロンプトの学習が必要
必要なPCスペック:あなたのPCで動く?
| スペック | 最低要件 | 推奨 | 快適 |
|---|---|---|---|
| GPU | NVIDIA GTX 1060(VRAM 6GB) | RTX 3060(VRAM 12GB) | RTX 4070以上 |
| CPU | Intel i5 / Ryzen 5 | Intel i7 / Ryzen 7 | Intel i9 / Ryzen 9 |
| RAM | 8GB | 16GB | 32GB以上 |
| ストレージ | 10GB以上の空き | 50GB以上 | 100GB以上(SSD推奨) |
| 生成速度 | 1枚/2〜3分 | 1枚/30秒〜1分 | 1枚/10〜20秒 |
GPUがない場合: クラウド版(Google Colab、RunPod)を利用すれば、低スペックPCでも使用可能です。
インストール方法:3つの選択肢
方法1: AUTOMATIC1111(最もメジャー)
おすすめ度: ★★★★★
難易度: ★★★☆☆
インストール手順:
- Python 3.10.6をインストール(python.org)
- Gitをインストール(git-scm.com)
- ターミナルで以下を実行:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
webui-user.bat # Windowsの場合
./webui.sh # Mac/Linuxの場合
- 初回起動で必要なファイルを自動ダウンロード(10〜20分)
- ブラウザで http://127.0.0.1:7860 にアクセス
方法2: ComfyUI(上級者向け)
おすすめ度: ★★★☆☆
難易度: ★★★★☆
特徴:
- ノードベースのUI(柔軟性が高い)
- VRAM使用量が少ない(低スペックPCでも動く)
- 複雑なワークフローを構築可能
方法3: クラウド版(スペック不足の場合)
| サービス | 料金 | 特徴 |
|---|---|---|
| Google Colab | 無料〜月$10 | 無料枠あり、セットアップ簡単 |
| RunPod | 時間課金($0.2〜/時) | 高性能GPU、使った分だけ課金 |
| Hugging Face Spaces | 無料 | ブラウザで即利用、制限あり |
基本的な使い方:最初の1枚を生成
ステップ1: モデルをダウンロード
Stable Diffusionは「モデル」を使って画像を生成します。最初は以下のモデルがおすすめです。
| モデル名 | 特徴 | ダウンロード先 |
|---|---|---|
| Stable Diffusion 1.5 | 軽量、初心者向け | Hugging Face |
| Stable Diffusion XL | 高品質、重い | Stability AI公式 |
| ChilloutMix | リアル人物、アジア系 | Civitai |
| Anything V5 | アニメ・イラスト | Civitai |
モデルの配置場所:stable-diffusion-webui/models/Stable-diffusion/ フォルダに.safetensorsファイルを配置
ステップ2: プロンプトを入力
基本的なプロンプトの構造:
a beautiful landscape, mountains, sunset, lake reflection,
detailed, high quality, 8k, masterpiece
プロンプトの書き方のコツ:
- 主題を最初に: "a cat" "a woman" など
- 詳細を追加: "sitting on a chair" "wearing a red dress"
- 品質ワード: "high quality, detailed, 8k, masterpiece"
- スタイル指定: "oil painting" "anime style" "photorealistic"
ステップ3: ネガティブプロンプトを設定
生成したくない要素を指定します。
low quality, blurry, ugly, deformed, bad anatomy,
extra fingers, watermark, signature
ステップ4: パラメータを調整
| パラメータ | 推奨値 | 説明 |
|---|---|---|
| Sampling Steps | 20〜30 | 生成の繰り返し回数(多いほど高品質だが遅い) |
| CFG Scale | 7〜10 | プロンプトの忠実度(高いほどプロンプト通り) |
| Width × Height | 512×512 or 768×768 | 画像サイズ(大きいほどVRAM消費) |
| Seed | -1(ランダム) | 固定すると同じ画像を再生成可能 |
ステップ5: Generate ボタンをクリック
数十秒〜数分で画像が生成されます。気に入らなければ、プロンプトやパラメータを調整して再生成しましょう。
実践的なプロンプトテクニック
目的別プロンプト集
リアルな人物ポートレート:
portrait photo of a 25 year old woman, long brown hair,
blue eyes, smiling, natural lighting, professional photography,
detailed skin texture, 8k, high quality
Negative: cartoon, anime, painting, low quality, blurry
アニメ・イラスト:
anime girl, long silver hair, blue eyes, school uniform,
cherry blossoms background, detailed, high quality,
official art, key visual
Negative: realistic, 3d, low quality, bad anatomy
風景画:
beautiful mountain landscape, sunset, golden hour lighting,
lake reflection, pine trees, clouds, high detail, 8k,
nature photography, cinematic
Negative: people, buildings, low quality, blurry
商品写真:
product photography, modern smartwatch, white background,
studio lighting, professional, clean, minimalist,
high resolution, commercial photo
Negative: cluttered, messy, low quality, shadows
重要度を調整する記法
- (単語): 重要度1.1倍
- ((単語)): 重要度1.21倍
- (単語:1.5): 重要度1.5倍に指定
- [単語]: 重要度0.9倍(弱める)
例:
a cat, (((extremely fluffy))), sitting, [background]
→ 「とても毛がふわふわした猫」を強調、背景は控えめに
高度な機能:もっと自由に画像を生成
1. img2img(画像から画像を生成)
既存の画像をベースに新しい画像を生成できます。
使い方:
- 「img2img」タブを開く
- 元画像をアップロード
- Denoising Strength(変化の強さ)を調整(0.3〜0.7推奨)
- プロンプトで変更したい内容を指定
活用例:
- ラフスケッチを完成イラストに
- 写真をアニメ風に変換
- 昼の写真を夜景に変換
2. Inpainting(部分的な修正)
画像の一部だけを書き換えることができます。
- 「img2img」→「Inpaint」タブ
- 画像をアップロード
- 書き換えたい部分をマスク(ブラシで塗る)
- プロンプトで変更内容を指定
活用例:
- 服の色を変更
- 背景を差し替え
- 不要な物を削除
3. ControlNet(構図の制御)
画像の構図やポーズを細かく制御できる拡張機能です。
主な機能:
- Canny: エッジ(輪郭)を検出して構図を維持
- OpenPose: 人物のポーズを指定
- Depth: 奥行き情報を維持
- Scribble: 簡単な線画から画像生成
4. LoRA(追加学習モデル)
特定のスタイルやキャラクターを追加できる小型モデルです。
人気LoRA:
- 特定のアニメキャラクター
- 画風(ジブリ風、ピクサー風など)
- 服装スタイル
- ライティング効果
使い方:
- Civitaiから.safetensorsファイルをダウンロード
models/Lora/フォルダに配置- プロンプトに
<lora:ファイル名:0.8>を追加
5. Upscale(高解像度化)
生成した画像を4K、8Kに拡大できます。
- 「Extras」タブを開く
- 画像をアップロード
- Upscalerを選択(R-ESRGAN 4x+ 推奨)
- 倍率を設定(2倍 or 4倍)
- Generate
商用利用・著作権について
Stable Diffusionで生成した画像の権利
| 項目 | 可否 | 注意点 |
|---|---|---|
| 商用利用 | ◯ | 使用モデルのライセンスによる |
| 販売 | ◯ | グッズ、NFT、ストックフォトなど |
| SNS投稿 | ◯ | プラットフォームの規約を確認 |
| クライアントワーク | ◯ | AI生成である旨の開示推奨 |
注意すべきポイント
- モデルのライセンス確認: Civitaiなどでダウンロードしたモデルは商用NGの場合あり
- 既存キャラクター: 有名キャラを模倣した画像は著作権侵害の可能性
- 実在人物: 実在の人物の肖像権に注意
- プラットフォーム規約: InstagramなどはAI生成画像の明示が必要な場合あり
よくあるトラブルと解決法
Q1: 「CUDA out of memory」エラーが出る
原因: VRAM不足
解決策:
- 画像サイズを小さくする(512×512に)
- Batch Sizeを1にする
--medvramまたは--lowvramオプションを追加- 他のアプリを閉じる
Q2: 生成速度が遅い
解決策:
- Sampling Stepsを20に下げる
- xformersを有効化(
--xformersオプション) - Sampler(サンプラー)をDPM++ 2M Karasに変更
Q3: 顔や手が崩れる
解決策:
- ネガティブプロンプトに"bad anatomy, extra fingers, deformed"を追加
- Hires.fix(高解像度修正)を有効化
- After Detailerエクステンションを導入
- ControlNetのOpenPoseで顔・手を制御
Q4: プロンプト通りの画像が生成されない
解決策:
- CFG Scaleを上げる(10〜12に)
- 重要な単語を
(( ))で強調 - 具体的な描写を追加
- モデルを変更(目的に合ったモデルを選ぶ)
まとめ:Stable Diffusionで創造性を解放しよう
本記事の重要ポイントをまとめます。
- 完全無料: インストール後は無制限に画像生成可能
- 商用利用OK: 生成画像を販売・ビジネス利用できる
- 3つの導入方法: ローカル、クラウド、GUIツールから選択
- プロンプト技術: 具体的な描写+品質ワードで高品質画像
- 高度な機能: img2img、Inpainting、ControlNet、LoRAで自由自在
次のアクション:
- 自分のPC環境を確認(GPU、RAM)
- AUTOMATIC1111をインストール(今日中に)
- Stable Diffusion 1.5モデルをダウンロード
- 簡単なプロンプトで最初の1枚を生成
- プロンプトを改善しながら10枚生成してみる
Stable Diffusionは無料でプロ級の画像を生成できる強力なツールです。今日から始めて、創造性を解放しましょう。