21分で読める

Stable Diffusion完全ガイド【無料で始めるAI画像生成】

シェア:

「Stable Diffusionって無料で使えるって聞いたけど、難しそう…」そう思っていませんか?実は、2025年現在、Stable Diffusionは誰でも簡単に使えるレベルに進化しています。MidjourneyやDALL-Eと違い、完全無料で商用利用もOK。使いこなせば、月額費用ゼロでプロ級の画像を無限に生成できます。

💻 Stable Diffusion インストール方法3つの選択肢

🖥️
ローカルインストール
メリット
  • 完全無料
  • 無制限生成可能
  • プライバシー保護
  • カスタマイズ自由
デメリット
  • 高性能GPUが必要
  • セットアップが複雑
  • 初期費用が高い
必要スペック:
GPU: RTX 3060以上(VRAM 12GB)
RAM: 16GB以上
ストレージ: 50GB以上
初期費用:
150,000〜300,000円
PC/GPU購入費
本格派向け
☁️
クラウドサービス
メリット
  • すぐに始められる
  • 高性能GPU利用可
  • PCスペック不要
  • メンテナンス不要
デメリット
  • 月額費用がかかる
  • 生成数に制限
  • ネット接続必須
推奨サービス:
Google Colab Pro
RunPod
Paperspace
月額費用:
1,000〜5,000円
使用量による
バランス型
🌐
Webブラウザ版
メリット
  • インストール不要
  • 即座に開始可能
  • 初心者に優しい
  • 無料枠あり
デメリット
  • 機能制限が多い
  • 生成速度が遅い
  • カスタマイズ困難
推奨サービス:
DreamStudio
Lexica
Playground AI
月額費用:
0〜3,000円
基本無料
初心者向け

Stable Diffusion プロンプトテクニック集

基本構文

[主題], [スタイル], [品質キーワード], [ネガティブプロンプト]
良い例:
beautiful landscape, mountains, sunset, oil painting style, highly detailed, 8k, masterpiece

Negative: blurry, low quality, watermark

品質向上キーワード

高品質: masterpiece, best quality, ultra detailed, 8k
写実的: photorealistic, realistic, detailed
芸術的: artistic, beautiful, aesthetic
プロ品質: professional, high resolution, sharp focus

ネガティブプロンプト(除外)

生成したくない要素を指定:
ugly, blurry, low quality, worst quality, watermark, signature, text, extra fingers, bad anatomy, distorted face

重み付け(Emphasis)

(keyword) → 1.1倍強調
((keyword)) → 1.21倍強調
[keyword] → 0.9倍弱化
(keyword:1.5) → 1.5倍強調

本記事では、インストールから実践的な使い方まで、初心者でも今日から始められるように徹底解説します。この記事を読めば、Stable Diffusionで思い通りの画像を生成できるようになります。

AI画像生成のイメージ
Stable Diffusion完全ガイド - 無料で始めるAI画像生成

Stable Diffusionとは?他ツールとの比較

Stable Diffusionは、テキストから画像を生成するオープンソースのAIモデルです。まずは主要ツールと比較してみましょう。

ツール料金品質カスタマイズ性商用利用難易度
Stable Diffusion無料★★★★☆★★★★★★★★☆☆
Midjourney月$10〜★★★★★★★☆☆☆有料プランのみ★★☆☆☆
DALL-E 3月$20★★★★☆★★☆☆☆★☆☆☆☆
Adobe Firefly無料〜★★★★☆★★★☆☆★★☆☆☆
Leonardo.ai無料〜★★★☆☆★★★★☆★★☆☆☆

Stable Diffusionの5つのメリット

  1. 完全無料: インストール後は一切料金がかからない
  2. 生成枚数無制限: 何枚生成してもOK
  3. 商用利用自由: 生成した画像を販売・商用利用可能
  4. カスタマイズ可能: モデル・LoRA・拡張機能で自由にカスタマイズ
  5. オフライン動作: インターネット不要で使用可能

デメリット

  • PCのスペックが必要(GPU推奨)
  • 初期設定がやや複雑
  • プロンプトの学習が必要

必要なPCスペック:あなたのPCで動く?

スペック最低要件推奨快適
GPUNVIDIA GTX 1060(VRAM 6GB)RTX 3060(VRAM 12GB)RTX 4070以上
CPUIntel i5 / Ryzen 5Intel i7 / Ryzen 7Intel i9 / Ryzen 9
RAM8GB16GB32GB以上
ストレージ10GB以上の空き50GB以上100GB以上(SSD推奨)
生成速度1枚/2〜3分1枚/30秒〜1分1枚/10〜20秒

GPUがない場合: クラウド版(Google Colab、RunPod)を利用すれば、低スペックPCでも使用可能です。

インストール方法:3つの選択肢

方法1: AUTOMATIC1111(最もメジャー)

おすすめ度: ★★★★★
難易度: ★★★☆☆

インストール手順:

  1. Python 3.10.6をインストール(python.org
  2. Gitをインストール(git-scm.com
  3. ターミナルで以下を実行:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
webui-user.bat  # Windowsの場合
./webui.sh      # Mac/Linuxの場合
  1. 初回起動で必要なファイルを自動ダウンロード(10〜20分)
  2. ブラウザで http://127.0.0.1:7860 にアクセス

方法2: ComfyUI(上級者向け)

おすすめ度: ★★★☆☆
難易度: ★★★★☆

特徴:

  • ノードベースのUI(柔軟性が高い)
  • VRAM使用量が少ない(低スペックPCでも動く)
  • 複雑なワークフローを構築可能

方法3: クラウド版(スペック不足の場合)

サービス料金特徴
Google Colab無料〜月$10無料枠あり、セットアップ簡単
RunPod時間課金($0.2〜/時)高性能GPU、使った分だけ課金
Hugging Face Spaces無料ブラウザで即利用、制限あり

基本的な使い方:最初の1枚を生成

ステップ1: モデルをダウンロード

Stable Diffusionは「モデル」を使って画像を生成します。最初は以下のモデルがおすすめです。

モデル名特徴ダウンロード先
Stable Diffusion 1.5軽量、初心者向けHugging Face
Stable Diffusion XL高品質、重いStability AI公式
ChilloutMixリアル人物、アジア系Civitai
Anything V5アニメ・イラストCivitai

モデルの配置場所:
stable-diffusion-webui/models/Stable-diffusion/ フォルダに.safetensorsファイルを配置

ステップ2: プロンプトを入力

基本的なプロンプトの構造:

a beautiful landscape, mountains, sunset, lake reflection,
detailed, high quality, 8k, masterpiece

プロンプトの書き方のコツ:

  • 主題を最初に: "a cat" "a woman" など
  • 詳細を追加: "sitting on a chair" "wearing a red dress"
  • 品質ワード: "high quality, detailed, 8k, masterpiece"
  • スタイル指定: "oil painting" "anime style" "photorealistic"

ステップ3: ネガティブプロンプトを設定

生成したくない要素を指定します。

low quality, blurry, ugly, deformed, bad anatomy,
extra fingers, watermark, signature

ステップ4: パラメータを調整

パラメータ推奨値説明
Sampling Steps20〜30生成の繰り返し回数(多いほど高品質だが遅い)
CFG Scale7〜10プロンプトの忠実度(高いほどプロンプト通り)
Width × Height512×512 or 768×768画像サイズ(大きいほどVRAM消費)
Seed-1(ランダム)固定すると同じ画像を再生成可能

ステップ5: Generate ボタンをクリック

数十秒〜数分で画像が生成されます。気に入らなければ、プロンプトやパラメータを調整して再生成しましょう。

実践的なプロンプトテクニック

目的別プロンプト集

リアルな人物ポートレート:

portrait photo of a 25 year old woman, long brown hair,
blue eyes, smiling, natural lighting, professional photography,
detailed skin texture, 8k, high quality

Negative: cartoon, anime, painting, low quality, blurry

アニメ・イラスト:

anime girl, long silver hair, blue eyes, school uniform,
cherry blossoms background, detailed, high quality,
official art, key visual

Negative: realistic, 3d, low quality, bad anatomy

風景画:

beautiful mountain landscape, sunset, golden hour lighting,
lake reflection, pine trees, clouds, high detail, 8k,
nature photography, cinematic

Negative: people, buildings, low quality, blurry

商品写真:

product photography, modern smartwatch, white background,
studio lighting, professional, clean, minimalist,
high resolution, commercial photo

Negative: cluttered, messy, low quality, shadows

重要度を調整する記法

  • (単語): 重要度1.1倍
  • ((単語)): 重要度1.21倍
  • (単語:1.5): 重要度1.5倍に指定
  • [単語]: 重要度0.9倍(弱める)

例:

a cat, (((extremely fluffy))), sitting, [background]
→ 「とても毛がふわふわした猫」を強調、背景は控えめに

高度な機能:もっと自由に画像を生成

1. img2img(画像から画像を生成)

既存の画像をベースに新しい画像を生成できます。

使い方:

  1. 「img2img」タブを開く
  2. 元画像をアップロード
  3. Denoising Strength(変化の強さ)を調整(0.3〜0.7推奨)
  4. プロンプトで変更したい内容を指定

活用例:

  • ラフスケッチを完成イラストに
  • 写真をアニメ風に変換
  • 昼の写真を夜景に変換

2. Inpainting(部分的な修正)

画像の一部だけを書き換えることができます。

  1. 「img2img」→「Inpaint」タブ
  2. 画像をアップロード
  3. 書き換えたい部分をマスク(ブラシで塗る)
  4. プロンプトで変更内容を指定

活用例:

  • 服の色を変更
  • 背景を差し替え
  • 不要な物を削除

3. ControlNet(構図の制御)

画像の構図やポーズを細かく制御できる拡張機能です。

主な機能:

  • Canny: エッジ(輪郭)を検出して構図を維持
  • OpenPose: 人物のポーズを指定
  • Depth: 奥行き情報を維持
  • Scribble: 簡単な線画から画像生成

4. LoRA(追加学習モデル)

特定のスタイルやキャラクターを追加できる小型モデルです。

人気LoRA:

  • 特定のアニメキャラクター
  • 画風(ジブリ風、ピクサー風など)
  • 服装スタイル
  • ライティング効果

使い方:

  1. Civitaiから.safetensorsファイルをダウンロード
  2. models/Lora/フォルダに配置
  3. プロンプトに<lora:ファイル名:0.8>を追加

5. Upscale(高解像度化)

生成した画像を4K、8Kに拡大できます。

  1. 「Extras」タブを開く
  2. 画像をアップロード
  3. Upscalerを選択(R-ESRGAN 4x+ 推奨)
  4. 倍率を設定(2倍 or 4倍)
  5. Generate

商用利用・著作権について

Stable Diffusionで生成した画像の権利

項目可否注意点
商用利用使用モデルのライセンスによる
販売グッズ、NFT、ストックフォトなど
SNS投稿プラットフォームの規約を確認
クライアントワークAI生成である旨の開示推奨

注意すべきポイント

  • モデルのライセンス確認: Civitaiなどでダウンロードしたモデルは商用NGの場合あり
  • 既存キャラクター: 有名キャラを模倣した画像は著作権侵害の可能性
  • 実在人物: 実在の人物の肖像権に注意
  • プラットフォーム規約: InstagramなどはAI生成画像の明示が必要な場合あり

よくあるトラブルと解決法

Q1: 「CUDA out of memory」エラーが出る

原因: VRAM不足

解決策:

  • 画像サイズを小さくする(512×512に)
  • Batch Sizeを1にする
  • --medvramまたは--lowvramオプションを追加
  • 他のアプリを閉じる

Q2: 生成速度が遅い

解決策:

  • Sampling Stepsを20に下げる
  • xformersを有効化(--xformersオプション)
  • Sampler(サンプラー)をDPM++ 2M Karasに変更

Q3: 顔や手が崩れる

解決策:

  • ネガティブプロンプトに"bad anatomy, extra fingers, deformed"を追加
  • Hires.fix(高解像度修正)を有効化
  • After Detailerエクステンションを導入
  • ControlNetのOpenPoseで顔・手を制御

Q4: プロンプト通りの画像が生成されない

解決策:

  • CFG Scaleを上げる(10〜12に)
  • 重要な単語を(( ))で強調
  • 具体的な描写を追加
  • モデルを変更(目的に合ったモデルを選ぶ)

まとめ:Stable Diffusionで創造性を解放しよう

本記事の重要ポイントをまとめます。

  • 完全無料: インストール後は無制限に画像生成可能
  • 商用利用OK: 生成画像を販売・ビジネス利用できる
  • 3つの導入方法: ローカル、クラウド、GUIツールから選択
  • プロンプト技術: 具体的な描写+品質ワードで高品質画像
  • 高度な機能: img2img、Inpainting、ControlNet、LoRAで自由自在

次のアクション:

  1. 自分のPC環境を確認(GPU、RAM)
  2. AUTOMATIC1111をインストール(今日中に)
  3. Stable Diffusion 1.5モデルをダウンロード
  4. 簡単なプロンプトで最初の1枚を生成
  5. プロンプトを改善しながら10枚生成してみる

Stable Diffusionは無料でプロ級の画像を生成できる強力なツールです。今日から始めて、創造性を解放しましょう


この記事が役に立ったらシェア!