
Midjourney V7
Midjourney V7:新アーキテクチャ、鮮明なコヒーレンス、Draft Mode
Midjourney V7 は約1年ぶりとなる Midjourney の最大アップグレードで、2025年4月3日にアルファ版としてリリースされました。V6 の進化版ではなく、完全に新しいアーキテクチャを基盤としています。その結果、画像のコヒーレンスが目に見えて向上し、プロンプト追従性が強化され、手や体のディテールがより自然になり、Midjourney ならではの絵画的な雰囲気も受け継いでいます。V7 では Draft Mode(通常比約10倍高速、低コスト・低解像度でアイデア出しに最適)も導入されました。Omni-Reference(--oref)は Midjourney の従来のキャラクター参照を人物・物体・乗り物・キャラクターなど任意の被写体に拡張し、Style Reference(--sref)はシリーズ全体で一貫したビジュアルアイデンティティを保ちます。LoveGen AI では3段階のレンダリング速度(draft / fast / turbo)、タスクごとに4つのユニークな候補生成、完全なネイティブフラグ構文をサポートしており、Discord は不要です。
V7 は V6(2023年12月)以来、最も重要な Midjourney リリースです。開発チームは反復改良ではなく一からモデルを再構築し、クリエイターから最もよく報告されていた3つの問題点に集中しました。第一にプロンプト追従性:V7 はプロンプトをより文字どおりに読み取るため、空間的・素材的な指示を含む複数節の説明が書いた内容に近い形で解決されます。第二に細部のコヒーレンス:手・指・髪の毛・布のしわ・アクセサリー・小道具などが拡大してもディテールを保持します。これは旧バージョンから長らく指摘されていた問題点でした。第三にライトと素材のレンダリング:肌・金属・ガラス・水・布がそれぞれ正しい質感として表現され、V7 は Midjourney が得意とするシネマティックな光と雰囲気も維持しています。
V7 時代のワークフロー機能3つが日々の使い方を変えます。Draft Mode は Standard より約10倍速く、コストも大幅に低く、フィデリティも低い——素早いアイデア出しを目的として設計されており、最終納品向けではありません。Draft で良いコンポジションが出たら、fast や turbo で本番品質に再レンダリングできます。Omni-Reference(--oref)はキャラクター参照の進化版で、顔だけでなく任意の被写体——特定のワインボトル、スニーカー、車のシルエット、衣装を着たキャラクターなど——を複数の生成にわたって固定できます。製品撮影やシリーズ作品の一貫性に役立ちます。Style Reference(--sref)は被写体をコピーせずに、ある画像からカラーパレット・ムード・照明・レンダリングスタイルを別の画像に転写します。標準パラメーターもすべて引き続き使えます:--ar(アスペクト比)、--s(スタイライズ、0–1000)、--c(カオス、0–100)、--weird(0–3000)、--iw(イメージウェイト、0–3)によるイメージtoイメージ制御。
LoveGen AI では、V7 は Midjourney の公式推論パートナーを経由して動作します。モデルは V7 に固定されており(--v / --version は除去)、--niji はサポートされていません。速度フラグ(--draft / --fast / --turbo)はプロンプトに埋め込まずに Speed セレクターで指定します。タスクごとに4つのユニークな候補が2×2グリッドでレンダリングされて返ります。サムネイルをクリックするとフルサイズで確認・ダウンロードできます。Midjourney のコンテンツポリシーはサーバー側で適用されます。ポリシーに違反するプロンプトはフィルタリングされ、フィルタリングされたタスクのクレジットは返金されません。プロンプトは Midjourney の公開コミュニティガイドラインの範囲内に収めてください。
LoveGen AI で Midjourney V7 を使う方法
具体的でアートディレクションを意識したプロンプトを書く
MidjourneyV7Page.howToUse.steps.0.description
アスペクト比・速度・参考画像(任意)を選ぶ
1:1、16:9、9:16、4:3、3:4 から選ぶと --ar が自動的に追記されます。アイデア出しには Draft を、本番制作には Fast を、優先キューには Turbo を選んでください。イメージtoイメージ用に参考画像を最大4枚追加できます。1枚のみの場合はテキスト記述が必須で、2枚以上はテキストあり・なし両方で使えます。
生成・4候補を比較・ダウンロード
タスクごとに4枚のユニークな画像が2×2グリッドで返ります。サムネイルをクリックして拡大表示、ホバーで1枚ずつダウンロード、またはダウンロードボタンで全セットを保存できます。Draft のコンポジションが気に入ったら、同じプロンプトを Fast または Turbo で再実行して本番品質のレンダリングを生成してください。
Midjourney V7 の仕様
| 提供元 | Midjourney, Inc. |
| 公開日 | アルファ版 — April 3, 2025 |
| モデル ID | mj-v7 |
| アーキテクチャ | 完全新設計(V6 からの反復ではない) |
| タスクごとの生成枚数 | ユニークな候補4枚 |
| 速度モード | Draft(10倍高速)/ Fast(デフォルト)/ Turbo(優先キュー) |
| アスペクト比 | 任意の --ar — UI プリセット:1:1、16:9、9:16、4:3、3:4 |
| スタイライズ(--s) | 0–1000(デフォルト約100) |
| カオス(--c) | 0–100(4候補間のバリエーション幅) |
| ウィアード(--weird) | 0–3000(非定型的な美学) |
| イメージウェイト(--iw) | 0–3(デフォルト1) |
| Omni-Reference | --oref — 任意の被写体を固定(人物、物体、製品) |
| Style Reference | --sref — カラー・ムード・レンダリングスタイルを転写 |
| イメージtoイメージ | 参考画像のURL をプロンプト前に追記 — 1枚の場合はテキスト必須、2枚以上はテキスト任意 |
| プロンプト長 | 最大 8,192 文字 |
| おおよそのレイテンシ | Draft 約30秒 · Fast 1〜3分 · Turbo 数秒〜1分 · 上限20分 |
| 固定フラグ | --v / --version(V7 に固定)、--niji(未サポート)、--draft / --fast / --turbo(Speed セレクターで選択) |
Midjourney V7 を選ぶ理由
まったく新しい V7 アーキテクチャ
V7 は V6 以来初の Midjourney 完全再設計——反復改良ではありません。より鮮明なコヒーレンス、より自然な手と体の描写、より文字どおりのプロンプト追従、そして Midjourney 独自のシネマティックな光と雰囲気をそのまま継承しています。
本物の反復作業のための Draft Mode
Draft は Standard の約10倍速く、コストも大幅に低い。Fast レンダリング1回分の時間に数十のコンポジションを生成できます。気に入ったものが出たら Fast または Turbo で最終品質に再レンダリングしましょう。
Omni-Reference:任意の被写体を固定
Omni-Reference(--oref)は Midjourney のキャラクター参照を任意の被写体——人物・製品・乗り物・衣装——に拡張し、複数シーンで同じアイデンティティを維持します。製品撮影やシリーズ作品の一貫性確保に欠かせません。
ビジュアルアイデンティティのための Style Reference
Style Reference(--sref)は被写体をコピーせずに、カラーパレット・照明・レンダリングスタイルをある画像から別の画像に転写します。キャンペーンやブランドシリーズのビジュアル統一に活用できます。
完全なネイティブフラグ構文
Discord や Midjourney ウェブアプリと同じ記法——--ar、--s(0–1000)、--c(0–100)、--weird(0–3000)、--iw(0–3)。別途 UI を覚え直す必要はなく、既知のプロンプトをそのまま貼り付けるだけで動作します。
4候補——再ロール不要
タスクごとに4つのユニークなコンポジションが返ります。単一出力モデルよりも少ないクレジットで最適なショットに収束できます。比較して最も優れた1枚を選ぶだけです。
Midjourney V7 と他の AI 画像生成モデルの比較
| Feature | Midjourney V7 | GPT Image 2 | Flux 2 Pro | Nano Banana Pro |
|---|---|---|---|---|
| 提供元 | Midjourney | OpenAI | Black Forest Labs | |
| 公開時期 | April 2025(アルファ) | April 2026 | November 2025 | January 2026 |
| 得意分野 | 美的表現・シネマティック・アートディレクション | 多言語テキスト・推論主導のレイアウト | スタジオグレードのフォトリアリズム | 自然言語による画像編集 |
| タスクあたりの候補数 | 4枚(ユニーク) | 1枚 | 1枚 | 1枚 |
| 速度ティア | Draft / Fast / Turbo | 単一ティア | 単一ティア | 単一ティア |
| 被写体参照 | Omni-Reference(--oref) | 参考画像最大4枚 | 参考画像最大8枚 | 参考画像最大14枚 |
| スタイル参照 | あり(--sref) | 参考画像で暗黙的に適用 | 参考画像で暗黙的に適用 | 参考画像で暗黙的に適用 |
| ネイティブフラグ構文 | 完全対応(--ar / --s / --c / --weird / --iw / --oref / --sref) | 非対応 | 非対応 | 非対応 |
| テキスト描写 | 限定的 | 6言語で99%以上 | 優秀(英語) | 優秀 |
| 最も得意なユースケース | コンセプトアート・ポスター・ムード主導の写真 | 多言語広告・インフォグラフィック・UI モックアップ | エディトリアルフォトリアリズム | 製品編集・一貫性の維持 |
MidjourneyV7Page.useCase.h2
コンセプトアートとプリプロダクション
映画・ゲーム・アニメーションのムード、キービジュアル、ビジュアル開発に活用できます。Draft Mode を使えばディレクターやアートリードが午後1回で数百のコンポジションを試せます。
ブランド&エディトリアル写真
Midjourney のシネマティックな照明でヒーローイメージを制作します。Style Reference(--sref)でキャンペーンのルックを統一し、Omni-Reference(--oref)で撮影全体にわたって製品やモデルを一貫させましょう。
アルバム・書籍・雑誌の表紙
1プロンプトあたり4候補=1回の実行で4つのカバーアイデア。--c でバリエーションを広げ、--s でスタイライズを強め、--weird で安全な選択から抜け出しましょう。
キャラクターデザインとスタイルシート
Omni-Reference でキャラクターのアイデンティティを固定し、複数のシーンでポーズ・照明・コストを変えてください。テーブルトップ RPG のアート、コミックのプリプロダクション、アニメーション開発に役立ちます。
印刷・ポスター・マーチャンダイズ
印刷向けアスペクト比(3:4、4:3)で出力し、オフラインでアップコンバートできます。V7 のコヒーレンス改善により、印刷前の手作業による修正やディテール補正が減少します。
建築&製品ビジュアライゼーション
V7 では空間・奥行き・素材・反射がより説得力をもって表現されます。初期段階のインテリア・エクステリアや、クレイモデルの参照から製品ヒーローショットのレンダリングに活用できます。
他の AI 画像モデルを探す

GPT Image 2
2K で多言語テキスト精度 99% 以上を誇る OpenAI の推論ファースト画像生成モデル。

Nano Banana Pro
参考画像最大14枚に対応する Google の自然言語画像エディター。

Flux 2 Pro
4MP 出力とマルチリファレンス制御を備えた Black Forest Labs のスタジオグレード画像生成モデル。

Imagen 4
精密なアスペクト比制御を備えた Google DeepMind のフォトリアリスティック画像モデル。

Ideogram v3
ロゴ・ポスター・テキスト合成に強いタイポグラフィ特化の画像生成モデル。

Seedream 4
精密なアスペクト比制御と豊かなディテール表現を備えた ByteDance の高品質画像生成モデル。
Midjourney V7 のよくある質問
Midjourney V7 とは何ですか?いつリリースされましたか?
Midjourney V7 は Midjourney 画像モデルの第7世代で、2025年4月3日にアルファ版としてリリースされました。約1年ぶりの大型アップグレードです(V6.1 は2024年8月にリリース)。V6 の進化版ではなく、完全に新しいアーキテクチャで作られています。
V7 は V6 / V6.1 とどう違いますか?
V7 は V6 から派生したものではなく、一から設計されています。主な改善点は:(1)細部のコヒーレンスが大幅向上——手・髪・布・アクセサリー・小道具が拡大してもディテールを保持、(2)より文字どおりのプロンプト追従、(3)素早いアイデア出しのための Draft Mode、(4)キャラクター参照を任意の被写体に拡張した Omni-Reference(--oref)、(5)洗練された Style Reference(--sref)です。Midjourney ならではの絵画的な雰囲気とシネマティックな光は受け継がれています。
Draft Mode とは何ですか?
Draft Mode は Standard より約10倍速く、フィデリティとコストが低いレンダリングモードです。最終納品ではなく、多くのコンポジションを低コストで素早く試すアイデア出し向けに設計されています。良いコンポジションが出たら、同じプロンプトを Fast または Turbo で再実行して高フィデリティのレンダリングを生成してください。
Draft・Fast・Turbo の違いは何ですか?
Draft は最も安く速いモードで、フィデリティが低くアイデア出し向けです。Fast は本番デフォルトです。Turbo は高コストで優先キューで処理されます——すぐに結果が必要なときに使ってください。LoveGen AI では Speed セレクターでモードを選択します。プロンプトに埋め込んだ --draft / --fast / --turbo フラグはサーバー側で除去されます。
Omni-Reference(--oref)とは何ですか?
Omni-Reference は V7 のキャラクター参照の進化版です。顔やキャラクターに限らず、特定の製品・乗り物・衣装・人物など任意の被写体を複数の生成にわたって固定できます。製品撮影・シリーズアート・ブランド素材の制作に役立ちます。
V7 で使えるネイティブパラメーター/フラグは何ですか?
Midjourney V7 の標準パラメーターはすべてインラインのプロンプトフラグとして使えます:--ar(アスペクト比)、--s(スタイライズ、0–1000)、--c(カオス、0–100)、--weird(0–3000)、--iw(イメージウェイト、0–3)、--sref(スタイル参照 URL)、--oref(Omni-Reference URL)。モデルは V7 に固定されており、--v / --version は除去されます。--niji はサポートされていません。
イメージtoイメージはできますか?
はい。参考画像を最大4枚アップロードすると、URL としてプロンプトの前に追記されます。Midjourney の入力ルールが適用されます:参考画像が1枚の場合はテキスト記述が必須で、2枚以上の場合はテキストあり・なし両方で使えます。
なぜタスクごとに4枚の画像が返るのですか?
Midjourney はコンポジションを比較して最良の結果を選べるよう、タスクごとに常に4つのユニークな候補を返してきました。1枚のレンダリングではなく、コンタクトシートに近い形式です。LoveGen AI では4枚を2×2グリッドで表示します。サムネイルをクリックすると拡大できます。
プロンプトがコンテンツモデレーションでフィルタリングされた場合はどうなりますか?
Midjourney はコンテンツポリシーをサーバー側で適用しています。モデレーションでブロックされたタスクは画像を返さず、Midjourney のポリシーに従いフィルタリングされたタスクのクレジットは返金されません。プロンプトは Midjourney の公開コミュニティガイドラインの範囲内に収めてください。