Loading

Midjourney V7

Midjourney V7:新アーキテクチャ、鮮明なコヒーレンス、Draft Mode

Midjourney V7 は約1年ぶりとなる Midjourney の最大アップグレードで、2025年4月3日にアルファ版としてリリースされました。V6 の進化版ではなく、完全に新しいアーキテクチャを基盤としています。その結果、画像のコヒーレンスが目に見えて向上し、プロンプト追従性が強化され、手や体のディテールがより自然になり、Midjourney ならではの絵画的な雰囲気も受け継いでいます。V7 では Draft Mode(通常比約10倍高速、低コスト・低解像度でアイデア出しに最適)も導入されました。Omni-Reference(--oref)は Midjourney の従来のキャラクター参照を人物・物体・乗り物・キャラクターなど任意の被写体に拡張し、Style Reference(--sref)はシリーズ全体で一貫したビジュアルアイデンティティを保ちます。LoveGen AI では3段階のレンダリング速度(draft / fast / turbo)、タスクごとに4つのユニークな候補生成、完全なネイティブフラグ構文をサポートしており、Discord は不要です。

V7 は V6(2023年12月)以来、最も重要な Midjourney リリースです。開発チームは反復改良ではなく一からモデルを再構築し、クリエイターから最もよく報告されていた3つの問題点に集中しました。第一にプロンプト追従性:V7 はプロンプトをより文字どおりに読み取るため、空間的・素材的な指示を含む複数節の説明が書いた内容に近い形で解決されます。第二に細部のコヒーレンス:手・指・髪の毛・布のしわ・アクセサリー・小道具などが拡大してもディテールを保持します。これは旧バージョンから長らく指摘されていた問題点でした。第三にライトと素材のレンダリング:肌・金属・ガラス・水・布がそれぞれ正しい質感として表現され、V7 は Midjourney が得意とするシネマティックな光と雰囲気も維持しています。

V7 時代のワークフロー機能3つが日々の使い方を変えます。Draft Mode は Standard より約10倍速く、コストも大幅に低く、フィデリティも低い——素早いアイデア出しを目的として設計されており、最終納品向けではありません。Draft で良いコンポジションが出たら、fast や turbo で本番品質に再レンダリングできます。Omni-Reference(--oref)はキャラクター参照の進化版で、顔だけでなく任意の被写体——特定のワインボトル、スニーカー、車のシルエット、衣装を着たキャラクターなど——を複数の生成にわたって固定できます。製品撮影やシリーズ作品の一貫性に役立ちます。Style Reference(--sref)は被写体をコピーせずに、ある画像からカラーパレット・ムード・照明・レンダリングスタイルを別の画像に転写します。標準パラメーターもすべて引き続き使えます:--ar(アスペクト比)、--s(スタイライズ、0–1000)、--c(カオス、0–100)、--weird(0–3000)、--iw(イメージウェイト、0–3)によるイメージtoイメージ制御。

LoveGen AI では、V7 は Midjourney の公式推論パートナーを経由して動作します。モデルは V7 に固定されており(--v / --version は除去)、--niji はサポートされていません。速度フラグ(--draft / --fast / --turbo)はプロンプトに埋め込まずに Speed セレクターで指定します。タスクごとに4つのユニークな候補が2×2グリッドでレンダリングされて返ります。サムネイルをクリックするとフルサイズで確認・ダウンロードできます。Midjourney のコンテンツポリシーはサーバー側で適用されます。ポリシーに違反するプロンプトはフィルタリングされ、フィルタリングされたタスクのクレジットは返金されません。プロンプトは Midjourney の公開コミュニティガイドラインの範囲内に収めてください。

LoveGen AI で Midjourney V7 を使う方法

01

具体的でアートディレクションを意識したプロンプトを書く

MidjourneyV7Page.howToUse.steps.0.description

02

アスペクト比・速度・参考画像(任意)を選ぶ

1:1、16:9、9:16、4:3、3:4 から選ぶと --ar が自動的に追記されます。アイデア出しには Draft を、本番制作には Fast を、優先キューには Turbo を選んでください。イメージtoイメージ用に参考画像を最大4枚追加できます。1枚のみの場合はテキスト記述が必須で、2枚以上はテキストあり・なし両方で使えます。

03

生成・4候補を比較・ダウンロード

タスクごとに4枚のユニークな画像が2×2グリッドで返ります。サムネイルをクリックして拡大表示、ホバーで1枚ずつダウンロード、またはダウンロードボタンで全セットを保存できます。Draft のコンポジションが気に入ったら、同じプロンプトを Fast または Turbo で再実行して本番品質のレンダリングを生成してください。

Midjourney V7 の仕様

提供元Midjourney, Inc.
公開日アルファ版 — April 3, 2025
モデル IDmj-v7
アーキテクチャ完全新設計(V6 からの反復ではない)
タスクごとの生成枚数ユニークな候補4枚
速度モードDraft(10倍高速)/ Fast(デフォルト)/ Turbo(優先キュー)
アスペクト比任意の --ar — UI プリセット:1:1、16:9、9:16、4:3、3:4
スタイライズ(--s)0–1000(デフォルト約100)
カオス(--c)0–100(4候補間のバリエーション幅)
ウィアード(--weird)0–3000(非定型的な美学)
イメージウェイト(--iw)0–3(デフォルト1)
Omni-Reference--oref — 任意の被写体を固定(人物、物体、製品)
Style Reference--sref — カラー・ムード・レンダリングスタイルを転写
イメージtoイメージ参考画像のURL をプロンプト前に追記 — 1枚の場合はテキスト必須、2枚以上はテキスト任意
プロンプト長最大 8,192 文字
おおよそのレイテンシDraft 約30秒 · Fast 1〜3分 · Turbo 数秒〜1分 · 上限20分
固定フラグ--v / --version(V7 に固定)、--niji(未サポート)、--draft / --fast / --turbo(Speed セレクターで選択)

Midjourney V7 を選ぶ理由

まったく新しい V7 アーキテクチャ

V7 は V6 以来初の Midjourney 完全再設計——反復改良ではありません。より鮮明なコヒーレンス、より自然な手と体の描写、より文字どおりのプロンプト追従、そして Midjourney 独自のシネマティックな光と雰囲気をそのまま継承しています。

本物の反復作業のための Draft Mode

Draft は Standard の約10倍速く、コストも大幅に低い。Fast レンダリング1回分の時間に数十のコンポジションを生成できます。気に入ったものが出たら Fast または Turbo で最終品質に再レンダリングしましょう。

Omni-Reference:任意の被写体を固定

Omni-Reference(--oref)は Midjourney のキャラクター参照を任意の被写体——人物・製品・乗り物・衣装——に拡張し、複数シーンで同じアイデンティティを維持します。製品撮影やシリーズ作品の一貫性確保に欠かせません。

ビジュアルアイデンティティのための Style Reference

Style Reference(--sref)は被写体をコピーせずに、カラーパレット・照明・レンダリングスタイルをある画像から別の画像に転写します。キャンペーンやブランドシリーズのビジュアル統一に活用できます。

完全なネイティブフラグ構文

Discord や Midjourney ウェブアプリと同じ記法——--ar、--s(0–1000)、--c(0–100)、--weird(0–3000)、--iw(0–3)。別途 UI を覚え直す必要はなく、既知のプロンプトをそのまま貼り付けるだけで動作します。

4候補——再ロール不要

タスクごとに4つのユニークなコンポジションが返ります。単一出力モデルよりも少ないクレジットで最適なショットに収束できます。比較して最も優れた1枚を選ぶだけです。

Midjourney V7 と他の AI 画像生成モデルの比較

FeatureMidjourney V7GPT Image 2Flux 2 ProNano Banana Pro
提供元MidjourneyOpenAIBlack Forest LabsGoogle
公開時期April 2025(アルファ)April 2026November 2025January 2026
得意分野美的表現・シネマティック・アートディレクション多言語テキスト・推論主導のレイアウトスタジオグレードのフォトリアリズム自然言語による画像編集
タスクあたりの候補数4枚(ユニーク)1枚1枚1枚
速度ティアDraft / Fast / Turbo単一ティア単一ティア単一ティア
被写体参照Omni-Reference(--oref)参考画像最大4枚参考画像最大8枚参考画像最大14枚
スタイル参照あり(--sref)参考画像で暗黙的に適用参考画像で暗黙的に適用参考画像で暗黙的に適用
ネイティブフラグ構文完全対応(--ar / --s / --c / --weird / --iw / --oref / --sref)非対応非対応非対応
テキスト描写限定的6言語で99%以上優秀(英語)優秀
最も得意なユースケースコンセプトアート・ポスター・ムード主導の写真多言語広告・インフォグラフィック・UI モックアップエディトリアルフォトリアリズム製品編集・一貫性の維持

MidjourneyV7Page.useCase.h2

01

コンセプトアートとプリプロダクション

映画・ゲーム・アニメーションのムード、キービジュアル、ビジュアル開発に活用できます。Draft Mode を使えばディレクターやアートリードが午後1回で数百のコンポジションを試せます。

02

ブランド&エディトリアル写真

Midjourney のシネマティックな照明でヒーローイメージを制作します。Style Reference(--sref)でキャンペーンのルックを統一し、Omni-Reference(--oref)で撮影全体にわたって製品やモデルを一貫させましょう。

03

アルバム・書籍・雑誌の表紙

1プロンプトあたり4候補=1回の実行で4つのカバーアイデア。--c でバリエーションを広げ、--s でスタイライズを強め、--weird で安全な選択から抜け出しましょう。

04

キャラクターデザインとスタイルシート

Omni-Reference でキャラクターのアイデンティティを固定し、複数のシーンでポーズ・照明・コストを変えてください。テーブルトップ RPG のアート、コミックのプリプロダクション、アニメーション開発に役立ちます。

05

印刷・ポスター・マーチャンダイズ

印刷向けアスペクト比(3:4、4:3)で出力し、オフラインでアップコンバートできます。V7 のコヒーレンス改善により、印刷前の手作業による修正やディテール補正が減少します。

06

建築&製品ビジュアライゼーション

V7 では空間・奥行き・素材・反射がより説得力をもって表現されます。初期段階のインテリア・エクステリアや、クレイモデルの参照から製品ヒーローショットのレンダリングに活用できます。

他の AI 画像モデルを探す

Midjourney V7 のよくある質問

Midjourney V7 とは何ですか?いつリリースされましたか?

Midjourney V7 は Midjourney 画像モデルの第7世代で、2025年4月3日にアルファ版としてリリースされました。約1年ぶりの大型アップグレードです(V6.1 は2024年8月にリリース)。V6 の進化版ではなく、完全に新しいアーキテクチャで作られています。

V7 は V6 / V6.1 とどう違いますか?

V7 は V6 から派生したものではなく、一から設計されています。主な改善点は:(1)細部のコヒーレンスが大幅向上——手・髪・布・アクセサリー・小道具が拡大してもディテールを保持、(2)より文字どおりのプロンプト追従、(3)素早いアイデア出しのための Draft Mode、(4)キャラクター参照を任意の被写体に拡張した Omni-Reference(--oref)、(5)洗練された Style Reference(--sref)です。Midjourney ならではの絵画的な雰囲気とシネマティックな光は受け継がれています。

Draft Mode とは何ですか?

Draft Mode は Standard より約10倍速く、フィデリティとコストが低いレンダリングモードです。最終納品ではなく、多くのコンポジションを低コストで素早く試すアイデア出し向けに設計されています。良いコンポジションが出たら、同じプロンプトを Fast または Turbo で再実行して高フィデリティのレンダリングを生成してください。

Draft・Fast・Turbo の違いは何ですか?

Draft は最も安く速いモードで、フィデリティが低くアイデア出し向けです。Fast は本番デフォルトです。Turbo は高コストで優先キューで処理されます——すぐに結果が必要なときに使ってください。LoveGen AI では Speed セレクターでモードを選択します。プロンプトに埋め込んだ --draft / --fast / --turbo フラグはサーバー側で除去されます。

Omni-Reference(--oref)とは何ですか?

Omni-Reference は V7 のキャラクター参照の進化版です。顔やキャラクターに限らず、特定の製品・乗り物・衣装・人物など任意の被写体を複数の生成にわたって固定できます。製品撮影・シリーズアート・ブランド素材の制作に役立ちます。

V7 で使えるネイティブパラメーター/フラグは何ですか?

Midjourney V7 の標準パラメーターはすべてインラインのプロンプトフラグとして使えます:--ar(アスペクト比)、--s(スタイライズ、0–1000)、--c(カオス、0–100)、--weird(0–3000)、--iw(イメージウェイト、0–3)、--sref(スタイル参照 URL)、--oref(Omni-Reference URL)。モデルは V7 に固定されており、--v / --version は除去されます。--niji はサポートされていません。

イメージtoイメージはできますか?

はい。参考画像を最大4枚アップロードすると、URL としてプロンプトの前に追記されます。Midjourney の入力ルールが適用されます:参考画像が1枚の場合はテキスト記述が必須で、2枚以上の場合はテキストあり・なし両方で使えます。

なぜタスクごとに4枚の画像が返るのですか?

Midjourney はコンポジションを比較して最良の結果を選べるよう、タスクごとに常に4つのユニークな候補を返してきました。1枚のレンダリングではなく、コンタクトシートに近い形式です。LoveGen AI では4枚を2×2グリッドで表示します。サムネイルをクリックすると拡大できます。

プロンプトがコンテンツモデレーションでフィルタリングされた場合はどうなりますか?

Midjourney はコンテンツポリシーをサーバー側で適用しています。モデレーションでブロックされたタスクは画像を返さず、Midjourney のポリシーに従いフィルタリングされたタスクのクレジットは返金されません。プロンプトは Midjourney の公開コミュニティガイドラインの範囲内に収めてください。