
Midjourney V7
Midjourney V7:全新架构、更强连贯性、Draft Mode
Midjourney V7 是近一年来 Midjourney 的首次重大升级 —— 于 2025 年 4 月 3 日以 Alpha 版本发布,采用全新底层架构而非 V6 的迭代演进。升级带来了明显更强的画面连贯性、更精准的提示词还原能力、更真实的手部与人体表现,以及 Midjourney 标志性的绘画氛围。V7 还引入了 Draft Mode(速度约快 10 倍,成本更低,保真度较低,适合快速创意探索)、Omni-Reference(--oref,将 Midjourney 原有的角色参考能力扩展至任意主体 —— 人物、物品、车辆、角色),以及用于系列作品视觉统一的 Style Reference(--sref)。LoveGen AI 以三种渲染速度(草稿 / 快速 / 极速)提供 V7,每次任务生成四张独特候选图,支持完整原生参数语法 —— 无需 Discord。
V7 是自 V6(2023 年 12 月)以来 Midjourney 最重要的版本。团队从零重建模型而非迭代优化,专注解决创作者反映最多的三大问题。第一,提示词还原:V7 对提示词的理解更加字面化,带有具体空间和材质描述的多子句指令能够更贴近你的表达。第二,细节连贯性:手部、手指、发丝、布料褶皱、珠宝和小道具在近距离审视下依然细腻,这是早期版本的长期痛点。第三,光线与材质渲染:皮肤、金属、玻璃、水面和布料都能呈现出正确的质感,同时保留 Midjourney 标志性的电影光线与氛围感。
V7 时代的三项工作流新功能改变了模型的日常使用方式。Draft Mode 的渲染速度约为标准模式的 10 倍,保真度较低,成本也更低 —— 专为快速创意探索而设计,而非最终交付;当一个草稿构图令你满意时,可用快速或极速模式重新渲染以获得正式输出。Omni-Reference(--oref)是 V7 对角色参考功能的升级:不再局限于面部,而是可以锁定任意主体 —— 一瓶特定的酒、一双运动鞋、车辆轮廓、一个身着服装的角色 —— 跨多次生成保持同一身份,适用于产品摄影和系列作品的视觉一致性。Style Reference(--sref)可将一张图的色彩、情绪、光线和渲染风格迁移至另一张,而不复制主体内容。所有标准参数同样保留:--ar(画幅比例)、--s(风格化,0–1000)、--c(混沌度,0–100)、--weird(0–3000)以及 --iw(图像权重,0–3)用于图生图控制。
在 LoveGen AI 上,V7 通过 Midjourney 官方推理合作伙伴运行。模型锁定为 V7(--v / --version 参数会被过滤),不支持 --niji,速度参数(--draft / --fast / --turbo)由速度选择器控制,而非内嵌在提示词中。每次任务返回以 2×2 宫格排列的四张独特候选图;点击任意缩略图可查看原图或下载。Midjourney 的内容政策由服务端执行:违规提示词会被过滤,且被过滤任务的积分不予退还,请确保提示词符合 Midjourney 公开的社区准则。
如何在 LoveGen AI 上使用 Midjourney V7
撰写具体且有艺术方向的提示词
描述主体、环境、光线、镜头、材质和情绪。V7 越具体越出色。可选附加原生参数 —— 例如:--s 500 加强风格化,--c 25 扩大 4 张候选图的变化范围,--weird 250 追求非常规效果,或 --sref <图片 URL> 进行风格迁移。
选择画幅比例、速度及(可选)参考图
选择 1:1、16:9、9:16、4:3 或 3:4 —— 画幅比例会自动以 --ar 格式附加。选择草稿模式进行低成本头脑风暴,选择快速模式用于正式输出,选择极速模式进入优先队列。最多上传 4 张参考图用于图生图:单张参考图必须配合文字描述,两张及以上可选是否附加文字。
生成、对比 4 张候选图、下载
每次任务返回以 2×2 宫格排列的四张独特图像。点击任意缩略图放大查看,悬停可下载单张,或使用下载按钮保存全部图像。如果某个草稿构图符合预期,可在快速或极速模式下用相同提示词重新渲染以获得正式成品。
Midjourney V7 技术规格
| 提供方 | Midjourney, Inc. |
| 发布时间 | Alpha — 2025 年 4 月 3 日 |
| 模型 ID | mj-v7 |
| 架构 | 全新底层模型(非 V6 迭代) |
| 每次任务图片数 | 4 张独特候选图 |
| 速度模式 | 草稿(10× 更快)/ 快速(默认)/ 极速(优先队列) |
| 画幅比例 | 任意 --ar — 界面预设:1:1、16:9、9:16、4:3、3:4 |
| 风格化(--s) | 0–1000(默认约 100) |
| 混沌度(--c) | 0–100(4 张候选图之间的变化幅度) |
| 怪异度(--weird) | 0–3000(非常规美学) |
| 图像权重(--iw) | 0–3(默认 1) |
| Omni-Reference | --oref — 锁定任意主体(人物、物品、产品) |
| Style Reference | --sref — 迁移色彩、情绪与渲染风格 |
| 图生图 | 参考图 URL 前置于提示词 — 单张需配文字,两张及以上可选是否附文字 |
| 提示词长度 | 最多 8,192 个字符 |
| 参考延迟 | 草稿约 30 秒 · 快速 1–3 分钟 · 极速数秒至 1 分钟 · 硬限 20 分钟 |
| 锁定参数 | --v / --version(锁定为 V7)、--niji(不支持)、--draft / --fast / --turbo(请使用速度选择器) |
为什么选择 Midjourney V7?
全新 V7 底层架构
V7 是自 V6 以来 Midjourney 首次从零重建的版本 —— 而非迭代优化。画面连贯性更强、手部与人体表现更真实、提示词还原更精准,同时保留了 Midjourney 标志性的电影光线与氛围感。
Draft Mode,真正的快速迭代
草稿渲染速度约为标准模式的 10 倍,成本仅为一小部分。在一次快速渲染的时间内生成数十种构图,再将最佳方案以快速或极速模式重新渲染为终稿。
Omni-Reference:锁定任意主体
Omni-Reference(--oref)将 Midjourney 的角色参考能力拓展至任意主体 —— 人物、产品、车辆、服装 —— 在多个场景中保持同一身份。对产品拍摄和系列作品的视觉一致性至关重要。
Style Reference,打造视觉品牌
Style Reference(--sref)可将色彩搭配、光线氛围和渲染风格从一张图迁移至另一张,而不复制主体内容。用它保持整个活动或品牌系列的视觉一致性。
完整原生参数语法
与 Discord 和 Midjourney 网页端完全相同的参数词汇 —— --ar、--s(0–1000)、--c(0–100)、--weird(0–3000)、--iw(0–3)。无需重学其他界面操作,粘贴已有提示词即可直接使用。
四张候选图 —— 无需重抽
每次任务返回四张独特构图。你可以对比并挑选最佳结果,而无需反复重抽,相比单图输出模型用更少的积分找到心仪作品。
Midjourney V7 与其他 AI 图像生成器对比
| Feature | Midjourney V7 | GPT Image 2 | Flux 2 Pro | Nano Banana Pro |
|---|---|---|---|---|
| 提供方 | Midjourney | OpenAI | Black Forest Labs | |
| 发布时间 | 2025 年 4 月(Alpha) | 2026 年 4 月 | 2025 年 11 月 | 2026 年 1 月 |
| 最佳适用场景 | 美学风格、电影感、艺术方向 | 多语种文字与推理式构图 | 工作室级写实摄影 | 自然语言图像编辑 |
| 每次任务候选图数 | 4 张独特候选 | 1 张 | 1 张 | 1 张 |
| 速度等级 | 草稿 / 快速 / 极速 | 单一等级 | 单一等级 | 单一等级 |
| 主体参考 | Omni-Reference(--oref) | 最多 4 张参考图 | 最多 8 张参考图 | 最多 14 张参考图 |
| 风格参考 | 支持(--sref) | 通过参考图隐式实现 | 通过参考图隐式实现 | 通过参考图隐式实现 |
| 原生参数语法 | 完整(--ar / --s / --c / --weird / --iw / --oref / --sref) | 不支持 | 不支持 | 不支持 |
| 文字渲染 | 有限 | 6 种语言超过 99% | 优秀(英文) | 优秀 |
| 最强应用场景 | 概念艺术、海报、情绪摄影 | 多语种广告、信息图、UI 原型 | 编辑级写实摄影 | 产品编辑与视觉一致性 |
MidjourneyV7Page.useCase.h2
概念艺术与前期制作
为电影、游戏和动画构建情绪板、主视觉和视觉开发素材。Draft Mode 让导演或美术总监在一个下午就能快速浏览数百种构图方案。
品牌与编辑摄影
利用 Midjourney 标志性的电影光线制作主视觉图像。用 Style Reference(--sref)锁定整套活动风格,用 Omni-Reference(--oref)保持产品或模特在整个拍摄中的视觉一致性。
专辑、书籍与杂志封面
每个提示词生成四张候选图,等于一次运行产出四个封面创意。调整 --c 扩大风格变化,调整 --s 推进风格化,调整 --weird 打破常规选择。
角色设计与形象表
用 Omni-Reference 锁定角色身份,然后在不同场景中重新摆姿、调整光线和渲染。适用于桌游艺术、漫画前期制作和动画开发。
印刷品、海报与周边商品
以印刷友好的画幅比例(3:4、4:3)输出,再离线进行超分辨率处理。V7 改进的细节连贯性意味着在付印前需要更少的手部修复和细节后期工作。
建筑与产品可视化
V7 对空间、景深、材质和反射的呈现更加真实可信。可用于早期室内外效果图,或以粘土稿参考渲染产品主视觉。
探索其他 AI 图像模型
Midjourney V7 常见问题解答
什么是 Midjourney V7,它是何时发布的?
Midjourney V7 是 Midjourney 图像模型的第七个主要版本,于 2025 年 4 月 3 日以 Alpha 版本发布 —— 是近一年来 Midjourney 的首次重大升级(V6.1 于 2024 年 8 月推出)。它采用全新底层架构,而非 V6 的迭代演进。
V7 与 V6 / V6.1 有何不同?
V7 从零构建,并非源自 V6。最显著的改进包括:(1)细节连贯性明显提升 —— 手部、发丝、布料、珠宝和小道具在近距离审视下依然细腻;(2)提示词还原更加字面化;(3)引入了用于快速创意探索的 Draft Mode;(4)Omni-Reference(--oref)将角色参考拓展至任意主体;(5)精化后的 Style Reference(--sref)。Midjourney 标志性的绘画氛围和电影光线依然保留。
什么是 Draft Mode?
Draft Mode 的渲染速度约为标准模式的 10 倍,保真度较低,成本也更低。它专为快速创意探索设计 —— 低成本生成大量构图 —— 而非最终交付。当某个草稿构图令你满意时,可用相同提示词以快速或极速模式重新渲染,获得更高保真度的成品。
草稿、快速和极速有什么区别?
草稿是最便宜、最快的模式(保真度较低,适合创意探索)。快速是正式制作的默认模式。极速在优先队列中运行,成本更高 —— 适合需要立即获得结果时使用。在 LoveGen AI 上,你可以在速度选择器中切换模式;提示词中的 --draft / --fast / --turbo 参数会在服务端被过滤。
什么是 Omni-Reference(--oref)?
Omni-Reference 是 V7 对角色参考功能的升级。它不再局限于锁定面部或角色,而是可以锁定任意主体 —— 特定产品、车辆、服装或人物 —— 跨多次生成保持同一身份。适用于产品摄影、系列作品视觉一致性和品牌素材制作。
V7 支持哪些原生参数?
所有标准 Midjourney V7 参数均可作为内联提示词参数使用:--ar(画幅比例)、--s(风格化,0–1000)、--c(混沌度,0–100)、--weird(0–3000)、--iw(图像权重,0–3)、--sref(风格参考 URL)和 --oref(Omni-Reference URL)。模型锁定为 V7 —— --v / --version 参数会被过滤 —— 且不支持 --niji。
我可以进行图生图操作吗?
可以。最多上传 4 张参考图,它们会以 URL 形式前置于提示词。Midjourney 的输入规则适用:单张参考图必须配合文字描述;两张或以上参考图可选是否附加文字。
为什么每次任务返回四张图片?
Midjourney 一直以来每次任务都会返回四张独特候选图,方便你对比构图并挑选最佳结果 —— 更像是一张联系表,而非单张渲染。LoveGen AI 以 2×2 宫格展示这四张图;点击任意缩略图可放大查看。
如果我的提示词被内容审核过滤会怎样?
Midjourney 在服务端执行其内容政策。被审核拦截的任务不会返回图像,且根据 Midjourney 的政策,被过滤任务的积分不予退还。请确保提示词符合 Midjourney 公开发布的社区准则。




