구글의 Veo AI 비디오 모델 제품군은 2024년 5월에 출시된 Veo 1부터 오디오가 동기화된 네이티브 4K 60fps 비디오를 이미 제공하는 현재의 Veo 3.1에 이르기까지 빠르게 진화해 왔습니다. 이제 모든 이목은 5월 19~20일에 열리는 Google I/O 2026에서 공개될 것으로 널리 예상되는 차세대 모델, Veo 4에 쏠리고 있습니다.
Veo 4는 아직 구글에서 공식적으로 발표하지 않았습니다. 하지만 유출된 정보, 특허 출원, 신뢰할 수 있는 업계 소식통을 바탕으로 어떤 기능이 추가될지 충분히 짐작해 볼 수 있습니다. 이 가이드에서는 루머로 떠도는 기능들, Veo 4가 Veo 3.1의 기존 기능을 어떻게 발전시킬지, 그리고 Runway Gen-4.5나 Kling 3.0 같은 경쟁 모델과 어떻게 비교될 수 있는지 다룹니다.
현재까지 알려진 Veo 4에 대한 정보
Veo 4는 구글 딥마인드(Google DeepMind)의 Veo 텍스트-비디오 AI 모델 제품군의 4세대 버전이 될 것으로 예상됩니다. 구글에서 사양을 확인해 주지는 않았지만, 여러 신뢰할 만한 소식통들이 몇 가지 유력한 기능들을 지목하고 있습니다.
유출 정보 및 업계 분석에 따른 예상 사양:
- 길이: 클립당 최대 30초 (Veo 3.1의 약 15초에서 증가), 더 긴 내러티브를 위한 스토리보드 체인 기능 지원.
- 해상도: 네이티브 4K (Veo 3.1의 4K 지원 유지).
- 스토리보딩: 샷 간 캐릭터 일관성을 유지하는 네이티브 다중 장면 기획 지원.
- 캐릭터 고정(Anchoring): 움직임과 각도 변화에도 얼굴과 옷의 일관성 대폭 향상.
- 오디오: 동기화된 음성, 주변음 및 사운드 디자인 강화 (Veo 3의 네이티브 오디오 기능 기반).
- 제로샷 아바타: 미세 조정(fine-tuning) 없이 단일 참조 사진만으로 인물 비디오 생성.
- 아티팩트(시각적 결함): 흔히 발생하는 AI 비디오 결함 약 70% 감소 예상.
- 파라미터: Veo 3보다 3배 많은 파라미터가 탑재되었다는 루머.
중요: 이 중 어떤 기능도 구글에서 공식적으로 확인한 것은 아닙니다. 공식 세부 정보가 발표되면 이 기사를 업데이트할 예정입니다.
현재 Veo 3.1의 위치
Veo 4가 어떤 새로운 기능을 가져올지 이해하려면, 현재 모델인 Veo 3.1이 이미 어떤 부분에서 뛰어난지 아는 것이 도움이 됩니다. Veo 3.1은 현재 LoveGen AI 및 구글의 자체 플랫폼을 통해 사용할 수 있습니다.
Veo 3.1 기능 (공식 확인됨):
- 최대 60fps의 트루 4K 해상도(3840x2160) — 네이티브 4K를 지원하는 최초의 주류 AI 비디오 모델.
- TikTok 및 YouTube Shorts용 네이티브 9:16 세로형 비디오 지원.
- 대화, 주변음, 효과음을 포함한 동기화된 오디오 생성.
- "비디오 재료(Ingredients to Video)" — 캐릭터 일관성을 위해 최대 4장의 참조 이미지 사용.
- 1분 이상의 비디오를 위한 장면 연장(Scene extension).
- Google Flow, Gemini, YouTube Shorts 및 Vertex AI의 API를 통해 사용 가능.
- Google Vids를 통한 무료 액세스 (하루 최대 12개 비디오).
Veo 4를 기다리지 않고 지금 바로 AI 비디오 제작을 시작하고 싶다면, LoveGen AI에서 Veo 3.1을 사용해 볼 수 있습니다.
Veo 4의 예상되는 새로운 기능
유출된 정보를 바탕으로 Veo 4의 핵심이 될 가능성이 가장 높은 기능들은 다음과 같습니다.
네이티브 스토리보딩
이것이 가장 기대되는 새로운 기능입니다. 현재의 AI 비디오 모델들은 단일한 개별 클립만 생성합니다. Veo 4는 사용자가 다양한 프롬프트, 카메라 각도, 액션으로 순차적인 장면들을 정의하는 동시에 모든 장면에서 캐릭터와 시각적 일관성을 유지할 수 있도록 지원할 것으로 예상됩니다.
영화 제작자와 광고주에게 이는 AI 비디오의 가장 큰 병목 현상, 즉 서로 맞지 않는 개별 클립들을 이어 붙여야 하는 골칫거리를 해결해 줄 수 있습니다.
30초 클립 길이
Veo 3는 8초 길이의 클립을 생성했습니다. Veo 3.1은 장면 연장 기능을 통해 이를 약 15초로 늘렸습니다. Veo 4는 네이티브 생성을 30초까지 확장할 것으로 예상되며, 이는 단 한 번의 생성으로 완전한 소셜 미디어 광고나 서사적인 장면을 만들기에 충분한 길이입니다.
고급 캐릭터 고정 (Advanced Character Anchoring)
움직임이나 각도가 변해도 얼굴, 옷, 신체적 특징을 일관되게 유지하는 것은 AI 비디오에서 가장 어려운 문제 중 하나였습니다. Veo 3.1의 "비디오 재료" 기능은 참조 이미지로 이 문제를 해결했지만, Veo 4는 개선된 모델 아키텍처를 통해 참조 이미지 없이도 네이티브 방식으로 이를 처리할 것이라는 루머가 있습니다.
제로샷 비디오 아바타
얼굴 사진을 업로드하면 Veo 4가 그 사람이 말하고, 움직이고, 감정을 표현하는 비디오를 생성해 준다고 합니다. 파인튜닝이나 LoRA 학습이 필요한 기존 방식과 달리, 단 한 장의 이미지로 한 번에(one shot) 작동할 수 있습니다.
향상된 오디오 및 립싱크
Veo 3는 당시 어떤 경쟁사도 따라오지 못한 네이티브 오디오 생성 기능을 도입했습니다. Veo 4는 더 풍부한 표현력의 음성, 여러 언어에 걸친 더 나은 립싱크, 컷 전환 시에도 자연스럽게 이어지는 입체적인 사운드 디자인으로 이를 더욱 개선할 것으로 예상됩니다.
Veo의 진화: Veo 1에서 Veo 4까지
| 버전 | 출시일 | 최대 길이 | 해상도 | 오디오 | 핵심 기능 |
|---|---|---|---|---|---|
| Veo 1 | 2024년 5월 | 약 4초 | 1080p | 없음 | 최초의 Veo 모델 |
| Veo 2 | 2024년 12월 | 약 8초 | 4K | 없음 | 4K 지원 도입 |
| Veo 3 | 2025년 5월 | 8초 | 1080p | 지원 | 네이티브 오디오 생성 |
| Veo 3.1 | 2025년 10월 | 15초 이상 | 4K 60fps | 지원 | 4K + 세로형 + 비디오 재료 |
| Veo 4 (예상) | 2026년 5월? | 30초 | 4K | 향상됨 | 스토리보딩 + 아바타 |
Veo 4와 경쟁 모델 비교 전망
2026년 초, AI 비디오 생성 시장의 판도는 극적으로 변화했습니다. Veo 4의 예상 기능이 현재 사용 가능한 모델들과 어떻게 비교될 수 있는지 살펴보겠습니다.
| 기능 | Veo 4 (예상) | Runway Gen-4.5 | Kling 3.0 | Pika 2.5 |
|---|---|---|---|---|
| 최대 클립 길이 | 약 30초 | 60초 | 5분 | 10초 |
| 해상도 | 4K | 4K | 4K 60fps | 1080p |
| 스토리보딩 | 네이티브 지원 예상 | 지원 안 함 | 멀티샷 디렉팅 (6컷) | 지원 안 함 |
| 오디오 생성 | 향상된 기능 예상 | 지원 안 함 | 네이티브 오디오 동기화 | 제한적 |
| 캐릭터 일관성 | 매우 뛰어날 것으로 예상 | 우수 (참조 이미지) | 우수 (3인 트래킹) | 보통 |
| 시작 가격 | 미정 | 월 $12 | 초당 약 $0.07 | 월 $8 |
Runway Gen-4.5: 전문적인 워크플로우의 선두 주자
Runway는 2025년 12월 일반 세계 모델(GWM-1)과 함께 Gen-4.5를 출시했습니다. 현재 60초라는 가장 긴 클립 길이를 자랑하며, 기존 영상에 AI 비디오를 합성하거나 정밀한 카메라 및 모션 제어 등 전문적인 포스트 프로덕션 워크플로우에서 뛰어난 성능을 발휘합니다. 2026년 2월, Runway는 자사 플랫폼에 Kling 3.0을 포함한 타사 모델들을 통합하기 시작했습니다.
Kling 3.0: 최고의 가성비와 가장 긴 비디오
2026년 2월 콰이쇼우(Kuaishou)가 출시한 Kling 3.0은 경쟁 모델을 압도하는 최대 5분 길이의 비디오를 생성합니다. 네이티브 4K 60fps, 최대 6개의 카메라 컷을 지원하는 멀티샷 디렉팅, 네이티브 오디오 동기화를 제공하며, 동일한 씬에서 최대 3명의 인물을 독립적으로 추적할 수 있습니다. 초당 약 0.07달러의 가격으로 대량의 작업을 하는 크리에이터에게 가장 가성비가 좋은 옵션입니다.
Pika 2.5: 소셜 콘텐츠를 위한 속도 중심 모델
Pika는 1530초 만에 510초 분량의 클립을 생성하는 속도 특화 틈새시장을 공략하고 있습니다. 월 8달러의 가격으로, 영화 같은 퀄리티보다는 짧은 소셜 콘텐츠를 빠르게 반복 제작해야 하는 크리에이터에게 가장 저렴한 진입점을 제공합니다.
Veo 4의 경쟁 우위 요소
유출된 정보가 정확하다면, Veo 4의 차별점은 네이티브 스토리보딩(어떤 경쟁사도 이를 네이티브로 제공하지 않음), 제로샷 아바타, 그리고 구글 생태계(Gemini, YouTube, Google Ads)와의 가장 깊은 수준의 통합이 될 것입니다. 이미 구글 워크플로우에 익숙한 크리에이터들에게 Veo 4는 기본 선택지가 될 수 있습니다.
Sora는 어떻게 되고 있나요?
OpenAI의 Sora는 단계적으로 서비스가 종료되고 있습니다. 미국 사용자를 위한 웹 버전은 2026년 3월 13일에 제거되었습니다. Sora 앱은 2026년 4월 26일에 중단되며, API 액세스는 2026년 9월 24일에 종료됩니다.
이번 서비스 종료는 컴퓨팅 비용이 하루 약 100만 달러에 달하는 반면, 사용자 채택률은 약 100만 명으로 정점을 찍은 후 50만 명 미만으로 감소하는 등 지속 불가능한 비용 구조 때문이었습니다. 1억 5천만 달러 규모의 디즈니 파트너십 결렬이 이 결정을 더욱 가속화했습니다. OpenAI는 수익성이 더 높은 코딩 및 추론 제품으로 GPU 리소스를 재할당하고 있습니다.
Sora에 의존했던 크리에이터들을 위한 대안으로는 Veo 3.1(현재 사용 가능), Kling 3.0, Runway가 있으며, 혹은 Veo 4를 기다리는 방법이 있습니다. LoveGen AI의 AI 비디오 모델 페이지에서 사용 가능한 모든 옵션을 탐색할 수 있습니다.
현재 Veo 가격 정책 (Veo 3.1 기준)
Veo 4의 가격은 아직 발표되지 않았습니다. 다음은 Veo 4가 따르거나 기반으로 삼을 가능성이 높은 Veo 3.1의 현재 가격 구조입니다.
| 요금제 | 가격 | 제공 내역 |
|---|---|---|
| Google Vids (무료) | $0 | Veo 3.1, 하루 최대 12개 비디오 |
| Google AI Pro | 월 $19.99 | 향상된 접근성 및 한도 |
| Google AI Ultra | 월 $49.99 | 더 높은 한도 + 우선 접속권 |
| Google AI Studio API | 종량제 | 개발자 액세스 |
| Vertex AI (엔터프라이즈) | 종량제 | SLA가 보장되는 엔터프라이즈 액세스 |
| LoveGen AI | 요금제 참조 | Veo 3.1 및 기타 AI 모델 액세스 |
또한 LoveGen AI의 요금제를 통해 Veo 3.1 및 기타 AI 비디오 생성 모델에 액세스할 수 있습니다.
예상되는 알려진 한계점
예상되는 개선 사항에도 불구하고, 다음과 같은 특정 AI 비디오 생성의 과제들은 Veo 4에서도 계속될 가능성이 높습니다.
프레임 내 텍스트 렌더링
표지판, 라벨, 화면 내 텍스트 등 비디오 내부에서 읽을 수 있는 텍스트를 구현하는 것은 모든 AI 비디오 모델에서 여전히 가장 어려운 과제 중 하나입니다. 텍스트 오버레이는 포스트 프로덕션(후반 작업)에서 추가해야 할 것으로 예상하십시오.
복잡한 다인원 안무
브레이크 댄스, 디테일한 손짓, 복잡한 그룹 안무와 같은 정교한 움직임은 여전히 업계 전반에 걸쳐 부자연스러운 결과를 낳습니다. Veo 4가 이를 어느 정도 개선할 수는 있겠지만, 완벽하게 해결하기는 어려울 것입니다.
프롬프트 정밀도
AI 비디오 모델들은 때때로 프롬프트를 다소 느슨하게 해석합니다. 정확한 카메라 위치, 특정 캐릭터의 포즈, 정밀한 씬 구도를 안정적으로 제어하기는 어렵습니다. 다만, 스토리보딩 기능이 이 격차를 줄이는 데 도움을 줄 수 있습니다.
생성 소요 시간
AI 비디오 생성은 여전히 컴퓨팅 집약적인 작업입니다. 속도 개선이 예상되긴 하지만, 실시간 비디오 생성까지는 아직 몇 년 더 기다려야 합니다.
Veo 4를 준비하는 방법
공식 발표를 기다리는 동안 다음과 같이 준비해 볼 수 있습니다.
지금 바로 Veo 3.1로 시작하기
Veo 4를 준비하는 가장 좋은 방법은 Veo 3.1로 경험을 쌓는 것입니다. 프롬프트 작성 기술, AI 비디오의 장단점에 대한 이해, 워크플로우 통합 노하우 등은 모두 직접적으로 활용할 수 있습니다. LoveGen AI에서 직접 사용해 보세요.
효과적인 프롬프트 작성법 배우기
AI 비디오 프롬프트는 구체적일수록 좋습니다. "도시를 걷는 여성" 대신 다음과 같이 작성해 보세요. "해 질 녘 비에 젖은 도쿄 거리, 네이비 블루 트렌치코트를 입은 여성이 걷고 있다. 물웅덩이에 네온사인이 반사된다. 카메라는 눈높이에서 따라가며 피사계 심도는 얕다."
모델이 이해할 수 있는 영화 촬영 용어를 사용하세요(예: 달리 인, 트래킹 샷, 크레인 샷, 핸드헬드, 클로즈업 랙 포커스). 조명도 명확하게 정의하세요("골든 아워 역광", "거친 오버헤드 형광등", "촛불의 따뜻한 톤").
다른 AI 비디오 툴 탐색하기
경쟁이 치열한 시장입니다. 다른 모델들을 시도해 보며 각각의 강점을 파악해 보세요.
- 오디오가 통합된 4K 비디오를 원한다면 Veo 3.1
- 더 긴 클립과 비용 효율성을 원한다면 Kling 3.0
- 창의적인 모션 효과를 원한다면 Seedance 2
- 기존 이미지를 비디오로 변환하려면 이미지-비디오 변환 툴
AI 비디오 모델 페이지에서 사용 가능한 모든 옵션을 탐색해 보세요.
AI 이미지와 비디오 결합하기
AI 비디오와 AI 이미지 생성은 시너지가 매우 좋습니다. Nano Banana Pro 또는 Imagen 4와 같은 도구로 캐릭터 참조 이미지를 먼저 생성한 다음, 해당 이미지를 Veo 3.1의 "비디오 재료" 기능의 입력값으로 사용해 비디오를 생성해 보세요. 이 워크플로우는 Veo 4에서 훨씬 더 강력해질 가능성이 높습니다.
모든 AI 이미지 모델을 둘러보고 참조 이미지 작업에 가장 적합한 모델을 찾아보세요.
Google I/O 2026 관전 포인트
Google I/O 2026은 5월 19일부터 20일까지 열립니다. 과거 패턴을 바탕으로 다음과 같은 내용이 예상됩니다.
- 기능 데모 및 가격이 포함된 공식 Veo 4 발표
- Gemini, YouTube, Google Ads 및 Flow와의 통합 세부 정보
- Vertex AI 및 AI Studio 개발자를 위한 API 가용성 타임라인
- 경쟁사 대비 Veo 4의 강점을 보여주는 비교 데모
구글의 공식 발표가 나오는 대로 확인된 정보를 바탕으로 이 기사를 즉시 업데이트하겠습니다. LoveGen AI 블로그를 구독하고 알림을 받아보세요.
