字節跳動發表 Seedance 2.0:支援多鏡頭敘事與原生 2K 解析度,重塑 AI 影片創作生態
编辑者: Veronika Radoslavskaya
在 2026 年 2 月初,科技巨頭字節跳動正式揭開了其新一代生成式 AI 影片模型 Seedance 2.0 的神秘面紗。相較於先前的 1.5 版本,這次更新象徵著技術上的重大跨越,特別針對目前 AI 影片生成領域中最具挑戰性的問題進行優化:不再僅限於生成單一、孤立的片段,而是致力於打造具有連貫性與敘事邏輯的完整影像序列。
Seedance 2.0 最受矚目的核心功能莫過於「多鏡頭敘事」(Multi-shot storytelling)能力。過去的生成模型往往只能產出單一且連續的鏡頭,但 Seedance 2.0 具備建構包含多個相異場景序列的實力,從宏觀的環境全景到細膩的人物特寫都能精準掌控。更重要的是,該模型在切換鏡頭時能維持極高的穩定性,確保角色身份、服裝造型及視覺風格在不同畫面間保持一致,實現了單一工作流中的真實敘事流動。
在視覺輸出標準方面,字節跳動也進行了顯著的規格升級。Seedance 2.0 現在支援原生 2K 解析度,這比起早期版本所強調的 1080p 品質有了長足進步。這種高精細度的畫面表現,能更有效地滿足專業影視製作與高品質內容創作的需求,為用戶提供更具沉浸感的視覺體驗。
為了提升創作效率,研發團隊導入了專有的 RayFlow 加速框架。透過這項底層技術的優化,Seedance 2.0 的生成速度大幅提升了 30%。這意味著創作者在不犧牲視覺複雜度與細節的前提下,能夠以更快的節奏進行內容迭代與創意嘗試,顯著降低了製作成本。
除了視覺上的突破,Seedance 2.0 也告別了無聲影片時代,整合了強大的音訊合成與口型同步技術。該模型支援音素級別(Phoneme-level)的精準對位,讓虛擬角色的對白與口型變化顯得更加自然且具說服力,大幅提升了角色的生命力。
此外,這項語音同步功能展現了強大的國際化潛力,目前已涵蓋超過八種不同的語言。這為全球市場的在地化內容創作提供了極大便利,創作者可以直接在生成過程中完成多語言版本的製作,無需繁瑣的後期配音與對位流程。
在輸入處理的靈活性上,Seedance 2.0 展現了全方位的高適應性。它能夠根據多元化的提示來源生成影片,讓創作者能以最直觀的方式表達創意:
- 文字描述:透過精確的文字指令勾勒場景與動作。
- 靜態參考圖:用於鎖定特定角色特徵或視覺風格,確保視覺連續性。
- 既有影片片段:支援風格遷移或內容延伸,讓舊素材煥發新生命。
- 音訊檔案:直接驅動畫面的節奏感或角色的口型表現。
關於產品部署,Seedance 2.0 目前已開始向特定用戶群體開放。字節跳動採取了階段性策略,將這項尖端的生成能力直接整合至旗下的創意平台「即夢 AI」(Jimeng AI)以及專業影片剪輯工具「剪映」(Jianying)。
這種將高階 AI 技術融入大眾化創作工具的做法,預示著字節跳動正逐步改變數位內容的生產模式。Seedance 2.0 的問世不僅提升了 AI 影片的技術天花板,也為敘事型短片與專業影像創作開闢了全新的可能性,讓每位創作者都能更輕鬆地講述完整且動人的故事。
29 浏览量
來源
Video: ultime notizie - Corriere TV
The News International
South China Morning Post
PetaPixel
Apiyi.com Blog
WaveSpeedAI Blog
閱讀更多有關此主題的新聞:
发现错误或不准确的地方吗?我们会尽快处理您的评论。