Google DeepMind udoskonala Veo 3.1: Profesjonalne narzędzia kontroli i natywne wideo pionowe

Edytowane przez: Veronika Radoslavskaya

W dniu 13 stycznia 2026 roku firma Google DeepMind ogłosiła wprowadzenie znaczącej aktualizacji dla swojego zaawansowanego modelu generowania wideo, Veo 3.1. Głównym punktem tej modernizacji jest zestaw narzędzi o nazwie „Ingredients to Video”, który został zaprojektowany z myślą o zapewnieniu twórcom profesjonalnej precyzji podczas przekształcania statycznych obrazów referencyjnych w płynne i realistyczne ujęcia kinowe.

Model Veo 3.1 został w pełni zoptymalizowany pod kątem współczesnych standardów mobilnych dzięki wprowadzeniu natywnego wsparcia dla formatu pionowego 9:16. Innowacja ta pozwala twórcom na bezpośrednie generowanie wysokiej jakości treści przeznaczonych na platformy takie jak YouTube Shorts, co eliminuje problem utraty rozdzielczości, który zazwyczaj towarzyszy procesowi kadrowania materiałów nagranych pierwotnie w orientacji poziomej.

Aby sprostać rygorystycznym wymaganiom nowoczesnej produkcji filmowej, Google zaimplementowało również zaawansowaną technologię skalowania do rozdzielczości 4K. Funkcja ta znacząco poprawia odwzorowanie tekstur oraz najdrobniejszych detali, sprawiając, że klipy generowane przez sztuczną inteligencję idealnie nadają się do profesjonalnych procesów roboczych oraz wyświetlania na ekranach wielkoformatowych.

Kluczowym elementem aktualizacji jest przełom w dziedzinie zachowania spójności tożsamości oraz stylu wizualnego. Udoskonalony system „Ingredients to Video” oferuje teraz twórcom niespotykany dotąd poziom kontroli nad procesem kreatywnym, co pozwala na precyzyjne realizowanie wizji artystycznej bez zbędnej przypadkowości.

  • Potrójne referowanie obrazów: Użytkownicy mogą teraz dostarczyć do trzech niezależnych obrazów referencyjnych (na przykład postać, konkretne otoczenie oraz określony styl wizualny), aby pokierować procesem generowania. Gwarantuje to, że sztuczna inteligencja zachowa identyczny wygląd bohatera w różnych scenach i warunkach.
  • Kontrola pierwszej i ostatniej klatki: Ta potężna nowa funkcja pozwala reżyserom na dokładne określenie punktu startowego i końcowego filmu. Veo 3.1 automatycznie tworzy między tymi obrazami płynne, kinowe przejście, dbając o zachowanie pełnej logiki wizualnej w całym wygenerowanym klipie.
  • Rozszerzanie scen: W celu ułatwienia budowania dłuższych narracji filmowych, model oferuje teraz możliwość wydłużania istniejących materiałów wideo. Nowe segmenty są generowane na podstawie ostatnich klatek poprzedniego ujęcia, co zapewnia idealną ciągłość zarówno w warstwie wizualnej, jak i w dynamice ruchu.

Veo 3.1 wykazuje się teraz znacznie większą precyzją w interpretowaniu profesjonalnych komend operatorskich, takich jak „dolly-in”, „panoramowanie” czy „oświetlenie kinowe”. Co więcej, model potrafi generować w pełni zsynchronizowaną ścieżkę dźwiękową, obejmującą odgłosy otoczenia, efekty specjalne (SFX) oraz eksperymentalną funkcję synchronizacji ruchu warg dla postaci, co przekłada się na bardziej immersyjne wrażenia audiowizualne.

Nowe funkcjonalności modelu Veo 3.1 są sukcesywnie integrowane z całym ekosystemem Google. Są one dostępne dla użytkowników aplikacji Gemini, na platformie do tworzenia filmów Flow, a także dla klientów korporacyjnych za pośrednictwem interfejsu Gemini API oraz platformy Vertex AI.

W celu zapewnienia pełnej transparentności i bezpieczeństwa, wszystkie treści wygenerowane przez model Veo 3.1 są opatrywane cyfrowymi znakami wodnymi SynthID. Dodatkowo, użytkownicy mogą teraz weryfikować autentyczność i pochodzenie materiałów wideo, przesyłając je do aplikacji Gemini, która sprawdzi, czy dany film został stworzony przy użyciu narzędzi sztucznej inteligencji od Google.

50 Wyświetlenia

Źródła

  • Digital Trends Español

  • Techmeme

  • Veo 3.1 Ingredients to Video: More consistency, creativity and control

  • Google Announces Veo 3.1 and New Flow Capabilities - Thurrott.com

  • Google DeepMind

  • The Best AI Video Generators in 2026: Tested, Reviewed & Ranked - by Jim Clyde Monge

Czy znalazłeś błąd lub niedokładność?Rozważymy Twoje uwagi tak szybko, jak to możliwe.