Google Meluncurkan Model Video AI Veo 3.1 dengan Perangkat Flow Generasi Baru dan Audio yang Lebih Kaya

Diedit oleh: Veronika Radoslavskaya

Dunia kreasi konten digital sedang mengalami pergeseran signifikan menyusul pengumuman Google mengenai model pembuatan video kecerdasan buatan (AI) terbarunya, Veo 3.1. Peluncuran ini disertai dengan peningkatan besar pada rangkaian perangkat lunak pembuatan film terintegrasi, Flow. Evolusi ini menandakan kalibrasi ulang instrumen kreatif secara substansial, memberikan sarana bagi para pencerita visual untuk mewujudkan konsep-konsep kompleks dengan tingkat ketepatan dan kontrol yang jauh lebih tinggi dari sebelumnya. Inti dari pengumuman ini berfokus pada penyampaian realisme yang ditingkatkan, kemampuan audio tersinkronisasi yang canggih, dan pemahaman yang lebih mendalam serta intuitif mengenai struktur naratif di dalam kerangka kerja AI.

Veo 3.1 dikembangkan dari fondasi model Veo 3 awal, yang pertama kali diperkenalkan pada Mei 2025. Iterasi baru ini menyempurnakan hasil visual melalui rendering tekstur yang superior dan pencahayaan lingkungan yang lebih bernuansa, mendorong teknologi semakin mendekati fotorealisme. Yang terpenting, model ini kini unggul dalam pembuatan audio tingkat lanjut, memastikan bahwa efek suara dan dialog tersinkronisasi secara rumit dengan aksi visual. Hal ini mengatasi masalah umum yang sering mengurangi imersi pada sistem generatif sebelumnya. AI ini juga menunjukkan pemahaman yang lebih mendalam tentang bahasa sinematik, memungkinkannya mematuhi petunjuk gaya tertentu dengan lebih dekat. Sebagai tambahan, model Veo 3.1 Fast juga tersedia untuk pengguna yang membutuhkan kecepatan.

Kekuatan generatif yang ditingkatkan ini disalurkan langsung melalui alat pembuatan film Flow yang telah diperbarui, yang sejak diperkenalkan telah menghasilkan lebih dari 275 juta video. Kini, para kreator dapat memanfaatkan serangkaian fungsi baru yang kuat yang dirancang untuk merampingkan tugas produksi yang kompleks. Fitur 'Ingredients to Video' memungkinkan pengguna memasukkan beberapa gambar referensi. Ini bertujuan untuk membangun desain karakter dan estetika visual yang konsisten di seluruh urutan, dan kini dilengkapi dengan pencocokan audio yang sesuai.

Untuk narasi yang lebih ambisius, fitur 'Scene Extension' (Perpanjangan Adegan) memungkinkan perpanjangan klip yang dihasilkan, mengatasi batasan durasi pendek sebelumnya sambil mempertahankan kesinambungan audio. Selain itu, Flow memperkenalkan bentuk kontrol baru, seperti 'Frames to Video' (Bingkai ke Video), yang menghasilkan gerakan mulus antara dua gambar diam yang ditentukan pengguna, lengkap dengan audio yang tersinkronisasi. Alat manipulasi objek juga memungkinkan penyisipan atau penghapusan elemen dalam suatu adegan, dengan sistem secara cerdas menghitung ulang dan menerapkan bayangan serta pencahayaan yang realistis.

Kemampuan-kemampuan canggih ini, termasuk penyisipan dan penghapusan objek, diposisikan untuk mendefinisikan ulang alur kerja kreatif bagi pengembang dan pengguna perusahaan yang mengakses teknologi melalui platform Gemini API dan Vertex AI, serta kreator individu. Lompatan teknologi ini menggarisbawahi komitmen Google untuk mendemokratisasi produksi video berbantuan AI dengan fidelitas tinggi, menempatkan kontrol canggih langsung ke tangan para visioner. Fokus pada pemecahan masalah kesinambungan visual yang rumit, seperti mempertahankan pencahayaan yang konsisten selama penyisipan objek, menunjukkan pemahaman mendalam tentang elemen halus yang mengangkat simulasi menjadi seni yang menarik. Analisis industri menyoroti bahwa model yang mencapai konsistensi temporal tinggi mendapatkan tingkat adopsi premium di kalangan studio profesional, memposisikan penekanan Veo 3.1 pada persistensi objek dan perpanjangan adegan sebagai hal yang sangat relevan bagi komunitas kreatif profesional.

Sumber-sumber

  • Beebom

  • 9to5Google

  • Google Developers Blog

  • TechCrunch

  • BGR

  • Google Cloud Blog

Apakah Anda menemukan kesalahan atau ketidakakuratan?

Kami akan mempertimbangkan komentar Anda sesegera mungkin.