Google презентує Lyria 3: музична ШІ-студія тепер інтегрована безпосередньо в Gemini
Автор: Veronika Radoslavskaya
18 лютого 2026 року підрозділ Google DeepMind офіційно оголосив про початок глобального впровадження Lyria 3 — своєї найбільш досконалої та потужної моделі для генерації музики на сьогоднішній день. Цей крок знаменує важливий перехід від обмежених дослідницьких версій до повноцінного інструменту, який тепер доступний широкому загалу. Google інтегрувала цей сервіс безпосередньо у веб-інтерфейс та мобільний додаток Gemini, що фактично перетворює популярний чат-бот на комплексну цифрову станцію для створення музики, доступну кожному користувачу.
Нові можливості: вокал, відео та мультимодальне введення
Lyria 3 значно розширює межі того, що було можливо в попередніх експериментальних ітераціях, пропонуючи користувачам набір інструментів професійного рівня для реалізації їхніх творчих задумів:
- Мультимодальне введення: Тепер творці не обмежені лише текстовими описами. Модель здатна глибоко аналізувати завантажені фотографії або відеофайли, щоб автоматично згенерувати саундтрек, який ідеально відповідає візуальному ритму, кольоровій гамі та загальному настрою контенту. Наприклад, система може просканувати відео вечірньої дощової вулиці та створити автентичну джазову композицію в стилі lo-fi.
- Генерація текстів та вокальних партій: На відміну від ранніх версій, Lyria 3 володіє здатністю самостійно писати тексти пісень та створювати реалістичне вокальне виконання. На момент запуску модель підтримує вокал вісьмома мовами, серед яких англійська, іспанська, японська, корейська та хінді. Крім того, підтримка арабської мови вже доступна у режимі бета-тестування.
- Глибокий контроль над композицією: Нові елементи керування в інтерфейсі Gemini дозволяють користувачам тонко налаштовувати темп, вибирати специфічні жанрові стилі та регулювати «щільність» інструментального супроводу. Система створює високоякісні 30-секундні фрагменти, які можна безшовно подовжувати або зациклювати для створення повноцінних треків.
Інтеграція з інноваційною моделлю «Nano Banana»
Для того, щоб забезпечити користувачам повний цикл створення контенту, Google інтегрувала свою найновішу модель генерації зображень, яка отримала внутрішню кодову назву «Nano Banana» (вона є частиною сімейства Gemini 2.5 Flash Image). Ця інтелектуальна система автоматично аналізує зміст лірики та емоційне забарвлення згенерованої музики, щоб створити унікальну, високоякісну обкладинку для кожного альбому чи синглу, роблячи кожну композицію візуально завершеною.
Безпека, етика та захист авторських прав
Під час презентації представники Google окремо наголосили, що Lyria 3 була розроблена та навчена з суворим дотриманням принципів захисту авторських прав та безпеки артистів. Компанія впровадила кілька критично важливих механізмів захисту:
- Захист від імітації (Anti-Mimicry Guardrails): Алгоритми моделі спеціально налаштовані на відхилення запитів, що мають на меті пряме копіювання стилю або голосу відомих виконавців. Якщо користувач спробує створити композицію «у стилі Тейлор Свіфт», система використає цей запит лише як загальне джерело творчого натхнення, гарантуючи, що вона не клонує голос артистки чи її унікальні мелодійні структури.
- Технологія SynthID: Усі аудіофайли, створені за допомогою Lyria 3, містять SynthID — невідчутний для людського вуха водяний знак. Ця мітка залишається розпізнаваною навіть після значного стиснення, редагування або професійного мікшування, що дозволяє завжди ідентифікувати контент як такий, що був створений штучним інтелектом.
Доступність та конкуренція на ринку
Розгортання нової функції розпочалося сьогодні для повнолітніх користувачів Gemini (18+) у більшості країн світу. Google позиціонує цей реліз як серйозну відповідь таким конкурентам, як Suno та Udio. Завдяки глибокій інтеграції у власну екосистему та простоті використання, компанія прагне зробити передові інструменти створення музики доступними для масової аудиторії, відкриваючи нову еру в цифровій творчості.
9 Перегляди
Джерела
Google DeepMind
Читайте більше новин на цю тему:
Знайшли помилку чи неточність?Ми розглянемо ваші коментарі якомога швидше.
