Google представляет Lyria 3: музыкальная ИИ-студия нового поколения интегрирована в Gemini
Автор: Veronika Radoslavskaya
18 февраля 2026 года подразделение Google DeepMind официально объявило о глобальном запуске Lyria 3, своей самой совершенной на сегодняшний день модели для генерации музыки. Этот релиз знаменует собой важный переход от закрытых исследовательских прототипов к полноценному коммерческому продукту, доступному широкой аудитории. Теперь инновационная технология интегрирована непосредственно в экосистему Gemini, что открывает новые горизонты для творчества.
Благодаря этой интеграции, пользователи по всему миру могут получить доступ к Lyria 3 через веб-интерфейс и официальное приложение Gemini. Фактически, популярный чат-бот превращается в комплексную студию звукозаписи, позволяя любому человеку создавать музыку профессионального качества без использования сложного оборудования. Это решение подчеркивает стремление Google сделать ИИ-инструменты максимально доступными для каждого.
Одной из наиболее значимых особенностей Lyria 3 является поддержка мультимодальных входных данных. В отличие от предыдущих версий, которые работали преимущественно с текстом, новая модель способна воспринимать визуальную информацию. Это позволяет пользователям использовать фотографии и видеоролики в качестве основы для своих будущих музыкальных произведений, задавая настроение через изображение.
Система может проанализировать загруженный видеофайл, например, кадры с изображением дождливой городской улицы, и автоматически создать саундтрек, идеально соответствующий визуальному ряду. В данном случае искусственный интеллект может предложить меланхоличный лоу-фай джаз, точно уловив ритм и атмосферу видео, что делает процесс создания контента интуитивно понятным и быстрым.
Кроме того, Lyria 3 значительно продвинулась в области генерации вокала и написания текстов песен. Теперь модель способна не только создавать инструментальные мелодии, но и дополнять их полноценным человеческим голосом с естественными интонациями. Это открывает огромные возможности для авторов песен и композиторов, позволяя мгновенно превращать идеи в готовые вокальные треки.
На текущий момент система поддерживает вокальное исполнение на 8 языках, среди которых английский, испанский, японский, корейский и хинди. Разработчики также добавили поддержку арабского языка, которая сейчас находится на стадии бета-тестирования. Такой широкий лингвистический охват позволяет пользователям из разных стран творить на своих родных языках, сохраняя культурную идентичность.
Для тех, кто предпочитает детальный контроль над процессом, предусмотрены новые инструменты настройки в интерфейсе. Пользователи могут изменять темп композиции, выбирать конкретные жанровые стили и регулировать инструментальную «плотность» аранжировки. Это дает возможность адаптировать музыку под конкретные нужды, будь то фоновый трек для блога или самостоятельное художественное произведение.
Модель генерирует высококачественные 30-секундные аудиоклипы, которые отличаются чистотой звучания и профессиональным сведением. Эти фрагменты можно бесшовно объединять, зацикливать или расширять, создавая композиции любой необходимой длительности. Такая гибкость делает Lyria 3 незаменимым инструментом для быстрого прототипирования музыкальных идей и создания полноценных альбомов.
В рамках создания единой творческой среды Google интегрировала в процесс свою новейшую модель генерации изображений под кодовым названием Nano Banana. Эта система, являющаяся частью семейства Gemini 2.5 Flash Image, отвечает за визуальное сопровождение создаваемого аудиоконтента. Она работает в фоновом режиме, обеспечивая эстетическую завершенность каждого проекта.
Nano Banana автоматически анализирует лирику и эмоциональный фон сгенерированного трека, чтобы создать уникальную и высококачественную обложку альбома. Таким образом, пользователь получает не просто аудиофайл, а полностью оформленный цифровой релиз с индивидуальным дизайном. Это значительно упрощает процесс публикации контента на музыкальных платформах и в социальных сетях.
Вопросы безопасности и соблюдения авторских прав стали фундаментом при разработке новой версии Lyria 3. В Google подчеркивают, что модель обучалась с соблюдением строгих этических норм и юридических стандартов защиты артистов. Это необходимо для предотвращения несанкционированного использования творческого наследия известных исполнителей и защиты интеллектуальной собственности.
В архитектуру модели встроены специальные защитные механизмы против мимикрии, которые блокируют попытки прямого копирования голоса или стиля конкретных звезд. Например, если пользователь введет запрос на создание песни «в стиле Тейлор Свифт», система использует это лишь как общее творческое вдохновение. Она не будет клонировать вокал певицы или копировать её уникальные мелодические структуры, обеспечивая оригинальность результата.
Для обеспечения прозрачности и возможности идентификации ИИ-контента все результаты работы Lyria 3 помечаются технологией SynthID. Это инновационный метод нанесения невидимых водяных знаков, которые внедряются непосредственно в аудиопоток. Этот знак остается распознаваемым даже в том случае, если запись была подвергнута компрессии, редактированию или микшированию с другими звуками.
Глобальное развертывание новой функции началось сегодня и охватывает всех совершеннолетних пользователей Gemini (старше 18 лет) по всему миру. Google позиционирует этот запуск как стратегический шаг в конкурентной борьбе с такими популярными сервисами, как Suno и Udio. Компания делает ставку на глубокую интеграцию в свою существующую экосистему и доступность инструментов для массового зрителя.
В конечном итоге, выход Lyria 3 может существенно изменить ландшафт современной музыкальной индустрии, сделав продвинутые технологии создания звука доступными для каждого. Благодаря сочетанию простоты использования и мощных вычислительных возможностей, Google стремится занять лидирующие позиции в сфере генеративного искусственного интеллекта для аудиоконтента, стимулируя новую волну цифрового творчества.
9 Просмотров
Источники
Google DeepMind
Читайте больше новостей по этой теме:
Вы нашли ошибку или неточность?Мы учтем ваши комментарии как можно скорее.
