Google presenta Lyria 3: El estudio de creación musical por IA integrado directamente en Gemini
Autor: Veronika Radoslavskaya
El 18 de febrero de 2026, Google DeepMind marcó un hito en la industria tecnológica al anunciar el despliegue global de Lyria 3, su modelo de generación de música más sofisticado hasta la fecha. Superando las fases de prueba experimentales, la compañía ha integrado esta herramienta de forma definitiva en la interfaz web y la aplicación de Gemini, transformando al chatbot en un estudio de producción musical completo y accesible para usuarios de todo el mundo.
Esta nueva evolución de Lyria expande drásticamente las fronteras de lo que la inteligencia artificial puede lograr en el ámbito sonoro, introduciendo capacidades que van mucho más allá de la simple composición melódica. Google ha diseñado este sistema para que sea intuitivo, permitiendo que cualquier persona pueda componer piezas originales con una calidad profesional sin necesidad de conocimientos técnicos avanzados.
Una de las innovaciones más destacadas es la implementación de la entrada multimodal. Los usuarios ya no están limitados exclusivamente a las descripciones de texto; ahora el modelo puede analizar fotografías o vídeos cargados para generar una banda sonora que se sincronice con el ritmo visual y la atmósfera de la imagen. Por ejemplo, al procesar un vídeo de una calle bajo la lluvia, el sistema es capaz de componer automáticamente una pieza de jazz lo-fi que capture esa esencia urbana específica.
Además de la composición instrumental, Lyria 3 destaca por su capacidad para redactar letras y generar interpretaciones vocales humanas de gran realismo. Actualmente, el sistema ofrece soporte para voces en ocho idiomas distintos, incluyendo el español, inglés, japonés, coreano e hindi, contando además con el árabe disponible en una versión beta para pruebas iniciales.
El control sobre la producción musical es ahora mucho más detallado gracias a nuevos controles de interfaz. Los usuarios pueden ajustar parámetros específicos como el tempo, el estilo del género y la densidad de la instrumentación. El modelo genera fragmentos de alta fidelidad de 30 segundos que están diseñados para ser extendidos o convertidos en bucles de manera totalmente fluida en proyectos más largos.
Para ofrecer una experiencia creativa integral, Google ha vinculado este lanzamiento con su modelo de generación de imágenes más reciente, conocido internamente bajo el nombre en clave 'Nano Banana'. Este componente, que forma parte de la familia Gemini 2.5 Flash Image, se encarga de analizar automáticamente la letra y el sentimiento de la canción generada para producir una portada de álbum única y de alta calidad para cada pista.
En cuanto a la ética y la legalidad, Google ha subrayado que Lyria 3 ha sido entrenado bajo estrictos protocolos de protección de derechos de autor. La seguridad de los artistas ha sido una prioridad fundamental durante el desarrollo de este motor de inteligencia artificial para evitar conflictos legales y garantizar un uso responsable de la tecnología.
El sistema incorpora barreras de protección avanzadas contra la imitación de estilos específicos. Si un usuario intenta generar una pista solicitando explícitamente el estilo de Taylor Swift, el modelo utilizará la petición únicamente como una referencia creativa general. De este modo, se asegura de no clonar voces ni estructuras melódicas que identifiquen de forma inequívoca a un artista real.
Como medida adicional de transparencia, todas las producciones de audio generadas incluyen la tecnología SynthID. Se trata de una marca de agua digital imperceptible para el oído humano que permanece rastreable incluso si el archivo de audio es sometido a procesos de compresión, edición o mezcla con otros sonidos, permitiendo identificar siempre el origen sintético del contenido.
La disponibilidad de estas nuevas funciones ha comenzado hoy mismo para todos los usuarios de Gemini mayores de 18 años a nivel global. Con este movimiento, Google se posiciona como un competidor directo de servicios especializados como Suno y Udio, aprovechando su vasta infraestructura y ecosistema digital para democratizar la creación musical avanzada ante una audiencia masiva.
9 Vues
Fuentes
Google DeepMind
Lea más noticias sobre este tema:
¿Encontró un error o inexactitud?Consideraremos sus comentarios lo antes posible.
