Crear canciones nuevas a partir de acordes, reinterpretar grandes éxitos, convertir texto en sonidos… El mundo de la música está revolucionado con los avances de la IA.
La IA ya está en todas partes. En los coches, en los smartphones, en los asistentes por voz y altavoces inteligentes… También es un hecho que existen herramientas que utilizan la Inteligencia Artificial y son capaces de generar casi cualquier tipo de servicio para las personas: redactan texto, nos informan sobre el estado del tráfico, responden a nuestras preguntas o están al tanto de nuestro estilo de vida monitorizando nuestras pulsaciones, horas de sueño, etc.
La música, como otras formas de expresión artística, no escapa a la influencia de esta tecnología. Por ejemplo, cualquier plataforma de streaming dispone de algoritmos de aprendizaje automático que utiliza para elaborar listas de reproducción o sugerencias basadas en nuestros gustos o preferencias. Ya existe una aplicación que mide distintas variables como el ritmo cardíaco o el momento del día y reproduce música adaptada a las circunstancias personales de cada momento.
En la composición y creación musical también interviene la IA desde hace algún tiempo y cada vez con más precisión. La gran pregunta es si la tecnología será capaz de reemplazar a los profesionales del sector, desplazando a compositores, cantantes, músicos o técnicos de sonido. En 2016, investigadores de Sony ya utilizaron este sistema para componer una canción al estilo de los Beatles, llamada “Daddy’s car”. Ocho años más tarde, las posibilidades han crecido exponencialmente y modelos de generación de música como los desarrollados por Google DeepMind sorprenden por su capacidad creativa.
Uno de los últimos modelos lanzados por Google es Lyria, que mediante IA permite crear piezas musicales introduciendo un prompt. Inicialmente se hará a través de la herramienta Dream Track y de un laboratorio de Herramientas de IA musical dentro del servicio de vídeos cortos YouTube Shorts. La diferencia fundamental entre Lyria y su modelo predecesor, MusicLM, es el acuerdo al que han llegado con artistas como Demi Lobato, Charlie Puth o Alec Benjamin, cuyas voces interpretarán las canciones compuestas por los usuarios a través de sus prompts.
Además, Google también ha anunciado el lanzamiento de Music AI Tools, una interfaz de creación musical avanzada que podrá convertir una melodía tarareada o interpretada con un instrumento MIDI en su versión instrumental, orquestal o vocal.
Con Lyria, los usuarios pueden crear canciones a partir de un prompt combinando varios instrumentos y voces de artistas como Charlie XCX o Demi Lovato.
Para que la Inteligencia Artificial sea capaz de crear composiciones musicales coherentes y agradables al oído existen dos métodos fundamentales: las redes neuronales GAN (Generative Adversarial Networks) y los VAE (Variational Autoencoder). GAN se entrena mediante un generador y un discriminador. El primero crea música falsa a partir de ruidos aleatorios y el segundo aprende de música real y de los sonidos sintéticos del generador. Cuando el discriminador no es capaz de diferenciar la música real de la falsa es porque, gracias al entrenamiento, se ha conseguido una melodía bastante real. Por su parte, VAE utiliza los Transformers, que son redes neuronales muy avanzadas que aprenden mediante el seguimiento de relaciones en datos secuenciales como puede ser una frase o una combinación de notas musicales.
En definitiva, distintos métodos para alcanzar un mismo objetivo que es emular la creatividad del ser humano. El tiempo desvelará si estas tecnologías servirán de aliadas para los creadores o supondrán una amenaza.
© Imágenes: Shutterstock
Blog ÓN
Comité de contenidos