Proyecto I+D+I: Inteligencia artificial de soporte a experiencias musicales: hacia una aproximación basada en datos y centrada en el usuario

Consumir y escuchar música es realmente una de las actividades personales y sociales más extendidas. La música es, de hecho, un lenguaje universal que todos disfrutamos. Sin embargo, especialmente en nuestra sociedad occidental, se nos ha hecho creer que solo “los músicos” son realmente musicales. Pero no es así, en realidad todos poseemos la capacidad de escuchar y distinguir, interpretar, comprender, apreciar y responder a patrones de sonido.

IA Musical es un proyecto que tiene como objetivo avanzar en el desarrollo de tecnologías que permitan acercar más y mejor la música a todo el mundo. Estamos trabajando en una serie de temas de investigación relacionados con el análisis de grandes colecciones de música, investigaciones centradas en técnicas de aprendizaje automático. Queremos desarrollar nuevos modelos y herramientas de inteligencia artificial que ayuden a aumentar nuestra comprensión de la música.

. Hemos organizado el proyecto en cuatro apartados:

Inteligencia híbrida hombre-máquina

Los seres humanos pueden proporcionar anotaciones precisas del contenido musical, pero solo pueden hacerlo a pequeña escala y solamente aquellos con una gran experiencia musical. Por el contrario, los algoritmos pueden procesar grandes cantidades de datos, pero son menos precisos y solo pueden proporcionar anotaciones de bajo nivel.

El objetivo de este apartado es investigar las mejores estrategias para combinar la inteligencia humana y mecánica (artificial) en aplicaciones de música basadas en datos, e investigar enfoques centrados en el ser humano que respalden las experiencias de escucha de música. En particular, desarrollamos modelos híbridos humano-máquina para la anotación y descripción de grandes colecciones de música. Incorporamos metodologías de la ciencia cognitiva y la interacción humano-computadora.

 

Interfaz de freesound.org. Plataforma colaborativa para construir un corpus de sonidos desarrollada en el Grupo de Tecnología Musical de la UPF.

Figura 1: Interfaz de freesound.org. Plataforma colaborativa para construir un corpus de sonidos desarrollada en el Grupo de Tecnología Musical de la UPF.

 

Descubrimiento automático de patrones musicales

De entre todas las características que pueden describir un estilo musical, los motivos melódicos son patrones que pueden usarse para capturar la esencia de ese estilo musical. A partir de la creación de grandes colecciones de música y metadatos (corpus), estamos desarrollando métodos con los que descubrir patrones melódicos que caracterizan a las diferentes entidades musicales (por ejemplo, artista, compositor, forma, estilo, ...) partiendo de las señales de audio.

 

En este apartado estamos estudiando diferentes representaciones melódicas que se pueden obtener de las series temporales continuas resultantes del análisis de audio y explorando diferentes estrategias de segmentación temporal. También estamos considerando diferentes medidas de similitud y caracterizaciones de los patrones melódicos, con el objetivo de desarrollar metodologías para identificar y caracterizar esos patrones que sean musicalmente relevantes.

 

Interfaz de acousticbrainz.org. Plataforma colaborativa para la creación de un corpus de música desarrollada en el Grupo de Tecnología Musical de la UPF.

Figura 2: Interfaz de acousticbrainz.org. Plataforma colaborativa para la creación de un corpus de música desarrollada en el Grupo de Tecnología Musical de la UPF.

 

Tecnología para mejorar el aprendizaje musical

Aprender a tocar un instrumento musical es una tarea difícil, que requiere el desarrollo de habilidades sofisticadas. Hoy en día, este proceso de aprendizaje se basa principalmente en el modelo maestro-aprendiz y las tecnologías rara vez se emplean y generalmente se limitan a la grabación y reproducción de audio y vídeo.

En este apartado queremos desarrollar métodos para descubrir patrones en las buenas prácticas de la interpretación musical y utilizar estos patrones para proporcionar retroalimentación a través de la tecnología a los estudiantes de música mientras practican, con el fin de mejorar el proceso de aprendizaje. Con este objetivo, estamos recopilando grabaciones de músicos, desarrollando herramientas de procesamiento de captura de movimiento y señales de audio específicas para analizar dichas grabaciones. Aplicamos enfoques de aprendizaje automático para modelar la interpretación musical y desarrollamos sistemas de retroalimentación en tiempo real para informar a los estudiantes sobre sus interpretaciones.

 

Interfaz de dunya.compmusic.upf.edu. Plataforma para la creación de corpora de músicas no occidentales desarrollada en el Grupo de Tecnología Musical de la UPF.
Figura 3: Interfaz de dunya.compmusic.upf.edu. Plataforma para la creación de corpora de músicas no occidentales desarrollada en el Grupo de Tecnología Musical de la UPF.

 

Máquinas con inteligencia musical para ayudar a la creación

Finalmente, la cuarta parte del proyecto que se centra en la creatividad musical. Todos tenemos el potencial y el derecho de ser creativos (ciertamente en diferentes grados) y todos nos sentimos realmente orgullosos y recompensados positivamente al realizar tareas creativas, por poco ambiciosos que sean sus resultados. Sin embargo, en nuestra sociedad, no todos tenemos la confianza o el atrevimiento de abordar la creación musical.

El objetivo de este apartado es abordar el punto particular de pérdida de fisicalidad y presencia en la interacción humano-humano y humano-computadora. Los portátiles, los ordenadores, las tablets y muy especialmente los teléfonos móviles son utilizados a diario por una gran proporción de la población, especialmente por los jóvenes. Los contenidos más consumidos tienden a no promover la creatividad ni el pensamiento crítico, y el uso de dispositivos móviles suele ser disruptivo de la atención del usuario, corporalmente pasivo y adictivo y puede llevar a la desconexión social entre personas físicamente presentes en un mismo espacio. Por ejemplo, esto ha sido una preocupación para los niños, lo que ha llevado a la prohibición de los teléfonos inteligentes en varias escuelas. Como contraparte, creemos que una experiencia musical compartida es ejemplar para comprender y promover la interacción colectiva.

Investigadores/as Principales del proyecto
Xavier Serra

Xavier Serra es Catedrático del Departamento de Tecnologías de la Información y las Comunicaciones y Director del Grupo de Tecnología Musical de la Universitat Pompeu Fabra de Barcelona. Tras una formación académica multidisciplinar, obtuvo un doctorado en Música Computacional por la Universidad de Stanford en 1989, con una disertación sobre el procesamiento espectral de sonidos musicales que se considera una referencia clave en el campo. Sus intereses de investigación abarcan el análisis, descripción y síntesis computacional de señales sonoras y musicales, con un equilibrio entre la investigación básica y aplicada y los enfoques de las disciplinas científicas/tecnológicas y humanísticas/artísticas. El Dr. Serra es muy activo en los campos de procesamiento de señales de audio, computación de sonido y música, recuperación de información musical y musicología computacional a nivel local e internacional, participando en el consejo editorial de varias revistas y conferencias y dando conferencias sobre la actualidad y retos futuros de estos campos. Fue galardonado con una Advanced Grant del European Research Council para llevar a cabo el proyecto CompMusic destinado a promover enfoques multiculturales en la investigación en tecnología musical.