«La IA nunca va a poder improvisar y la evolución de la música surge de personas con ideas totalmente innovadoras”

Laura Ortega es pianista de carrera. Comenzó sus estudios musicales a los 10 años, hizo el conservatorio superior de música en piano clásico en Madrid y cuando terminó se mudó a Barcelona para realizar un Máster en Interpretación y Piano, explorando esta vez el flamenco y otros estilos musicales. Posteriormente descubrió el Máster en Neuromúsica de NUS Agency y fue alumna de su tercera edición.
Laura considera que los músicos son personas especiales que trabajan con niveles de concentración máximos y que a nivel cerebral funcionan diferente. Ver como su abuela, en un estado depresivo grave, se activaba al escuchar sevillanas, la motivó a estudiar el poder transformador de la música.
Hoy hablamos con ella de sus descubrimientos a través de la Neuromúsica y de su trabajo final de máster, dedicado a los Modelos de Percepción Musical mediante Inteligencia Artificial.
¿Qué es lo que más te ha llamado la atención de lo que has aprendido en el Máster en Neuromúsica?
L: Todo lo que no sabemos sobre el cerebro y sobre la música, cómo nos afecta a todos los niveles, por ejemplo, a nivel psicofísico. Y hablo simplemente de escucharla, no hace falta tener estudios musicales. Aunque se ha visto que las personas que estudiamos música de manera habitual tenemos zonas del cerebro más desarrolladas. Se ha demostrado que tenemos más memoria y más capacidad de adaptarnos a situaciones complejas. Y es que estudiar música no solamente tiene el beneficio emocional, sino que a nivel de desarrollo neurocognitivo nos brinda una cantidad de beneficios que con otra actividad no los tienes.
¿Cómo está influyendo la IA en general en el mundo de la música y la interpretación de la música?
L: Está influyendo a todos los niveles y hablo de músicos y no músicos porque es una herramienta muy accesible para todo el mundo, puesto que no hay que tener grandes conocimientos de música para programar una canción. Pides a la IA que te haga una canción con ciertas características y te la hace.
Para los no músicos tienen un acceso a la música muy directo y para los que somos músicos, pues antes yo era escéptica, pero no hay que verlo como una amenaza sino como una herramienta. Yo la he utilizado para tener ideas en momentos de bloqueo creativo, a buscar otros sonidos o ritmos. La IA me puede hacer una composición, pero la tengo que interpretar yo, por mucho que me venga hecha.
Comentas que la IA puede llegar a entender secuencias musicales
L: Sí, todas las inteligencias artificiales se basan en una serie de datos y cuanta más información tenga, más podrá reconocer. Hay varios sistemas, el aprendizaje profundo (deep learning), el matching learning, programaciones que han conseguido descrifrar la forma para que, con una serie de canciones, la IA te consiga sacar los patrones que definen a ese estilo musical, ese género o compositor concreto.
La clave está en que cuanta más información tenga la IA, más cosas podrá reconocer.
"No hay que ver la IA como una amenaza, sino como una herramienta para momentos de bloqueo creativo o para buscar nuevos sonidos o ritmos"
Tu TFM trata sobre el desarrollo de modelos de percepción musical basados en IA. ¿Cómo se lleva esto a cabo?
L: He realizado ese estudio siempre desde el punto de vista de neurociencia cognitiva. Lo que he hecho ha sido buscar todos los estudios que se han hecho sobre la percepción musical: cómo entendemos la música y cómo nuestro cerebro procesa la música.
A raíz de ahí, la inteligencia artificial crea redes neuronales artificiales para emular esos procesos humanos. La IA analiza todo lo que quieras que analice y, en base a las conclusiones que saca, programa nuevas canciones.
La Inteligencia artificial identifica y coge patrones porque cada estilo tiene una armonía determinada, que es lo que nos hace diferenciar los diferentes tipos de música. La IA saca un patrón de los acordes que identifican cada estilo, a nivel melódico saca frases de un número determinado de compases, ritmos compuestos o no, etc. Y así crea canciones.
"Hay aspectos cerebrales que justifican la anhedonia musical"
¿La IA nos está ayudando a comprender patrones de respuesta cerebrales?
L: Sí, de hecho, hicimos un taller muy interesante en el cual usamos un gorro con electrodos que miden las ondas cerebrales. Pudimos ver la respuesta según los estímulos, en este caso a través de la escucha musical. Notamos mucha diferencia entre cuando escuchábamos y cuando interpretábamos.
Con toda la tecnología que hay a nivel clínico, se ha podido demostrar todo lo que pasa en el cerebro, tanto al escuchar como al interpretar.
¿Esto nos puede ayudar a entender por qué puede haber diferentes interpretaciones y percepciones ante una misma pieza musical?
L: Ahí entra en juego el contexto emocional, social, personal, psicológico. No todos somos iguales ni estamos en la misma etapa vital o momento. Sí que se pueden sacar muchas conclusiones, pero hay que tener muchos factores en cuenta.
Creo que esto es lo más difícil, el hecho de generalizar la teoría de que si escuchas esto, te va a transmitir esto concreto. En cierto modo sí, pero hay que tener en cuenta muchos factores más allá de la percepción musical.
"La IA crea redes neuronales artificiales para emular los procesos humanos de entender y procesar la música. Identifica y coge patrones para crear nuevas canciones"
¿Una de las mayores funciones de la IA en este contexto sería al crear experiencias musicales personalizadas?
L: De hecho, eso para mí sería un gran reto. Con más estudios e información de un determinado número de pacientes, poder ver cómo responden a ciertos estímulos musicales: música más rápida, lenta, con cambios armónicos, con un solo acorde, etc. Veríamos cómo responden e intentar tratar algunos problemas como autismo, TDAH, depresión o algunos trastornos neurodegenerativos.
A través de la música y ayudándonos de aparatos de análisis cerebral, veríamos cómo reacciona el cerebro a cada estímulo para ir directos a trabajar en zonas concretas.
EVOCA, el proyecto que une musicoterapia, IA y realidad virtual
A la hora de producir música, ¿crees que esta herramienta irá arrinconando cada vez más la creatividad humana?
L: Creo que hay competencia, pero hasta cierto punto. Una de las cosas que nos humaniza es la creatividad y la relaciono mucho con la improvisación.
La IA no va a poder improvisar nunca porque crea en función a la base de datos que tenga, en cambio tú improvisas sin pensar en nada. Yo no sé qué nota voy a tocar con el piano, simplemente pongo las manos y me dejo llevar. La IA necesita tener una estructura hecha y tener unos patrones ya existentes en los que basarse.
Nosotros, con la experiencia, también acumulamos más notas en el oído y eso nos va a llevar a interpretar de una manera u otra. Aún así, tenemos el poder de la creatividad que nos lleva a sorprendernos a nosotros mismos y tocar algo que nunca hayamos escuchado antes. A la IA si la programas para que componga un estilo de música, solamente va a producir ese estilo de música, no tiene esa creatividad de hacer algo nuevo.
De hecho, el desarrollo y la evolución de la música surge de personas que han tenido ideas totalmente innovadoras que en ese momento han sido bastante chocantes con el estilo o estética del momento. Para eso has de tener una idea rompedora con todo lo que se haya hecho anteriormente.
"Crear experiencias musicales personalizadas sería un gran reto para tratar problemas como autismo, TDAH, depresión o trastornos neurodegenerativos"
¿Serías capaz de escuchar una pieza musical y adivinar si está creada por un humano o mediante inteligencia artificial?
L: No, porque he escuchado muchas piezas que yo he programado por IA y estaban muy bien hechas. Pero a donde voy es que, por muy bien hecho que pueda estar, lo ha hecho un robot. Te puede ayudar a escuchar algo diferente. Todo sobre Bach por ejemplo.
En el trabajo hablo de Deep Bach, que es una IA que hace música solamente al estilo de Bach. Cuando se sacó esa nueva IA, había un comité de expertos musicólogos en música de Johann Sebastian Bach, que pusieron varias canciones originales del autor y otras realizadas por Deep Bach. Tenían que escribir si estaban hechas por el compositor o por la aplicación y a veces no lo tenían claro, pese a haber estudiado toda su vida únicamente la música del músico alemán.
La IA puede crear como Bach, pero solamente hubo un Bach.
¿Y cuál crees que es su uso fundamental en la música: ayudarnos a explorar los procesos cerebrales para percibir e interpretar o acelerar la creación de nuevas composiciones?
L: Yo creo que ambas. Por un lado está el uso más clínico, que ahí es donde vamos con todos los estudios que investigan cómo la música afecta al cerebro. Creo que es una herramienta fundamental para mejorar nuestra salud, bienestar y calidad de vida.
Por otro lado, está avanzando mucho la creatividad, nos podemos apoyar en esa herramienta para no quedarnos estancados. En Spotify se suben más de 1000.000 canciones al día, imagínate en una semana, un mes o un año. Nuestra labor humana es distinguirnos, encontrar el sello diferenciador entre lo que hace un robot y lo que podamos hacer nosotros, ser más innovadores y creativos. Y sentirnos orgullosos de lo que hacemos nosotros mismos.
La música es un vehículo hacia la emoción. ¿Qué sabe la IA de emociones?
L: Una de las cosas que más nos emociona de la música es la intensidad con la que se toque. Escuchar algo plano sin matices es muy aburrido y te hace desconectar. Normalmente hay diferentes ondas y eso es algo diferenciador entre una cosa que me pueda emocionar o no. La IA está avanzando mucho en este sentido porque no tenía esa sensibilidad y cada vez más lo está consiguiendo.
Aún así, la IA no tiene la capacidad de emocionarse por sí misma porque no tiene alma a diferencia de los humanos, que nos podemos emocionar y emocionar a los otros. Mi trabajo tiene ese enfoque, ver hasta qué punto la inteligencia artificial puede transmitir emociones.
¿Las máquinas están aprendiendo a oír y comprender cada vez mejor la música?
L: Con los avances tecnológicos que hay, cada día se descubren nuevas cosas. Todo esto lo veo como algo positivo porque podemos caminar de la mano la inteligencia artificial y no ha de ser algo perjudicial. A mí me interesa mucho el aspecto sanitario y si eso nos puede ayudar a avanzar más rápido hacia un estado de bienestar, pues bienvenido sea.
¿Entiendes que la industria musical mire con recelo la influencia de la IA?
L: Al final, a la industria musical le interesa la parte económica, no tanto el artista, y si le genera más beneficios económicos, lógicamente va a apostar mucho por eso. También confío en los valores humanos. Como empresa ¿cuál es tu visión, misión y valores?. Si te interesa básicamente la parte económica, pues te apoyarás en esa herramienta. ¿Te interesa la parte creativa, innovadora y el descubrir a un artista que revolucione el mercado? Entonces te decantarás por la parte humana.
Además, me emociono mucho más si veo al artista en directo y siento ese calor del sonido en vivo. Cuando interpretamos, no podemos hacerlo de una manera que no somos. Si soy una persona tímida, voy a tener un sonido tímido, que no proyecte, y si soy extrovertida, se va a notar. Un artista enfrente de un público está mostrándose desnudo emocionalmente, de un robot nunca se va a percibir si está mejor, peor o pasando por un momento difícil.