La música generada per IA ens pot emocionar més que la composta per humans
Un estudi coordinat per la UAB ha analitzat la resposta fisiològica i emocional de 88 persones en visualitzar clips amb una imatge idèntica però música diferent: música composta per humans o bé generada per IA. Els resultats, publicats a la revista PLOS One, mostren que la IA pot generar música que es percebi com a més excitant, la qual cosa pot tenir implicacions significatives en el futur de la producció audiovisual.

La intel·ligència artificial generativa està transformant el món de la creativitat, i la música no n’és l’excepció. Un estudi coordinat pel grup de recerca Neuro-Com del Departament de Comunicació Audiovisual i Publicitat de la Universitat Autònoma de Barcelona (UAB), amb la participació de l'Institut RTVE a Barcelona i de la Universitat de Ljubljana (Eslovènia), publicat recentment a la revista PLOS One, explora una pregunta clau: la música generada per IA pot provocar les mateixes respostes emocionals que la música creada per humans en contextos audiovisuals?
La investigació compara com reaccionen les persones en veure vídeos acompanyats per diferents tipus de música. Durant l’experiment, 88 participants van visualitzar clips audiovisuals amb la mateixa imatge però tres condicions sonores diferents: música creada per humans, música generada per IA amb instruccions (prompts) complexes i detallades, i música generada per IA amb un prompt simple i menys detallat. Mentre els participants visualitzaven els clips es mesuraven les seves reaccions fisiològiques, com la dilatació de pupil·les, el parpelleig i la resposta galvànica de la pell, així com les seves respostes emocionals tal com ells mateixos les descrivien.
Els resultats de l’experiment van ser reveladors. La música generada per IA va provocar més dilatació pupil·lar, la qual cosa indica un nivell més elevat d’activació emocional. Així mateix, la generada mitjançant prompts sofisticats va provocar més parpelleig i canvis en la pell, que s’associen a una càrrega cognitiva més gran; és a dir, es van observar diferències en l’impacte generat per la música amb IA segons la complexitat del prompt utilitzat. Finalment, des del punt de vista emocional, els participants van descriure la música d’IA com a més excitant, encara que la música humana va ser percebuda com a més familiar.
Aquestes troballes podrien tenir implicacions significatives per al futur de la producció audiovisual, especialment pel que fa a la personalització de la música segons la narrativa visual, l’economia de recursos en processos creatius i la possibilitat d’ajustar l’impacte emocional del contingut amb més precisió mitjançant eines automatitzades.
Nikolaj Fišer, primer autor de l’article, assenyala que «tots dos tipus de música generada per IA van conduir a una dilatació pupil·lar més elevada i van ser percebuts com a més estimulants emocionalment en comparació amb la música creada per humans». Aquesta resposta fisiològica s’associa comunament amb un nivell més alt d’activació emocional. D’altra banda, l’investigador afirma que «les nostres troballes suggereixen que descodificar la informació emocional de la música generada per IA pot requerir un esforç cognitiu més gran». Això suggereix que, tot i que la IA és capaç de produir música potent des del punt de vista emocional, la manera com el cervell la processa podria diferir en termes de càrrega mental i de mecanismes d’interpretació emocional, cosa que planteja nous desafiaments per al disseny d’experiències sensorials efectives en mitjans audiovisuals. Aquest tipus d’investigacions obre noves vies per estudiar la percepció d’estímuls sonors generats per sistemes algorítmics avançats.
L’estudi l’han dut a terme Nikolaj Fišer, doctorand a la UAB i a la Universitat de Ljubljana (Eslovènia); Miguel Ángel Martín Pascual, de l'Institut RTVE a Barcelona, i Celia Andreu Sánchez, directora del grup de recerca Neuro-Com de la UAB.
Referència:
Fišer N, Martín-Pascual MÁ, Andreu-Sánchez C (2025). Emotional impact of AI-generated vs. human-composed music in audiovisual media: A biometric and self-report study. PLoS One 20(6): e0326498. https://doi.org/10.1371/journal.pone.0326498