News Release

La música generada por IA nos puede emocionar más que la compuesta por humanos

Peer-Reviewed Publication

Universitat Autonoma de Barcelona

La inteligencia artificial generativa está transformando el mundo de la creatividad, y la música no es la excepción. Un estudio coordinado por el grupo de investigación Neuro-Com del Departamento de Comunicación Audiovisual y Publicidad de la Universitat Autònoma de Barcelona (UAB), con la participación del Instituto RTVE en Barcelona y de la Universidad de Liubliana (Eslovenia), publicado recientemente en la revista PLOS One, explora una pregunta clave: ¿ la música generada por IA puede provocar las mismas respuestas emocionales que la música creada por humanos en contextos audiovisuales?
La investigación compara cómo reaccionan las personas al ver vídeos acompañados por diferentes tipos de música. Durante el experimento, 88 participantes visualizaron clips audiovisuales con idéntica imagen pero tres condiciones sonoras diferentes: música creada por humanos, música generada por IA con instrucciones (prompts) complejas y detalladas, y música generada por IA con un prompt simple y menos detallado. Mientras los participantes visualizaban los clips se medían sus reacciones fisiológicas, como la dilatación de pupilas, el parpadeo y la respuesta galvánica de la piel, así como sus respuestas emocionales tal y como ellos mismos las describían.
Los resultados del experimento fueron reveladores. La música generada por IA provocó una mayor dilatación pupilar, lo que indica un mayor nivel de activación emocional. Asimismo, la generada mediante prompts sofisticados provocó más parpadeo y cambios en la piel, asociados a una mayor carga cognitiva; es decir, se observaron diferencias en el impacto generado por la música con IA según la complejidad del prompt utilizado. Por último, a nivel emocional, los participantes describieron la música de IA como más excitante, aunque la música humana fue percibida como más familiar.
Estos hallazgos podrían tener implicaciones significativas para el futuro de la producción audiovisual, especialmente en lo que respecta a la personalización de la música según la narrativa visual, la economía de recursos en procesos creativos y la posibilidad de ajustar el impacto emocional del contenido con mayor precisión mediante herramientas automatizadas.
Nikolaj Fišer, primer autor del artículo, señala que «ambos tipos de música generada por IA condujeron a una mayor dilatación pupilar y fueron percibidos como más estimulantes emocionalmente en comparación con la música creada por humanos». Esta respuesta fisiológica se asocia comúnmente con un mayor nivel de activación emocional. Por otro lado, el investigador afirma que «nuestros hallazgos sugieren que decodificar la información emocional de la música generada por IA puede requerir un mayor esfuerzo cognitivo». Esto sugiere que, aunque la IA es capaz de producir música potente a nivel emocional, la manera en que el cerebro la procesa podría diferir en términos de carga mental y de mecanismos de interpretación emocional, lo que plantea nuevos desafíos para el diseño de experiencias sensoriales efectivas en medios audiovisuales. Este tipo de investigaciones abre nuevas vías para estudiar la percepción de estímulos sonoros generados por sistemas algorítmicos avanzados.
El estudio lo han llevado a cabo Nikolaj Fišer, doctorando en la UAB y en la Universidad de Liubliana (Eslovenia),; Miguel Ángel Martín Pascual, del Instituto RTVE en Barcelona, y Celia Andreu Sánchez, directora del grupo de investigación Neuro-Com de la UAB.

 


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.