La inteligencia artificial generativa está transformando el mundo de la creatividad, y la música no es la excepción. Un estudio coordinado por el grupo de investigación Neuro-Com del Departamento de Comunicación Audiovisual y Publicidad de la Universitat Autònoma de Barcelona (UAB), con la participación del Instituto RTVE en Barcelona y de la Universidad de Liubliana (Eslovenia), publicado recientemente en la revista PLOS One, explora una pregunta clave: ¿ la música generada por IA puede provocar las mismas respuestas emocionales que la música creada por humanos en contextos audiovisuales?
La investigación compara cómo reaccionan las personas al ver vídeos acompañados por diferentes tipos de música. Durante el experimento, 88 participantes visualizaron clips audiovisuales con idéntica imagen pero tres condiciones sonoras diferentes: música creada por humanos, música generada por IA con instrucciones (prompts) complejas y detalladas, y música generada por IA con un prompt simple y menos detallado. Mientras los participantes visualizaban los clips se medían sus reacciones fisiológicas, como la dilatación de pupilas, el parpadeo y la respuesta galvánica de la piel, así como sus respuestas emocionales tal y como ellos mismos las describían.
Los resultados del experimento fueron reveladores. La música generada por IA provocó una mayor dilatación pupilar, lo que indica un mayor nivel de activación emocional. Asimismo, la generada mediante prompts sofisticados provocó más parpadeo y cambios en la piel, asociados a una mayor carga cognitiva; es decir, se observaron diferencias en el impacto generado por la música con IA según la complejidad del prompt utilizado. Por último, a nivel emocional, los participantes describieron la música de IA como más excitante, aunque la música humana fue percibida como más familiar.
Estos hallazgos podrían tener implicaciones significativas para el futuro de la producción audiovisual, especialmente en lo que respecta a la personalización de la música según la narrativa visual, la economía de recursos en procesos creativos y la posibilidad de ajustar el impacto emocional del contenido con mayor precisión mediante herramientas automatizadas.
Nikolaj Fišer, primer autor del artículo, señala que «ambos tipos de música generada por IA condujeron a una mayor dilatación pupilar y fueron percibidos como más estimulantes emocionalmente en comparación con la música creada por humanos». Esta respuesta fisiológica se asocia comúnmente con un mayor nivel de activación emocional. Por otro lado, el investigador afirma que «nuestros hallazgos sugieren que decodificar la información emocional de la música generada por IA puede requerir un mayor esfuerzo cognitivo». Esto sugiere que, aunque la IA es capaz de producir música potente a nivel emocional, la manera en que el cerebro la procesa podría diferir en términos de carga mental y de mecanismos de interpretación emocional, lo que plantea nuevos desafíos para el diseño de experiencias sensoriales efectivas en medios audiovisuales. Este tipo de investigaciones abre nuevas vías para estudiar la percepción de estímulos sonoros generados por sistemas algorítmicos avanzados.
El estudio lo han llevado a cabo Nikolaj Fišer, doctorando en la UAB y en la Universidad de Liubliana (Eslovenia),; Miguel Ángel Martín Pascual, del Instituto RTVE en Barcelona, y Celia Andreu Sánchez, directora del grupo de investigación Neuro-Com de la UAB.
Journal
PLOS One
Method of Research
Observational study
Subject of Research
People
Article Title
Emotional impact of AI-generated vs. human-composed music in audiovisual media: A biometric and self-report study
Article Publication Date
25-Jun-2025