¿La música generada por Inteligencia Artificial es capaz de emocionar? Esta investigación tiene la respuesta

La respuesta emocional de 88 participantes mientras visionaban contenidos audiovisuales

Lucía Villalba

Quizás alguna vez te hayas hecho esta pregunta. ¿Puede la música creada por Inteligencia Artificial emocionar de la misma manera que una composición humana? Una reciente investigación publicada en la revista PLOS ONE ha dado luz a esta cuestión. Las conclusiones están basadas en datos biométricos y autoinformes.

El estudio Impacto emocional de la música generada por IA frente a la compuesta por humanos en los medios audiovisuales: un estudio biométrico y de autoinforme analizó la respuesta emocional de 88 participantes mientras visionaban contenidos audiovisuales acompañados por tres tipos de música: composiciones humanas, música generada por IA con indicaciones sofisticadas y otra con instrucciones más simples basadas en parámetros emocionales.

¿La música generada por Inteligencia Artificial es capaz de emocionar?

Los investigadores registraron múltiples indicadores fisiológicos como la dilatación de la pupila, la frecuencia de parpadeo y la respuesta galvánica de la piel, utilizados para medir la activación emocional y la atención. Además, los participantes completaron cuestionarios subjetivos sobre su experiencia emocional.

Uno de los hallazgos más llamativos del estudio es que las dos condiciones de música generada por IA provocaron una mayor dilatación pupilar en comparación con la música creada por humanos, lo que sugiere una mayor activación fisiológica. Además, la versión más sofisticada de música generada por IA produjo una mayor frecuencia de parpadeo y una mayor impedancia de la piel, marcadores que indican un incremento en la atención y en la carga cognitiva.

A pesar de estas respuestas fisiológicas intensificadas, los niveles de valencia emocional (la cualidad positiva o negativa de una emoción) se mantuvieron similares en las tres condiciones. Es decir, los participantes no sintieron emociones más positivas o negativas con la IA, pero sí experimentaron una mayor excitación. En cambio, la música compuesta por humanos fue percibida como más familiar, un factor que influye habitualmente en la conexión emocional.

El estudio fue desarrollado por un equipo internacional de investigadores: Nikolaj Fišer (Universidad de Ljubljana y Universitat Autònoma de Barcelona), el doctor Miguel Ángel Martín-Pascual (RTVE Instituto) y la doctora Celia Andreu-Sánchez (UAB e Instituto de Neurociencias). Su objetivo común era el de explorar si la tecnología puede igualar o incluso superar ciertos niveles de respuesta emocional tradicionalmente asociados a la creatividad humana.

Los resultados sugieren que, aunque la familiaridad aún juega un papel clave en la experiencia emocional, la música generada por IA tiene un potencial real para impactar emocionalmente en audiencias. Esta conclusión abre nuevas perspectivas sobre cómo se podrán integrar estas tecnologías en la producción audiovisual del futuro.