inteligencia artificial

Académico desarrolla algoritmo para interpretar emociones mediante arte generativo



Dirección copiada

Junto a un investigador español, Miguel Carrasco, profesor de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez (UAI), desarrolló una encuesta que utiliza inteligencia artificial para interpretar emociones a través de arte generativo.

Publicado el 9 oct 2024



Arte generativo
Miguel Carrasco, profesor de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez (UAI).

Un estudio de la Universidad Adolfo Ibáñez y la Universidad de Córdova (España) aplicó herramientas de Inteligencia Artificial (IA) para desarrollar una encuesta que interpreta emociones basándose en la percepción de obras artísticas digitalizadas o “arte generativo“.

El modelo se probó a través de una encuesta aplicada a 61 personas de siete países, 33 hombres y 28 mujeres, que expresaron su evaluación y respuesta emocional. Sus conclusiones permitieron proyectar la utilidad de este método para interpretar cambios emocionales en personas vulnerables y prestarles ayuda oportuna.

Miguel Carrasco, académico de la Facultad de Ingeniería y Ciencias UAI, lideró la investigación en Chile, junto a Raúl Dastres, Magíster en Ciencias de la Ingeniería UAI, en colaboración con el Dr. César González-Martín, investigador de la Facultad de Ciencias de la Educación y Psicología de la Universidad de Córdova (España).

Los investigadores desarrollaron el algoritmo StyleGan ADA2, que genera la emoción, entrenado con datos reales de muchos encuestados que señalaron una determinada emoción para un mismo cuadro o imagen de arte generativo. El algoritmo puede generar imágenes artificiales lo más cercanas a dicho entrenamiento.

Carrasco destaca que una ventaja de esta herramienta es que todas las imágenes son completamente inventadas y nunca han sido vistas por los observadores del estudio, lo que garantiza que la evaluación de dichas imágenes es ciega, pues el observador no conoce a priori una asignación a una determinada emoción.

Los investigadores analizaron posteriormente distintas herramientas estadísticas para clasificar según género, área de estudio, nivel de formación, entre otras categorías, con el fin de encontrar si existe un patrón en los datos que indique alguna preferencia.

Con este estudio se busca comprender cómo el arte generativo puede evocar emociones en los espectadores y teorizar sobre la respuesta que se genera en el observador en base a las imágenes artificiales, según la emoción con la cual han sido generadas.

“Utilizando herramientas de la inteligencia artificial, generamos 20 paisajes artificiales para luego crear cuatro versiones emocionales de cada paisajes: alegre, divertido, triste y temeroso. En total, se replicaron 80 imágenes inspiradas en la pintura, para evocar sentimientos en los encuestados”, explica Carrasco.

En primera instancia, los investigadores analizaron la concordancia en las respuestas entre los participantes, concluyendo que cuando las emociones se separan en positivas y negativas existe un alto nivel de acuerdo, pero cuando se dividen en las cuatro categorías emocionales el nivel de acuerdo disminuye, sin importar el nivel de segmentación (genero, área de estudio, nivel de formación profesional).

“Este hallazgos se explica por el alto nivel de subjetividad al interpretar una emoción a partir de una imagen. Sin embargo, la parte más relevante del estudio tiene relación con el nivel de acuerdo de cada participante con relación a la imagen generada artificialmente. En este caso, se presenta un alto nivel de acuerdo cuando las imágenes se separan en positivas y negativas, y decae cuando las separamos en cuatro emociones. No obstante, es interesante revelar que las emociones negativas (triste y temeroso) son más fáciles de interpretar por los observadores en comparación con las positivas (alegre, divertido)“, asegura Carrasco.

El académico de la UAI explica que, a largo plazo, esperan mejorar los modelos que permiten generar emociones acorde a la interpretación humana, pues el área de las emociones es muy subjetiva y los modelos debiesen capturar los elementos esenciales de dicha subjetividad para incluir la mayor cantidad de elementos visibles y/o interpretables en un observador.

“Este punto tiene verdadero valor en la medida que a futuro, este tipo de herramientas permita a una máquina interpretar imágenes o videos del mismo modo que un observador humano lo hace. Este tipo de avances sería un significativo aporte en modelos de acompañamiento remoto de adultos mayores o personas en situación de vulnerabilidad física, mental y emocional“, sostiene el profesor.

Actualmente, este estudio sobre arte generativo y emociones está en proceso de revisión y a la espera de ser publicado en alguna revista científica internacional, para que sus resultados sean presentados en congresos.

Artículos relacionados

Artículo 1 de 4