Kragel está combinando el aprendizaje automático con imágenes cerebrales para aprender más sobre cómo las imágenes afectan las emociones. Crédito: Glenn Asakawa/CU Boulder



Una computadora que comprende como nos sentimos

29 de Julio de 2019 | Historia original de CU Boulder


¿Puede una computadora, de un vistazo, diferenciar entre una imagen de alegría y una deprimente? ¿Podría distinguir, en unos milisegundos, una comedia romántica de una película de terror?

Sí, y también el cerebro, según la investigación publicada esta semana por los neurocientíficos de la Universidad de Colorado Boulder.

“La tecnología de aprendizaje automático está mejorando rápidamente en el reconocimiento del contenido de las imágenes, así como en descifrar qué tipo de objeto es”, dijo el autor principal Tor Wager, quien trabajó en el estudio mientras era profesor de psicología y neurociencias en CU Boulder. “Nos preguntábamos: ¿Podría lograrse lo mismo con las emociones? La respuesta es sí.”

Por una parte, las innovaciones en aprendizaje automático, por otra, el estudio de imágenes cerebrales humanas, el artículo, publicado en la revista Science Advances, marca un importante paso adelante en la aplicación de “redes neuronales” -sistemas informáticos modelados desde del cerebro humano- al estudio de las emociones.

El estudio también arroja una luz nueva y diferente sobre cómo y dónde se representan las imágenes en el cerebro humano, sugiriendo que lo que vemos -incluso brevemente- podría tener un impacto mayor y más rápidamente en nuestras emociones de lo que podríamos suponer.

“Muchas personas asumen que los seres humanos evalúan su entorno de cierta manera y las emociones provienen de sistemas cerebrales específicos y ancestralmente más antiguos como el sistema límbico”, dijo el autor principal Philip Kragel, investigador postdoctoral de Ciencia Cognitiva. “En nuestro estudio encontramos que la corteza visual en sí también juega un papel importante en el procesamiento y la percepción de las emociones".

El nacimiento de EmoNet

Para el estudio, Kragel comenzó con una red neuronal existente, llamada AlexNet, que permite a las computadoras reconocer objetos. Usando investigaciones previas, que identificaron respuestas emocionales estereotipadas a las imágenes, reacondicionó la red para predecir cómo se siente una persona cuando observa una determinada imagen. 

Luego le “mostró” a la nueva red, apodada EmoNet, 25.000 imágenes que van desde fotos eróticas a escenas de la naturaleza y le pidió que las clasificara en 20 categorías como antojo, deseo sexual, horror, asombro y sorpresa. 

EmoNet fue capaz de clasificar de manera precisa y consistente 11 tipos de emociones. Sin embargo, reconoció mejor algunas emociones que otros. Por ejemplo, identificó fotos que evocan el antojo o el deseo sexual con más del 95 por ciento de precisión. Pero le resultó más difícil reconocer emociones más matizadas como confusión, asombro y sorpresa. 

Incluso un color simple provocó una predicción de una emoción: Cuando EmoNet vio una pantalla negra, registró ansiedad, el antojo fue conjurado con el rojo. La observación de cachorros, le evocaron diversión y cuando se le presentaban dos de ellos, eligió el romance. EmoNet también fue capaz de calificar de forma fiable la intensidad de las imágenes, identificando no sólo la emoción que podría ilícita, sino lo fuerte que podría ser.

Cuando los investigadores le mostraron a EmoNet cortos de películas y le pidieron que los clasificara como comedias románticas, películas de acción o películas de terror, lo hizo correctamente en tres cuartas partes del tiempo.

Según lo que vemos, es cómo nos sentimos

Para probar y perfeccionar EmoNet, los investigadores usaron 18 sujetos humanos.

Mientras se les mostraron destellos de 4 segundos de 112 imágenes, un sistema de Imágenes de Resonancia Magnética Funcional (fMRI) midió la actividad cerebral de los sujetos. EmoNet reconoció las mismas imágenes, sirviendo esencialmente como el sujeto 19.

Cuando la actividad en la red neuronal se comparó con la del cerebro de los sujetos, los patrones coincidieron.

“Encontramos una alta correspondencia entre los patrones de actividad cerebral en el lóbulo occipital y las unidades que codifican para emociones específicas en EmoNet. Esto significa que EmoNet aprendió a representar las emociones de una manera que es biológicamente plausible, a pesar de que no lo entrenamos explícitamente para hacerlo”, dijo Kragel.

Las imágenes cerebrales en sí también produjeron algunos hallazgos sorprendentes. Incluso una imagen breve y básica -un objeto o una cara- permitieron encender la actividad relacionada con las emociones en la corteza visual del cerebro. Y diferentes tipos de emociones iluminaron diferentes regiones.

“Esto demuestra que las emociones no son sólo añadidos que se forman tardíamente en diferentes áreas del cerebro”, dijo Wager, ahora profesor en Dartmouth College. “Nuestros cerebros están reconociendo, categorizando y respondiendo a las emociones muy tempranamente”.

En última instancia, dicen los investigadores, las redes neuronales como EmoNet podrían utilizarse como tecnologías para ayudar a las personas a detectar digitalmente imágenes negativas o encontrar las positivas. También podría aplicarse para mejorar las interacciones computadora-humanos y ayudar a avanzar en la investigación de las emociones.

Después de este estudio Kragel afirma que: “Lo que observamos y el entorno que nos rodea puede hacer una gran diferencia en nuestra vida emocional.”


Este artículo ha sido republicado a partir de los siguientes materiales y editado para adecuar su longitud y contenido. Para obtener más información, ver la fuente citada.

Referencia: Kragel, P. A., Reddan, M. C., LaBar, K. S., & Wager, T. D. (2019). Emotion schemas are embedded in the human visual system. Science Advances, 5(7), eaaw4358. https://doi.org/10.1126/sciadv.aaw4358

 

 

 

 

 

 

 

 

 

 




El contenido al que intenta acceder no se encuentra disponible para su dispositivo.

En breve este contenido estará disponible.