Identificando emociones en base a la actividad cerebral y aprendizaje automático

¿Podrá este método ser utilizado para algo similar en la detección “pre-crimen” de Minority Report?

La imagen muestra las posiciones promedio de las regiones del cerebro utilizadas para identificar los estados emocionales. (Crédito: Karim S. Kassam et al./Carnegie Mellon University)

La imagen muestra las posiciones promedio de las regiones del cerebro utilizadas para identificar los estados emocionales. (Crédito: Karim S. Kassam et al./Carnegie Mellon University)

Científicos de la Universidad Carnegie Mellon (CMU) han identificado las emociones que una persona experimenta basados en la actividad cerebral.

El estudio, publicado en junio 19 en PLOS ONE (acceso abierto), combina resonancia funcional magnética (fMRI) y el aprendizaje automático para medir las señales del cerebro y así leer emociones en los individuos.

Encabezado por el Colegio Dietrich de Humanidades y Ciencias Sociales, la investigación ilustra la manera en que el cerebro categoriza los sentimientos, proporcionando a los investigadores el primer proceso confiable para analizar emociones.

Hasta ahora, la investigación de emociones ha sido por largo tiempo bloqueada debido a la carencia de métodos confiables de evaluación, principalmente debido a que la gente es renuente a reportar sus sentimientos reales. Una complicación adicional es que muchas de las respuestas emocionales pueden no ser experimentadas conscientemente o evocadas a voluntad.

Este proyecto de identificación de emociones basado en la actividad neuronal retoma previos descubrimientos realizados por Marcel Just y Tom M. Mitchell, también del CMU, quienes utilizaron técnicas similares para crear modelos computacionales para identificar los pensamientos de objetos concretos, lo que se conoce popularmente como “leer la mente”.

“Esta investigación introduce un nuevo método con el potencial de identificar las emociones sin depender de la habilidad de la persona de reportarlo”, dijo Karim Kassam, autor principal del estudio. “Podría ser utilizado para evaluar respuestas emocionales individuales para casi cualquier tipo de estímulo, por ejemplo, una bandera, una marca, un candidato político, etc”.

Para identificar emociones dentro del cerebro, los investigadores utilizaron primero los patrones de actividad neuronal de los participantes provenientes de exploraciones previas con escan para identificar las emociones experimentadas después por algunos de los participantes en escaneos posteriores. El modelo de computadora logró un promedio de exactitud de 0.84. El promedio de exactitud se refiere al promedio percentil de una emoción correcta en una lista ordenada de conjeturas en el modelo de computadora; conjeturas aleatorios resultaron en un promedio de exactitud de 0.50.

Como paso siguiente, el equipo tomó los análisis del aprendizaje automático de emociones auto-inducidas para conjeturar sobre la emoción que la persona o personas experimentaban cuando se les mostró fotografías desagradables. El modelo de computadora logró un promedio de exactitud de 0.91. Con nueve emociones de las cuales elegir, el modelo colocó disgusto como la emoción más probable el 60 por ciento de veces y una de sus dos conjeturas posibles el 80 por ciento de las veces.

Finalmente, aplicaron el análisis de aprendizaje automático de patrones de activación neuronal de todos los participantes menos uno para predecir las emociones experimentadas por el participante previamente seleccionado. Esto responde una pregunta importante: Si tomamos a un nuevo individuo y lo colocamos en el escáner y lo exponemos a un estímulo emocional, ¿con cuánta exactitud podremos identificar su reacción emocional? Aquí, el modelo logró una exactitud de 0.71, una vez más arriba del nivel de conjetura de ubicado en 0.50.

“A pesar de las marcadas diferencias entre la sicología de las personas, personas distintas tienen a codificar neuralmente emociones de manera similar”, dijo Amanda Markey, también participante en el estudio.

Más información aquí.
http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0066032