Investigadores están desarrollando un proyecto para identificar la forma como las expresiones faciales son entendidas por el cerebro, cuyos resultados pueden ayudar en el diagnóstico de trastornos como el autismo, que afectan a la percepción emocional y el comportamiento.
“Durante mucho tiempo, la zona de las expresiones faciales es pensada a la luz de las seis emociones básicas (…), siendo estas la tristeza, la alegría, el miedo, las caras malas (ira), el asco y la sorpresa”, dijo a Rajoy el investigador Fernando Ferreira-Santos, del Laboratorio de Neuropsicofisiologia de la Facultad de Psicología y Ciencias de la Educación de la Universidad de Oporto (FPCEUP).

Según el investigador, con el evolucionar de las neurociencias, en el final del siglo XX, los expertos empezaron a buscar la base de estas emociones en el cerebro, descubriendo cada vez más evidencia de que cuestionaban la teoría de las emociones básicas.

A través de este proyecto, el equipo pretende analizar la percepción de las emociones faciales, sin presuponer que ellas obedecen a la lógica de las seis categorías fundamentales, utilizando otros enfoques, como la teoría de la activación, en la cual las expresiones faciales pueden despuntar estímulos con mayor o menor intensidad.

Para la obtención de los datos, está en el análisis de la respuesta cerebral de cerca de 100 jóvenes, entre los cuatro y los 15 años, mostrándoles imágenes con diferentes categorías emocionales y diferentes niveles de activación y la medición de la actividad cerebral, a través de un eletroencefalograma.

El objetivo del estudio actual es darse cuenta de cómo es que la respuesta cerebral de los jóvenes en los diferentes caras emocionales cambia con “la experiencia social, en la cual los humanos tienen que interactuar entre sí y, principalmente, durante todo el período de vida, como los demás si están a sentir, hasta la edad adulta, en la que el cerebro detecta la intensidad de las emociones en décimas de segundo”.

“Las emociones están pensadas de la siguiente manera: una cara alegre, alegría, cara triste, es la tristeza”, sin embargo, estudios anteriores desarrollados por el equipo muestran que existe una gran variación dentro de las categorías, siendo una sonrisa muy diferente de la risa, con niveles de activación muy diferentes”, ejemplificó.

Con los resultados definitivos, los responsables del proyecto esperan entender mejor cómo las emociones se procesan, así como la creación de instrumentos de evaluación psicológica que puedan ayudar en el diagnóstico de trastornos que afectan a la percepción emocional y el comportamiento, como las del espectro del autismo.

De acuerdo con el investigador, estos resultados también pueden ser aplicados a nivel de la tecnología, en las áreas de las ciencias de la informática, la inteligencia artificial y la robótica. Aunque algunos dispositivos capaces ya de identificar a las personas y sus emociones a partir de la cara, si te ayuda a entender mejor cómo los sistemas afectivos naturales funcionan, pueden ser creados “algoritmos más inteligentes, capaces de hacer frente a estos estímulos más ambiguos”, añadió.

Fernando Ferreira-Santos subrayó, no obstante, que las personas usan las expresiones tanto de forma automática como intencional, “algo que los ingenieros de los sistemas operativos de los ordenadores deberán tener en cuenta”.En el marco de este proyecto, el grupo tiene previsto mejorar las imágenes utilizadas en los estudios de este género, la creación de nuevos estímulos, donde estén representados todos los estados emocionales que existen”.

Este proyecto, que se inició en el año 2015 y es financiado por la Fundación Bial, cuenta con la colaboración del Instituto Universitario de la frontera (ISMAI) y de la University College London, finalizando en octubre de este año.

Facebook Commentarios