Investigadores del McGovern Institute for Brain Research, del MIT, desarrollaron un nuevo modelo matemático para describir la manera en que el cerebro humano identifica los objetos de manera visual. El modelo predice acertadamente el comportamiento humano en ciertas tareas de percepción visual, lo que sugiere que es un buen indicador de lo que sucede realmente en el cerebro, y que podría además ayudar a realizar mejoras en los sistemas de reconocimiento de objetos en computación.

El modelo se diseñó para reflejar evidencia neurológica de que en el cerebro de los primates, la identificación del objeto -decidir qué objeto es- y la localidad del objeto -decidir dónde se encuentra el objeto- se manejan separadamente. “Aunque qué y dónde se procesan en dos áreas separadas del cerebro, son integradas durante la percepción para analizar la imagen,” dijo Sharat Chikkerur, quien encabeza equipo que realiza el informe que aparecerá esta semana en Vision Reseach, el cual describe la investigación. “El modelo que tenemos intenta explicar como se integra la información.”

El mecanismo de integración, nos dicen los científicos, es la atención. De acuerdo con este modelo, cuando el cerebro se encuentra en una situación con diferentes objetos, no puede tener un seguimiento de todos a la vez. En su lugar, crea un mapa de la escena que simplemente identifica regiones, y algunas son más interesantes que otras. Si es necesario determinar si tal escena contiene un objeto de un tipo particular, entonces el cerebro inicia la búsqueda -colocando toda su atención- en las regiones de mayor interés.

Chikkerur y Tomaso Poggio, entre otros, implementaron este modelo en software y midieron las predicciones para relacionarlas con otras mediciones tomadas en humanos. A las personas se les pedía primero observar una escena en una calle en el monitor de una computadora, después se les pedía contar la cantidad de vehículos en la escena, luego contar los peatones, mientras un sistema de monitoreo de movimiento del ojo grababa esos movimientos. El software predijo con gran exactitud en qué regiones de la imagen las personas pondrían más atención en cada tarea a realizar.

Puedes leer el artículo completo en inglés aquí.