Lo que el ojo ve y lo que el cerebro interpreta

Un nuevo trabajo que describe el proceso visual del cerebro, es decir aquello que el ojo ve y lo que el cerebro interpreta, podría mejorar los automóviles autónomos y apuntar a terapias para el deterioro sensorial, sugieren los investigadores.

Si piensas que los automóviles autónomos tardarán en llegar, no eres el único. Programar computadoras para reconocer objetos es muy difícil técnicamente, especialmente porque los científicos no entienden completamente cómo nuestros propios cerebros lo hacen.

Ahora, los investigadores del Instituto Salk han analizado cómo las neuronas en una parte crítica del cerebro, llamada V2, responden a las escenas naturales, proporcionando una mejor comprensión del procesamiento de la visión. El trabajo se describe en Nature Communications el 8 de junio de 2017.

«Comprender cómo el cerebro reconoce los objetos visuales es importante no solo por el bien de la visión, sino también porque proporciona una ventana sobre cómo el cerebro funciona en general», dice Tatyana Sharpee, profesor asociado en Salk’s Computational Neurobiology Laboratory y autora principal del estudio. «Gran parte de nuestro cerebro se compone de una unidad computacional repetida, llamada columna cortical, especialmente en el control de los insumos del cerebro con exquisita precisión, lo que permite analizar cuantitativamente cómo se transforman las señales en el cerebro«.

Aunque a menudo tomamos la capacidad de ver por sentado, esta habilidad deriva de conjuntos de transformaciones matemáticas complejas que aún no somos capaces de reproducir en una computadora, según Sharpee. De hecho, más de un tercio de nuestro cerebro se dedica exclusivamente a la tarea de analizar las escenas visuales.

maxresdefault 5 Merca2.es

Nuestra percepción visual empieza en el ojo con píxeles claros y oscuros. Estas señales se envían a la parte posterior del cerebro a un área llamada V1 donde se transforman para corresponder a los bordes en las escenas visuales. De alguna manera, como resultado de varias transformaciones posteriores de esta información, entonces podemos reconocer caras, coches y otros objetos y si se están moviendo. Qué tan precisamente este reconocimiento ocurre sigue siendo un misterio, en parte porque las neuronas que codifican los objetos responden de maneras complicadas.

Ahora, Sharpee y Ryan Rowekamp, ​​un asociado de investigación postdoctoral en el grupo de Sharpee, han desarrollado un método estadístico que toma estas respuestas complejas y las describe de manera interpretable, que podría ser utilizado para ayudar a decodificar la visión real de la visión simulada por ordenador. Para desarrollar su modelo, el equipo utilizó datos disponibles públicamente mostrando respuestas cerebrales de primates viendo películas de escenas naturales (como paisajes forestales) de la base de datos de Investigación Colaborativa en Neurociencia Computacional (CRCNS).

«Aplicamos nuestra nueva técnica estadística para determinar qué características de la película estaban causando que las neuronas V2 cambiaran sus respuestas», dice Rowekamp. «Curiosamente, descubrimos que las neuronas V2 estaban respondiendo a diferentes combinaciones

MIT Object Rec 0 Merca2.es

El equipo reveló que las neuronas V2 procesan la información visual según tres principios: en primer lugar, combinan bordes que tienen orientaciones similares, aumentando la robustez de la percepción a pequeños cambios en la posición de las curvas que forman los límites del objeto. En segundo lugar, si una neurona es activada por un borde de una orientación y posición en particular, entonces la orientación a 90 grados de la misma será supresora en el mismo lugar, una combinación denominada «supresión de orientación cruzada». Estas combinaciones de bordes de orientación cruzada se ensamblan de diversas maneras para permitirnos detectar diversas formas visuales. El equipo encontró que la orientación cruzada era esencial para la detección precisa de la forma. El tercer principio es que los patrones relevantes se repiten en el espacio de maneras que pueden ayudar a percibir las superficies texturizadas de los árboles o el agua y los límites entre ellos, como en las pinturas impresionistas.

Los investigadores incorporaron los tres principios organizativos en un modelo que denominaron el modelo convolucional cuadrático, que puede aplicarse a otros conjuntos de datos experimentales. El procesamiento visual es probable que sea similar a cómo el cerebro procesa olores, tacto o sonidos, dicen los investigadores, por lo que el trabajo podría elucidar el procesamiento de datos de estas áreas también.

eye diagram Merca2.es

«Modelos que había trabajado antes de esto no eran totalmente compatibles con los datos, o no eran claramente compatibles», dice Rowekamp. «Así que fue muy satisfactorio cuando la idea de combinar el reconocimiento de los bordes con la sensibilidad a la textura empezó a ser una herramienta para analizar y comprender los complejos datos visuales«.

Pero la aplicación más inmediata podría ser mejorar los algoritmos de reconocimiento de objetos para automóviles autónomos u otros dispositivos robóticos. «Parece que cada vez que añadimos elementos de computación que se encuentran en el cerebro a los algoritmos de visión computarizada, su rendimiento mejora», dice Sharpee.