Entrevista a Jesús Cortés, científico participante del proyecto COLAMN: “A Novel Computing Architecture for Cognitive Systems based on the Laminar Microcircuitry of the Neocortex”

Ángel Correa
Dept. de Psicología Experimental y Fisiología del Comportamiento, Universidad de Granada, España

(c) Jesús CortésCOLAMN (“Una novedosa arquitectura de procesamiento para sistemas cognitivos basada en la microcircuitería laminar del neocórtex”) es un macroproyecto dentro del Reino Unido que intenta implementar en silicio la corteza cerebral de mamíferos. Este sistema sería capaz de realizar multitud de operaciones complejas que los ordenadores convencionales no son capaces de hacer. En este proyecto están implicados científicos cognitivos de diversas áreas, como la ingeniería, matemáticas, biología o informática.

[Versión en pdf]

Jesús Cortés es Research Fellow en el Institute for Adaptive and Neural Computation, University of Edinburgh (Reino Unido), Fulbright Fellowship Postdoctoral Visitor en Computational Neurobiology Laboratory en el Salk Institute for Biological Studies (California), y miembro de la Sociedad Americana de Neurociencia desde 2006. Ciencia Cognitiva le ha entrevistado en relación con su participación en el proyecto COLAMN.

CC: Jesús, ¿podrías explicarnos en un lenguaje sencillo en qué consiste este proyecto?

La mayoría de los ordenadores convencionales que usamos en casa resuelven problemas con una lógica muy sencilla, una algorítmica basada principalmente en secuencias del tipo “Si A, entonces B”. Podemos llamar a esto computación lineal. En cambio, muchas tareas que los humanos e incluso otros animales hacen no son susceptibles de ser programadas de esta forma. Por ejemplo, la formación de asociaciones rápidas en categorías. Así, en una determinada ocasión, una bicicleta puede ser diferente a un coche (no tiene motor). Pero, en otras situaciones, bicicleta y coche estarán en la misma categoría, la de medios de transporte.

Los ordenadores de hoy en día están muy lejos de resolver este tipo de problemas, al menos tan rápido como nosotros lo hacemos. ¿Se pueden implementar en hardware circuitos que sean capaces de resolver este tipo de problemas? La Neurociencia Computacional defiende que sí es posible. Su supuesto básico es que, si todas las personas realizan la misma categorización, debe existir un determinado circuito o cableado físico en nuestro cerebro capaz de procesar tal información.

El gran problema es que, a fecha de hoy, los mecanismos que relacionan circuito cerebral y función cognitiva de estos procesos tan complicados son muy difíciles de especificar. Esto se debe, principalmente, a la gran multitud de subprocesos que ocurren simultáneamente, cada uno con una escala espacial diferente. El rango va desde la difusión de neurotransmisores entre neuronas, que ocurre en una escala de una milésima de micra, hasta procesos más globales, como la atención, que pueden ser vistos con resonancia magnética funcional activar zonas de incluso varios centímetros. Esto hace que experimentalmente sean muy difíciles de medir, e incluso a veces, no se sepa ni cuál es la medida apropiada.

El proyecto COLAMN no pretende resolver estos procesos mentales tan complicados. Simplemente, pretende implementar en silicio circuitos de neuronas basados en una anatomía realista y en datos electrofisiológicos de la corteza cerebral, la fina envoltura del cerebro que en unos pocos milímetros de espesor ejecuta la mayoría de los procesos cognitivos complicados (atención, lenguaje, memoria de trabajo, pensamiento abstracto, etc.). Existen otros macro-proyectos dentro de la Neurociencia Computacional dedicados a la simulación de la corteza cerebral (veáse el proyecto BlueBrain y Facets). El proyecto COLAMN se caracteriza por no usar la neurona como unidad mínima de procesamiento. Su implementación se basa en la estructura laminada de la corteza, aproximadamente 6 capas, donde la información sensorial (visual, auditiva, táctil) se representa y se transmite, en un procesamiento de complejidad creciente, desde las capas más superficiales a las más profundas (véase la Figura 1).

Figura 1

Figura 1.- Las seis capas del neocórtex, con representación de sus neuronas excitatorias (reproducido con permiso de Thomson y Lamy, 2007). [Ver la figura en mayor tamaño]

CC: ¿Qué implicaciones a nivel práctico tendrán los primeros resultados de este proyecto?

Se están implementando en silicio algunas propiedades biológicas de la corteza como, por ejemplo, la adaptación de la respuesta neuronal a estimulación repetitiva, niveles de ruido muy altos, conectividad con numerosos circuitos recurrentes, conectividad emergente a través de mecanismos de aprendizaje asociativo, cableado plástico que cambia en la misma escala de tiempo que la actividad neuronal, etc. También hemos implementado parámetros realistas de flujo de información a través de todas estas capas corticales, basados en medidas experimentales obtenidas con un único electrodo relativamente grande que registra la propagación de actividad a través de las diferentes capas. Esto nunca se había hecho antes.

A estos chips se les puede estimular mediante estímulos semejantes a los que realmente llegan al sistema nervioso, y observar cómo se comportan y qué tipo de comportamiento global emerge. A partir de aquí pueden surgir multitud de aplicaciones. Por ejemplo, en visión artificial pueden generarse técnicas de reconstrucción de imágenes, de detección de objetos, aprendizaje, etc. En definitiva, se pretende resolver por pura imitación biológica problemas de primera línea en vision artificial.

CC: ¿Y las implicaciones a nivel teórico?

A nivel teórico, este tipo de proyectos son muy enriquecedores. Por ejemplo, algunos problemas que dentro de la neurociencia teórica son fundamentales, como bajo qué condiciones se puede almacenar información pasada en circuitos recurrentes de neuronas, dentro de la neurociencia experimental son prácticamente irrelevantes, entre otras cosas, por la imposibilidad de ser medidos. En el proyecto COLAMN se está trabajando en un entorno altamente interdisciplinar, con unos 30 investigadores de diferentes disciplinas, incluyendo Ingeniería del hardware y del software, Electrofisiología, Física, Teoría de la Información, Estadística y Matemáticas, etc. Así, uno entiende cuáles son los problemas globales de algo en común (el cerebro), independientemente de cuestiones concretas que sólo son relevantes para una comunidad de científicos.

CC: ¿Qué sabemos hoy sobre la corteza cerebral? ¿Queda aún mucho por descubrir?

Pues sabemos mucho de qué, poco del dónde y practicamente nada del cómo. Si decimos que en la corteza se procesa el lenguaje, lo sabemos principalmente por estudios basados en lesiones cerebrales (ataques epilépticos, ictus, daños por accidente de tráfico, etc.). En los últimos años, gracias a técnicas de imagen no invasivas en Neurociencia Cognitiva (como, p. ej., electroencefalografía o resonancia magnética funcional) podemos mirar al cerebro en acción cuando realizamos muchas tareas. Esto hace que se entienda mucho el qué (p.ej., memoria de trabajo, atención) y a veces el dónde (corteza prefrontal), pero no sabemos nada, o mucho menos, del cómo. ¿Cómo se forman estos circuitos de procesamiento de información que soportan el sistema de la atención? ¿Por qué en diferentes individuos, con diferente material genético, se conservan las mismas propiedades mentales? ¿Cuáles son los mínimos ingredientes que conforman el sistema de la atención?

Por lo tanto, el método a seguir para responder a estas cuestiones no está nada claro. ¿Se deben modelar estos procesos empezando en una simulación muy realista a nivel de una sola neurona? O, por el contrario, ¿debemos modelar procesos cognitivos mentales, independientemente de la biología que los sustenta? Dicho de otro modo, ¿desde la conciencia a la neurona o desde la neurona a la conciencia? ¿Qué camino es mejor? A mi entender, todas estas cuestiones no se resolverán con las técnicas de visualización del cerebro actuales en muchas décadas.

CC: ¿Cómo serán los ordenadores del futuro?

Quién sabe. Si seguimos con las tendencias actuales, serán más baratos, más rápidos, pero disipando una cantidad enorme de energía (o sea menos eficientes). A mí me gustaría creer que algunos de estos circuitos basados en el procesamiento de la información cerebral se pudieran llegar a integrar en el microprocesador de Pentium, consiguiendo así computar con menos consumo operaciones abstractas como distinguir el estado de ánimo de alguien que nos habla. Pero, por ahora, estamos muy lejos.

Referencias

Thomson, A. M. y Lamy, C. (2007) Functional maps of neocortical local circuitry. Frontiers in Neuroscience, 1,19-42. doi:10.3389/neuro.01.1.1.002.2007

Los comentarios están cerrados.

Post Navigation