En su libro REC, el científico argentino Fabricio Ballarini comparte fascinantes secretos de la mente humana. Aquí, un extracto.

La memoria se puede definir como la capacidad de adquirir, almacenar y evocar información. Sin embargo, gracias al avance vertiginoso de la neurociencia, hoy entendemos a la memoria como un proceso de cambios constantes en los circuitos cerebrales. Más precisamente, cambios plásticos de conexión y desconexión de las redes neuronales.

En principio, para comprender dicho proceso debemos entender que nuestro cerebro es plástico, flexible, o para adecuarnos a la moda tecnológica con una metáfora discutible: hackeable. Esta característica plástica nos brinda la capacidad de modificar nuestra red de circuitos en respuesta, por ejemplo, al aprendizaje o a modificaciones ambientales o simplemente a daños o lesiones.
Uno de los ejemplos más reveladores para graficar esta habilidad viene de la mano del brillante descubrimiento de Helen Neville, una neuropsicóloga de la Universidad de Oregon, en los Estados Unidos. Ella demostró que personas que nacieron sordas (o que se quedaron sordas antes de los 2 años) no solo no presentan degeneración de las regiones del cerebro que procesan la audición sino que en su gran mayoría dichas áreas permanecen activas ocupándose del procesamiento del lenguaje visual.
Estudios similares en personas ciegas de nacimiento muestran una fantástica reasignación de la corteza visual a funciones tan diversas como el procesamiento del tacto y del sonido. Como las habitaciones de una casa donde se transforma el cuarto de aquel adolescente que ya abandonó el nido en un amplio escritorio, nuestro cerebro puede mudar el orden preestablecido de forma plástica, asignando funciones a regiones que previamente tenían otro uso. Reducir el cerebro humano a una casa con varias habitaciones es un acto de injusticia —por lo menos— para nuestra preciada teoría de la evolución. Sobre todo si sabemos que nuestro cerebro posee unos 100.000.000.000 de neuronas (que son las células del sistema nervioso). Así es: cien mil millones de neuronas (o, para hacernos los cancheros, 1011, “diez a la once”); es un número inmensamente grande que, como humanos, difícilmente podamos imaginar.
Para darnos una idea de la magnitud, tracemos distintas equivalencias. Por ejemplo, la cantidad de neuronas del cerebro humano se asemeja bastante al número de galaxias en todo el universo observable o, si bajamos a la Tierra, es aproximadamente 14 veces la población humana mundial. “Bocha de neuronas”, para conceptualizarlo científicamente como lo haría un adolescente de los noventa (lo que en cierto modo es el autor). Pero si aún nadie se ha quedado con la boca abierta, podríamos sumar algo más de espectacularidad al cálculo.
Desde hace más de un siglo sabemos que esas miles de millones de neuronas se comunican entre ellas, y con otras células efectoras como músculos o glándulas, mediante conexiones llamadas sinapsis. Pero lo increíble está por venir: una neurona no se conecta y envía información a una sola neurona, ni a dos ni a cien, sino que puede comunicarse simultáneamente con miles de neuronas mediante 10.000 sinapsis.
Este dato, además de ser sorprendente, nos indicaría que el número de redes que se pueden generar es enorme, lo que hace (o debería hacer) crecer nuestro grado de asombro. En nuestro cerebro nada es estático, las conexiones sinápticas bailan un constante juego histérico de conexión y desconexión. Esta virtud, llamada plasticidad sináptica, nos permitiría suponer que las memorias son almacenadas gracias a dichos cambios plásticos. En otras palabras, los recuerdos se guardarían en lugares físicos, en conexiones sinápticas que alteran o modifican la eficiencia de la conexión. Conexiones que van a generar nuevos recuerdos y desconexiones que van a generar nuevos olvidos.
Aprendo, luego memorizo, y existo
Cuando los científicos intentamos esbozar una definición práctica sobre la memoria nos encomendamos a dos características fundamentales que tienen los organismos: el comportamiento y el aprendizaje. Si bien es verdad que el boca en boca ha generado una fama desventajosa a favor del segundo, ambos son sumamente importantes.
Para vincularlos, y terminar con tal injusticia, podríamos definir el comportamiento como el resultado de la interacción entre factores innatos y ambientales, y es el aprendizaje el mecanismo por el cual el medio ambiente puede alterar la conducta. En otras palabras, el aprendizaje es el proceso por el cual adquirimos información sobre eventos externos, y la memoria, el mecanismo de retención por el cual los almacenamos.
Aprender y guardar. Parece simple, pero no lo es. Guardar un determinado aprendizaje no implica un proceso único sino que es la integración de un conjunto de etapas que involucran diferentes mecanismos. Comencemos, para ser fieles a la coherencia, por el principio: La formación de una memoria comienza con la adquisición de un tipo de información, lo cual obviamente ocurre durante el proceso de aprendizaje. Pero ¿qué ocurre después de que dicha información es adquirida?
Para responder esa pregunta, a comienzos del 1900 un grupo de científicos alemanes encabezado por Georg Müller y Alfons Pilzecker adoptó el término “consolidación” para referirse al proceso de almacenamiento de la información como paso siguiente al de aprendizaje. Propusieron una estupenda idea que sería la piedra inicial de futuros razonamientos que hasta hoy siguen vigentes.
La adquisición de cualquier información no induce instantáneamente la fijación permanente de la memoria sino que desencadena un proceso que irá fijando dicho aprendizaje a lo largo del tiempo. De esta manera, la memoria permanece vulnerable por un largo período de tiempo posterior a la adquisición. Si durante este período de consolidación la memoria transita por una fase de debilidad, ¿por qué no intentar interrumpirla? (Me fascina pensar que hace más de 100 años los científicos se hicieron una pregunta similar, pero en alemán).
Fue así que sin escrúpulo alguno generaron una serie de experimentos pioneros (fundamentalmente en seres humanos) en los cuales encontraron que la información adquirida de manera reciente podía ser interrumpida por el aprendizaje de otra información posterior. La única restricción que tenía este proceso entorpecedor era que ambos aprendizajes debían ser cercanos en el tiempo. Este efecto se conoció como “amnesia retrógrada”. Entonces aprendemos y luego guardamos ese recuerdo, pero ¿cómo hacemos para recordar la fecha del cumpleaños de nuestra novia, el nombre de un amigo del secundario o al lateral izquierdo del Racing campeón de 1966?
Para poder acordarnos utilizamos un nuevo proceso llamado “evocación”, donde la información adquirida anteriormente puede ser expresada. Según el tipo de memoria evocada, su expresión puede dar origen a dos fenómenos opuestos. Por un lado, ese recuerdo puede extinguirse, disminuyendo la retención de la memoria establecida y evocada. De modo contrario, podemos reconsolidar, lo cual implica realizar un nuevo mecanismo de consolidación, debido a una evocación explícita de dicha información.