Nuestro cerebro no piensa (y el de usted, tampoco)

·4 min de lectura
  <span class="attribution"><a class="link rapid-noclick-resp" href="https://www.shutterstock.com/es/image-illustration/human-anatomy-illustration-central-nervous-system-197731310" rel="nofollow noopener" target="_blank" data-ylk="slk:Shutterstock / Mopic">Shutterstock / Mopic</a></span>

“Los seres humanos solo utilizamos el 10 % de nuestro cerebro”. “El cerebro de los adultos no cambia”. “El cerebro reptiliano es el que gobierna la conducta de los niños”. “Una persona es más inteligente cuantas más neuronas tenga”. ¿Quién de nosotros no ha escuchado estas afirmaciones alguna vez? Y, sin embargo, son falsas.

Se trata de malas interpretaciones acerca del cerebro (“neuromitos”) que calan a menudo en la población a través de ciertas formas de divulgación científica. También llegan incluso al ámbito de la educación. Así lo demuestra un estudio publicado en 2014, en el que se comprobó que los profesores de diversos países, tanto occidentales como orientales, tendían a creer en esta clase de afirmaciones.

La difusión de estas ideas erróneas no es banal, sino que puede llevar a estrategias educativas sin sustento científico y dañinas. Por ejemplo, el enriquecimiento excesivo del entorno de los niños y la obsesión por enseñarles cuantas más cosas mejor antes de los seis años.

Confundir la parte con el todo

Otro error que se presenta con frecuencia en la comunicación de la neurociencia consiste en perpetuar la llamada “falacia mereológica”: adjudicar a la parte (el cerebro) atributos psicológicos que, en realidad, pertenecen al todo (el ser humano en su conjunto).

Mediante una rápida búsqueda en internet podemos toparnos con expresiones como “el cerebro piensa”, “el cerebro recuerda”, “tu cerebro ve”, o hasta “tu cerebro odia”.

Este tipo de expresiones no solo se emplean por parte de los divulgadores científicos, sino también en ámbitos como la enseñanza e, incluso, la ciencia profesional. Sirva como muestra de esto último uno de los objetivos perseguidos por la iniciativa australiana para la investigación del cerebro (Australian Brain Initiative), que sus promotores plantean como “entender y optimizar cómo el cerebro aprende en la infancia”.

Esta falacia mereológica constituye la base conceptual de lo que el filósofo Carlos Moya califica como un nuevo (y paradójico) “dualismo materialista”. Una vez superada la concepción dualista alma-cuerpo (al modo cartesiano), se tiende ahora a pensar en un cerebro independiente o aislado del cuerpo. Este último parece, en cierto modo, prescindible. Esto no se ajusta a la realidad: el cerebro es solo una parte del sistema nervioso, que a su vez es solo una parte del cuerpo. Dicho cuerpo, además, se enmarca en un contexto social (no es un “cerebro en una cubeta”) que afecta decisivamente al desarrollo y la historia vital del individuo.

Ni los pies caminan, ni el cerebro piensa

El lector estará de acuerdo en que sus pies no caminan, sino que es usted quien camina empleando sus pies. De igual forma, no es su cerebro el que piensa, recuerda, odia o ama, sino que es usted quien hace todo esto utilizando su cerebro.

Podría pensarse que la comparación entre cerebro y pies no resulta adecuada, pues el cerebro, a diferencia de aquellos, goza de una gran capacidad de control sobre las demás partes del organismo. Sin embargo, no debe olvidarse que el cerebro depende, a su vez, de otros órganos para su subsistencia y funcionamiento, en especial (aunque no solo) del corazón.

De ningún modo el cerebro es independiente y gobernador del resto del cuerpo, como demuestra la dinámica de su desarrollo: no es hasta la vigesimotercera semana de vida prenatal cuando aparecen las primeras sinapsis en el embrión humano, y no es hasta pasados los veinte años cuando el cerebro termina de desarrollarse por completo. De hecho, el cerebro sigue cambiando hasta el día de nuestra muerte. Sencillamente, sin cuerpo no puede haber cerebro, tanto funcional como cronológicamente.

Hasta cierto punto, resulta comprensible que científicos o divulgadores formados en neurociencia tiendan a transmitir, consciente o inconscientemente, la falacia mereológica. Después de todo, su conocimiento especializado puede conducir a sobredimensionar la importancia de una parte de la realidad.

Por eso, y al igual que se ha normalizado el hecho de que una “ciencia de la parte”, como es la neurociencia, impregne decisivamente la comprensión de las ciencias sociales y las humanidades que estudian al ser humano en su conjunto, debería normalizarse también el camino complementario: que estas “ciencias del todo” contribuyan a un entendimiento más completo (y realista) del sistema nervioso.

Para lograrlo, la neurociencia debería ser más receptiva al estudio y el diálogo genuino con otras disciplinas (psicología, educación, comunicación, derecho, filosofía). La colaboración interdisciplinar podría, así, contribuir a frenar la proliferación de neuromitos y visiones reduccionistas de lo humano que entorpecen incluso el avance de la propia neurociencia. El rigor metodológico no debería asociarse a una falta de rigor argumentativo. Comunicar el cerebro, después de todo, no implica limitarse al cerebro.

Este artículo fue publicado originalmente en The Conversation. Lea el original.

José Manuel Muñoz es investigador del Centro Internacional de Neurociencia y Ética (CINET), un centro de la Fundación Tatiana Pérez de Guzmán el Bueno para promover el diálogo interdisciplinar entre la neurociencia y las humanidades

Javier Bernácer es director científico del Centro Internacional de Neurociencia y Ética (CINET), un centro de la Fundación Tatiana Pérez de Guzmán el Bueno para promover el diálogo interdisciplinar entre la neurociencia y las humanidades

Nuestro objetivo es crear un lugar seguro y atractivo para que los usuarios puedan establecer conexiones en función de sus intereses y pasiones. A fin de mejorar la experiencia de nuestra comunidad, hemos suspendido los comentarios en artículos temporalmente