Dirección única 2
Sergio Hinojosa
1. La conjunción
En el pasado siglo, la literatura, la historia, la sociología o la propia psicología estaban insertas en un marco institucional, con una producción cultural y una intelectualidad más o menos locales, más o menos orgánicas, y, además, su dialéctica suponía la existencia de un sujeto rodeado de ciertas libertades políticas. Este, si quería era capaz de exponer sus ideas, de reflexionar libremente o de transitar caminos no trillados, sin que el horizonte de una experticia truncara su actividad antes de iniciarla. Ahora, con sus campañas, lemas y dictámenes anticipa sus dogmas unidireccionales –“política y mediáticamente correctos”-, para cerrar todo diálogo. La relativa autonomía de aquellas pasadas creaciones culturales -me temo-, también va siendo agua pasada.
Las denominadas ciencias cognitivas están a la base de esta nueva imago mundi que se expande con su afán homogeneizador por el globo. Ellas son el producto de la confluencia feliz de diversas disciplinas que las han ido configurado y que, ahora, desplazando a las viejas disciplinas obsoletas, encuentran su legitimidad en el nuevo y descarnado territorio de una ingente burocracia, repleta de protocolos y de estándares científicos, que colonizan la faz de la tierra. La amalgama que se encuentra bajo el rótulo de “Ciencias Cognitivas” está integrada esencialmente, por la psicología cognitiva, la lingüística, la biología, la neurociencia y la inteligencia artificial con una serie de ingenierías derivadas. Además de estas disciplinas, más o menos formalizadas, la antropología cultural y la filosofía cognitiva también aportan su producción. Todas ellas parecen haber nacido para legitimar este nuevo orden humano global, basado en un paradigma capaz de unir “científicamente” el sustrato físico de lo humano con lo inmaterial… o simplemente hacer desaparecer a este último. Para ello, la metáfora del computador fue un auténtico hallazgo, y encontró gran predicamento entre sus seguidores por ver en ella la perfecta analogía con el cerebro, y viceversa. La fascinación por el talismán de la nueva modernidad y la desaparición del sujeto, entre lo bizarro y las boscosas entrañas de la nueva máquina, vinieron de la mano y alumbraron la maravillosa metáfora, capaz de encontrar la síntesis del yo y la de los distintos campos y tecnologías encartadas. El horizonte que contemplan se escinde en dos mitades como casi toda teogonía: el físico y el mental. Por esta razón, uno de sus prometeicos objetivos es el de sustanciar la relación entre ambos niveles.
El cerebro (Brain), de carácter material, tangible y mapeado[1], vendrá a prestar infraestructura a la mente (Mind). Esta última, señorea como categoría que ciñe la naturaleza inmaterial y no localizable del hombre, y tal vez por ello, queda paradójicamente más a mano, a la hora de justificar y tratar de explicar la dimensión humana de lo que cada día, ocasionalmente o de manera extraordinaria nos da por hacer, esto es, tratar de decir algo coherente sobre el comportamiento humano… o de la ameba si viene al caso.
En otros artículos trataremos de detallar la historia de este entramado de disciplinas, que se acogen a las “Ciencias Cognitivas” y se unen al lenguaje tecnócrata del management, para extender su influencia de manera global.
2. Moldeado del pensamiento
Las Ciencias cognitivas: historia de una confluencia para el moldeado del pensamiento.
Hasta el pasado siglo, la literatura, la historia, la sociología y la propia psicología han estado insertas en una producción cultural y encontraban su función a partir de ejercicio de una intelectualidad más o menos local y más o menos instituida. Su dialéctica suponía la existencia de un sujeto rodeado de libertades políticas, ciertamente limitado, pero capaz de exponer sus ideas, de reflexionar libremente, de transitar caminos no trillados sin que su horizonte se viera oscurecido por un enjambre de expertos con sus dogmas sobre cualquier aspecto de lo cotidiano o sobre cualquier decisión social o política. Tampoco aparecía el diálogo entre profesionales, de las más diversas disciplinas, interceptado por imperativos mediáticamente “correctos”, para cerrarle la boca bajo la amenaza de atentar contra esa misma sociedad. Pensemos en el cariz que tomaron las campañas contra el tabaco hace tan sólo una década o el que toma ahora el cerrado en falso debate sobre el “género”. Pues bien, la extensión de este cientificismo y el ocaso del discurso político están dejando atrás toda aquella laboriosidad intelectual y crítica como cosas del pasado. La relativa autonomía en aquellas creaciones culturales -me temo- también va siendo agua pasada.
Las denominadas ciencias cognitivas están a la base de esta nueva imago mundi que se expande con su afán homogeneizador por el globo. Estas disciplinas, cuya legitimidad “científica” se busca en la estadística y en las neurociencias, han sido definitivamente agraciadas por dos vectores en tensión: por un lado, el desarrollo digital e industrial, junto al descarnado territorio de la burocracia y de los estándares científicos; por otro, la extensión de una espoleada demanda global.
Por el polo de la configuración y el formateo de la demanda, la emergencia de diversas disciplinas en las universidades ha ido configurando esta convergencia, para desplazar a las viejas disciplinas, dada por superadas y obsoletas. Por el polo de la generación de demanda, las propias prácticas generadas están ampliando su campo.
La amalgama, que sirve de emulsionante y que encuentra amparo bajo el rótulo de “Ciencias Cognitivas”, está integrada esencialmente por la psicología cognitiva, la lingüística, las neurociencias y la inteligencia artificial con una serie de ingenierías derivadas. Se añade a estas disciplinas, más o menos formalizadas, otras más cercanas al área humanística como la antropología cultural y la filosofía cognitiva. Todas ellas parecen haber nacido para contribuir a un nuevo orden humano global, basado en un paradigma capaz, aparentemente, de unir “científicamente” el sustrato físico de lo humano con lo inmaterial… o simplemente hacer desaparecer a este último.
El declive de las disciplinas humanísticas es evidente. En los centros clave de decisión, en los que el asesoramiento e influencia de estas disciplinas tenía cierto peso, actualmente, se ha abierto la puerta a la extensión de la experticia y el cientificismo. La imagen, el esquematismo y la simplicidad (no ajustadas a “ciencia”) han sido claves en su extensión, previa minusvaloración, o incluso eliminación de las teorías y materias que prestaban tiempo y espacio a la reflexión y a la crítica dentro de las universidades, institutos centros de investigación, etc.
Quizá el mayor éxito de esta simplicidad explicativa haya sido la metáfora de la computadora, que encontró gran predicamento entre sus seguidores por ver en ella una perfecta analogía con el cerebro. La fascinación por este talismán de la nueva modernidad y la desaparición del sujeto entre las boscosas entrañas de la nueva máquina digital vinieron de la mano de la extensión de internet. Esa fascinación encontró en esta afortunada metáfora la posibilidad de reunir los distintos campos. Pero su horizonte, como en toda teogonía, se escinde en dos mitades irreconciliables: el horizonte físico y el mental. Por esta razón, uno de sus prometeicos objetivos ha sido y será el de sustanciar la relación entre ambos niveles.
El núcleo reverenciado y visible de esta amalgama es el cerebro (Brain) que, asaeteado por una multitud de discursos, se convierte en eje de rotación. Gracias a su carácter material, tangible y mapeado, viene a prestar infraestructura a la más etérea “mente” (Mind). Esta, cuyo término es de tradición sajona, se nos muestra como de naturaleza inmaterial y no localizable. Sin embargo, paradójicamente, parece quedar más a mano a la hora de justificar cualquier aspecto, en el que esté implicada la dimensión humana.
La confluencia trata de unir el discurso científico (con su nomenclatura específica y en su complejidad funcional y bioquímica) con el discurso cognitivo – altamente matematizado, aunque con nociones carentes de profundidad y un tanto ambiguas. Los puentes temáticos que se tienden sobre los “procesos mentales”, tales como la sensación, la percepción, la memoria, la inteligencia o el conocimiento, pretenden salvar el abismo entre discursos y presentar expediente suficiente para su unidad legitima… al menos hasta la fecha.
Las disciplinas implicadas en la formación de la llamada “revolución cognitiva” componen un orden escalonado de perspectivas, inscrito en el famoso hexágono cognitivo, actualmente desfasado. Así, según su cercanía al discurso considerado científico y formalizado, nos encontramos con las siguientes disciplinas:

Hexágono de Howard Gardner. (1985)
En la cúspide de su abstracción, el ámbito cognitivo cuenta con una filosofía, que encuentra su salvación frente al peligro de extinción en el abrazo científico al conocimiento de “la mente”. Tras ella, una antropología cultural, inaugurada como cognitiva por Harold Conklin y heredada de Franz Boas y del quizá más importante antropólogo del siglo XX, el estructuralista Lévi-Strauss. Le siguen, de manera más enclaustrada en los laboratorios experimentales, las distintas corrientes y familias en el seno de la llamada psicología cognitiva. Como ciencia sapiente y cofundadora, la lingüística, sobre todo la derivada de la teoría de Chomsky y, por fin, las dos joyas de la corona: el entramado de neurociencias con sus distintas metodologías, ingenierías y disciplinas asociadas; y la glamurosa inteligencia artificial (IA en alza), que unida a las anteriores, dan caché científico al asunto. Mientras, la gamificación de los entornos presta apoyo desenfadado y juguetón a sus demandas de beneficio.
El objeto común a todas estas ciencias y disciplinas de la conformación social es la “cognición” (cuya infraestructura es el cerebro), si bien, cada vez más, como conjunto simple conjunto de reglas desnudas. Unas reglas transformativas que comandan esta cognición, entendiéndola como el producto de un sistema, inserto en el marco de una tecnología que lo alimenta con información. Una información que puede prescindir del diálogo y la reflexión, para pasar a ser filtrada por automatismo según sus capacidades específicas y sus características.
Fue en los años 50 cuando comenzó a enfocarse la “inteligencia” como simple proceso de transformación de la información, es decir, como conjunto de reglas transformativas, a partir de las cuales se podía manipular símbolos de mayor o menor abstracción. Por entonces, la “mente” había alcanzado ya un grado notable de recubrimiento estadístico y su naturaleza ya se había diseccionado en “procesos”. En los años 60 ya se habían conseguido realizar los primeros mapas cerebrales.
El estudio de la mente es, desde el comienzo, inseparable de la noción de representación. Se suponía, ya entonces, la existencia de un modo específico de “representación” de los procesos mentales, por cuanto implicaba la dimensión subjetiva, y se veía como producto de una elaboración interna en el sujeto, sin ser directamente observable.
Con el avance de la tecnología de la computación se postulará el estudio y la modelización de ese nivel de representación mental, más allá de la biología y la ciencia neurológica. De hecho, la emergencia de las neurociencias supone ese punto de partida “mental” que venía manejando la psicología cognitiva.
En 1962 las neurociencias vieron la luz con la creación del programa “Neuroscience Research Program” (NRP). Un programa, que el biólogo estadounidense Francis O. Schmitt ayudó a crear e impulsó en el Instituto Tecnológico de Massachusetts (MIT), del que fue presidente de 1962 a 1974. El programa pretendía comprender, desde una base fisiológica, el funcionamiento cerebral a nivel “mental”. Y, en especial se interesaba sobre todo por las “facultades superiores” y el “comportamiento”. Su novedoso carácter interdisciplinar permitió la confluencia de neurólogos, psicólogos y lingüistas. El objeto formal se había perfilado en 1960, cuando Jerome S. Bruner junto con A. Miller dieron nombre a este campo de investigación, al establecer un laboratorio de psicología, llamado Centro de Estudios Cognitivosen Harvard.
3. Psicología Cognitiva
Los trabajos anteriores de Jean Piaget, durante la década de los años cuarenta, habían puesto las bases evolutivas de este modelo, en el que las estructuras psicológicas se desarrollan a partir de reflejos innatos, se organizan durante la infancia en esquemas conductuales, se internalizan en los primeros años de vida como modelos de pensamiento, y se desarrollan durante la infancia y la adolescencia en las complejas estructuras cognitivas características de la vida adulta. Este planteamiento afectaría profundamente a la pedagogía y a las investigaciones psicológicas posteriores (los citados Bruner, Miller, etc.).
Este enfoque multidisciplinar y este lenguaje particular sirvieron para intentar explicar cuestiones relacionadas con las membranas neuronales, pero también extendieron una terminología sobre las estructuras cerebrales asociadas a procesos mentales como la memoria, el condicionamiento y al aprendizaje. En el horizonte ideal quedaba “la conciencia humana”, aún “sin descifrar”. Un ideal que se intentará recubrir a fuerza de repetición, y que vino a afianzar la convicción de que “el entendimiento preciso de los mecanismos imperantes en la mente exigía fundir las aportaciones de una serie de ramas que, pese a sus divergencias, habían demostrado gran capacidad de penetración teórica y experimental en sus respectivas áreas científicas”.[2] Y, efectivamente, dicha interdisciplinariedad facilitó la fusión del lenguaje “neuro” con el lenguaje “psi” y desplazó al conductismo, llevando a un primer plano al cognitivismo, que llegó a ser desde finales de los 60 la corriente imperante en EEUU.
En la medida que la teoría cognitiva fue ganando campos y creando un “ámbito cognitivo”, también fue prescindiendo de los aspectos culturales concretos, de la historia, y de las relaciones y contextos sociales y emocionales y, consecuentemente, de todas las disciplinas que acogían tales particularidades. De modo que la explicación cognitiva, dotada de cierto aparato matemático, aprovisionada de ingente investigación patrocinada y posicionada como ciencia, no veía ya necesidad de recurrir a la historia, a las ciencias sociales o a las antiguas psicologías, y mucho menos al psicoanálisis. De hecho, al ser considerada “ciencia” por la “Academia”[3], se introducía una dimensión de necesidad científica, que hace superflua la particularidad de la historia, la reflexión especulativa y cualquier otro desvarío de la razón no matematizada.
Y conforme el cognitivismo ganó puestos en las universidades occidentales, fueron quedando, fuera del foco y apenas financiadas, las antiguas psicologías (conductismo, psicoanálisis, Gestalt, etc.). También se vieron desplazadas las demás ciencias sociales no interesadas especialmente en interpretación cognitiva. En adelante, el dominio académico se fue impregnando de espíritu cognitivo-revolucionario contagiando su euforia a las nuevas disciplinas derivadas y a los nuevos proyectos de las universidades.
Desde que Lashley, Von Neumann y McCulloch en la fundación Hixon en 1948 postularan[4], más allá de la biología, neurología y la sociología, el concepto de “representación mental” el rumbo de la psicología cognitiva se había fortalecido frente a otras opciones. Posteriormente, esta preeminencia se consolidará con el avance de la computación y la aparición de los ordenadores personales. Para esas fechas, el conductismo era residual, por más ocupara todavía cátedras de psicología en las universidades.
Así pues, la psicología cognitiva se había asumido como la disciplina que debía superar las limitaciones de la psicología conductista, anclada en el simplismo del arco reflejo como única receta para el abordaje del comportamiento, dejando con ello fuera todo el “proceso cognitivo”. Evidentemente existían otras teorías y otros departamentos en la competencia como la Gestalt y diversas teorías del aprendizaje. Todas ellas trataban de explicar dicho proceso, pero la aparición del ordenador personal -el primero apareció bajo la marca Olivetti entre 1962 y 1964- y el auge de la teoría de la información, ofrecieron cobertura y legitimidad a la psicología cognitiva como ciencia provista de las técnicas y procedimientos adecuados para el razonamiento.
El ordenador era una máquina fascinante. Dotada de memoria y con capacidad exponencial para manejar símbolos y resolver problemas, abría un horizonte optimista y ofrecía un modelo para simular los “procesos mentales”. Esa dimensión, fascinante y a la vez práctica, demandaba abrir vías a la investigación del “razonamiento” y a los “procesos” de la “inteligencia” en todas las direcciones posibles, para orientar dicha simulación y para alcanzar el feliz desenlace de la “resolución de problemas”. Y en ese juego de focalización de lo humano en la noción de mente, y de reducir ésta a mero conjunto de procesos de información, la teoría de la información vino a prestar al cognitivismo un marco formal y supuestamente objetivo, para el estudio de la transmisión y formación de símbolos.
Mente (Mind) y cerebro (Brain), teoría de la información y psicología se unirían felizmente con las ciencias más sólidas: la matemática, la física y la biología en un acontecimiento particular. Este acontecimiento, como hemos dicho, tuvo lugar en Massachusetts en peno despegue en EEUU del ordenador personal.
Más tarde, la familia cognitiva se ampliará a las distintas corrientes: el funcionalismo psicológico, el conexionismo, el materialismo eliminista, el emergentismo, etc. Todas ellas, en general, entienden el proceso cognitivo inserto en un sistema (sea natural o artificial) con capacidad para almacenar y tratar la información, y consideran que, en su interior, se debe distinguir distintos niveles. Un nivel computacional, que especifica de manera abstracta la tarea a cumplir por el sistema, un nivel algorítmico, que define y especifica la naturaleza de la información a almacenar, y un nivel físico, que se refiere al estudio de la realización material de estos procesos.
Sea como sea, el objeto queda así definido como conjunto de procedimientos, mecanismos y algoritmos que definen un funcionamiento. Un funcionamiento que no tiene tanto que ver con el sujeto, cuanto con la máquina (computadora, dispositivos, etc.) y que sirve de soporte a estos discursos expertos.
4. Lingüística Cognitiva
La lingüística también hizo su aportación a la amalgama. Los trabajos de Noam Chomsky en el MIT habían preparado el terreno. Se hizo significativa su aportación, en especial por su artículo crítico con el conductismo “A review of B. F. Skinner’s Verbal Behavior”, en el que había propuesto la idea de una base innata para una “gramática universal”. Esa idea implicaba una generalización de esquemas con sustrato psicológico para la adquisición del lenguaje y, por tanto, para el conocimiento. Las reglas de transformación se hacían pues comunes a la computación, la psicología y la lingüística.
El enorme conjunto de corrientes y teorías lingüísticas de principios del XX, con sus innumerables aportaciones empíricas, condujo a un formalismo que buscaba en la matemática el instrumento para ordenar y axiomatizar la ingente cantidad de datos aportados por las investigaciones. Chomsky había postulado la necesidad de un conjunto de reglas o mecanismos cognitivos detallados, capaces de detectar las diferentes posibilidades de construcción de una frase y las relaciones sintácticas entre las distintas familias de frases. Y creía y cree que estos mecanismos y reglas, usados inconscientemente por el hablante, pueden ser descritos y modelizados por el lingüista bajo un formalismo de funciones y variables. Dicho de otro modo, cree estar, no ante una disciplina tecnificada, sino ante una ciencia del lenguaje. Para ello, naturalmente la matemática le es imprescindible. La lingüística confluía en su aspiración con la ciencia, y reunía las mismas metas de la psicología cognitiva: describir las reglas transformacionales de los objetos mentales, que definen y limitan las diferentes actividades del razonamiento.
Pero hay un aspecto singular que desdice esta vocación. El acto de habla, localizado por Saussure, y retomado más tarde en otra perspectiva por J. Lacan, introduce elementos difícilmente asimilables por las reglas transformacionales, puesto que dichos elementos, por aludir al sujeto, cuestionan la síntesis que está a la base del cognitivismo psicológico y lingüístico. Pues, aunque el propio Chomsky propusiera la noción de “competencia lingüística” como el conocimiento natural práctico del hablante, y la de “actuación lingüística” como “manifestación” de dicha competencia, no deja de ser una abstracción, y no puede explicar realmente el “acto del habla”. O dicho de otro modo, puede introducir una lógica, que incluye los modos del sujeto del enunciado, pero nada puede decir sobre el acto de la enunciación y el sujeto-causaque supone todo hablante, en el interlocutor.
La base del análisis chomskiano supone en la oración dos niveles de representación; uno, que remite a una estructura profunda y que aportaría la representación directa del contenido semántico de la oración, y otro, más superficial, de carácter fonológico, que se asocia al profundo. Y en esa relación de niveles, entre el nivel de significación y el de la reproducción fonológica, se introduce ciertas reglas o transformaciones. Más tarde, globalizada la dominancia del pensamiento técnico, modificará estas categorías y las cambiará por otras -con siglas para facilitar su “cientificidad”- para separar el plano de la representación como forma lógica (LF) y como forma fonética (PF).
La gramática transformacional cognitiva viene a describir las “habilidades” cognitivo-lingüísticas del cerebro (aparece aquí el sujeto bizarro de la enunciación) y, por tanto, trata de explicar tanto la adquisición del lenguaje como el conocimiento tácito o inconsciente del hablante en su adquisición y desarrollo. Supone además, que gran parte de estas capacidades son comunes a los hablantes de todas las lenguas y están de algún modo codificadas genéticamente (no demostrado). De este modo, se trataría de explicar el aprendizaje natural de las distintas lenguas. En el fondo, su objeto sería la forma de funcionamiento del lenguaje, independientemente de cualquier particularidad que pueda deslizarse en el tropiezo, en la ocurrencia, en el chiste o, simplemente, en cualquier forma de enunciación que implique la emergencia imprevista del deseo, de la identificación o del compromiso simbólico. Un fluir ideal y mecánico, con permutaciones, desplazamientos, transformaciones, etc., pero sin el aliento del sujeto. En fin, quedaría al margen todo lo relativo al sujeto como tal y quedaría igualmente desatendida aquella palabra comprometida, que está en juego en las relaciones más significativas de la amistad, de la confianza, del amor o, por otra parte, de la ruptura del pacto, de los sentimientos negativos, etc. En definitiva, en este pragmatismo, la palabra como efecto fundamental en la relación social quedaría desoída.
5. Antropología Cognitiva
Otro discurso que acude a esta lid es la antropología. Confluye ésta con el cognitivismo, en gran medida por la recuperación de conceptos clave de la antropología cultural de Franz Boas y, sobre todo, de Harold Conklin. Fue este último quien, al parecer, sentó las bases de la antropología cognitiva. Entre los planteamientos de Conklin y Lévi-Strauss había ciertas semejanzas. Este último había estudiado las particularidades culturales y de razonamiento desde un planteamiento lingüístico, independiente de las características históricas o contextuales de cada cultura, para buscar reglas de comportamiento, desde las cuales, por extrapolación, explicar otras más complejas. Y, por tanto, al igual que las otras disciplinas cognitivas, sus planteamientos servía para confluir, pues suponía un intento de formalizar las reglas que rigen a un cierto nivel de intercambio simbólico.
Las sociedades llamadas primitivas ofrecen, según Lévi-Strauss, una organización dominante y privilegiada: las estructuras de parentesco. El término “estructura” quedaba definido en su Antropología Estructural:
“En primer lugar, -escribe Strauss- una estructura presenta un carácter de sistema. Consiste en elementos tales que una modificación cualquiera en uno de ellos entraña una modificación en todos los demás. En segundo lugar, todo modelo pertenece a un grupo de transformaciones, cada una de las cuales corresponde a un modelo de la misma familia, de manera que el conjunto de estas transformaciones constituye un grupo de modelos. En tercer lugar, las propiedades antes indicadas permiten predecir de qué manera reaccionará el modelo, en caso de que uno de sus elementos se modifique. Finalmente, el modelo debe ser construido de tal manera que su funcionamiento pueda dar cuenta de todos los hechos observados”.[5]
En base a esta noción de “estructura” con características de “sistema”, Leví-Strauss había elaborado una teoría sobre el funcionamiento de los pueblos primitivos que revolucionó la etnología. Con ella, pretendía aproximar los modos de conocer y de pensar de estas sociedades a la nuestra, en un intento de dignificar al sujeto de estas culturas residuales que el capitalismo extingue y arrasa a lo Bolsonaro o, también lucrativamente, convierte en artificiosos parques nacionales.
Para Lévi-Strauss, las estructuras de parentesco no se derivan de la espontaneidad de una realidad biológica, por el contrario, afirma que “existe solamente en la conciencia de los hombres” y que “es un sistema arbitrario de representaciones y no el desarrollo espontáneo de una situación de hecho.” Constituyen, pues, para él, una realidad que está estructurada como un lenguaje y se transmite como tal. “El sistema de es un lenguaje parentesco –escribe-”.
Pues, bien, esta estructura básica de parentesco está recubierta por dos órdenes muy diferentes de realidad:
– El sistema de “denominaciones”: “los términos por los que se expresan los diferentes tipos de relaciones familiares” y “que constituyen en rigor un sistema de vocabulario”[6] –Y el “sistema de las actitudes”. Las actitudes desempeñan una función de cohesión social y de equilibrio en el grupo. Dentro de las actitudes hay que distinguir unas “actitudes difusas”, que no han cristalizado y que no poseen un carácter institucional “de las que se pueden admitir que son, en el plano psicológico, reflejo o fruto de la terminología”. Y otras, “actitudes cristalizadas”, obligatorias, sancionadas por tabúes o privilegios, que se expresan a través de un ceremonial fijo.
Lévi-Strauss entra en la serie cognitiva por estos rasgos de abstracción sistemática y por cierta analogía a la hora de considerar la importancia de lo mental. También por la mirada que trata de objetivar toda realidad, de clasificar, de ordenar y sistematizar lo realizan tanto los primitivos como el hombre occidental, tal como plantea en El pensamiento salvaje: “Cuando el hombre primitivo inventa realidades eso le sirve para ordenarse mentalmente, como ocurre con el totemismo, lo que demuestra la tendencia a inventar imágenes conceptuales y pensar la realidad de una manera más compleja, proponiendo un paralelismo lógico entre la serie natural y la serie cultural. Lévi-Strauss desarrolla la idea de que cualquier cosa significa siempre con relación a otra cosa, y no significa por sí misma”.[7]
Tanto en la ciencia cognitiva como en el sistema de Lévi-Strauss, de lo que se trata es de organizar y operar con una realidad ya constituida, sea para repetirla con la gramática fija del pensamiento primitivo, sea para dejar que el acontecimiento, lo contingente, despliegue con la ciencia sobre el cerebro o sobre la mente los cambios exigidos por la potente dinámica de nuestras sociedades. Pero, paradójicamente, esta contingencia queda tanto en la antropología como en la ciencia cognitiva reducida a mera probabilidad estadística.
En contraposición a ese abordaje de la contingencia, del resto -lo más humano-, otro clasificado como estructuralista -aunque siempre se demarcó de este movimiento- planteará un territorio, el del lenguaje, previo a la realidad “ya constituida”, y ofrecerá una función distinta de ese resto. Trabajará con él, pero no para abandonarlo por inútil al modo de la ciencia, ni tampoco para usarlo a la manera artesanal del chamán o el bricoleur. El resto, la contingencia, será el núcleo de la “estructura”, en la que el sujeto se produce, se inserta, habla y goza. Por esta consideración el psicoanálisis recobrará otro impulso aun no extinto con Jacques Lacan.
6. Neurociencias y Ciencias Cognitivas
Con la neurobiología se aterriza en el suelo de la infraestructura cognitiva. Es el nivel más concreto de estudio de la cognición, al menos así se la concibe. Su objeto son las estructuras neuronales y moleculares. Pero en su alcance experimental intenta llegar a un cielo más humano, al usar nociones del tipo “proceso mental” o “función mental” cuando aborda la “percepción” o la “memoria” y trata de encontrar el correspondiente sustrato bioquímico y neuronal.
Los fundadores de esta tendencia fueron Karl Lashley y Donald O. Hebb. Su punto de partida es tan legítimo como el de cualquier otra ciencia. Pues se planteaban un problema objetivo: ver qué hace diferentes a las neuronas, de tal suerte que generen un sistema inteligente. El problema es que el término “neuronas” se mueve en territorio bioquímico y el de “inteligencia” se desliza entre términos asociados con otro ámbito más etéreo. Otros problemas como el de qué relevancia tiene la localización de un conjunto neuronal, o qué papel cumple la plasticidad celular de la neurona, o qué alcance hay que conceder a la predeterminación genética siguen alimentando el cuerpo de este discurso. Por supuesto, se encuentra entre sus desvelos encontrar dónde situar la base neuronal que produce la cognición, y cuál es la naturaleza física de la conciencia.
La divulgación extiende esta concepción:
“La neurociencia aplicada es una disciplina que utiliza el conocimiento sobre la estructura y el funcionamiento del cerebro para la solución de problemas prácticos. La neurociencia aplicada además se nutre de conocimientos que provienen de disciplinas clásicas como la psicología clínica, la rehabilitación neuropsicológica y la ergonomía. Actualmente, el campo de aplicación neurocientífica por excelencia es la clínica, donde se utilizan modernas técnicas de neurofeedback y neuroestimulación para el tratamiento de trastornos del sueño, dolor, tinnitus, epilepsia, trastorno obsesivo compulsivo, rehabilitación de lesión cerebral, etc.”
Y uno de los dispares ejemplos de éxito, que se presenta, reza así:
“El neurofeedback (también llamado EEG biofeedback) es una técnica terapéutica que consiste en informar al paciente de su propia actividad eléctrica cerebral (electroencefalograma – EEG) para que éste intente regularla de forma voluntaria en la dirección indicada por el terapeuta. El neurofeedback está logrando buenos resultados en el tratamiento del trastorno por déficit de atención e hiperactividad. Tras múltiples sesiones de entrenamiento, el paciente hiperactivo aprende tanto a reducir el anómalo exceso de ritmos cerebrales lentos, como a incrementar su déficit en actividad rítmica cerebral de rápida frecuencia, lo cual revierte en una reducción de los síntomas comparable a la que produce la medicación con psicoestimulantes (Butnik, 2005)”. [8]
Sin embargo, con relación a los progresos en de las neurociencias en cuanto a tratamientos con pacientes, cabría ser derrotista a tenor de las declaraciones de Allen Frances (EE UU, 1942), coordinador del DSM, quien encabezaba la denuncia de la nueva versión del DSM 5, aparecida en 2013 y que generó una gran polémica, con una rotunda afirmación: “Ningún logro de la neurociencia ha ayudado todavía a un solo paciente”. Y se extendía en aclarar el fraude del diagnóstico del TDH, que ya todos sabemos, menos quienes lo manejan como criterio en el día a día institucional: “Antes –afirmaba-había un 3% de población afectada. La previsión del DSM-IV, cuidadosamente elaborada, preveía cambios que provocarían un incremento de tan solo el 15% pero ahora un 30% de nuestros estudiantes universitarios y el 10% de nuestros alumnos toman medicación para el TDAH. Si yo hubiese escrito el DSM-5 me habría preguntado si tal incremento tiene sentido. La gente no cambia, la naturaleza humana es la misma. Lo que varía son las etiquetas.
El manual debería advertir sobre el peligro de sobrediagnosticar, pero la nueva edición amplió las definiciones para que se pueda tratar con mayor rapidez a más gente. En lugar de curar un problema, lo agrava”[9]. De hecho, Leon Eisenberg hizo creer que el TDAH tenía causas genéticas. Pero meses antes de morir, confesó a la revista alemana Der Spiegel[10], que lo que debería hacer un psiquiatra infantil es tratar de establecer las razones psicosociales que pueden provocar determinadas conductas, un proceso que lleva tiempo por lo que «prescribir una pastilla contra el TDAH es mucho más rápido». Además, pensaba, con ese diagnóstico el sentimiento de culpa de los padres desaparece de esa forma al pensar que el niño ha nacido así y el tratamiento con medicamentos es menos cuestionable. La psicóloga, de la universidad de Massachusetts Lisa Cosgrove desveló en un estudio de 2015[11] desveló a la opinión pública que, “de los 170 miembros del grupo que trabaja con el ‘Manual de los trastornos mentales’, el 56% tenía una o más relaciones financieras con empresas de la industria farmacéutica”. [12]
En 1951, Lashley publicó un famoso artículo llamado «El problema del orden serial en el comportamiento», en el que señaló que el comportamiento secuencial complejo (es decir, en teoría de sistemas, un sistema en el que los valores de las salidas, en un momento dado, no dependen exclusivamente de los valores de las entradas en dicho momento, sino también dependen del estado anterior o estado interno; en comportamiento, es claro, que tocar una pieza en el piano no es una reacción a los estímulos que los dedos van recibiendo de roce con las teclas) no podía ejecutarse mediante una respuesta que enviaba una señal propioceptiva ( conciencia de la posición de la mano) al cerebro que luego provocaría la siguiente respuesta en la secuencia: simplemente no había tiempo suficiente para que las señales neuronales viajaran hacia el cerebro y retrocedieran. De ahí dedujo que el comportamiento debía estar controlado por un “programa central” (metáfora del ordenador), jerárquicamente organizado. Esta visión guió el estudio del comportamiento motor desde entonces, e influyó en la crítica de Noam Chomsky a la teoría del lenguaje de Skinner, alimentando el desarrollo de la teoría generativa de Chomsky.
Sobre la validez de tal metáfora hay que hacer una observación: a la máquina lógica no se le supone sujeto… al menos hasta ahora.
Uno de los padres de la neurociencia, Hebb formuló otro principio importante para la teoría cognitiva, según el cual se produce ciertos ensamblajes entre neuronas, cierta facilitación de la respuesta.
“Cuando el axón de una célula A está lo suficientemente cerca de una célula B como para excitarla y participa repetida o persistentemente en su disparo, ocurre algún proceso de crecimiento o cambio metabólico, en una o ambas células, de tal modo que la eficacia de A en disparar a B se ve aumentada”. Así, pues, si “El cerebro elabora recuerdos intensificando los apareamientos entre las neuronas que disparan de forma concurrente y, dado que la conexión entre neuronas se hace a través de las sinapsis, es razonable suponer que cualquier cambio que pueda tener lugar durante el aprendizaje deberá producirse en ellas. Hebb sostenía la teoría de que aumentaba el área de la unión sináptica. Teorías más recientes afirman que el responsable es un incremento de la velocidad con que se libera el neurotransmisor en la célula presináptica. Así, los procesos cognitivos se explicarían mediante la existencia de estos ensambles neuronales”. “¿Cómo guardamos un objetoen la mente? ¿Cómo persisten los disparos neuronales en una red distribuida aun en ausencia de entradas sensoriales? Hebb sugirió que la activación sostenida en un sistema distribuido es mantenida por la actividad reverberante de circuitos neuronales recurrentes, llamados ensambles neuronales”. [13]
Pero, pese a estos principios y a otros que tratan de conectar lo físico y lo mental, no parece suficiente para borrar del mapa toda otra concepción de lo humano y de las relaciones humanas que no pase por el filtro “científico”. Se sabe qué áreas afectadas quedan excitadas o inhibidas en el ámbito motor, en el campo de las sensaciones y en el de las percepciones, incluso se puede detectar mediante el electroencefalograma (EEG) qué grupos de neuronas del cerebro quedan excitadas o inhibidas en una gran parte de procesos más complejos, tales como entender algo, atender a algo o memorizar algo. Pero de poder registrar la transducción (conversión en señal eléctrica cualquier estimulo externo o interno) a explicar por qué alguien piensa lo que piensa o siente lo que siente hay un abismo.
A.R. Damasio reconocía al tratar la “sombra de la genética” en su obra de gran difusión El error de Descartes, que “el perfil impredecible[14] de las experiencias de cada individuo tiene algo que decir en el diseño del circuito (cerebral), tanto directa como indirectamente, a través de la reacción que desencadena en las circuiterías innatas, y las consecuencias que tales reacciones tienen en el proceso global de la conformación de los circuitos”[15]. Y en otro lugar define al yo como “un estado neurobiológico perpetuamente recreado”. Efectivamente esa imprevisibilidad de lo experimentado y de lo que alguien puede hacer o decir, nos lleva a otro tipo de apreciaciones a la hora saber o de barruntar, lo que podemos esperar de alguien en un determinado momento, y nos aconseja otras maneras menos artificiosas de abordar estos asuntos. La literatura está plagada de dramas y de situaciones sugerentes en este sentido, muchas veces más acertadas, que los meticulosos seguimientos neuronales y estadísticos de la conducta humana.
7. IA y Ciencias Cognitivas
Quizá la confluencia más prestigiosa recibida con los brazos abiertos en el ámbito cognitivo haya sido la inteligencia artificial por el desarrollo vertiginoso alcanzado y por la multitud de aplicaciones operativas, que día a día se consigue crear.
La IA no trata de elucidar los mecanismos y representaciones responsables de la inteligencia, lo que hace es construir procesos inteligentes a partir de las posibilidades computacionales de los dispositivos. La IA nace paralelamente a la “revolución cognitiva” y se convierte, a su vez, en producto de las distintas ciencias cognitivas. Se trata de construir una serie de reglas que permitan a un ordenador la búsqueda de soluciones a un problema, sin que dichas soluciones estén en el programa inicial.
Una máquina es inteligente, si es capaz de percibir su entorno y tomar acciones que maximicen su probabilidad de éxito.[16]Efectivamente debe haber una aplicación capaz de, a través de un sensor, “ver” qué pasa a su alrededor, sea este el de una circulación incesante de información digital, sea el del entorno terrestre para detectar un gas, o sea el de detectar cierta temperatura a partir de la cual activar una serie de dispositivos. En definitiva, sea cual sea el medio “percibido”, operar sobre un conjunto de los elementos entrantes y tomar una decisión.
Otro principio importante de la IA es aquel que obliga a proceder de forma que su probabilidad de éxito sea máxima. Por ejemplo, una aplicación que informa de nuestra localización a través del GPS no es inteligente; pero una que calcule la mejor ruta a destino, teniendo distintas variables (tipo de vías, posibles atascos, etc.), sí lo es (…) Pero la inteligencia no está en la recepción de datos o de señales, ni siquiera en el almacenamiento ingente (Big Data) de datos… “La inteligencia está, para comenzar, en analizar esa señal, compararla con señales anteriores (mías y de otros), distinguir que es mi voz, mapear esa señal a un texto (basándose en cómo lucía la señal para textos anteriores que tiene registrados, míos y de otros), y escribirlo. Esto se llama reconocimiento del habla, y es un ejemplo de manual de un área que en los años 90 disparó su performance utilizando aprendizaje automático”.[17]
Pero la IA es inteligente porque decide desde programas, valores y pautas sobre los que se establecen expectativas. Si actuará con decisión “propia” en función de “percepciones” de rasgos seleccionados previamente, y tomara la decisión de realizar algún tipo de acción mediante robots, armamento o cualquier otra aplicación, efectivamente sería tan imprevisible como un sujeto. Lo temible es que difícilmente podríamos esperar de esa máquina un sentimiento de compasión, de solidaridad o de piedad que evitara lo peor. El sujeto estaría tan ausente como en las cadenas lógicas de sus algoritmos, y sería simplemente un punto de probabilidad entre las posibilidades de que produzca una determinada forma fonética (PF) de Chomsky o un esperado ensamblaje neuronal con sus consecuencias bioquímicas.
Pero el sujeto, en el que nos reconocemos, no deriva del discurso científico, sino del efecto de los dichos, y de la escritura, acordados por la razón dialógica, menos necesaria pero más atenta a la particularidad humana. Somos sujetos de deseo, a veces indescifrable incluso para quien lo experimenta. Somos sujetos identificados a significantes que nos conducen por caminos trillados o no. Si somos padres, no sólo lo somos biológicamente, existe un modo de ser cifrado en la cuna de lenguaje, que nos señala como criatura que simplemente nace o como criatura que se toma y acepta. “Padre”, “madre”, “hermano”, “amiga”, “compañero”, o, “catalán”, “andaluz” o “socialista”, etc., con los decires y tareas que se les asigna, no pueden ser explicados desde los ensambles neuronales, por muy complejos que estos sean. Pero, además, en cada uno de esos casos, no somos sólo eso. La identidad no agota el deslizamiento por el lenguaje y la vida que despliega el sujeto humano. Somos en sociedad, sujetos-soporte del derecho civil, del derecho penal, de cada uno de esos derechos instituidos históricamente, que nos sirven para formar colectividad y orientar nuestra vida… en fin, difícil encontrar todo ello en la nomenclatura bioquímica o en el decurso de la transducción, en donde todo se convierte en energía, en electrones veloces y centelleantes. ¿Habremos de erradicar de nuestras universidades y dejar desguarnecidas sus filas a las míseras humanidades no científicas ni directamente productivas, y además sin posibilidad de generar valor añadido? El tiempo lo dirá. Mientras tanto, en otra próxima entrega les expondré algo sobre el maridaje del cognitivismo y el gerencialismo o management.
Notas
↑1 | Las señales neurales (potenciales de acción) enviadas por los sensores (desde los órganos sensoriales) construyen pautas (patrones) neurales que plasman en mapas estas interacciones sujeto-mundo. Dichos patrones neurales (mapas) son dinámicos y tienen como finalidad ayudar a gestionar y controlar de modo eficiente el proceso de la vida orgánica. http://www.ub.edu/pa1/ |
---|---|
↑2 | BLANCO, C. Historia de la neurociencia. El conocimiento del cerebro y la mente desde una perspectiva interdisciplinar. Ed. Biblioteca Nueva, Madrid, 2014. P. 132 |
↑3 | Término que designa a uno de los steikholders en la nueva lengua franca. |
↑4 | Castellaro, Mariano, EL CONCEPTO DE REPRESENTACIÓN MENTAL COMO FUNDAMENTO EPISTEMOLÓGICO DE LA PSICOLOGÍA. Límite. Revista Interdisciplinaria de Filosofía y Psicología [en linea] 2011, 6 (Sin mes) : [Fecha de consulta: 22 de noviembre de 2018] Disponible en:<http://www.redalyc.org/articulo.oa?id=83622474005> ISSN 0718-1361 |
↑5 | C. LÉVI-STRAUSS, Antropología estructural. Ed. Paidós. Barcelona. 1995. p. 301. |
↑6 | Ibidem. p. 90 |
↑7 | http://www.centrolombardo.edu.mx/wp-content/uploads/formidable/37_12_lagunas.pdf |
↑8 | http://www.cienciacognitiva.org/?p=30#more-30 |
↑9 | https://www.oei.es/historico/divulgacioncientifica/?Ningun-logro-de-la-neurociencia-ha |
↑10 | http://www.spiegel.de/spiegel/print/d-83865282.html |
↑11 | C. LÉVI-STRAUSS, Antropología estructural. Ed. Paidós. Barcelona. 1995. p. 301. 9 COSGROVE, L. Psychiatry Under the Influence: Institutional Corruption, Social Injury, and Prescriptions for Reform 2015th Edition 10 https://actualidad.rt.com/ciencias/view/95483-psiquiatra-descubrio-tdah-enfermedad-ficticia |
↑12 | https://actualidad.rt.com/ciencias/view/95483-psiquiatra-descubrio-tdah-enfermedad-ficticia |
↑13 | [13] CODIFICACIÓN DE ESTADOS FUNCIONALES EN REDES NEURONALES BIOLÓGICAS, Luis Carrillo-Reid* y José Bargas Depto. de Biofísica, Instituto de Fisiología Celular, UNAM. Ciudad Universitaria, C.P. 04510, México, D.F. E-mails: *carrillo@ifc.unam.mx, **jbargas@ifc.unam.mxD.R. © TIP Revista Especializada en Ciencias Químico-Biológicas, 11(1):52-59, 2008 |
↑14 | Otro reconocimiento de lo irreductible del sujeto, ahora no tratado como resto, sino como “perfil impredecible”. |
↑15 | A.R. DAMASIO, El error de Descartes. Ed. Crítica, Barcelona 1996. P.112 |
↑16, ↑17 | https://medium.com/@gmonce/inteligencia-artificial-y-el-camino-hacia-aiuy-8dc742576f48 |