La computación en ciencias cognitivas

Juan Alberto Vich Álvarez
Escritor, químico y filósofo

Pintura Algorítmica “Nous (16)”: Jaime de los Ríos

Es conocida la evidente influencia que tuvieron los ordenadores en el nacimiento de la ciencia cognitiva. Fue, de hecho, la Revolución tecnobiológica —a partir de la mitad del siglo pasado— la que empezó a pensar la cognición en términos computacionales, «hasta el punto de que los genes comenzaron a ser considerados como máquinas biológicas que se comunican entre sí mediante códigos cifrados, y no solo como organismos bioquímicos»1.

El primero en vincular la idea de la computación a la cognición fue Turing2 (1912-1954) en 19373, fijando el modo de proceder del matemático (¿cómo resuelven éstos los problemas?); y, definitivamente, en 19504, cuando asocia un ordenador «bien programado» al comportamiento humano. Incluso, llegó a construir su Máquina Universal (MU), capaz de producir una misma función teniendo un mismo comportamiento input/output (pero cumpliendo diferentes pasos, de lo contrario la equivalencia se daría en sentido fuerte). De tal modo, los símbolos son interpretados sintácticamente. Interpretados al tratarse de un ejercicio mecánico y sintácticos por ser reglas formales.

De tal modo, Turing consideró que las máquinas deberían ser denominadas “inteligentes” en caso de que desarrollaran con éxito el «juego de la imitación» (Test de Turing). Para que pudiera resultar, la máquina debería ir respondiendo y adaptándose a lo que se va estableciendo durante la conversación. De modo que, si bien la estructura topográfica del ordenador es rígida, ésta no quita para tener una gran plasticidad de función —dependerá de su capacidad de designar aspectos extrínsecos (de la interpretación de sus inputs)—. Sus símbolos permitirán acceder a otros símbolos, realizar determinadas acciones, designar números, razonamientos o fines,…

Esta última postura5, es la defendida por la denominada Visión Clásica. Su tesis se resume en dos características6:

  1. La sintaxis esconde significados.
  2. Es posible construir máquinas que tengan por función transformar símbolos, y cuyas operaciones sean sensibles a las estructuras sintácticas de los símbolos que operan.

Se podría representar esta clase de sistemas del siguiente modo:


Esquema 1: esquema tipo de los sistemas de la Visión Clásica.

Los símbolos son códigos, tienen significado, semántica (the formal-syntactic conception of computation, FSC7). Igual que las cuentas del ábaco permiten realizar sumas y multiplicaciones gracias a la creencia de correspondencia entre su sintaxis (representación, las cuentas) y los objetos (los números en sí). El procesador escribe, lee y altera las expresiones simbólicas en la memoria (donde se da un almacenamiento activo). Según la Visión Clásica, tanto las mentes como los ordenadores operan sobre representaciones (en forma de códigos simbólicos, expresiones simbólicas que representan números,… y que podrían representar, también, conocimientos o creencias). Por tanto, la Visión Clásica cumple con dos propiedades: que sistemas como la mente y los ordenadores trabajan sobre representaciones y que los símbolos (complejos) dependen de sus partes (modelo de la lógica formal).

Por tanto, frente a corrientes que niegan la existencia de estructuras simbólicas en la cognición humana por la falta de su experiencia subjetiva (p. ej. conexionismo), la Visión Clásica considera la cognición como «una especie de la computación»8, donde la relación del conocimiento con el estado de un sistema es semántica; es decir, la causalidad es debida a que el conocimiento viene codificado en símbolos —y siendo sus propiedades físicas, serán las que generan dichos comportamientos—. 

De tal modo, la Visión Clásica se sostiene sobre tres niveles de organización (arquitectura clásica o cognitiva)9 10:

  1. Nivel semántico (o de conocimiento): expresa por qué se actúa en base a lo que se conoce (p. ej. teoremas).
  2. Nivel simbólico: las expresiones simbólicas codifican contenidos semánticos (p. ej. algoritmos).
  3. Nivel físico (o biológico): Para que funcione el sistema se requiere de una estructura física (p. ej. cables).

Siendo dos las partes de la estructura de la máquina: anatómica y funcional; la segunda corresponde a su arquitectura, donde el nivel de interpretación de datos se da semánticamente. El «proceso cognitivo», por tanto, requiere especificación de la arquitectura funcional de un “ordenador cognitivo” (≡arquitectura cognitiva). Esta última será la que ejecute los algoritmos cognitivos. De hecho, la posibilidad o no de los algoritmos depende de la propia arquitectura funcional. Para que un determinado algoritmo funcione, deberá presentarse bajo algún programa (es decir, con cierto lenguaje de programación).

Se podría, de tal modo, comprender los procesos cognitivos desde dos perspectivas11:

  • Vía baja (the low road): estudio de modelos estrechos, mayor grado de correspondencia entre modelos cognitivos.
  • Vía alta (the high road): explican habilidades y capacidades posponiendo la cuestión de los algoritmos y de los mecanismos detallados.

El conjunto de los psicólogos experimentales consideraron que lo primero que debe desarrollarse, antes de crear cualquier sistema, son los hechos empíricos; es decir, una estrategia de investigación de arriba a abajo. Sin embargo, es importante explicar el por qué funcionan los modelos como lo hacen (las acciones no sólo consisten en imitar comportamientos)… De lo contrario, se darían comportamientos sin conocer sus principios y podríamos estar construyendo sobre accidentes (recuerden la habitación china de Searle). De tal modo, para que un modelo cumpla con comportamientos particulares, debe conocerse cómo se invocan las representaciones internas y las reglas: el control del proceso. 

A la inversa ocurría parecido, a saber, la psicología cognitiva (con una estrategia de investigación de abajo a arriba), la cual habla de representaciones del organismo (como los mapas mentales) pero no de cómo se producían las acciones. 

Cabe resaltar la rigidez del presente modelo de estudio… Fue advertida por Allen Newell12 (1927-1992): si la subrutina no se tratara de un especialista tan estrecho ganaría en flexibilidad, y no sólo nos daría cuenta del error si no el motivo por el que dicho error ha tenido lugar (éste es uno de los puntos más investigados por la IA, vía alta).

Lo que se baraja aquí es si el modelo computacional es válido empíricamente, si corresponde con los procesos cognitivos humanos. Esta equivalencia “total” o fuerte —entre humano y máquina— se traduce en una nueva forma de construir sistemas “inteligentes”. Pylyshyn13 (1937), por ejemplo, defendió que «un modelo cognitivo válido debe ejecutar el mismo algoritmo que llevan los sujetos»14. Empero, la posibilidad de una equivalencia fuerte reduce toda noción a lo biológico-neuronal. Se trata de una concepción descorporeizada, que no atiende con la relevancia que merece a los estímulos ni a las relaciones externas. Autores como Merleau-Ponty (1908-1961), Godfrey-Smith (1965-1991), Damásio (1944),… señalan lo presente. Lo biológico es necesario, pero no suficiente: hay cuerpo, hay mundo.

Si, por lo contrario, todo lo que ofrece la ciencia cognitiva fuera comportamiento observado (equivalencia débil), su estudio resultaría interminable… Tiende a observarse el comportamiento (común en la psicología experimental), pero se obvian las observaciones secundarias que lo permiten (como se ha señalado arriba).

En definitiva, vuelven a requerirse “puntos medios” en una nueva ocasión: interdisciplinariedad. Porque no es, en realidad, un debate ontológico (debido a las fuentes de financiación); sino epistémico-pragmático (para replicar nuestras formas de conocer y obtener beneficios), y para eso ambas vías de estudio nos son de interés.

Bibliografía, notas y fuentes:

1 Echeverría, J. (2003) La revolución tecnocientífica. Fondo de Cultura. Madrid. Versión digital. Pág. 114-115.

2 Matemático, lógico, informático teórico, criptógrafo, filósofo y biólogo teórico británico.

3 Turing, A. M. (1937) Computability and Definability. The Journal of Symbolic Logic, 2, 153-163.

4 Turing, A. M. (1950) Computing machinery and intelligence. Mind, 59, 433-460.

5 La relación entre la computación y las ciencias cognitivas se puede interpretar de diversos modos: instrumental (permitiendo el uso de teorías), funcional (como fuente de ideas) o de naturaleza (tesis de la equivalencia fuerte); en VV.AA (2007) Lecturas filosóficas de ciencia cognitiva. Universidad del País Vasco (UPV/EHU). Gipuzkoa. Pág. 23.

6 Fodor, J. A. and Pylyshyn, Z. W. (1988) Connectionism and Cognitive Architecture: A Critical Analysis, Cognition 28, 28–30.

7 Rescorla, Michael, “The Computational Theory of Mind”, The Stanford Encyclopedia of Philosophy (Fall 2020 Edition), Edward N. Zalta (ed.). Ver en: https://plato.stanford.edu/archives/fall2020/entries/computational-mind/ (última visualización: 15/02/21)

8 VV.AA (2007) Lecturas filosóficas de ciencia cognitiva. Universidad del País Vasco (UPV/EHU). Gipuzkoa. Pág. 24.

9 Íbid. Pág. 31.

10 Recuerda, de manera inevitable, a las Tri-level Hypothesis de David Marr (1945-1980), con la que guarda gran similaridad. Pylyshyn lo reflejó en: Pylyshyn, Z. W. (1984). Computation and cognition. Cambridge, MA: MIT Press.; Marr un par de años antes en: Marr, D.(1982). Vision. San Francisco: W. H. Freeman.

11 VV.AA (2007) Lecturas filosóficas de ciencia cognitiva. Universidad del País Vasco (UPV/EHU). Gipuzkoa. Pág. 38.

12 Investigador en informática y psicología cognitiva.

13 Científico cognitivo y filósofo canadiense.

14 VV.AA (2007) Lecturas filosóficas de ciencia cognitiva. Universidad del País Vasco (UPV/EHU). Gipuzkoa. Pág. 50.