¿Qué significa “pensar”? Y si una máquina lo hace, ¿cambia algo?

cogito
ergo sum?
Filosofía · Mente · IA

Cogito, ergo sum. Pienso, luego existo. La frase más famosa de la filosofía occidental, y también, si la miras bien, la más esquiva. Descartes la ofreció como el punto de partida indudable de todo conocimiento. Pero hay algo que no hizo: definir qué significa pensar.

Durante siglos, eso no importaba demasiado. Pensar era algo que hacían los humanos, quizás los animales superiores en algún grado, y nadie más. La pregunta era académica. Hoy ya no lo es.

Cuando un modelo de lenguaje resuelve un problema de lógica, genera una analogía original, corrige un argumento erróneo o propone una hipótesis científica que los investigadores no habían considerado, la pregunta se vuelve urgente: ¿eso es pensar?

Las dos tradiciones

La filosofía ha oscilado entre dos grandes formas de entender el pensamiento. Una, que podríamos llamar funcionalista, dice que pensar es lo que hace la mente: procesar información, transformarla, producir respuestas. Si un sistema hace eso, está pensando, independientemente de en qué sustrato ocurra. Esta posición lleva lógicamente a concluir que, sí, las máquinas pueden pensar.

La otra tradición, que podríamos llamar fenomenológica, insiste en que pensar no es solo procesar. Es procesar sintiendo algo al hacerlo. Es tener una perspectiva de primera persona, una experiencia subjetiva del proceso. Husserl, Merleau-Ponty, el útimo Wittgenstein: todos apuntan a que la mente no puede separarse del cuerpo que la encarna, del mundo en que vive, de la forma en que el pensador está en el mundo.

Desde esta segunda tradición, un modelo de lenguaje no piensa. Calcula. Procesa. Produce. Pero no hay nadie en casa experimentando el proceso.

El experimento mental de la habitación china

John Searle lo formuló así: imagina a una persona encerrada en una habitación. Por una ranura le llegan papeles con símbolos en chino. Ella no sabe chino, pero tiene un libro enorme de reglas que le dice qué símbolos devolver según los que recibe. Desde fuera, parece que entiende chino perfectamente. Desde dentro, no entiende nada. Solo sigue reglas.

Eso, dijo Searle, es lo que hacen los ordenadores. Sintaxis sin semántica. Símbolos sin significado.

Los funcionalistas respondieron: pero es que tú estás mirando la neurona, no el cerebro. Quizás la comprensión emerge del sistema completo, no de ninguna de sus partes.

El debate lleva cuarenta años sin resolverse. Y ahora los modelos de lenguaje lo han relanzado con una fuerza nueva, porque ya no estamos hablando de sistemas que siguen reglas explícitas. Estamos hablando de sistemas que han aprendido, de formas que ni sus creadores comprenden del todo, a producir respuestas que parecen surgir de comprensión.

¿Y si la pregunta está mal planteada?

Quizás el error está en tratar el pensamiento como algo binario: o se tiene o no se tiene. La realidad puede ser más continua. Quizás hay formas y grados de pensamiento, y los modelos actuales tienen algunas de sus características y no otras.

Lo que sí parece claro es que la IA nos ha devuelto una de las preguntas más viejas de la filosofía con una urgencia completamente nueva. Ya no es un ejercicio abstracto. Es una pregunta con consecuencias prácticas, éticas y políticas.

Descartes escribió su cogito en 1637. En todos estos siglos, nunca habíamos necesitado tanto saber lo que quería decir.

Deja un comentario