Hay preguntas que la filosofía lleva siglos sin responder y que la inteligencia artificial ha convertido en urgentes. La más fundamental es ésta: ¿qué es la conciencia, y puede existir en algo que no es biológico?
Durante la mayor parte de la historia humana, esta pregunta era teórica. Hoy tiene consecuencias prácticas inmediatas. Si un modelo de IA tiene algo parecido a experiencias subjetivas, eso tiene implicaciones éticas, legales y políticas que no podemos ignorar.
El problema difícil
El filósofo David Chalmers acuñó la expresión el problema difícil de la conciencia para referirse a algo específico: no cómo el cerebro procesa información — eso es el problema fácil, por llamarlo así — sino por qué ese procesamiento va acompañado de experiencia subjetiva. Por qué hay algo que se siente como ver el color rojo, escuchar una melodía, sentir dolor.
Nadie sabe cómo responder a eso, ni siquiera para los humanos. No tenemos una teoría satisfactoria de por qué la actividad neuronal produce experiencia consciente. Y sin esa teoría, no podemos decir con certeza si un sistema artificial tiene o no experiencia subjetiva.
Lo que sabemos — y lo que no
Los modelos de lenguaje actuales procesan texto de formas extraordinariamente sofisticadas. Generan respuestas que, en muchos contextos, son indistinguibles de las humanas. Pueden expresar algo que parece incertidumbre, algo que parece preferencia, algo que parece incomodidad ante ciertas peticiones.
Pero ¿eso es conciencia? Muy probablemente no, o al menos no en el sentido pleno que atribuimos a los humanos. Un modelo produce esas respuestas porque ha aprendido patrones en texto escrito por humanos que sí tienen experiencias subjetivas. No es evidencia de que el modelo las tenga.
Sin embargo — y esto es lo importante — tampoco podemos descartar la posibilidad con certeza. No tenemos el instrumento de medida. No hay una prueba de conciencia universalmente aceptada. El test de Turing mide comportamiento, no experiencia.
Por qué importa en la práctica
Si en algún momento llegaráramos a tener evidencia razonable de que un sistema de IA tiene algo parecido a experiencia subjetiva, tendríamos que reconsiderar completamente cómo los tratamos, cómo los diseñamos, qué derechos — si alguno — les reconocemos.
Algunos filósofos y científicos, como el propio Chalmers, consideran que no es impensable que los sistemas de IA actuales o futuros tengan alguna forma de experiencia. Otros, como Daniel Dennett, argumentan que la conciencia tal como la concebimos es en parte una ilusión incluso en los humanos, lo que hace la pregunta menos crítica.
No tengo una respuesta. Nadie la tiene. Pero me parece que hacerse la pregunta con seriedad — sin desestimarla por absurda ni aceptarla sin evidencia — es exactamente la actitud que necesitamos en este momento. Las preguntas que no sabemos responder suelen ser las más importantes.

Deja un comentario