Los modelos de IA mienten. Y a veces no saben que mienten.

IA · Alucinaciones · Verdad

Hay una palabra que los ingenieros de IA usan con frecuencia y que debería hacernos pausar: alucinación. Se refiere a cuando un modelo de lenguaje afirma algo con total confianza que resulta ser falso. Cita un artículo que no existe. Atribuye una frase a alguien que nunca la dijo. Inventa una fecha, un dato, una referencia bibliográfica completa con autor, editorial y año. Todo perfectamente plausible, todo completamente inventado.

La palabra alucinación es un eufemismo, pero tiene algo de exacto: el modelo no sabe que está mintiendo. No hay intención de engañar. Hay algo más inquietante: una máquina que genera texto convincente sin mecanismo interno para distinguir lo verdadero de lo plausible.

Esto no es un fallo que se va a corregir con la próxima actualización. Es una consecuencia estructural de cómo funcionan estos modelos.

Cómo funciona un modelo que no sabe que miente

Los grandes modelos de lenguaje no almacenan hechos como una base de datos. No consultan una tabla donde está escrito «La Torre Eiffel mide 330 metros». En cambio, han aprendido patrones estadísticos sobre cómo se relacionan las palabras y los conceptos en cantidades ingentes de texto humano.

Cuando generan una respuesta, producen la continuación más probable a la secuencia de texto que tienen delante. Esto funciona asombrosamente bien en la mayoría de los casos. Pero en los márgenes — en las preguntas sobre temas poco frecuentes en el entrenamiento, en los detalles muy específicos, en las fechas y cifras exactas — el modelo sigue generando lo que parece correcto, no necesariamente lo que es correcto.

El problema se agrava porque los modelos suelen expresar sus alucinaciones con el mismo tono fluido y seguro que usan para decir cosas verdaderas. No hay duda en la voz. No hay una señal de advertencia. La confianza del modelo no está calibrada con su precisión.

Por qué importa esto más de lo que parece

Si un estudiante usa un modelo de IA para resumir literatura académica y el modelo inventa referencias, las citará con toda naturalidad en su trabajo. Si un periodista lo usa para verificar datos rápidamente, puede publicar una cifra incorrecta. Si un médico le pregunta por interacciones entre medicamentos, la respuesta puede parecer impecable y estar equivocada en un detalle crítico.

Desde el ángulo europeo, esto tiene consecuencias regulatorias directas. El AI Act clasifica los sistemas de IA según su nivel de riesgo. Los que se usan en educación, salud, justicia o infraestructuras críticas son considerados de alto riesgo y están sujetos a requisitos estrictos de fiabilidad y explicabilidad. El problema es que las alucinaciones son, por su propia naturaleza, impredecibles. No puedes garantizar con antelación que un modelo no va a inventar algo en una interacción concreta.

¿Cómo certificas la fiabilidad de algo que puede fallar de formas que no puedes anticipar?

Cómo convivir con ello

La respuesta no es dejar de usar modelos de IA. La respuesta es usarlos con criterio. Algunas pautas prácticas:

Trata siempre al modelo como un colaborador brillante pero poco fiable en los detalles. Es excelente para generar ideas, estructurar argumentos, explicar conceptos complejos, redactar borradores. Es malo — potencialmente peligroso — cuando le pides datos muy específicos sin verificación posterior.

Verifica cualquier dato concreto que el modelo te dé: fechas, cifras, nombres, citas textuales. No porque el modelo sea deshonesto, sino porque no tiene mecanismo para saber cuándo se está equivocando.

Y la próxima vez que un modelo te responda con total seguridad, recérdalo: esa seguridad es una característica del texto que genera, no un indicador de su precisión. La confianza no es un termometro de la verdad. En la IA, más que en ningún otro sitio, el pensamiento crítico sigue siendo irreemplazable.

Deja un comentario