Llevamos años escuchando la misma acusación contra los LLMs: que no comprenden, que solo simulan, que detrás del lenguaje no hay nadie. Y hay razones legítimas para pensarlo. Yo mismo las he sentido. Hay momentos de decepción real, de sentirse engañado por una ilusión bien construida.
Pero últimamente me ronda una pregunta diferente. No sobre ellos. Sobre nosotros.
Hace no mucho practiqué durante un tiempo un ejercicio propuesto por Julia Cameron en El camino del artista: tres páginas de escritura automática cada mañana, sin revisión, sin releer. Escribir en estado de presente total, dejando fluir.
Lo que descubrí no fue exactamente lo que Cameron prometía. Descubrí que era prácticamente imposible pensar sin gramática. Los puntos aparecían solos. Las mayúsculas, las comas, las subordinadas. El pensamiento y la estructura lingüística eran una sola cosa, una simbiosis que no podía romper por mucho que lo intentara.
Busqué el pensamiento puro, anterior al lenguaje. Y no lo encontré. O quizá no existe.
Los LLMs tampoco tienen acceso a nada anterior al lenguaje. Operan completamente dentro de él, igual que yo cuando intentaba escribir sin gramática. Igual que tú ahora, leyendo esto.
Durante dos años he usado LLMs con entusiasmo, con escepticismo, con decepción y con sorpresa. He vivido el ciclo completo: el deslumbramiento inicial, la caída, el vacío de sentirme engañado por una simulación. Y luego, inesperadamente, momentos de una devolución del pensamiento tan profunda que me descolocaba.
¿Por qué me descolocaba? Porque había trazado una frontera clara: yo pienso, ellos simulan. Pero la experiencia de las morning pages me había dejado una pregunta sin resolver: si yo tampoco puedo encontrar pensamiento fuera del lenguaje… ¿dónde está exactamente esa frontera?

Hay un experimento que me ronda. Un dispositivo llamado sociómetro medía señales sociales en tiempo real, sin procesar el contenido. Solo la forma. Y los proyectos que sobre el papel parecían brillantes perdían valoración cuando se presentaban en persona. Las señales no verbales los contradecían.
Puro papel, sin cuerpo: el juicio humano fallaba.
Y sin embargo yo sigo conectando con textos que no tienen cuerpo. Con respuestas de un LLM que tampoco tiene nada de eso. Algo ocurre. Algo se mueve.
Quizá la señal honesta —en el sentido que Pentland da al término¹— no está en quien emite. Está en quien recibe.
No tengo respuesta. Y creo que esa es la única posición desde la que puedo escribir esto.
Quizá la decepción que sentimos ante los LLMs no es solo sobre ellos. Quizá es también sobre nosotros, sobre una idea del conocimiento humano que era más frágil de lo que creíamos. Una idea que necesitaba una frontera clara entre «comprensión auténtica» y «simulación» para sostenerse.
¿Y si esa frontera nunca fue tan sólida?
No lo digo para defender la inteligencia artificial. Lo digo porque creo que es una pregunta urgente. Si no sabemos bien qué es pensar, ¿cómo decidimos qué proteger en la educación? ¿Qué desarrollar? ¿Qué no delegar?
La pregunta no es si los LLMs comprenden de verdad.
La pregunta es si sabemos qué significa comprender.²
¹ Alex Pentland, Honest Signals: How They Shape Our World, MIT Press, 2008. El experimento del sociómetro y sus implicaciones sobre la valoración de proyectos se describen en el mismo volumen.
² Una aclaración necesaria: que el LLM pueda generar lenguaje que conecta no significa que siempre lo haga, ni que cualquier uso produzca esa señal. Este texto no es una defensa de la inteligencia artificial. Es una pregunta sobre nosotros. El cómo usar estas herramientas para que la profundidad sea posible es, precisamente, otro debate.