Los humanos piensan, los modelos de lenguaje calculan. Una investigación liderada por figuras como Yann LeCun y Dan Jurafsky revela por qué ChatGPT, Gemini o Claude aún están lejos de entender el mundo como nosotros.
En un momento en el que la inteligencia artificial parece saberlo todo —desde escribir guiones de películas hasta explicarte la teoría de la relatividad—, una pregunta inquieta a muchos: ¿las máquinas realmente entienden lo que dicen? Según un nuevo estudio publicado en arXiv, la respuesta es un rotundo no.
El artículo, titulado “From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning”, ha sido elaborado por un equipo de investigadores de primer nivel, entre ellos Dan Jurafsky (Stanford), Yann LeCun (Meta AI) y Ravid Shwartz-Ziv. El trabajo compara cómo organizan el conocimiento los humanos frente a los llamados LLMs (Large Language Models), como ChatGPT, Gemini o Claude, y las conclusiones son tan claras como sorprendentes: las máquinas no entienden, solo comprimen.
📚 Humanos vs. IA: dos formas de ver el mundo
Una de las ideas centrales del estudio es que el cerebro humano y la inteligencia artificial tienen formas radicalmente distintas de categorizar la información. Mientras que los humanos agrupamos conceptos con matices, contradicciones, ambigüedad e intuición, los LLMs lo hacen de forma estadística y matemática, buscando siempre la máxima compresión posible del lenguaje.
Para ilustrarlo, el divulgador digital Corti (@josek_net) lo resumía así en una publicación que se ha viralizado en X (antes Twitter):
“Los LLMs están obsesionados con la compresión: reducen todo a patrones estadísticos optimizados, perdiendo con frecuencia los matices que hacen que un pato no sea igual que un pingüino, aunque ambos sean ‘aves’.”
No, las máquinas todavía no piensan. Solo comprimen.
Hay una diferencia fundamental entre cómo entienden el mundo los humanos… y cómo lo hacen los modelos de lenguaje como ChatGPT o Gemini.
En otras palabras, aunque un modelo como ChatGPT pueda identificar que un pato y un pingüino pertenecen a la misma categoría general, no tiene una representación rica o intuitiva de qué los hace únicos. Para una máquina, esa distinción importa poco.
🧠 ¿Por qué esto es importante?
Este estudio no solo plantea una diferencia técnica. Tiene enormes implicaciones sobre cómo entendemos (y usamos) la inteligencia artificial en nuestras vidas.
Los humanos somos “ineficientes” desde el punto de vista estadístico. Nuestra mente no se basa en fórmulas optimizadas, sino en experiencias, asociaciones flexibles, contexto e incluso contradicciones. Y eso, lejos de ser un problema, es lo que nos permite improvisar, razonar, aprender de lo inesperado.
El estudio demuestra que los modelos de lenguaje pueden formar categorías amplias similares a las humanas, pero fallan al entender qué es típico o atípico dentro de una categoría, y no saben priorizar el contexto. Por ejemplo, entienden que un murciélago es un “animal”, pero no captan fácilmente que, aunque vuele, no es un pájaro.
🧨 Una máquina puede sonar lista… pero no lo es
Como apunta el propio estudio, y también muchos expertos en IA, los LLMs no tienen intuición, no tienen experiencias, no saben qué es importante en una situación determinada. Solo manipulan símbolos, tokens, patrones. No tienen conciencia, ni sentido común.
De ahí el peligro: pueden sonar inteligentes, pero no lo son. No entienden. Calculan. Y por eso, cuando se les usa para tareas delicadas —educación, salud, justicia—, conviene recordar que detrás de sus palabras hay estadística, no comprensión.
🧩 ¿Qué nos enseña esto sobre nosotros?
Curiosamente, este trabajo también es un homenaje indirecto al funcionamiento del cerebro humano. Frente a la aparente desorganización de nuestros pensamientos, el estudio revela que esa «ineficiencia» es lo que nos hace adaptables, creativos y profundamente humanos.
Corti lo expresaba así en su reflexión:
“Nuestra aparente desorganización no es un bug. Es una feature.”
Así que la próxima vez que una IA escriba un texto brillante o te sugiera el regalo perfecto, recuerda: no lo hace porque te entienda. Lo hace porque sabe cuál es la siguiente palabra más probable. Y eso, aunque útil, no es lo mismo que pensar.
📌 ¿Y ahora qué?
Para los creadores, programadores y usuarios de inteligencia artificial, este estudio es un aviso. Si estás construyendo herramientas con IA, no caigas en la trampa de confundir salida con comprensión. Y si eres humano, celebra tu gloriosa ambigüedad. Porque eso que llamamos “pensar” aún es un privilegio de la biología.