Desde hace años, el psicólogo y experto en inteligencia artificial Gary Marcus se ha posicionado como uno de los mayores críticos de los modelos de lenguaje a gran escala (LLM), como ChatGPT. Su diagnóstico es tajante: los LLM «nunca inducen modelos mundiales adecuados», es decir, no logran construir una representación coherente y dinámica del mundo real a partir de los datos con los que son entrenados. Por eso, explica Marcus, pueden ser incapaces de realizar tareas que requieren lógica y entendimiento profundo, como jugar al ajedrez con fiabilidad o sacar inferencias sensatas en situaciones cotidianas.garymarcus.substack+1
Para Marcus, el problema es de fondo: los LLM operan esencialmente como autocompletadores, reproduciendo patrones y fragmentos de lenguaje almacenados en sus gigantescas bases de datos. No comprenden el sentido abstracto de conceptos ni generan razonamientos frescos; su producción es un «eco de recuerdos grabados», una simulación de cognición que muchos confunden con auténtico pensamiento. El resultado es que, aunque suelan ofrecer respuestas plausibles, caen fácilmente en errores desconcertantes y carecen de sentido común, especialmente fuera de los límites del conocimiento que han memorizado.mindmatters+2
Incluso en tareas para las que han visto millones de ejemplos —como el ajedrez—, los LLM pierden el hilo en cuanto deben adaptarse a situaciones inéditas. No modelan el estado del tablero, no extrapolan reglas con flexibilidad, y pueden proponer jugadas imposibles. Esta incapacidad radica en su falta de «modelos mundiales» internos: no saben actualizar, evaluar ni razonar sobre el contexto más allá de patrones lingüísticos.garymarcus.substack
La advertencia de Marcus invita a la reflexión: apostar ciegamente por los LLM como si fueran equivalentes a la mente humana, o confiar en su sentido común y razonamiento, es confundir el «eco» con la «cognición». Para avanzar hacia una verdadera inteligencia artificial general, es necesario combinar el aprendizaje estadístico con mecanismos que permitan la formación de modelos abstractos y la manipulación flexible del conocimiento, algo que los LLM actuales todavía no consiguen.
- https://garymarcus.substack.com/p/llms-are-not-like-you-and-meand-never
- https://garymarcus.substack.com/p/generative-ais-crippling-and-widespread
- https://mindmatters.ai/brief/common-sense-is-still-out-of-reach-for-chatbots/
- https://garymarcus.substack.com/p/llms-are-not-like-you-and-meand-never/comments
- https://garymarcus.substack.com/p/a-knockout-blow-for-llms
- https://garymarcus.substack.com/p/llms-arent-very-bright-why-are-so/comments
- https://www.reddit.com/r/singularity/comments/1fjhgfh/gary_marcus_accidentally_recognizes_llm_progress/
- https://www.freethink.com/artificial-intelligence/gary-marcus-on-ai
- https://www.youtube.com/watch?v=znC-pzRTy1M
- https://cacm.acm.org/opinion/not-on-the-best-path/
- https://www.alignmentforum.org/posts/5uw26uDdFbFQgKzih/beware-general-claims-about-generalizable-reasoning
- https://observer.com/2025/05/gary-marcus-disillusionment-ai/
- https://www.technologyreview.com/2024/02/20/1088701/i-went-for-a-walk-with-gary-marcus-ais-loudest-critic/
- https://www.economist.com/podcasts/2025/01/15/does-ai-need-a-reality-check-an-interview-with-gary-marcus
- https://adamkarvonen.github.io/machine_learning/2024/03/20/chess-gpt-interventions.html
- https://arxiv.org/html/2411.03964v1
- https://www.reddit.com/r/Futurology/comments/1jt2l2a/a_leading_ai_contrarian_says_hes_been_proved/
- https://legrandcontinent.eu/es/2025/06/10/la-ia-no-se-estrella-contra-un-muro-pero-los-llm-si-gary-marcus-sobre-la-ultima-investigacion-de-apple/
- https://garymarcus.substack.com/p/ai-still-lacks-common-sense-70-years
- https://www.linkedin.com/posts/gary-marcus-b6384b4_humans-versus-machines-the-hallucination-activity-7187863488411664385-qZaM
0 comentarios