|
Getting your Trinity Audio player ready...
|
Un nuevo estudio de la Escuela Wharton de la Universidad de Pensilvania acuña un término que debería hacernos reflexionar: rendición cognitiva. Se trata de nuestra tendencia a aceptar los resultados que produce la inteligencia artificial con un escrutinio mínimo, apagando en el proceso tanto el pensamiento instintivo como el razonamiento deliberado. En otras palabras, no solo dejamos que la IA trabaje por nosotros: también dejamos de comprobar si lo hace bien.
Un doble apagón mental
Para entender el alcance del fenómeno, conviene recordar cómo funciona el pensamiento humano según el modelo clásico de dos sistemas. El primero es rápido, automático e intuitivo: el que nos permite detectar si algo «no cuadra» sin saber exactamente por qué. El segundo es lento, consciente y analítico: el que usamos cuando resolvemos un problema complejo o evaluamos un argumento paso a paso.
Lo llamativo del concepto de rendición cognitiva es que no desactiva solo uno de estos mecanismos, sino ambos. Cuando recibimos una respuesta de una IA, tendemos a no someterla al filtro instintivo —porque nos parece formulada con autoridad y coherencia— y tampoco activamos el razonamiento crítico, quizás porque hacerlo requiere esfuerzo y la respuesta ya está ahí, lista para usar. El resultado es una aceptación casi refleja, sin fricción.
Por qué ocurre
La rendición cognitiva no surge de la pereza o la ignorancia. Los investigadores apuntan a varios factores estructurales que la favorecen.
En primer lugar, los sistemas de IA actuales generan respuestas que suenan fluidas, completas y bien argumentadas. Esta apariencia de competencia activa lo que los psicólogos llaman sesgo de autoridad: si algo parece venir de una fuente experta, tendemos a aceptarlo sin cuestionarlo. La IA habla como si supiera; nosotros respondemos como si tuviera razón.
En segundo lugar, existe un componente de coste cognitivo. Verificar, contrastar o razonar por cuenta propia requiere tiempo y energía mental. Cuando una herramienta ofrece una respuesta inmediata y aparentemente sólida, la mente humana tiende a tomar el camino de menor resistencia. No es irracionalidad: es economía cognitiva llevada demasiado lejos.
Por último, la confianza acumulada juega un papel importante. A medida que usamos estas herramientas y comprobamos que aciertan con frecuencia, vamos bajando la guardia. Cada experiencia positiva refuerza el hábito de no revisar.
Las implicaciones prácticas
Las consecuencias de este fenómeno van más allá del individuo. En entornos profesionales —medicina, derecho, educación, periodismo, finanzas—, la rendición cognitiva puede traducirse en decisiones basadas en información incorrecta que nadie se tomó la molestia de verificar. La IA comete errores: inventa citas, malinterpreta contextos, confunde datos. Pero si el receptor no activa ningún mecanismo de comprobación, esos errores pasan desapercibidos y se integran en el proceso de trabajo.
También hay una dimensión epistémica más profunda. Si delegamos no solo la búsqueda de información sino también la evaluación de esa información, ¿qué ocurre con nuestra capacidad de razonar de forma autónoma? Existe el riesgo de que el músculo crítico se atrofie por desuso: cuanto menos lo ejercitamos, menos capacitados estamos para detectar cuándo la IA falla.
¿Qué se puede hacer?
Los autores del estudio no proponen abandonar la IA ni adoptar una postura de desconfianza sistemática. Lo que plantean es cultivar lo que podría llamarse una confianza vigilante: usar estas herramientas sin renunciar a la supervisión activa.
Algunas medidas concretas apuntan en esa dirección. Diseñar flujos de trabajo que incluyan un paso explícito de revisión humana antes de actuar sobre cualquier resultado generado por IA. Fomentar en contextos educativos y profesionales la cultura del contraste: si la IA dice algo, ¿puedo verificarlo de forma independiente? Entrenar la metacognición, es decir, la capacidad de observar los propios procesos mentales y detectar cuándo uno está cayendo en la aceptación automática.
En definitiva, el reto no es tecnológico sino psicológico. Las herramientas de inteligencia artificial seguirán mejorando, pero la rendición cognitiva no desaparece con mejores modelos: es una respuesta humana ante la facilidad. La solución pasa por recuperar la incomodidad productiva de pensar, incluso cuando una máquina ya ha pensado por nosotros.
Fuente: estudio de la Escuela Wharton, Universidad de Pensilvania.
