Las llamadas “alucinaciones” de los chatbots como ChatGPT —respuestas inventadas pero formuladas con aparente certeza— se están convirtiendo en uno de los principales retos para la confianza y la utilidad de la inteligencia artificial en ámbitos profesionales y médicos. Aunque OpenAI afirma que ya entiende el origen del problema y propone estrategias para reducirlo, existen fuertes motivos económicos y de percepción que frenan su solución.futura-sciences

El origen de las alucinaciones en los chatbots

La tendencia de los grandes modelos de lenguaje como ChatGPT a “alucinar” se debe, principalmente, a la manera en que han sido entrenados. El sistema premia las respuestas correctas, pero no castiga las respuestas erróneas ni las manifestaciones de incertidumbre. Para la IA, decir “no sé” y equivocarse tienen el mismo peso negativo; esto la incentiva a intentar acertar, aunque a veces invente información.futura-sciences

Estrategia de OpenAI: calcular y premiar la incertidumbre

OpenAI ha identificado una posible solución: obligar al modelo a calcular un “score de incertidumbre” antes de dar cada respuesta. Este mecanismo permitiría al chatbot rechazar la contestación si la incertidumbre es demasiado alta, y premiar la honestidad frente a la posibilidad de un error. En teoría, esta medida ayudaría a reducir radicalmente las alucinaciones y elevar la fiabilidad de las respuestas.futura-sciences

Un obstáculo inesperado: los costes operativos

El problema, según Wei Xing, especialista de la Universidad de Sheffield, es que implementar este sistema supondría un aumento notable de los recursos informáticos necesarios, lo que se traduce en mayor consumo energético y costes de operación más altos. A la escala mundial de usuarios de ChatGPT, esta diferencia se hace muy significativa. Así, la solución técnica para frenar las alucinaciones complicaría la sostenibilidad económica del servicio tal como se presta actualmente.futura-sciences

Entre benchmarks y la percepción del público

Paradójicamente, los usuarios y los sistemas de benchmarking que evalúan los chatbots valoran más la certeza aparente que la honestidad sobre la duda. Un chatbot que admite no saber, o que se niega a contestar por incertidumbre, sería penalizado en los rankings de rendimiento y visto como menos capaz, aunque fuese más fiable. El público general, además, tiende a desconfiar de un asistente que a menudo rehúsa responder, prefiriendo herramientas que —aunque puedan equivocarse— siempre tengan una respuesta lista y segura.futura-sciences

El dilema estratégico de OpenAI

OpenAI se enfrenta así a un dilema: mitigar las alucinaciones implica elevar los costes y puede mermar la popularidad de ChatGPT. Si se opta por expresar incertidumbre, el chatbot parecerá menos seguro y perderá cuota de mercado frente a modelos rivales que responden siempre, aunque a veces lo hagan de modo incorrecto. Por eso, es posible que OpenAI no implemente estas soluciones a gran escala, salvo en versiones premium especializadas para sectores profesionales donde la exactitud es crucial y el coste adicional puede trasladarse al usuario final.futura-sciences

Camino a una IA más fiable

La solución a largo plazo podría pasar por mejorar la eficiencia energética de los sistemas, o por segmentar el producto: ofrecer una versión de ChatGPT más fiable y cauta para entornos laborales y médicos, con otra más flexible y propensa a alucinar para el gran público. Mientras tanto, los chatbots seguirán, probablemente, priorizando la fluidez y la cantidad de respuestas sobre la veracidad rigurosa, reflejando el complejo equilibrio entre técnica, negocio y expectativas de los usuarios.futura-sciences

  1. https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-createur-chatgpt-na-aucun-interet-empecher-son-chatbot-halluciner-125590/

admin

He sido profesor de la Universidad de Murcia. Impartí docencia de los departamentos de Física y de Informática y Sistemas. Interesado en la ciencia, el escepticismo y el pensamiento crítico.

0 comentarios

Deja una respuesta

Marcador de posición del avatar

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *