Las llamadas “alucinaciones” de los chatbots como ChatGPT —respuestas inventadas pero formuladas con aparente certeza— se están convirtiendo en uno de los principales retos para la confianza y la utilidad de la inteligencia artificial en ámbitos profesionales y médicos. Aunque OpenAI afirma que ya entiende el origen del problema y propone estrategias para reducirlo, existen fuertes motivos económicos y de percepción que frenan su solución.futura-sciences
El origen de las alucinaciones en los chatbots
La tendencia de los grandes modelos de lenguaje como ChatGPT a “alucinar” se debe, principalmente, a la manera en que han sido entrenados. El sistema premia las respuestas correctas, pero no castiga las respuestas erróneas ni las manifestaciones de incertidumbre. Para la IA, decir “no sé” y equivocarse tienen el mismo peso negativo; esto la incentiva a intentar acertar, aunque a veces invente información.futura-sciences
Estrategia de OpenAI: calcular y premiar la incertidumbre
OpenAI ha identificado una posible solución: obligar al modelo a calcular un “score de incertidumbre” antes de dar cada respuesta. Este mecanismo permitiría al chatbot rechazar la contestación si la incertidumbre es demasiado alta, y premiar la honestidad frente a la posibilidad de un error. En teoría, esta medida ayudaría a reducir radicalmente las alucinaciones y elevar la fiabilidad de las respuestas.futura-sciences
Un obstáculo inesperado: los costes operativos
El problema, según Wei Xing, especialista de la Universidad de Sheffield, es que implementar este sistema supondría un aumento notable de los recursos informáticos necesarios, lo que se traduce en mayor consumo energético y costes de operación más altos. A la escala mundial de usuarios de ChatGPT, esta diferencia se hace muy significativa. Así, la solución técnica para frenar las alucinaciones complicaría la sostenibilidad económica del servicio tal como se presta actualmente.futura-sciences
Entre benchmarks y la percepción del público
Paradójicamente, los usuarios y los sistemas de benchmarking que evalúan los chatbots valoran más la certeza aparente que la honestidad sobre la duda. Un chatbot que admite no saber, o que se niega a contestar por incertidumbre, sería penalizado en los rankings de rendimiento y visto como menos capaz, aunque fuese más fiable. El público general, además, tiende a desconfiar de un asistente que a menudo rehúsa responder, prefiriendo herramientas que —aunque puedan equivocarse— siempre tengan una respuesta lista y segura.futura-sciences
El dilema estratégico de OpenAI
OpenAI se enfrenta así a un dilema: mitigar las alucinaciones implica elevar los costes y puede mermar la popularidad de ChatGPT. Si se opta por expresar incertidumbre, el chatbot parecerá menos seguro y perderá cuota de mercado frente a modelos rivales que responden siempre, aunque a veces lo hagan de modo incorrecto. Por eso, es posible que OpenAI no implemente estas soluciones a gran escala, salvo en versiones premium especializadas para sectores profesionales donde la exactitud es crucial y el coste adicional puede trasladarse al usuario final.futura-sciences
Camino a una IA más fiable
La solución a largo plazo podría pasar por mejorar la eficiencia energética de los sistemas, o por segmentar el producto: ofrecer una versión de ChatGPT más fiable y cauta para entornos laborales y médicos, con otra más flexible y propensa a alucinar para el gran público. Mientras tanto, los chatbots seguirán, probablemente, priorizando la fluidez y la cantidad de respuestas sobre la veracidad rigurosa, reflejando el complejo equilibrio entre técnica, negocio y expectativas de los usuarios.futura-sciences
0 comentarios