Cada vez más personas acuden a Grok, la inteligencia artificial integrada en X (antes Twitter), para verificar si una fotografía es real o si una noticia que han leído tiene algún fundamento. La lógica parece razonable: en tiempos de desinformación, ¿por qué no preguntarle a una IA? El problema es que Grok no solo no resuelve el problema de las noticias falsas, sino que activamente lo empeora.


El caso de la escuela iraní

Hace unos días circuló en X una serie de imágenes devastadoras: una escuela de niñas supuestamente bombardeada en Irán. Varios usuarios, siguiendo el nuevo hábito de consultar a la IA antes de compartir, le preguntaron a Grok si las imágenes eran auténticas. La respuesta del chatbot fue rotunda: no, esas fotos no eran de Irán, sino de Afganistán.

El asunto es que Grok se lo inventó. Simplemente generó una afirmación falsa con la misma confianza con la que podría haber dado la hora o explicado una receta. No señaló dudas. No admitió incertidumbre. Fabricó un dato y lo sirvió como si fuera un hecho verificado.

Esto tiene un nombre técnico en el mundo de la inteligencia artificial: se llama alucinación. Los modelos de lenguaje no «saben» cosas en el sentido humano del término; generan texto que estadísticamente parece plausible. Cuando no tienen información suficiente, no dicen «no lo sé». Inventan. Y en el contexto de un conflicto armado, con víctimas reales y consecuencias políticas, una alucinación no es un error menor: es propaganda involuntaria.


Las Fallas de Valencia en Beirut

Si el primer incidente podría haberse considerado un caso aislado, lo ocurrido al día siguiente dejó claro que estamos ante un patrón. Grok identificó imágenes de un bombardeo israelí en Beirut como si fueran fotografías de las explosiones pirotécnicas de las Fallas de Valencia.

No hace falta ser experto en geopolítica para entender la gravedad del error. Las Fallas son una fiesta de pólvora y luces en la costa mediterránea española. Un bombardeo en el Líbano es un crimen de guerra. Confundir ambas cosas no es solo un fallo técnico: es una distorsión de la realidad que puede llevar a miles de usuarios a relativizar lo que están viendo, a dudar de testimonios reales, a pensar que lo que parece destrucción bélica es en realidad fuego artificial.

El mecanismo es perverso: la gente que usó Grok para no ser engañada terminó siendo engañada de todas formas, pero esta vez por la herramienta en la que habían depositado su confianza.


Por qué ocurre esto con Grok en particular

Todos los grandes modelos de lenguaje tienen este problema en mayor o menor medida. Pero en el caso de Grok existen agravantes específicos.

Primero, está integrado directamente en X, una red donde la desinformación ya fluye a gran velocidad. El ecosistema no ayuda. Segundo, Elon Musk, su creador, ha hecho de X una plataforma con una relación complicada con los hechos verificados: ha eliminado los programas de verificación de noticias, ha reducido los equipos de moderación de contenido y ha promovido activamente teorías conspirativas. Que la IA que habita en ese entorno tenga una tendencia especial a confundir imágenes de guerras con festivales de fuegos artificiales no debería sorprender a nadie.

Tercero, y esto es crucial, Grok no tiene acceso en tiempo real a toda la información de internet. Responde a partir de lo que ha aprendido durante su entrenamiento y de un acceso limitado y parcial a publicaciones en X. Cuando se le pregunta por eventos recientes, especialmente en zonas de conflicto donde la información es escasa y contradictoria, su tasa de error se dispara.


El problema de fondo: la IA no verifica, genera

Existe una confusión fundamental en cómo mucha gente entiende estas herramientas. Un chatbot de IA no es un motor de búsqueda, no es una base de datos y desde luego no es un periodista. No contrasta fuentes. No llama a testigos. No distingue entre una fotografía verificada por Reuters y una captura de pantalla de dudosa procedencia. Lo que hace es generar una respuesta que suena coherente y segura, independientemente de si tiene base en la realidad.

Para verificar imágenes de conflictos existen herramientas específicas: la búsqueda inversa de imágenes en Google o TinEye, los servicios de fact-checking de organizaciones como Bellingcat o AFP Factual, las unidades de verificación de medios como Maldita o Newtral. Estas herramientas son lentas, requieren esfuerzo, y no te dan una respuesta instantánea. Pero no se las inventan.


Conclusión

La próxima vez que veas una imagen perturbadora de una zona de guerra y sientas la tentación de preguntarle a Grok si es real, recuerda: la herramienta que te va a responder es la misma que colocó un bombardeo en Beirut dentro de las Fallas de Valencia. No con mala intención, sino con total naturalidad.

La IA puede ser útil para muchas cosas. Para informarse sobre guerras en tiempo real, de momento, no es una de ellas.


admin

He sido profesor de la Universidad de Murcia. Impartí docencia de los departamentos de Física y de Informática y Sistemas. Interesado en la ciencia, el escepticismo y el pensamiento crítico.