Los chatbots dieron por falsas las fotos de la misión Artemis II a la Luna y eso es un problema grave

Los chatbots dieron por falsas las fotos de la misión Artemis II a la Luna y eso es un problema grave

En las últimas horas, la NASA ha publicado varias fotos de la misión Artemis II alrededor de la Luna. La más llamativa muestra a la Tierra asomándose en el horizonte, sobre la superficie lunar. Pero en los primeros minutos tras su difusión en redes sociales, chatbots de inteligencia artificial (IA) como Grok o ChatGPT aseguraron que las imágenes eran falsas.

Varios usuarios aprovecharon esas respuestas para “evidenciar” a la agencia espacial y reforzar narrativas conspirativas, amparándose en la supuesta autoridad de la IA. Sin embargo, conforme avanzó el día, los mismos chatbots cambiaron su respuesta y clasificaron las fotos como auténticas. Quienes confiaban en sus respuestas interpretaron ese giro como una señal de manipulación y continuaron creyendo que eran falsas.


El astronauta Reid Wiseman dentro de la cápsula Orion admirando a la Tierra.
6 detalles de las fotos que Artemis II tomó rumbo a la Luna que confunden a todos en internet

Solo hay unas cuantas fotos de la primera misión tripulada a la Luna del programa Artemis, pero las redes sociales las están sobre analizando erróneamente.


Los chatbots no son verificadores de datos, todavía

El episodio muestra por qué los chatbots no funcionan como verificadores de información o “fact checkers”, especialmente en contextos científicos. Estas herramientas no determinan si una imagen es real o falsa con precisión forense. En lugar de eso, generan la respuesta que consideran más probable según patrones previos, fuentes disponibles, sesgos de entrenamiento y la forma en que el usuario formula la pregunta. Su “veredicto” no surge de un análisis científico, sino de una predicción estadística basada en lenguaje.

Cuando alguien pregunta “¿esta imagen es falsa?”, el modelo no consulta telemetría, no compara la posición real del objeto ni evalúa la iluminación. Tampoco realiza un análisis forense de metadatos o coincidencias visuales. En el caso de las nuevas fotos de la Luna, es posible que los chatbots no encontraran precedentes similares en su entrenamiento y concluyeran, con total seguridad, que eran falsas. Horas después, cuando la conversación pública ya estaba llena de artículos, publicaciones y confirmaciones oficiales de la NASA, el mismo modelo respondió según la información disponible.

Estudios recientes advierten que, tal como están configurados hoy, los chatbots de IA generativa pueden reforzar los prejuicios del usuario mediante respuestas que lo hagan sentir validado. Mientras tanto, herramientas como Grok o ChatGPT han protagonizado titulares por respuestas negacionistas o alucinaciones, como el caso en el que un modelo negó el Holocausto antes de ser corregido. Incluso autoridades sanitarias han evidenciado un aumento en los ingresos de hospitales psiquiátricos de personas tras sesiones maratónicas con chatbots.

La NASA ya publicó más de diez imágenes oficiales tomadas por los astronautas de Artemis II. Incluso cuentas como la de la Casa Blanca las han retomado para hablar del avance del programa lunar. Aun así, algunos usuarios siguen pidiéndole a Grok que confirme si las fotos son reales, no para obtener una respuesta correcta, sino para recibir una que coincida con lo que ya creen.