IA: lo que hay que saber antes de pedir consejos de salud a un chatbot

IA: lo que hay que saber antes de pedir consejos de salud a un chatbot

Con cientos de millones de personas recurriendo a chatbots para pedir consejo, era solo cuestión de tiempo antes de que las empresas tecnológicas empezaran a ofrecer programas diseñados específicamente para responder preguntas de salud.

En enero, OpenAI presentó ChatGPT Health, una nueva versión de su chatbot que, según la compañía, puede analizar los historiales médicos de los usuarios, aplicaciones de bienestar y datos de dispositivos portátiles para responder preguntas médicas y de salud. Actualmente existe una lista de espera para el programa.

Anthropic, una empresa rival de IA, ofrece funciones similares para algunos usuarios de su chatbot Claude.

Ambas compañías dicen que sus programas, conocidos como modelos de lenguaje de gran tamaño, no sustituyen la atención profesional y no deben utilizarse para diagnosticar enfermedades. En cambio, señalan que los chatbots pueden resumir y explicar resultados de pruebas complicados, ayudar a prepararse para una visita al médico o analizar tendencias importantes de salud ocultas en historiales médicos y métricas de aplicaciones.

A continuación, algunas cosas que conviene considerar antes de hablar con un chatbot sobre tu salud.

Los chatbots pueden ofrecer información más personalizada que una búsqueda en Google

Algunos médicos e investigadores que han trabajado con ChatGPT Health y programas similares los consideran una mejora respecto a la situación actual.

Las plataformas de IA no son perfectas —a veces pueden "alucinar” o dar malos consejos— pero la información que producen tiene más probabilidades de ser personalizada y específica que lo que los pacientes podrían encontrar con una búsqueda en Google.

"La alternativa muchas veces es nada, o que el paciente improvise”, dijo el Dr. Robert Wachter, experto en tecnología médica de la Universidad de California en San Francisco. "Así que creo que, si se usan estas herramientas de forma responsable, se puede obtener información útil”.

Una ventaja de los chatbots más recientes es que responden a las preguntas de los usuarios teniendo en cuenta el contexto de su historial médico, incluidas recetas, edad y notas del médico.

Incluso si no has dado a la IA acceso a tu información médica, Wachter y otros recomiendan proporcionar a los chatbots tantos detalles como sea posible para mejorar las respuestas.

La IA quiere convertirse en asistente de salud. Puede analizar datos médicos y explicar resultados complejos, pero antes de confiar en un chatbot conviene tener en cuenta sus límites y riesgos de privacidad.
La IA quiere convertirse en asistente de salud. Puede analizar datos médicos y explicar resultados complejos, pero antes de confiar en un chatbot conviene tener en cuenta sus límites y riesgos de privacidad.Imagen: CFOTO/picture alliance

Si tienes síntomas preocupantes, evita la IA

Wachter y otros expertos subrayan que hay situaciones en las que las personas deberían evitar el chatbot y buscar atención médica inmediata. Síntomas como dificultad para respirar, dolor en el pecho o un fuerte dolor de cabeza podrían indicar una emergencia médica.

Incluso en situaciones menos urgentes, pacientes y médicos deberían abordar los programas de IA con "un grado de escepticismo saludable”, dijo el Dr. Lloyd Minor de la Universidad de Stanford.

"Si se trata de una decisión médica importante, o incluso de una decisión menor sobre tu salud, nunca deberías basarte únicamente en lo que obtienes de un modelo de lenguaje grande”, dijo Minor, decano de la facultad de medicina de Stanford.

Considera tu privacidad antes de subir datos de salud

Muchos de los beneficios que ofrecen los bots de IA provienen de que los usuarios comparten información médica personal. Pero es importante entender que cualquier cosa compartida con una empresa de IA no está protegida por la ley federal de privacidad que normalmente regula la información médica sensible.

Conocida comúnmente como HIPAA, esta ley permite imponer multas e incluso penas de prisión a médicos, hospitales, aseguradoras u otros servicios de salud que divulguen historiales médicos. Sin embargo, la ley no se aplica a las empresas que diseñan chatbots.

"Cuando alguien sube su historial médico a un modelo de lenguaje grande, eso es muy diferente a entregárselo a un nuevo médico”, dijo Minor. "Los consumidores deben entender que se trata de estándares de privacidad completamente distintos”.

Tanto OpenAI como Anthropic afirman que la información de salud de los usuarios se mantiene separada de otros tipos de datos y está sujeta a protecciones adicionales de privacidad. Las empresas no utilizan datos de salud para entrenar sus modelos. Los usuarios deben aceptar explícitamente compartir su información y pueden desconectarla en cualquier momento.

Las pruebas muestran que los chatbots pueden fallar

A pesar del entusiasmo en torno a la IA, las pruebas independientes de esta tecnología todavía están en una etapa inicial. Los primeros estudios sugieren que programas como ChatGPT pueden sobresalir en exámenes médicos de alto nivel, pero a menudo fallan al interactuar con personas.

Un estudio reciente de la Universidad de Oxford con 1.300 participantes descubrió que las personas que usaban chatbots de IA para investigar condiciones de salud hipotéticas no tomaban mejores decisiones que quienes utilizaban búsquedas en internet o su propio criterio.

Los chatbots de IA, cuando se les presentaban escenarios médicos de forma completa y escrita, identificaban correctamente la enfermedad subyacente el 95% de las veces.

"Ese no era el problema”, dijo el autor principal Adam Mahdi, del Oxford Internet Institute. "El punto donde todo se desmoronaba era durante la interacción con los participantes reales”.

Mahdi y su equipo encontraron varios problemas de comunicación. A menudo las personas no daban a los chatbots la información necesaria para identificar correctamente el problema de salud. Por otro lado, los sistemas de IA solían responder con una mezcla de información correcta e incorrecta, y los usuarios tenían dificultades para distinguir entre ambas.

El estudio, realizado en 2024, no utilizó las versiones más recientes de los chatbots, incluidas nuevas herramientas como ChatGPT Health.

Pese a los avances de la inteligencia artificial, la fiabilidad sigue siendo un tema delicado, especialmente en temas de salud.
Pese a los avances de la inteligencia artificial, la fiabilidad sigue siendo un tema delicado, especialmente en temas de salud.Imagen: Dominic Lipinski/PA Wire/picture alliance

Una segunda opinión de IA puede ser útil

La capacidad de los chatbots para hacer preguntas de seguimiento y obtener detalles clave de los usuarios es un área donde Wachter cree que todavía hay margen de mejora.

"Creo que ahí es cuando esto realmente se volverá muy bueno: cuando las herramientas se vuelvan un poco más ‘médicas' en la forma en que interactúan con los pacientes”, dijo Wachter.

Por ahora, una forma de sentirse más seguro sobre la información que recibes es consultar varios chatbots, de forma similar a pedir una segunda opinión a otro médico.

"A veces pongo información en ChatGPT y también en Gemini”, dijo Wachter, refiriéndose a la herramienta de IA de Google. "Y cuando ambos coinciden, me siento un poco más seguro de que esa es la respuesta correcta”.

EE (AP, Oxford University, Nature)