ChatGPT resolvió un problema médico que llevaba cinco años sin solución

Una persona acudió a la inteligencia artificial por un dolor persistente. Y el bot se lo hizo desaparecer. ¿Fue solo un golpe de suerte? ¿Cuáles son los riesgos de consultar a la IA en temas de salud? Desde su apertura al público en noviembre de 2022, ChatGPT pasó de ser una curiosidad digital a una herramienta de uso […]

Una persona acudió a la inteligencia artificial por un dolor persistente. Y el bot se lo hizo desaparecer. ¿Fue solo un golpe de suerte? ¿Cuáles son los riesgos de consultar a la IA en temas de salud?

Desde su apertura al público en noviembre de 2022, ChatGPT pasó de ser una curiosidad digital a una herramienta de uso cotidiano. Escribe textos, responde dudas, resuelve tareas escolares, redacta mails, programa líneas de código, organiza viajes, genera recetas, traduce idiomas y hasta compone canciones.

Sin embargo, en los últimos meses, la gente le encontró otro uso, no esperado por los expertos: consultas médicas por temas de salud.

Desde hace meses, cada vez más personas recurren al chatbot de OpenAI para hacerle preguntas sobre su estado físico o mental, entender síntomas o buscar posibles diagnósticos.

Crece el uso de la Inteligencia Artificial en consultas de salud: ¿es ChatGPT más confiable que un médico? (Imagen generada con IA)
Crece el uso de la Inteligencia Artificial en consultas de salud: ¿es ChatGPT más confiable que un médico? (Imagen generada con IA)

Si bien los especialistas insisten en que no puede reemplazar a un profesional médico, lo cierto es que muchos usuarios encontraron respuestas más claras y útiles en ChatGPT que en un consultorio.

Y esta semana, un caso real volvió a poner el tema en el centro del debate: ChatGPT logró resolver una condición médica que llevaba cinco años sin solución, simplemente a partir de una breve descripción de síntomas: se trataba de un dolor persistente en la mandíbula, acompañado de un sonido molesto de clic al abrir o cerrar la boca.

Según informó el medio español La Razón, la persona en cuestión consultó con médicos, se hizo estudios, incluidas resonancias magnéticas, y hasta barajó la posibilidad de que el problema se debiera a una vieja lesión deportiva. Pero ningún tratamiento dio resultado.

Frustrada, decidió probar algo distinto: ingresar los síntomas en ChatGPT. La respuesta fue sorprendentemente precisa. El bot le sugirió que podía tratarse de una desalineación del disco mandibular y recomendó un ejercicio muscular específico para reacomodarlo.

La persona lo intentó en el momento. El resultado: el dolor desapareció. El crujido también. Todo en menos de un minuto.

Tecnología vs. medicina tradicional

El caso se viralizó y despertó preocupación entre médicos y expertos en ética digital. ¿Qué pasa cuando una IA acierta donde fallaron años de medicina tradicional? ¿Es solo un golpe de suerte o un indicio de algo más profundo?

Aunque ChatGPT no tiene conciencia médica ni reemplaza el diagnóstico profesional, sí está entrenado con una enorme cantidad de datos, como literatura médica pública, papers científicos y experiencias compartidas por usuarios. Eso le permite detectar patrones y ofrecer hipótesis posibles, que en algunos casos resultan acertadas.

Pero el crecimiento de estas herramientas no está exento de riesgos. Un reciente informe de Anthropic, una startup rival de OpenAI, especializada en IA segura, advirtió que los modelos avanzados de inteligencia artificial podrían, en ciertas circunstancias, actuar de forma perjudicial si perciben que sus objetivos están amenazados. Si bien se trata de escenarios hipotéticos, la advertencia subraya la necesidad de regulación, supervisión y uso responsable.

Y si bien, hay cada vez más ejemplos de personas que, ante síntomas persistentes, encontraron en la IA una explicación plausible o una orientación que después fue confirmada por profesionales, también se reportaron casos de diagnósticos erróneos o respuestas que podrían haber generado daño.

La medicina es una de las áreas más sensibles donde se aplica esta tecnología. Y si bien puede ser una aliada poderosa, usarla sin control o interpretación profesional puede ser peligroso.