Estudio de la Universidad de Oxford advierte riesgos de usar ChatGPT y otras IA para consultas médicas
- 2026-02-11
- Autor: Te Lo Explico
Por infobae: Un estudio de la Universidad de Oxford, publicado en la revista Nature Medicine, advierte que el uso de sistemas de inteligencia artificial como ChatGPT para buscar orientación médica puede implicar riesgos y no mejora la toma de decisiones frente a métodos tradicionales.
La investigación fue realizada por el Oxford Internet Institute y el Departamento Nuffield de Ciencias de la Salud de Atención Primaria, en colaboración con MLCommons y otras instituciones internacionales. El análisis se centró en evaluar cómo los modelos lingüísticos de inteligencia artificial (LLM) funcionan cuando las personas los utilizan para resolver dudas relacionadas con la salud.
El ensayo incluyó a casi 1,300 médicos que enfrentaron distintos casos clínicos simulados, que iban desde dolores de cabeza intensos hasta síntomas persistentes de agotamiento. Un grupo utilizó inteligencia artificial para orientar sus decisiones, mientras que otro recurrió a búsquedas en internet o a su propio criterio profesional.
Los resultados mostraron que quienes utilizaron modelos de IA no tomaron decisiones más acertadas que aquellos que emplearon métodos convencionales.
Riesgo de diagnósticos erróneos
El estudio señala que estos sistemas pueden fallar al emitir diagnósticos adecuados y, en algunos casos, no identificar situaciones que requieren atención urgente. La doctora Rebecca Payne, médica de cabecera y líder del estudio, indicó que la inteligencia artificial aún no está preparada para sustituir el criterio clínico de un profesional de la salud.
Los investigadores también detectaron una brecha entre el buen desempeño que muestran estos sistemas en exámenes estandarizados y su efectividad en escenarios reales. Muchos participantes no sabían qué información proporcionar a la IA para obtener respuestas precisas, lo que generó recomendaciones ambiguas o poco claras.
Andrew Bean, autor principal del estudio, destacó la necesidad de realizar evaluaciones más rigurosas. Según explicó, probar estos modelos únicamente con pruebas técnicas no refleja la complejidad de la interacción humana ni los riesgos presentes en contextos médicos reales.
Necesidad de pruebas más estrictas
El informe concluye que los actuales métodos de validación no son suficientes para determinar si estos sistemas son seguros para el público. Los investigadores plantean que, al igual que ocurre con los medicamentos, la inteligencia artificial aplicada a la salud debería someterse a ensayos más sólidos y con usuarios reales antes de su implementación masiva.
Mientras se desarrollan mecanismos de evaluación más estrictos, el equipo recomienda que las personas continúen acudiendo a profesionales de la salud como principal fuente de orientación médica, y no dependan exclusivamente de herramientas de inteligencia artificial para tomar decisiones sobre su bienestar.
Etiquetas
Más Noticias de Ciencia y Tecnología
Noticias Más Leídas
Divisas
1 USD = 62.64 DOP
1 EUR = 70.06 DOP














