Por favor active JavaScript para poder aprovechar la funcionalidad completa de GMX.

ChatGPT no detecta emergencia al usarse para asesoramiento médico

ChatGPT no detecta emergencia al usarse para asesoramiento médico

ChatGPT no detecta emergencia de alto riesgo al usarse para asesoramiento médico.

Las preguntas sobre salud son uno de los usos más comunes del chatbot de OpenAI, y la compañía presentó la herramienta ChatGPT Health a principios de este año.

Sin embargo, un nuevo estudio descubrió que el sistema podría no detectar emergencia y no es confiable para indicar con seguridad que alguien necesita atención médica urgente.

La necesidad de verificar la seguridad de la herramienta de IA condujo a un estudio acelerado de la Escuela de Medicina Icahn del Monte Sinaí.

La investigación surgió tras reconocer que ChatGPT posiblemente se utilizaba para situaciones de vida o muerte, a pesar de que existían pocos análisis sobre su eficacia.

El autor principal y urólogo Ashwin Ramaswamy afirmó:

'Queríamos responder a una pregunta muy básica pero crucial: si alguien experimenta una emergencia médica real y recurre a ChatGPT Health en busca de ayuda, ¿le indicará claramente que debe acudir a urgencias?'

Los expertos concluyeron que no, al menos en suficientes casos como para cuestionar su fiabilidad.

Para el estudio, los médicos plantearon 60 escenarios que abarcaran 21 especialidades médicas. Estos abarcaban desde situaciones de bajo riesgo que solo requerirían atención domiciliaria hasta emergencias médicas reales.

Se descubrió que ChatGPT, en general, gestionaba correctamente las emergencias evidentes, pero no se preocupaba lo suficiente en más de la mitad de los casos cuando los médicos decidían que la persona necesitaba atención de urgencia.

Los expertos afirmaron que la herramienta era adecuada para las emergencias típicas, pero era menos eficaz para detectar situaciones donde el peligro podría ser menos evidente.

Isaac S. Kohane, de la Facultad de Medicina de Harvard, quien no participó en la investigación, afirmó:

'Los LLM se han convertido en la primera opción de los pacientes para obtener asesoramiento médico, pero en 2026 son menos seguros en los extremos clínicos, donde el criterio médico distingue entre emergencias pasadas por alto y alarmas innecesarias. Cuando millones de personas utilizan un sistema de IA para decidir si necesitan atención de emergencia, hay mucho en juego. La evaluación independiente debería ser rutinaria, no opcional'.

Contenido patrocinado

Artículos relacionados