¿Qué es una alucinación en IA generativa?

Cuando un modelo de lenguaje —un LLM— produce información que es incorrecta, inventada o directamente falsa, presentándola con la misma confianza y fluidez que cuando es correcta, hablamos de una alucinación. No hay ningún indicador de error. No hay asterisco de advertencia. El texto sale bien construido, coherente en su forma, y puede ser completamente erróneo en su fondo.

El modelo no sabe que se equivoca. No puede saberlo: no tiene acceso a la verdad externa, solo a los patrones estadísticos de su entrenamiento. Cuando esos patrones no son suficientes para responder con precisión, el modelo no dice "no sé". Rellena el hueco con lo que estadísticamente parece más probable. Y lo hace de forma fluida, convincente, sin vacilación.

"El mayor peligro de la IA generativa no es que falle de forma obvia. Es que falle de forma invisible."

Por qué son especialmente peligrosas en salud

En muchos contextos, una alucinación de IA es un error molesto pero recuperable. En salud, puede tener consecuencias directas sobre pacientes reales. Y hay tres características del entorno clínico que amplifican ese riesgo:

Riesgo 1

Confianza institucional
Un documento bien redactado en un sistema hospitalario genera confianza automática. La enfermera tiende a asumir que si está en la HCE, es correcto.

Riesgo 2

Carga cognitiva
Bajo presión asistencial, la verificación se vuelve superficial. Es el momento en que el sesgo de automatización y las alucinaciones hacen más daño.

Riesgo 3

Propagación en cadena
Un error en un resumen de alta puede reproducirse en la siguiente valoración, en el informe de continuidad, en la planificación de cuidados.

Riesgo 4

Referencias inventadas
Los LLMs pueden citar artículos científicos que no existen, con DOI plausibles y autores reales. El profesional que confía en esa referencia toma decisiones sin evidencia real.

¿Dónde aparecen con más frecuencia en la práctica clínica?

Las tareas que implican información específica del paciente son las de mayor riesgo. El modelo trabaja bien con patrones generales, pero cuando necesita recuperar datos concretos de un documento o una historia clínica, puede mezclar, omitir o directamente inventar.

Las situaciones más frecuentes donde aparecen alucinaciones en contextos sanitarios:

  • Resúmenes de historia clínica generados automáticamente donde se mezclan datos de pacientes o se inventan antecedentes
  • Borradores de informes de alta con datos de evolución incorrectos o tratamientos no prescritos
  • Respuestas a preguntas clínicas específicas donde el modelo no tiene suficiente información y rellena con probabilidades
  • Planificación de cuidados personalizada con recomendaciones que no corresponden a la situación real del paciente
  • Educación sanitaria con información sobre dosis, interacciones o contraindicaciones incorrectas
  • Búsqueda bibliográfica donde se citan artículos inexistentes o se atribuyen conclusiones a estudios que no las contienen
⚠️

El conocimiento con fecha de corte

Los modelos de lenguaje tienen una fecha límite en su entrenamiento. No conocen actualizaciones de guías clínicas, cambios en protocolos farmacológicos ni nuevas evidencias publicadas después de esa fecha. Si preguntas sobre recomendaciones actualizadas sin especificar el año, el modelo puede darte la versión obsoleta con total confianza.

Cómo detectarlas: señales de alerta

No existe un detector infalible de alucinaciones. La única defensa real es el criterio clínico del profesional. Pero hay señales que deben activar la verificación inmediata:

  • Datos que no coinciden con lo que conoces del paciente por tu propia valoración
  • Referencias bibliográficas que no puedes localizar en PubMed u otras bases de datos
  • Afirmaciones categóricas sobre temas donde sabes que existe debate clínico o incertidumbre
  • Información muy específica —dosis exactas, porcentajes precisos— sin fuente verificable
  • Coherencia interna perfecta del texto pero inconsistencia con la historia clínica real
  • Respuestas demasiado completas y ordenadas para preguntas complejas con escasa información de entrada

El protocolo mínimo: output de IA = borrador

La regla más importante —y la más fácil de enunciar aunque no siempre de aplicar— es esta: cualquier output de IA generativa en un contexto clínico es un borrador, no un documento definitivo. Nunca.

Esto implica un cambio de mentalidad que va más allá de "revisar antes de firmar". Significa tratar el output del modelo con el mismo escepticismo activo que aplicarías a una información de segunda mano: puede ser correcta, probablemente lo es en su mayor parte, pero necesita verificación porque las consecuencias de que sea errónea las asume el paciente.

En la práctica, el protocolo mínimo ante cualquier output clínico de IA generativa incluye verificar que los datos del paciente son correctos y corresponden al caso real, contrastar las recomendaciones con los protocolos vigentes de tu unidad, localizar y comprobar las referencias bibliográficas si las hay, y documentar que la revisión se ha realizado.

Alucinaciones y Vibe Coding Sanitario

En el contexto del Vibe Coding Sanitario —crear herramientas digitales para salud usando IA generativa sin programación tradicional— el riesgo de alucinaciones tiene una dimensión adicional: no solo afecta al contenido que genera la herramienta, sino a la propia lógica de la herramienta que estás construyendo.

Un enfermero que usa IA para crear una calculadora de riesgo, un formulario de valoración o un sistema de alertas debe asumir que el código generado puede contener errores lógicos que el modelo presenta como soluciones correctas. El HITL no termina cuando la herramienta está creada: empieza ahí. Verificar que la herramienta hace lo que debe hacer, con los pacientes reales, es parte inseparable del proceso de innovación responsable.