Human in the Loop en Enfermería
Por qué la supervisión humana no es opcional cuando usamos inteligencia artificial en entornos clínicos, y cómo esto transforma la práctica enfermera en la era del Vibe Coding Sanitario.
Por qué la supervisión humana no es opcional cuando usamos inteligencia artificial en entornos clínicos, y cómo esto transforma la práctica enfermera en la era del Vibe Coding Sanitario.
Cuando hablamos de Human in the Loop (HITL), hablamos de algo aparentemente obvio pero que en la práctica se incumple con una frecuencia inquietante: la persona —la enfermera, el médico, el profesional sanitario— debe mantenerse dentro del proceso de decisión cuando un sistema de inteligencia artificial interviene en la atención a un paciente.
No es una cuestión filosófica. Es una cuestión de seguridad clínica.
El HITL define que los sistemas de IA en salud no son agentes autónomos, sino herramientas de apoyo a la decisión. La recomendación del algoritmo es una hipótesis más —valiosa, informada, a veces muy acertada— pero que necesita pasar por el filtro del criterio clínico humano antes de traducirse en acción sobre un paciente real. La responsabilidad no es delegable a un modelo. Nunca.
"La IA puede informar la decisión clínica. Nunca puede sustituirla. La responsabilidad final siempre recae en el profesional que cuida."
Llevamos años hablando de IA en salud como si fuera tecnología del futuro. Ya no lo es. En muchos hospitales y centros de salud, los sistemas de soporte a la decisión clínica (CDSS) están integrados en la historia clínica electrónica. Los algoritmos de estratificación de riesgo generan scores que aparecen en la pantalla de la enfermera. Las herramientas de IA generativa se usan para redactar informes, resumir visitas, planificar cuidados.
Y aquí es donde el problema del HITL deja de ser teórico: ¿cuántas veces se acepta esa recomendación sin cuestionarla realmente?
La evidencia muestra que los profesionales tendemos a sobrevalorar las recomendaciones automatizadas, especialmente cuando trabajamos bajo presión, con carga asistencial alta y múltiples estímulos simultáneos. Es lo que se conoce como sesgo de automatización: no es que seamos poco rigurosos, es que el sistema cognitivo humano, en condiciones de sobrecarga, tiende a delegar en la máquina porque parece más fiable o más rápido.
Ese mecanismo, en un entorno clínico, puede costar vidas.
El Reglamento de Inteligencia Artificial de la Unión Europea (AI Act, 2024/1689) clasifica los sistemas de IA utilizados en contextos sanitarios como sistemas de alto riesgo. Esto no es una etiqueta estética: conlleva obligaciones concretas para fabricantes, organizaciones y profesionales.
Entre esas obligaciones, la supervisión humana efectiva es un requisito estructural. El reglamento establece que cualquier sistema de IA de alto riesgo debe poder ser vigilado, intervenido y, si es necesario, desactivado por personas con las competencias adecuadas. No basta con que exista un botón de desactivación: hace falta que el profesional que usa el sistema sepa cuándo y por qué usarlo.
A partir de agosto de 2026, el AI Act es de aplicación plena en toda la UE. Esto significa que los profesionales sanitarios que usen sistemas de IA en su práctica tienen no solo una responsabilidad ética, sino una obligación normativa de supervisión activa. La ignorancia del reglamento no exime de responsabilidad.
El artículo 14 del AI Act describe de forma operativa qué significa supervisar eficazmente un sistema de IA de alto riesgo. Traducido a la práctica enfermera cotidiana, estas son las capacidades que debemos desarrollar:
| Capacidad | Qué significa en el día a día |
|---|---|
| Conocer las limitaciones del sistema | Saber para qué población fue entrenado el modelo y en qué contextos puede fallar |
| Detectar comportamientos anómalos | Identificar cuando el output no encaja con la evolución clínica real del paciente |
| Resistir el efecto de anclaje | Emitir tu propia valoración ANTES de ver la recomendación del sistema |
| Interpretar correctamente los resultados | Entender qué significa un score de riesgo, su intervalo de confianza y sus limitaciones |
| Decidir cuándo no usar el sistema | Reconocer cuando el paciente está fuera de la cohorte de entrenamiento o los datos son incompletos |
| Descartar o revertir outputs | Documentar el rechazo razonado de una recomendación con justificación clínica explícita |
| Interrumpir el sistema si es necesario | Conocer el procedimiento de parada ante un fallo, sesgo detectado o riesgo clínico |
Uno de los hallazgos más consistentes en la investigación sobre HITL es que el orden en que el profesional recibe la información condiciona su razonamiento. Si ves la recomendación del algoritmo antes de formarte tu propia opinión, esa recomendación contamina tu juicio. La medida de seguridad más sencilla y más poderosa es siempre la misma: valora primero, consulta el sistema después.
El Vibe Coding Sanitario —usar herramientas de IA generativa para crear soluciones digitales en salud sin escribir código tradicional— es una oportunidad enorme para que los profesionales sanitarios innoven desde dentro del sistema. Pero lleva consigo un riesgo propio: la misma facilidad que hace atractivo el Vibe Coding puede llevar a desplegar soluciones sin el rigor necesario en un entorno donde los errores tienen consecuencias clínicas.
El HITL no es un obstáculo al Vibe Coding Sanitario. Es su condición de posibilidad. Un enfermero que hace Vibe Coding de forma responsable diseña con la supervisión humana incorporada desde el primer prompt: define quién supervisa, en qué puntos del flujo, con qué criterio, y qué pasa cuando el sistema falla. Esa es la diferencia entre innovar y experimentar con pacientes.
→ Explorar el Vibe Coding Sanitario¿Cómo se traduce el HITL a un turno real? Este es el flujo que tiene sentido implementar cuando un sistema de IA interviene en la toma de decisiones clínicas:
Antes de consultar lo que dice el sistema, forma tu propia opinión sobre la situación del paciente. Esto previene el efecto de anclaje.
Contrasta la recomendación del sistema con tu valoración. ¿Es coherente? ¿Tiene sentido clínico para este paciente concreto, en este momento?
¿Este paciente pertenece a un grupo infrarrepresentado en el entrenamiento del modelo? ¿Hay variables relevantes que el sistema no tiene en cuenta?
Acepta la recomendación con registro o recházala con justificación clínica explícita. El "override" documentado no es un fracaso del sistema: es la supervisión humana funcionando exactamente como debe.
La enfermera actúa y asume la responsabilidad de esa decisión. El sistema fue un apoyo, no el decisor.
Si detectas un error, un sesgo o un comportamiento inesperado: repórtalo. La vigilancia posdespliegue es responsabilidad de todos los profesionales que usan el sistema, no solo del equipo de IT.
Hay una idea extendida que conviene desmontar: que la competencia digital consiste en saber manejar una herramienta. Hacer clic en los botones correctos. Interpretar un dashboard. Eso es el nivel básico.
La competencia HITL va mucho más allá. Implica desarrollar una alfabetización crítica en IA: entender qué hay detrás del output que ves, qué puede estar fallando aunque el sistema parezca funcionar correctamente, qué preguntas debes hacerte antes de actuar sobre una recomendación automática.
Implica también tener el criterio —y el respaldo institucional— para decir "no" cuando la recomendación del sistema no encaja con la realidad clínica que tienes delante. Ese "no" documentado, con justificación, es exactamente lo que el AI Act define como supervisión humana efectiva. Y es una de las aportaciones más valiosas que puede hacer una enfermera en un entorno digitalizado.
"La enfermera no es la usuaria final de la IA. Es su supervisora. Y esa diferencia lo cambia todo."
A veces el marco HITL se percibe como un freno a la adopción de IA en salud. Como si insistir en la supervisión humana fuera una forma de desconfiar de la tecnología o de ralentizar su implantación. Esa lectura es exactamente la contraria a la correcta.
La supervisión humana es lo que hace que la innovación tecnológica en salud sea sostenible. Es lo que permite que los sistemas de IA mejoren a partir del uso real, que los sesgos se detecten antes de causar daño, que los profesionales mantengan la competencia clínica que los algoritmos no pueden sustituir.
En el contexto del Vibe Coding Sanitario, el HITL es el marco ético y técnico que transforma la velocidad de la IA en innovación responsable. No es el límite del Vibe Coding: es su columna vertebral.
Si estás incorporando herramientas de IA a tu práctica —o diseñando soluciones digitales para tu unidad— la pregunta más importante que debes hacerte no es "¿funciona?". Es: "¿quién supervisa, cómo y cuándo?".
Las dudas más comunes cuando empezamos a trabajar con IA en entornos clínicos.
Explora el marco del Vibe Coding Sanitario o consulta mis proyectos de innovación en el Hospital Álvaro Cunqueiro.