Sesgo Algorítmico en IA Clínica
Los algoritmos aprenden las desigualdades de sus datos y las aplican con precisión milimétrica. La enfermera es la última línea de defensa antes de que eso afecte a un paciente real.
Los algoritmos aprenden las desigualdades de sus datos y las aplican con precisión milimétrica. La enfermera es la última línea de defensa antes de que eso afecte a un paciente real.
Un algoritmo aprende de datos. Si esos datos reflejan desigualdades del mundo real —y casi siempre lo hacen—, el algoritmo aprende esas desigualdades y las reproduce sistemáticamente. No como error ocasional, sino como patrón consistente. Es el sesgo algorítmico: cuando un sistema de IA produce resultados que perjudican de forma desproporcionada a determinados grupos de personas.
En salud, esto no es un problema abstracto. Es un algoritmo que infravalora el dolor de un paciente porque su grupo étnico estaba subrepresentado en los datos de entrenamiento. Es un modelo de estratificación que asigna menor riesgo a una mujer mayor porque históricamente ese perfil recibía menos intervenciones —y el algoritmo interpreta "menos intervenciones" como "menor necesidad". Es un CDSS que no funciona bien en tu unidad porque fue entrenado en una población hospitalaria de otro país con otra epidemiología.
"El sesgo algorítmico no es un fallo técnico que se ve venir. Es una injusticia que se instala silenciosamente en el flujo de trabajo clínico."
Existen múltiples mecanismos por los que el sesgo entra en un sistema de IA. Como enfermera que usa estas herramientas, conocer su taxonomía te permite hacer las preguntas correctas antes de confiar en una recomendación:
| Tipo de sesgo | Cómo aparece | Pregunta clave para la enfermera |
|---|---|---|
| Subrepresentación | Ciertos grupos tenían menos registros en los datos de entrenamiento | ¿Mi paciente pertenece a un grupo poco representado? |
| Datos faltantes | Variables relevantes para ciertos grupos no estaban registradas | ¿Qué no está capturando este sistema? |
| Sesgo por proxy | El modelo usa una variable disponible como sustituto de la clínicamente importante | ¿Está midiendo lo que necesito o lo que es fácil de medir? |
| Training-serving skew | El modelo fue entrenado en una población diferente a la actual | ¿Ha sido validado en nuestra población y contexto? |
| Sesgo de automatización | Los profesionales aceptan sistemáticamente las recomendaciones, reforzando el sesgo | ¿Estoy revisando críticamente o aceptando por defecto? |
| Bucle de retroalimentación | Los outputs del sistema influyen en los registros futuros y perpetúan el sesgo | ¿Mis decisiones basadas en este sistema alimentan sus datos futuros? |
En 2019, investigadores de la Universidad de California publicaron en la revista Science el análisis de un algoritmo ampliamente utilizado en Estados Unidos para gestionar la atención a pacientes con enfermedades crónicas. El sistema era usado por hospitales y aseguradoras para identificar qué pacientes necesitaban programas de cuidado intensivo.
El problema: el algoritmo usaba el coste sanitario previo como proxy de la necesidad de salud. Y los pacientes negros, históricamente, habían accedido menos al sistema sanitario —y por tanto habían generado menos costes— no porque estuvieran más sanos, sino por barreras de acceso estructurales. El resultado fue que, con igual nivel real de enfermedad, el algoritmo asignaba menor prioridad a pacientes negros.
Cuando se reformuló el objetivo del modelo —prediciendo directamente la necesidad clínica en lugar del coste— el sesgo observado desaparecía casi por completo. No era un problema irresoluble. Era una decisión de diseño que nadie había cuestionado.
Nadie te va a avisar de que el sistema que usas tiene sesgo. No hay ningún indicador que lo muestre. La detección depende de tu criterio clínico y de tu disposición a hacer preguntas que el sistema no se plantea a sí mismo.
Estas son las preguntas que debes hacerte cuando uses un sistema de IA clínica:
¿En qué población fue entrenado este modelo? ¿Se parece a mis pacientes?
¿Qué está midiendo realmente? ¿Es eso lo clínicamente relevante o lo más disponible?
¿Funciona igual de bien para todos los perfiles de paciente que atiendo?
¿Ha sido validado en un entorno similar al mío, con mi epidemiología local?
¿Estoy revisando críticamente la recomendación o la acepto porque el sistema dice que sí?
¿Mis decisiones basadas en este sistema van a modificar los datos que lo alimentan?
El AI Act obliga a que los sistemas de IA de alto riesgo incorporen medidas para detectar, prevenir y mitigar sesgos en los datos de entrenamiento. Y establece explícitamente que los profesionales que usan estos sistemas deben poder identificar cuando un resultado parece injusto o sesgado —y deben tener la posibilidad de descartarlo.
Esto convierte la detección de sesgo en una competencia profesional exigible. No es algo opcional que hace el departamento de informática. Es parte del ejercicio enfermero en entornos con IA clínica.
Si observas que un sistema produce recomendaciones que sistemáticamente difieren de tu valoración clínica para un perfil concreto de pacientes, eso no es solo un dato curioso. Es una señal que debes documentar y escalar. La vigilancia posdespliegue de los sistemas de IA —monitorizar que siguen funcionando correctamente con los pacientes reales— no puede hacerse sin la información que genera la práctica clínica diaria. Esa información la tienes tú.
Cuando un enfermero crea una herramienta digital usando Vibe Coding Sanitario, el sesgo algorítmico puede aparecer en dos momentos distintos: en los datos que alimentan la herramienta si se construye sobre datasets existentes, y en las propias suposiciones del diseño si no se pregunta explícitamente a quién sirve esa herramienta y a quién podría dejar fuera.
Diseñar con equidad desde el principio significa preguntarse, en la fase de prompt y diseño: ¿para qué pacientes funciona esto? ¿Qué perfiles quedan excluidos? ¿Qué variables estoy usando y por qué? Esas preguntas no las hace el modelo. Las tiene que hacer el profesional.
Lo más habitual cuando se trabaja con sesgo algorítmico en entornos sanitarios.
El sesgo algorítmico es una pieza del modelo HITL y del Vibe Coding Sanitario responsable.