El uso de la inteligencia artificial (IA) para analizar muestras patológicas ha supuesto un movimiento significativo en el diagnóstico del cáncer durante los últimos años. Ahora, un equipo de investigadores ha descubierto sesgos que pueden mermar la eficiencia de estos modelos y ha creado una herramienta para superarlos. El estudio, liderado por investigadores médicos de la Universidad de Harvard (Estados Unidos) revela que los modelos de IA para el diagnóstico del cáncer pueden inferir información demográfica a partir de las preparaciones patológicas, lo que genera sesgos que reducen su eficacia en la evaluación tumoral.

Al analizar los cuatro modelos más populares de análisis patológico con IA diseñados para diagnosticar cáncer, los investigadores encontraron un rendimiento desigual en la detección y diferenciación de cánceres según el género, el origen étnico y la edad de los pacientes. "Para un patólogo humano, observar una muestra de tejido rosada con células púrpuras es como calificar un examen sin nombre: la preparación revela información esencial sobre la enfermedad sin proporcionar datos adicionales sobre el paciente. Nos sorprendió que la IA sí lo lograra", explica uno de los autores del estudio, Kun-Hsing Yu, investigador en informática biomédica y patología en Harvard.

Los investigadores "alimentaron" los cuatro modelos de IA con un amplio repositorio de preparaciones de muestras patológicas de 20 tipos de cáncer, y comprobaron que todos ellos ofrecían diagnósticos menos precisos para algunos grupos poblacionales. Por ejemplo, los modelos presentaban dificultades para diferenciar subtipos de cáncer de pulmón en hombres afroamericanos; o subtipos de tumor de mama en pacientes más jóvenes; o directamente mostraban deficiencias al detectar cáncer de mama, riñón, tiroides y estómago en determinados colectivos. En general, los científicos han detectado deficiencias en un 29% de las tareas diagnósticas realizadas por los modelos patológicos basados en IA, lo que, según Yu, se atribuye a su capacidad para extraer información demográfica de las preparaciones y basarse en patrones poblacionales sesgados para realizar el diagnóstico.

Las deficiencias del proyecto

Los investigadores atribuyen los sesgos a diferentes motivos. Por un lado, que los modelos de aprendizaje automático se entrenan con tamaños de muestra desiguales (por poblaciones), y por eso les costaría más hacer un diagnóstico preciso para grupos poco representados en las muestras. Al ver que los modelos también fallaban con tamaños de muestra comparables, los autores llevaron a cabo un análisis más profundo que reveló que los modelos erraban debido a las diferencias en la incidencia del cáncer. Es decir, algunos tumores son más comunes en determinados grupos poblacionales, de modo que los modelos mejoran al realizar diagnósticos en estos colectivos, pero tienen más dificultades entre aquellos donde estos tipos de cáncer no son habituales.

Los modelos de IA también detectan diferencias moleculares en muestras de diferentes grupos demográficos, de manera que pueden identificar mutaciones en los genes que provocan el cáncer y utilizarlas como indicador del tipo tumoral. Esto también los hace menos eficaces para el diagnóstico de grupos poblacionales donde estas mutaciones son menos usuales. "Descubrimos que, debido a su gran poder, la IA puede diferenciar muchas señales biológicas sutiles que no se pueden detectar mediante el análisis humano", afirma Yu en un comunicado de la Universidad de Harvard.

Para solucionar estas deficiencias, los investigadores han desarrollado FAIR-Path, una herramienta basada en el aprendizaje automático contrastivo, que consiste en añadir un elemento al entrenamiento de la IA que enseña al modelo a enfatizar las diferencias entre categorías esenciales (los tipos de cáncer en este caso) y a restar importancia a las diferencias entre categorías menos cruciales (grupos poblacionales). Las deficiencias diagnósticas se redujeron en torno a un 88% con la aplicación de la herramienta FAIR-Path.

"Este hallazgo es esperanzador", añade Yu, "porque sugiere que el sesgo se puede reducir incluso sin entrenar los modelos con datos completamente justos y representativos". El investigador y su equipo están colaborando con instituciones de todo el mundo para investigar el alcance del sesgo en la IA patológica en lugares con diferentes características demográficas y prácticas clínicas y patológicas. También están explorando maneras de ampliar FAIR-Path a entornos con tamaños de muestra limitados. "El objetivo es crear modelos de IA para el análisis patológico más justos e imparciales que puedan mejorar la atención oncológica", concluye el experto.