L'ús de la intel·ligència artificial (IA) per analitzar mostres patològiques ha suposat un moviment significatiu en el diagnòstic del càncer durant els últims anys. Ara, un equip d'investigadors ha descobert biaixos que poden minvar l'eficiència d'aquests models i ha creat una eina per superar-los. L'estudi, liderat per investigadors mèdics de la Universitat Harvard (Estats Units) revela que els models d'IA per al diagnòstic del càncer poden inferir informació demogràfica a partir de les preparacions patològiques, la qual cosa genera biaixos que redueixen la seva eficàcia en l'avaluació tumoral.
En analitzar els quatre models més populars d'anàlisi patològica amb IA dissenyats per diagnosticar càncer, els investigadors van trobar un rendiment desigual en la detecció i diferenciació de càncers segons el gènere, l'origen ètnic i l'edat dels pacients. "Per a un patòleg humà, observar una mostra de teixit rosada amb cèl·lules porpres és com qualificar un examen sense nom: la preparació revela informació essencial sobre la malaltia sense proporcionar dades addicionals sobre el pacient. Ens va sorprendre que la IA sí que ho aconseguís", explica un dels autors de l'estudi, Kun-Hsing Yu, investigador en informàtica biomèdica i patologia a Harvard.
Els investigadors van "alimentar" els quatre models d'IA amb un ampli repositori de preparacions de mostres patològiques de 20 tipus de càncer, i van comprovar que tots ells oferien diagnòstics menys precisos per a alguns grups poblacionals. Per exemple, els models presentaven dificultats per diferenciar subtipus de càncer de pulmó en homes afroamericans; o subtipus de tumor de mama en pacients més joves; o directament mostraven deficiències en detectar càncer de mama, ronyó, tiroides i estómac en determinats col·lectius. En general, els científics han detectat deficiències en un 29% de les tasques diagnòstiques realitzades pels models patològics basats en IA, la qual cosa, segons Yu, s'atribueix a la seva capacitat per extreure informació demogràfica de les preparacions i basar-se en patrons poblacionals esbiaixats per realitzar el diagnòstic.
Les deficiències del projecte
Els investigadors atribueixen els biaixos a diferents motius. D'una banda, que els models d'aprenentatge automàtic s'entrenen amb mides de mostra desigual (per poblacions), i per això els costaria més fer un diagnòstic precís per a grups poc representats en les mostres. En veure que els models també fallaven amb mides de mostra comparables, els autors van dur a terme una anàlisi més profunda que va revelar que els models erraven a causa de les diferències en la incidència del càncer. És a dir, alguns tumors són més comuns en determinats grups poblacionals, de manera que els models milloren en realitzar diagnòstics en aquests col·lectius, però tenen més dificultats entre aquells on aquests tipus de càncer no són habituals.
Els models d'IA també detecten diferències moleculars en mostres de diferents grups demogràfics, de manera que poden identificar mutacions en els gens que provoquen el càncer i utilitzar-les com a indicador del tipus tumoral. Això també els fa menys eficaços per al diagnòstic de grups poblacionals on aquestes mutacions són menys comunes. "Vam descobrir que, a causa del seu gran poder, la IA pot diferenciar molts senyals biològics subtils que no es poden detectar mitjançant l'anàlisi humana", afirma Yu en un comunicat de la Universitat Harvard.
Per solucionar aquestes deficiències, els investigadors han desenvolupat FAIR-Path, una eina basada en l'aprenentatge automàtic contrastiu, que consisteix a afegir un element a l'entrenament de la IA que ensenya al model a emfatitzar les diferències entre categories essencials (els tipus de càncer en aquest cas) i a restar importància a les diferències entre categories menys crucials (grups poblacionals). Les deficiències diagnòstiques es van reduir al voltant d'un 88% amb l'aplicació de l'eina FAIR-Path.
"Aquesta troballa és esperançadora", afegeix Yu, "perquè suggereix que el biaix es pot reduir fins i tot sense entrenar els models amb dades completament justes i representatives". L'investigador i el seu equip estan col·laborant amb institucions de tot el món per investigar l'abast del biaix en la IA patològica en llocs amb diferents característiques demogràfiques i pràctiques clíniques i patològiques. També estan explorant maneres d'ampliar FAIR-Path a entorns amb mides de mostra limitades. "L'objectiu és crear models d'IA per a l'anàlisi patològica més justos i imparcials que puguin millorar l'atenció oncològica", conclou l'expert.
