Avui dia, la intel·ligència artificial s'ha convertit en una eina central a la presa de decisions, des de la selecció de personal fins a l'accés a serveis financers. Tanmateix, com qualsevol tecnologia, no és neutral. La IA reflecteix els biaixos presents en les dades amb els que s'entrena i alimenta, i si no es dissenya amb una perspectiva inclusiva, pot perpetuar desigualtats històriques. Els algoritmes aprenen de dades històriques que reflecteixen les estructures socials existents.

Per exemple, sistemes de reclutament que analitzen perfils de candidats poden penalitzar dones perquè les dades del passat reflecteixen que els càrrecs directius estaven ocupats majoritàriament per homes. Aquest tipus de biaix, si no es corregeix, es perpetua i pot arribar a afectar milions de persones en el seu accés a oportunitats.

A Worldcoo hem après que fins i tot petits biaixos poden tenir un gran impacte. Quan treballem amb empreses i ONG per distribuir microdonacions a projectes socials, veiem que els sistemes automàtics que prioritzen projectes basant-se únicament en mètriques històriques de recaptació poden, sense voler, afavorir sempre a les mateixes organitzacions o regions, deixant fora iniciatives que atenen comunitats més vulnerables.

Per evitar-ho, combinem l'ús de tecnologia amb controls humans rigorosos, ja que el nostre equip de projectes revisa, valida i verifica la informació de cada iniciativa abans que rebi suport. Aquesta combinació de tecnologia i supervisió ens permet treballar amb més de 800 entitats socials de tot el món, assegurant que tantes organitzacions molt conegudes com altres de menys visibles tinguin l'oportunitat de rebre suport.

Gràcies a aquest enfocament, hem finançat més de 1.100 projectes, canalitzant 22 milions d'euros a través de 93 milions de microdonacions, demostrant que una gestió acurada i equitativa pot traduir-se en un impacte social real i tangible. En aquest sentit, la diversitat als equips de desenvolupament és clau per evitar aquests biaixos estructurals. Si als equips desenvolupadors no incorporem diversitat de gènere, diversitat cultural i socioeconòmica, els sistemes no seran veritablement representatius.

A Worldcoo veiem cada dia que la IA, combinada amb controls humans, pot ser un potent motor d'inclusió. Pot ajudar a detectar aviat l'exclusió educativa, facilitar l'accés a la salut digital o fer més eficients els sistemes d'ajuda humanitària. Dissenyar IA amb perspectiva inclusiva no és només una obligació ètica; és una oportunitat per construir un futur més just. Per aconseguir-ho, hem d'unir diversitat, transparència, responsabilitat social i supervisió humana, assegurant-nos que la tecnologia reflecteixi el millor de la nostra humanitat.

Ara bé, perquè aquesta promesa sigui creïble, convé desmitificar què fa realment la IA. La majoria dels sistemes actuals no "entenen" el món: aprenen per associació estadística a partir d'enormes volums de textos i imatges. Simulen el raonament, però no pensen; prediuen la següent paraula probable, no el significat. Confondre aquesta imitació amb el seny humà pot portar-nos a delegar decisions crítiques en eines que, per disseny, no comprenen el context social que intentem millorar.

A més, el model de progrés basat en "més dades i més còmput" té un cost material que no podem obviar. Entrenar i operar sistemes cada vegada més grans implica una demanda energètica creixent i concentrada, amb una empremta ambiental que, si no es gestiona, xocarà amb qualsevol agenda de sostenibilitat. Una IA veritablement inclusiva ha d'incorporar límits: pressupostos de còmput, mètriques d'eficiència, auditories energètiques i disseny frugal per defecte. L'equitat també es juga en no desplaçar externalitats ambientals a les comunitats més vulnerables.

Existeix, així mateix, un risc menys visible però més immediat: la capacitat de persuasió d'aquests sistemes. Eines optimitzades per resultar coherents i convincents poden influir en opinions i comportaments sense que l'usuari ho percebi. En àmbits com el treball, les finances o fins i tot la filantropia, aquesta "facilitat per guanyar discussions" pot convertir-se en pressió subtil, biaixos reforçats o desinformació amplificada. Per això necessitem salvaguardes específiques davant la manipulació: transparència en les recomanacions, explicacions comprensibles, límits a tècniques d'"empenta" conductual i proves sistemàtiques que mesurin el potencial d'influència indeguda.

Aquest desafiament supera qualsevol organització. La regulació avui avança més a poc a poc que la tecnologia i els incentius de mercat no sempre alineen seguretat i ben comú. Urgeixen marcs que exigeixin avaluacions d'impacte algorítmic, traçabilitat de dades, accés per a auditories independents i responsabilitats clares al llarg de la cadena de valor. Igual que fixem estàndards en salut o finances, necessitem estàndards verificables en sistemes que ja intervenen accés a drets.

Tampoc no podem normalitzar l'autonomia sense control humà significatiu. Hi ha decisions —i cada vegada més infraestructures— que certs sistemes prenen de forma automatitzada. En contextos delicats, la supervisió no és un tràmit: és un principi de disseny. Human in the loop real, interruptors de seguretat, objectius alineats amb drets humans i límits de delegació són condicions mínimes per no travessar llindars de risc que després resultin irreversibles.

Finalment, la concentració de poder tècnic i de dades a poques mans crea noves asimetries. Si els algoritmes que ordenen la vida social es dissenyen en entorns homogenis i tancats, reproduirem un monocultiu tecnològic amb biaixos difícils de detectar. La inclusió requereix pluralitat: estàndards oberts, dades amb governança participativa, investigació pública robusta i aliances que incorporin a actors locals.

A la nostra feina, això es tradueix en donar suport a organitzacions diverses i en evitar dependències d'una sola mètrica, un únic proveïdor o una única forma de "veure" el problema. En síntesi, una IA inclusiva no és una IA sense límits, sinó una IA deliberadament delimitada, auditable i energèticament responsable; menys enlluernador i més útil. Si combinem aquesta mirada crítica amb la diversitat, la transparència i la supervisió humana que ja practiquem, podrem aprofitar el millor de la tecnologia sense sacrificar allò que la justifica: la dignitat i l'equitat de les persones.