La física, científica espacial i matemàtica afroamericana Katherine Johnson va ser la responsable de calcular les trajectòries del vol a la Lluna de l’Apol·lo 11, el 1969, a la NASA. Malgrat la importància d’aquell moment científic i tecnològic, el seu nom no va sortir a la llum fins que la periodista Margot Lee Shetterly va investigar les dones de la NASA dels anys 60. La pel·lícula Hidden figures va explicar la seva història, juntament amb la de moltes altres científiques de dades del departament de computació, relegades a l’anonimat.

Avui dia podríem pensar (i desitjar) que el fet no es tornarà a produir, sobretot quan hi ha una voluntat manifesta que el percentatge de dones augmenti en els sectors tecnològics i científics. No obstant això, la intel·ligència artificial (IA) i els biaixos de gènere de les dades continuen menystenint les dones. En 2014, Amazon va entrenar un algoritme per reclutar nous treballadors. L’eina puntuava d’una a cinc estrelles els millors candidats. Però un any més tard, la companyia es va adonar que no tenien cap dona contractada per al desenvolupament de programari. No s’havia presentat cap candidata amb habilitats per aquella feina? El problema va ser que quan l’algoritme detectava la paraula ‘dona’ –o un sinònim–, penalitzava l’aspirant posant-li menys puntuació. El sistema intel·ligent va ser entrenat amb dades de milers de CVs dels darrers deu anys i la majoria pertanyien a homes. El cas ja és un clàssic dels errors de la IA, però seria desitjable que no es tornés a repetir.
Comencem pel principi?
De manera molt simple, es podria dir que la IA és una part de la informàtica que potencia que les màquines funcionin i reaccionin com els humans. És a dir, que puguin raonar, aprendre i actuar de manera intel·ligent. La idea no és nova. El filòsof i escriptor Ramon Llull (1232-1316) va dedicar la seva vida a l’ars machina, una màquina que servia per fer proves lògiques i facilitar el raonament. Més recentment, el matemàtic Alan Turing va crear el test de Turing (1950), que plantejava la possibilitat que un ordinador pogués “pensar”.
La IA desenvolupa algoritmes que prediuen i prenen decisions de manera automatitzada. Aquests algoritmes avui ja poden assumir algunes funcions dels humans, i els fa més imprescindibles cada dia. Per explicar-ho senzillament podríem dir que són un conjunt d’ordres d’ordinador que permeten resoldre un problema o una tasca. Els més sofisticats fan servir aprenentatge automàtic (machine learning) –una branca de la IA que aconsegueix que les màquines millorin amb l’experiència–. Dins del machine learning hi ha l’aprenentatge profund (deep learning), una tècnica de processament de dades basada en xarxes neuronals artificials amb moltes capes, inspirada en el funcionament bàsic de les neurones del cervell. La IA no és nova, existeix des de fa més de cinquanta anys, però és ara que tenim prou volum de dades i capacitat de computació, que es pot aplicar en una multitud de casos pràctics.
Biaixos de gènere
Un cas similar al d’Amazon va passar amb investigadors de Microsoft Research i de la Universitat de Boston el 2016. Per aprendre sobre els estereotips femenins/masculins que hi havia a la premsa de l’època, es va fer una recol·lecció massiva de notícies de Google. Els resultats deien que ells eren ‘programadors informàtics’, mentre que elles únicament ‘mestresses de casa’; ells eren ‘metges’ i elles ‘infermeres’. I té la seva lògica, perquè als Estats Units la majoria de periodistes que havien escrit les notícies amb les quals s’havia entrenat l’algoritme eren homes, i el biaix de gènere estava incorporat en ells mateixos quan redactaven.
Més recentment, el Grup d’Investigació de Ciència de la Web i Computació Social de la Universitat Pompeu Fabra va investigar com eren classificats els homes i les dones en les plataformes de professionals LinkedIn i Viadeo. El resultat va ser que de cent perfils masculins i femenins, qualificats professionalment amb la mateixa puntuació, en els primers deu resultats només apareixen homes. Una vegada més les dones perdien oportunitats d’arribar a un lloc directiu perquè en els primers deu resultats els noms eren d’homes. Per detectar i corregir aquests biaixos, el grup científic de la UPF va crear l’eina FA*IR, que detecta la discriminació i reordena els resultats sense afectar la validesa del rànquing.
Solucions davant l’evidència
Una altra prestigiosa veu de la IA és la científica de dades Timnit Gebru, fins al 2020 responsable màxima de l’Equip d’IA Ètica de Google. Ella va ser acomiadada per negar-se a vulnerar els codis ètics de la mateixa companyia. Actualment, lidera l’organització Distributed Artificial Intelligence Research Institute (DAIR), dedicada a documentar els danys de la IA i a desenvolupar sistemes amb impacte positiu.
Avui dia, amb la IA en funcionament de manera global i en multitud de funcions i serveis públics, les dones i els col·lectius que històricament han sortit discriminats continuen patint la injustícia de perdre oportunitats laborals o recursos socials, sovint pels biaixos que contenen les dades amb les quals són entrenats els algoritmes. Tal com explica el científic de dades Ricardo Baeza-Yates: “Els biaixos són com els prejudicis de les persones: tots els tenim, en menor o major grau. Però si no es corregeixen, hi ha el risc d’habitar un futur on cada cop sigui més difícil el progrés social perquè els prejudicis es perpetuïn”.
Seria d’esperar que a mesura que evolucionem –i amb les lluites per la defensa dels drets humans al llarg dels segles– aquestes diferències anessin minvant i la tecnologia ens fes avançar cap a un món més humà, just i sostenible.