Lafede.cat forma part de la coal·lició IA Ciudadana, que presenta l’informe “Com aconseguir una transparència real amb els registres d’algoritmes“, que analitza 39 registres d’algoritmes, entre els quals hi ha que utilitzen mecanismes automàtics que provoquen indefensió a la població. Per exemple, la policia, la justícia o els serveis d’ocupació.
Les administracions públiques cada cop utilitzen més algoritmes per prendre decisions que afecten tota la ciutadania. Ho fan en àmbits com la sanitat, l’educació o el benestar social. Tot i el seu ús generalitzat, els algoritmes no són transparents, i per tant no es poden supervisar les seves implicacions, que són moltes i poden ser greus: Des de no rebre una ajuda social a quedar fora de l’adjudicació d’un habitatge públic o, no rebre protecció davant un cas de violència de gènere.
Per exemple, 55 dones van ser assassinades després que els seus casos es consideressin de risc baix pel sistema VioGen, que utilitza un sistema d’avaluació automatitzat. També hi ha centenars de joves afectats per “distorsions” de l’algoritme amb què el Districte Únic Andalús calcula les posicions a les llistes d’entrada als graus universitaris. Per tant, no és només un debat tecnològic, l’ús de l’IA afecta als drets de les persones.
Registres d’algoritmes públics per garantir els drets humans
Lafede.cat forma part de IA Ciudadana, una coal·lició de 17 organitzacions que, a través de l’informe publicat recentment, demanen al Govern espanyol la creació d’un Registre Central d’Algoritmes, que registri tots els sistemes algorítmics de l’administració pública basats en regles i patrons. Perquè registrar els algoritmes és necessari per evitar que la intel·ligència artificial discrimi i apliqui pràctiques de control que vulnerin els drets humans. Per tant, aquest registre ha de ser obligatori, transparent, accessible i dissenyat en col·laboració amb la societat civil.
IA Ciudadana reclama la creació d’una comissió parlamentària de transparència algorítmica
El paper del legislatiu és també important, i per això IA Ciudadana demana al Parlament espanyol la creació d’una comissió parlamentària sobre transparència algorítmica, a més de que exigeixi al Govern que informi sobre aquest tema almenys una vegada a l’any a la seu de la sobirania popular, entre altres demandes.
IA Ciudadana considera que la transparència és fonamental per generar confiança i garantir la rendició de comptes de les institucions públiques i privades. Conèixer quins són els algoritmes que operen a espais públics permet examinar i avaluar els processos de presa de decisions, reduint els riscos de parcialitat, discriminació i ús indegut.
En aquest sentit, els registres d’algoritmes tenen un paper crucial com a repositoris estructurats d’informació. Aquests registres milloren la supervisió i el seguiment per part d’actors clau per avaluar críticament aquestes tecnologies, alhora que incentiven una governança responsable.
Catalunya avançada en el control algorítmic
En aquest sentit, l’informe recull que Catalunya és una de les comunitats autònomes més avançades en qüestió de transparència algorítmica, proposant mesures per ampliar l’accessibilitat als sistemes d’IA que afecten la vida quotidiana dels ciutadans i facilitant l’accés a la informació sobre els algoritmes utilitzats pel sector públic.
La Generalitat ha publicat un conjunt de fitxes informatives sobre els seus sistemes d’IA, que proporcionen dades sobre com s’ha entrenat el sistema, els beneficis, els riscos en termes de privadesa o discriminació i disposicions tècniques de l’algoritme. Tot i això, fins ara només s’han publicat quatre informes. A més, l’administració catalana va crear a principis del 2024 una Comissió d’Intel·ligència Artificial per impulsar el desplegament de sistemes d’IA a les administracions públiques, així com per supervisar-ne el implementació. Aquesta Comissió presentarà en breu el registre algorítmic de la Generalitat, que recull ja algunes de les demandes incorporades a l’informe que s’acaba de presentar per part de la coalició.
Amb tot, Lafede.cat participa en espais com el Comitè d’ètica de les dades i l’Observatori d’Ètica en Intel·ligència Artificial de Catalunya on fa incidència per implementar la IA des d’una perspectiva de defensa dels drets humans i participativa Per exemple, s’ha aconseguit frenar la implementació de tecnologies de reconeixement biomètric en centres penitenciaris.
Els registres d’algoritmes són un pas necessari per a la transparència algorítmica i per a la rendició de comptes de les administracions a la societat civil. De fet, la creació d’aquestes eines de consulta ja era una de les recomanacions de l’informe de l’any passat presentat per Lafede.cat “Algoritmes i Intel·ligència Artificial al Sector Públic: Recomanacions des de la Justícia Global”. No obstant això, cal prestar especial atenció al seu contingut, difusió i el context en què se situen, en cas contrari poden convertir-se en instruments de transparency washing, merament performatius i acabar sent més perjudicials que beneficiosos.
Més informació: