En una carta oberta adreçada a la Presidència espanyola del Consell de la Unió Europea, 60 organitzacions de la societat civil, nacionals i internacionals, entre elles Lafede.cat, hem expressat la nostra preocupació per les deficiències en la proposta original del Reglament d’Intel·ligència Artificial (Llei d’IA) de la Unió Europea. Les organitzacions demanen a la Presidència espanyola que garanteixi una legislació respectuosa amb els drets fonamentals. Les entitats impulsores de la carta són Lafede.cat, Algorace, Fundación Eticas, CIVIO, Observatorio Trabajo, Algoritmos y Sociedad; Algorights, Institut de Drets Humans de Catalunya i CECU.
Carta a la Presidència Espanyola del Consell de la Unió Europea:
Garantir la protecció dels drets fonamentals en el Reglament de la Intel·ligència Artificial
Les organitzacions signants d’aquesta carta us escriuen per cridar l’atenció sobre una sèrie de greus deficiències en el Reglament d’Intel·ligència Artificial (Reglament d’IA) (COM/2021/206) que actualment està sent negociat per la Presidència sueca del Consell de la Unió Europea i properament per la Presidència espanyola.
Aquesta carta es basa en la posició de 123 organitzacions de la societat civil que demanen a la Unió Europea que posi en primer pla un enfocament basat en els drets fonamentals per al Reglament d’IA el 2021. El Reglament d’Intel·ligència Artificial és un acte legislatiu fonamental que tindrà un fort impacte en la població de la UE i, amb tota probabilitat, també més enllà de les nostres fronteres.
Algunes de les nostres preocupacions es refereixen a pràctiques perilloses que condueixen a la vigilància massiva sobre la població. En fomentar la vigilància massiva i amplificar algunes de les desigualtats socials i desequilibris de poder més profunds, els sistemes d’IA estan posant en greu perill els nostres drets fonamentals i els processos i valors democràtics.
En particular, cridem l’atenció sobre les proteccions essencials dels drets fonamentals que es poden millorar encara més durant les negociacions dels anomenats trílegs o diàleg a tres bandes. Donat el paper que jugarà el Govern espanyol a partir de l’1 de juliol de 2023 en assumir la Presidència rotatòria del Consell, i l’interès mostrat ja per liderar la carrera de la Intel·ligència Artificial a Europa, creiem que la Presidència espanyola ha d’assumir un paper assertiu i garantir que la legislació sigui a prova de futur i respectuosa amb els drets fonamentals.
Demanem a la propera Presidència espanyola i als Estats membres que garanteixin que les següents característiques es reflecteixin en el text final del Reglament d’IA:
-
Ampliar la llista de prohibicions exhaustives d’aquells sistemes d’IA que suposin un “risc inacceptable” per als drets fonamentals. És vital que la llista de l’article 5 de “pràctiques d’IA prohibides” s’ampliï per abastar tots els sistemes que es demostrin que plantejen un risc inacceptable de vulnerar drets i llibertats fonamentals de les persones, afectant també de manera més general els principis fonamentals de la democràcia. Com a mínim, les organitzacions signants considerem que s’haurien de prohibir totalment:
-
La identificació biomètrica remota (RBI) a l’espai públic que s’apliqui a tots els agents, no només als encarregats de fer complir la llei, així com els seus usos tant “en temps real” com “a posteriori” (sense excepcions);
-
L’ús de sistemes d’IA per part de les autoritats administratives, policials i judicials per fer prediccions, perfils o avaluacions de risc per tal de predir delictes;
-
L’ús de sistemes d’avaluació i perfilat de riscos individuals basats en la IA en el context de la migració; l’anàlisi predictiva amb finalitats d’interdicció, restricció i prevenció de la migració; i els polígrafs d’IA per a la prevenció de la migració;
-
L’ús de sistemes de reconeixement d’emocions que pretenen inferir les emocions i els estats mentals de les persones;
-
L’ús de sistemes de categorització biomètrica per rastrejar, categoritzar i jutjar les persones en espais d’accés públic o per categoritzar les persones en funció de característiques protegides;
-
L’ús de sistemes d’IA que puguin manipular les persones o prendre avantatge de contextos o situacions de vulnerabilitat, de manera que puguin causar o tenir l’efecte de causar-hi danys.
2- Eliminar qualsevol tipus de discrecionalitat en el procés de classificació de sistemes dalt risc (article 6). L’orientació general del Consell i les negociacions al Parlament Europeu tendeixen a afegir capes en el procés de classificació de riscos en exigir requisits addicionals perquè els sistemes d’IA llistats a l’Annex III siguin considerats d’alt risc. Això complicaria greument el Reglament d’IA, dotaria d’una discrecionalitat excessiva als proveïdors per decidir si el sistema és d’alt risc o no, comprometria la seguretat jurídica i donaria lloc a una gran fragmentació a l’aplicació del Reglament. Per això, sol·licitem:
-
Que tots els sistemes d’IA a què fa referència l’Annex III del Reglament d’IA siguin considerats d’alt risc, sense més consideracions.
3- Obligacions significatives de rendició de comptes i transparència sobre els usos públics dels sistemes d’IA i sobre tots els “implementadors” d’IA d’alt risc. Per garantir el màxim nivell de protecció dels drets fonamentals, els qui implementin sistemes d’IA d’alt risc (és a dir, els “usuaris”” tal com se’ls anomena en la proposta original de la Comissió Europea i en l’orientació general del Consell de la UE, o els “implementadors” segons podria acordar-se al Parlament Europeu) han de facilitar informació pública sobre l’ús d’aquests sistemes. Aquesta informació és crucial per a la rendició pública de comptes, ja que permet a les organitzacions d’interès públic, als investigadors ia les persones afectades comprendre el context en què s’utilitzen els sistemes d’alt risc. El Reglament d’IA ha d’incloure les obligacions següents per als implementadors:
-
Obligació dels implementadors de registrar tots els sistemes d’IA d’alt risc a la base de dades de l’article 60;
-
L’obligació de les autoritats públiques, o dels qui actuïn en nom seu, de registrar tots els usos dels sistemes d’IA a la base de dades de l’article 60, independentment del nivell de risc;
-
L’obligació dels implementadors de sistemes d’IA d’alt risc de fer i publicar a la base de dades de l’article 60 una avaluació de l’impacte sobre els drets fonamentals (EIDF) abans de desplegar qualsevol sistema d’IA d’alt risc;
-
L’obligació dels implementadors de sistemes d’IA d’alt risc d’involucrar la societat civil i altres parts afectades a l’avaluació de l’impacte sobre drets fonamentals que han de fer.
4- Drets i mecanismes de reparació per empoderar les persones afectades pels sistemes d’IA. Si bé hem vist passos positius en reconèixer-se, per exemple, a l’orientació general del Consell, la possibilitat de presentar reclamacions davant d’autoritats públiques en cas d’incompliments del Reglament, estimem que també cal reconèixer altres drets bàsics que permetin a les persones afectades pels sistemes de IA comprendre, qüestionar i obtenir reparacions. Per això, entenem que el text final del Reglament ha d’incloure:
-
El dret a rebre, prèvia sol·licitud, una explicació clara i intel·ligible, fins i tot per als nens i nenes i en l’idioma què se sol·liciti, de forma accessible per a les persones amb discapacitat, sobre les decisions adoptades amb l’ajut dels sistemes inclosos a l’àmbit d’aplicació del Reglament d’IA i sobre com funcionen aquests sistemes, inclòs el dret a objectar aquestes decisions;
-
El dret de les persones a presentar una reclamació davant d’autoritats nacionals o establir accions legals a la justícia quan un sistema o una pràctica d’IA les afecta;
-
El dret a un recurs judicial efectiu contra l’autoritat nacional de supervisió o contra l’implementador per fer efectius aquells drets que, en virtut del Reglament d’IA, hagin estat vulnerats;
-
El dret a accedir a mecanismes de reparació col·lectiva;
-
El dret de les organitzacions dinterès públic a presentar una denúncia davant una autoritat de control en cas incompliments al Reglament o per sistemes dIA que atemptin contra els drets fonamentals o linterès públic, i el dret de les persones a ser representades per tals organitzacions en la protecció dels drets.
5- Els estàndards tècnics no han de tractar qüestions relacionades amb drets fonamentals i han d’incloure més representativitat i diversitat d’organitzacions de la societat civil en la seva elaboració. Des de la societat civil manifestem la nostra preocupació perquè gran part de l’aplicació del Reglament d’IA -l’enfocament de risc del qual deixa gairebé sense regulació la majoria dels sistemes d’IA (a excepció dels d’alt risc, de les obligacions addicionals de transparència previstes per a alguns sistemes i del debat sobre la IA generativa que ha tingut lloc recentment)- dependrà del desenvolupament d’estàndards tècnics i de la seva aplicació per part dels fabricants. Més, si es té en compte que els processos d’estandarització estan fortament dominats per la indústria, considerant-ne la complexitat. Les organitzacions signants aquí manifesten que no és clar com aquests estàndards podrien impactar en els drets fonamentals de les persones (per exemple, pel que fa a l’absència de biaixos en els sistemes d’IA). Per això, creiem necessari que:
-
Els estàndards tècnics no siguin utilitzats per avaluar la possible afectació sobre els drets fonamentals de les persones;
-
Es posin els mitjans i els recursos necessaris per garantir una participació més gran de la societat civil en els processos d’estandarització sobre el Reglament d’IA, que ja estan tenint lloc.
Nosaltres, les organitzacions sotasignades sol·licitem:
(1) L’organització d’una reunió d’alt nivell amb representants de la societat civil abans del començament de la Presidència espanyola del Consell de la Unió Europea, per assegurar que als trílegs es reforcin i protegeixin adequadament els drets fonamentals al Reglament d’IA.
(2) Obtenir garanties del Govern Espanyol sobre com espera que s’aconsegueixin els nivells més alts de protecció dels drets fonamentals en el text final del Reglament d’IA, tal com hem assenyalat anteriorment en aquesta carta.
Entitats impulsores:
Lafede.cat, Algorace, Fundación Eticas, CIVIO, Observatorio Trabajo, Algoritmos y Sociedad; Algorights, Institut de Drets Humans de Catalunya, CECU
Més informació
- Carta a la presidència espanyola amb adhesions (en català i en castellano)