Triloghi UE: l’AI Act deve garantire il rispetto dei diritti del cittadino

Hermes Center, insieme ad oltre 150 organizzazioni della società civile, ha sottoscritto la seguente dichiarazione sui diritti fondamentali nel Regolamento sull’Intelligenza Artificiale dell’Unione Europea.

Riportamo di seguito la traduzione italiana, potete leggere l’originale sul sito di Edri – European Digital Rigths.

Mentre prendono il via le negoziazioni (triloghi[1]) tra le istituzioni dell’Unione Europea, la società civile si appella a dette istituzioni per assicurarsi che il Regolamento sull’Intelligenza Artificiale (AI Act) metta al primo posto il cittadino e i suoi diritti fondamentali.

In Europa e nel resto del mondo i sistemi d’intelligenza artificiale vengono impiegati anche per monitorare e controllare la cittadinanza negli spazi pubblici, prevedere con quanta probabilità un crimine si verifichi, facilitare violazioni del diritto di richiesta d’asilo, prevedere le emozioni dei cittadini categorizzandoli, e infine per prendere decisioni cruciali per l’accesso ai servizi pubblici, al welfare, all’istruzione e al lavoro.

In assenza di norme restrittive, governi e privati continueranno a ricorrere a sistemi d’intelligenza artificiale in grado di rafforzare la sorveglianza di massa, la discriminazione strutturale, il potere centralizzato delle grandi multinazionali tecnologiche (big tech), le amministrazioni irresponsabili e i danni ambientali.

Ci appelliamo alle istituzioni europee affinché garantiscano che l’utilizzo e lo sviluppo dell’intelligenza artificiale avvengano in modo responsabile e pubblicamente trasparente e affinché la cittadinanza sia incoraggiata a metterne in discussione i rischi.

1. Garantire supporto ai soggetti interessati attraverso un quadro normativo di responsabilità, trasparenza, accessibilità e ricorso

È fondamentale che l’AI Act incoraggi la cittadinanza e i soggetti d’interesse pubblico a comprendere, identificare e mettere in discussione le violazioni di diritti fondamentali legate all’impiego dei sistemi d’intelligenza artificiale, presentando ricorso qualora fosse necessario. Per fare ciò, è importante che l’AI Act fornisca un quadro normativo di responsabilità, trasparenza, accessibilità e ricorso. Il quadro deve includere:

  • Obbligo per tutti i deployer di sistemi AI, sia pubblici che privati, di condurre e pubblicare una valutazione dell’impatto sui diritti fondamentali prima di ogni utilizzo di sistemi “ad alto rischio”; i deployer sono tenuti a coinvolgere nella procedura anche la società civile e i soggetti interessati da queste tecnologie;
  • Obbligo per tutti gli utilizzatori (user) di sistemi ad alto rischio e di tutti i sistemi all’interno della sfera pubblica di registrarsi sul database pubblico dell’Unione Europea prima dell’utilizzo;

Il quadro deve inoltre garantire quanto segue:

  • che i fornitori (provider) con sede nell’Unione Europea, i cui sistemi AI siano rivolti a soggetti al di fuori dell’UE, rispettino gli stessi requisiti;
  • che tutti i sistemi d’intelligenza artificiale presentino accessibilità integrata e orizzontale;
  • che i soggetti interessati dai sistemi d’intelligenza artificiale vengano notificati e abbiano il diritto di chiedere informazioni qualora coinvolti nelle decisioni elaborate e negli esiti ottenuti per mezzo di AI;
  • che i soggetti interessati dai sistemi d’intelligenza artificiale abbiano il diritto di sporgere denuncia presso le autorità nazionali se i loro diritti sono stati violati dall’utilizzo di un sistema AI;
  • che le organizzazioni d’interesse pubblico sporgere denunce presso le autorità nazionali, sia in rappresentanza dei cittadini che in modo autonomo;

–             che venga incluso il diritto al ricorso effettivo in caso di violazione dei diritti.

2. Porre limitazioni alla sorveglianza di massa dannosa e discriminatoria da parte delle autorità preposte alla sicurezza nazionale, delle forze dell’ordine e delle Autorità competenti in materia di migrazione

Sempre più di frequente, alcuni sistemi d’intelligenza artificiale vengono sviluppati per servire forme dannose e discriminatorie di sorveglianza di stato. Sistemi di questo genere prendono già di mira, in larga misura, le comunità marginalizzate e ne minacciano i diritti legali e procedurali, contribuendo anche alla sorveglianza di massa. Quando certi sistemi d’intelligenza artificiale vengono impiegati nei contesti di sicurezza (interna e nazionale) e controllo dei flussi migratori, il rischio di violazioni della legge e dei diritti fondamentali aumenta. Per mantenere il controllo pubblico e prevenire eventuali danni, l’AI Act deve includere:

  • Divieto assoluto per tutti, senza eccezioni, dell’utilizzo negli spazi pubblici dei sistemi di riconoscimento biometrico, sia in tempo reale che a posteriori (ex post);
  • Divieto per le forze dell’ordine e per le autorità giudiziarie di ricorrere ai sistemi predittivi e di profilazione; il divieto include i sistemi che prendono di mira specifici individui, gruppi e aree geografiche;
  • Divieto dell’utilizzo di sistemi d’intelligenza artificiale in contesti migratori allo scopo di profilare individualmente i soggetti interessati e valutarne la pericolosità sulla base di dati personali sensibili; divieto dell’utilizzo di sistemi analitici predittivi qualora questi vengano utilizzati per vietare, limitare e prevenire i flussi migratori;
  • Divieto dell’utilizzo di sistemi di categorizzazione biometrica in grado di categorizzare le persone in base ad attributi sensibili o protetti; divieto di ricorrere ai suddetti sistemi e ai sistemi di rilevazione automatizzata del comportamento negli spazi pubblici;
  • Divieto dell’utilizzo di sistemi di riconoscimento emotivo per dedurre le emozioni e le condizioni mentali delle persone.

L’AI Act è inoltre tenuto a respingere:

  • L’aggiunta da parte del Consiglio dell’esenzione dalle norme dell’AI Act dei sistemi d’intelligenza artificiale sviluppati e/o impiegati per scopi di sicurezza nazionale;
  • Eccezioni e “scappatoie” (loopholes) proposte dal Consiglio per le forze dell’ordine e le autorità preposte al controllo dei flussi migratori.

Infine, l’AI Act deve

  • Garantire trasparenza pubblica sull’utilizzo dei sistemi d’intelligenza artificiale ad alto rischio da parte degli organi pubblici, sia nel contesto della sicurezza interna (forze dell’ordine), sia nel contesto migratorio,
  • respingendo qualsiasi richiesta d’uso delle eccezioni all’obbligo di registrazione dell’utilizzo di sistemi AI ad alto rischio all’interno del database dell’Unione Europea.

3. Respingere l’attività di lobbying delle multinazionali del settore tech (big tech) rimuovendo le scappatoie che minacciano il Regolamento

L’AI Act ha il dovere di fornire standard applicativi chiari e legalmente definiti, nel caso risulti necessario far rispettare il Regolamento. Lo stesso deve mantenere una procedura obiettiva per determinare i sistemi ad alto rischio ed eliminare qualsiasi “categoria ulteriore” aggiunta al processo di classificazione ad alto rischio. Aggiunte di questo tipo permetterebbero agli sviluppatori dei sistemi d’intelligenza artificiale, senza responsabilità e non sottoposti a controlli, di determinare se i propri sistemi pongono rischi abbastanza “significativi” da richiedere scrutinio legale da parte del Regolamento. Una classificazione del rischio così soggettiva rischia di invalidare l’intero AI Act, passando all’autoregolamentazione, presentando sfide insormontabili in materia di applicazione e armonizzazione e incoraggiando le grandi imprese a sottoclassificare i propri sistemi AI.

Le parti negozianti dell’AI Act non devono rinunciare a contrastare i tentativi di lobbying da parte delle multinazionali, che puntano alla circonvenzione delle norme nel proprio interesse economico. L’AI Act deve:

  • Rimuovere l’aggiunta fatta all’Articolo 6, relativa alla procedura di classificazione del rischio, e sostituirla con la versione originale presentata davanti alla Commissione Europea, che delineava la procedura in modo chiaro e obiettivo;
  • Garantire che i provider di sistemi AI a scopo generico siano soggetti a una serie di obblighi ben definiti sotto l’AI Act, evitando che i piccoli provider subiscano le conseguenze di obblighi più adatti alle multinazionali.

[1]   Il Parlamento Europeo, il Consiglio dell’Unione Europea e la Commissione Europea prendono parte a negoziazioni inter-istituzionali, dette “triloghi”, per raggiungere un accordo provvisorio sulla proposta legislativa in questione, in modo che sia accettabile sia per il Parlamento che per il Consiglio.