Intelligenza Artificiale: lettera aperta alle istituzioni per una governance indipendente e inclusiva

È di oggi 28/03/2024 la nostra lettera aperta intitolata Intelligenza artificiale: il governo sbaglia ad affidare la governance a un’agenzia governativa e co-firmata da Privacy Network, The Good Lobby Italia, Reclaim The Tech, Info.nodes, Amnesty International Italia, PERIOD think tank, StraLi for strategic litigation.

«Apprendiamo con stupore e con disappunto della volontà da parte dell’attuale Governo di affidare la governance a soggetti istituzionali, per quanto competenti, non indipendenti e autonomi, quali AGID – Agenzia per l’Italia Digitale e Agenzia per la Cybersicurezza Nazionale.

Se l’intelligenza artificiale è volta a diventare uno dei pilastri dello sviluppo delle nostre società negli anni a venire, sia in termini sociali che economici, crediamo fermamente che sia imprescindibile affidarne il governo a un soggetto autorevole ma anche completamente indipendente, così come è stato fatto in passato per l’anticorruzione e per la tutela della privacy.

Chiediamo al Governo di fare un passo indietro rispetto alle proposte attualmente sul tavolo , aprendo una riflessione più ampia e inclusiva, per arrivare alla soluzione migliore nell’interesse pubblico».

➡ Contattaci se desideri unirti al coro! Scarica qui il documento e condividilo sui social.

L’AI Act è a rischio, e la colpa è anche del governo italiano

In questi giorni le istituzioni europee si apprestano ad approvare una storica normativa sull’Intelligenza Artificiale, e la posizione assunta dal governo italiano ci delude e ci indigna.

Un lavoro congiunto di The Good Lobby Italia, Privacy Network, Hermes Center, StraLI, Period Think Tank, Gender & Policy Insights.

Ancora una volta, le richieste della società civile e di esperte ed esperti vengono ignorate, così come quelle del Parlamento e della Commissione europea. Accodandosi a Francia e Germania, l’Italia propone di non regolamentare i modelli di fondazione dell’IA, chiedendo un enorme passo indietro rispetto agli sforzi fatti finora. Le potenzialità e implicazioni dell’IA generativa sulla società, i diritti fondamentali e la democrazia richiedono uno sforzo normativo serio e coraggioso e non possono essere lasciate alla buona volontà delle aziende tech, dove si accentra il potere di mercato.
Perché, poi, l’Italia dovrebbe appiattirsi sul posizionamento di Germania e Francia, che si preoccupano di proteggere gli interessi nazionali e delle loro grandi industrie di settore? L’Italia, ricca di realtà open source, dovrebbe casomai tutelarle proponendo un modello di sviluppo tecnologico sostenibile, etico e democratico.

Abbiamo inviato questa lettera agli esponenti del Governo e Parlamento italiano, nonché della Rappresentanza Permanente dell’Italia presso l’Unione Europea, che possono influenzare l’attuale posizione contraria alla regolamentazione dei foundation models assunta dal nostro Governo presso il Consiglio dell’Unione Europea. Ai nostri rappresentanti politici, chiediamo di attivarsi concretamente in queste ore affinché il nostro Paese non sia complice nel commettere questo errore.

Inoltre, abbiamo contattato tutto il network italiano dell’Intelligenza artificiale: professoresse e professori universitari, associazioni di categoria, e diversi rappresentanti di interessi perché collaborino con noi alla diffusione di questa notizia al fine di aumentare la consapevolezza di cittadine e cittadini.

Triloghi UE: l’AI Act deve garantire il rispetto dei diritti del cittadino

Hermes Center, insieme ad oltre 150 organizzazioni della società civile, ha sottoscritto la seguente dichiarazione sui diritti fondamentali nel Regolamento sull’Intelligenza Artificiale dell’Unione Europea.

Riportamo di seguito la traduzione italiana, potete leggere l’originale sul sito di Edri – European Digital Rigths.

Mentre prendono il via le negoziazioni (triloghi[1]) tra le istituzioni dell’Unione Europea, la società civile si appella a dette istituzioni per assicurarsi che il Regolamento sull’Intelligenza Artificiale (AI Act) metta al primo posto il cittadino e i suoi diritti fondamentali.

In Europa e nel resto del mondo i sistemi d’intelligenza artificiale vengono impiegati anche per monitorare e controllare la cittadinanza negli spazi pubblici, prevedere con quanta probabilità un crimine si verifichi, facilitare violazioni del diritto di richiesta d’asilo, prevedere le emozioni dei cittadini categorizzandoli, e infine per prendere decisioni cruciali per l’accesso ai servizi pubblici, al welfare, all’istruzione e al lavoro.

In assenza di norme restrittive, governi e privati continueranno a ricorrere a sistemi d’intelligenza artificiale in grado di rafforzare la sorveglianza di massa, la discriminazione strutturale, il potere centralizzato delle grandi multinazionali tecnologiche (big tech), le amministrazioni irresponsabili e i danni ambientali.

Ci appelliamo alle istituzioni europee affinché garantiscano che l’utilizzo e lo sviluppo dell’intelligenza artificiale avvengano in modo responsabile e pubblicamente trasparente e affinché la cittadinanza sia incoraggiata a metterne in discussione i rischi.

1. Garantire supporto ai soggetti interessati attraverso un quadro normativo di responsabilità, trasparenza, accessibilità e ricorso

È fondamentale che l’AI Act incoraggi la cittadinanza e i soggetti d’interesse pubblico a comprendere, identificare e mettere in discussione le violazioni di diritti fondamentali legate all’impiego dei sistemi d’intelligenza artificiale, presentando ricorso qualora fosse necessario. Per fare ciò, è importante che l’AI Act fornisca un quadro normativo di responsabilità, trasparenza, accessibilità e ricorso. Il quadro deve includere:

  • Obbligo per tutti i deployer di sistemi AI, sia pubblici che privati, di condurre e pubblicare una valutazione dell’impatto sui diritti fondamentali prima di ogni utilizzo di sistemi “ad alto rischio”; i deployer sono tenuti a coinvolgere nella procedura anche la società civile e i soggetti interessati da queste tecnologie;
  • Obbligo per tutti gli utilizzatori (user) di sistemi ad alto rischio e di tutti i sistemi all’interno della sfera pubblica di registrarsi sul database pubblico dell’Unione Europea prima dell’utilizzo;

Il quadro deve inoltre garantire quanto segue:

  • che i fornitori (provider) con sede nell’Unione Europea, i cui sistemi AI siano rivolti a soggetti al di fuori dell’UE, rispettino gli stessi requisiti;
  • che tutti i sistemi d’intelligenza artificiale presentino accessibilità integrata e orizzontale;
  • che i soggetti interessati dai sistemi d’intelligenza artificiale vengano notificati e abbiano il diritto di chiedere informazioni qualora coinvolti nelle decisioni elaborate e negli esiti ottenuti per mezzo di AI;
  • che i soggetti interessati dai sistemi d’intelligenza artificiale abbiano il diritto di sporgere denuncia presso le autorità nazionali se i loro diritti sono stati violati dall’utilizzo di un sistema AI;
  • che le organizzazioni d’interesse pubblico sporgere denunce presso le autorità nazionali, sia in rappresentanza dei cittadini che in modo autonomo;

–             che venga incluso il diritto al ricorso effettivo in caso di violazione dei diritti.

2. Porre limitazioni alla sorveglianza di massa dannosa e discriminatoria da parte delle autorità preposte alla sicurezza nazionale, delle forze dell’ordine e delle Autorità competenti in materia di migrazione

Sempre più di frequente, alcuni sistemi d’intelligenza artificiale vengono sviluppati per servire forme dannose e discriminatorie di sorveglianza di stato. Sistemi di questo genere prendono già di mira, in larga misura, le comunità marginalizzate e ne minacciano i diritti legali e procedurali, contribuendo anche alla sorveglianza di massa. Quando certi sistemi d’intelligenza artificiale vengono impiegati nei contesti di sicurezza (interna e nazionale) e controllo dei flussi migratori, il rischio di violazioni della legge e dei diritti fondamentali aumenta. Per mantenere il controllo pubblico e prevenire eventuali danni, l’AI Act deve includere:

  • Divieto assoluto per tutti, senza eccezioni, dell’utilizzo negli spazi pubblici dei sistemi di riconoscimento biometrico, sia in tempo reale che a posteriori (ex post);
  • Divieto per le forze dell’ordine e per le autorità giudiziarie di ricorrere ai sistemi predittivi e di profilazione; il divieto include i sistemi che prendono di mira specifici individui, gruppi e aree geografiche;
  • Divieto dell’utilizzo di sistemi d’intelligenza artificiale in contesti migratori allo scopo di profilare individualmente i soggetti interessati e valutarne la pericolosità sulla base di dati personali sensibili; divieto dell’utilizzo di sistemi analitici predittivi qualora questi vengano utilizzati per vietare, limitare e prevenire i flussi migratori;
  • Divieto dell’utilizzo di sistemi di categorizzazione biometrica in grado di categorizzare le persone in base ad attributi sensibili o protetti; divieto di ricorrere ai suddetti sistemi e ai sistemi di rilevazione automatizzata del comportamento negli spazi pubblici;
  • Divieto dell’utilizzo di sistemi di riconoscimento emotivo per dedurre le emozioni e le condizioni mentali delle persone.

L’AI Act è inoltre tenuto a respingere:

  • L’aggiunta da parte del Consiglio dell’esenzione dalle norme dell’AI Act dei sistemi d’intelligenza artificiale sviluppati e/o impiegati per scopi di sicurezza nazionale;
  • Eccezioni e “scappatoie” (loopholes) proposte dal Consiglio per le forze dell’ordine e le autorità preposte al controllo dei flussi migratori.

Infine, l’AI Act deve

  • Garantire trasparenza pubblica sull’utilizzo dei sistemi d’intelligenza artificiale ad alto rischio da parte degli organi pubblici, sia nel contesto della sicurezza interna (forze dell’ordine), sia nel contesto migratorio,
  • respingendo qualsiasi richiesta d’uso delle eccezioni all’obbligo di registrazione dell’utilizzo di sistemi AI ad alto rischio all’interno del database dell’Unione Europea.

3. Respingere l’attività di lobbying delle multinazionali del settore tech (big tech) rimuovendo le scappatoie che minacciano il Regolamento

L’AI Act ha il dovere di fornire standard applicativi chiari e legalmente definiti, nel caso risulti necessario far rispettare il Regolamento. Lo stesso deve mantenere una procedura obiettiva per determinare i sistemi ad alto rischio ed eliminare qualsiasi “categoria ulteriore” aggiunta al processo di classificazione ad alto rischio. Aggiunte di questo tipo permetterebbero agli sviluppatori dei sistemi d’intelligenza artificiale, senza responsabilità e non sottoposti a controlli, di determinare se i propri sistemi pongono rischi abbastanza “significativi” da richiedere scrutinio legale da parte del Regolamento. Una classificazione del rischio così soggettiva rischia di invalidare l’intero AI Act, passando all’autoregolamentazione, presentando sfide insormontabili in materia di applicazione e armonizzazione e incoraggiando le grandi imprese a sottoclassificare i propri sistemi AI.

Le parti negozianti dell’AI Act non devono rinunciare a contrastare i tentativi di lobbying da parte delle multinazionali, che puntano alla circonvenzione delle norme nel proprio interesse economico. L’AI Act deve:

  • Rimuovere l’aggiunta fatta all’Articolo 6, relativa alla procedura di classificazione del rischio, e sostituirla con la versione originale presentata davanti alla Commissione Europea, che delineava la procedura in modo chiaro e obiettivo;
  • Garantire che i provider di sistemi AI a scopo generico siano soggetti a una serie di obblighi ben definiti sotto l’AI Act, evitando che i piccoli provider subiscano le conseguenze di obblighi più adatti alle multinazionali.

[1]   Il Parlamento Europeo, il Consiglio dell’Unione Europea e la Commissione Europea prendono parte a negoziazioni inter-istituzionali, dette “triloghi”, per raggiungere un accordo provvisorio sulla proposta legislativa in questione, in modo che sia accettabile sia per il Parlamento che per il Consiglio.

Riconoscimento facciale: il divieto nei luoghi pubblici durerà fino al 2025. Preoccupano le eccezioni

I diritti digitali dei cittadini italiani verranno rispettati, almeno per quanto riguarda la sorveglianza attiva: il divieto delle tecnologie di riconoscimento facciale sarà infatti prolungato per i prossimi due anni (fino al 31/12/2025). Il riconoscimento facciale era già vietato in Italia dalla fine del 2021, grazie ad una moratoria che prevedeva una “sospensione” dell’utilizzo di questi sistemi negli spazi pubblici fino al 31 dicembre 2023, nell’attesa che l’Unione Europea arrivasse a un accordo ben definito in materia.

Adesso però è ufficiale: l’emendamento (decreto legge 51 del 2023) presentato alla Camera dai deputati PD Marianna Madia, Lia Quartapelle e Filiberto Zaratti è stato votato dalla maggioranza nella giornata di giovedì 22 giugno. L’Italia sembra comprendere i rischi associati all’impiego delle tecnologie di riconoscimento biometrico nei luoghi pubblici urbani, anche se la moratoria attuale prevede delle preoccupanti eccezioni.

Infatti, se è vero che le amministrazioni comunali sono soggette al via libera del Garante della Privacy, lo stesso non si può dire delle autorità giudiziarie (stando a un inciso del comma 12 della legge). Cosa succederebbe se le suddette autorità decidessero quindi di installare telecamere di videosorveglianza biometrica in una piazza, ad esempio? Le implicazioni sono molteplici.

Laura Carrer, del board della nostra associazione, aveva già provato a rispondere alla domanda su Wired:

«Stando alla moratoria attuale, un pm potrebbe richiedere l’impiego di un sistema di riconoscimento facciale per verificare l’identità di alcune persone che si incontrano con un indagato mentre è in una piazza pubblica, dove transitano centinaia di persone estranee all’indagine, ma i cui dati biometrici vengono raccolti e analizzati».

Wired Italia, 06.12.2021

Tecnologie di questo tipo sono già utilizzate in alcuni Stati extraeuropei, tra cui Cina e Iran. Negli ultimi anni, i cittadini di questi e altri Paesi hanno potuto sperimentare sulla propria pelle l’invasività e la pericolosità della videosorveglianza di massa. Si va dal cosiddetto chilling effect, che impedisce all’individuo che sa di essere controllato di esprimersi liberamente, all’arresto vero e proprio di coloro che vengono filmati in atteggiamenti illeciti – in Iran, le donne che non indossano il velo, per esempio. Va da sé che anche la libertà di aggregazione e quindi di manifestazione verrebbero minacciate.

Noi, assieme a Edri – European Digital Rights e alla coalizione Reclaim Your Face, continuiamo a batterci per un divieto assoluto dei sistemi di riconoscimento biometrico, senza eccezioni. Nel frattempo, ci auguriamo che anche a livello europeo con l’AI Act, il regolamento sull’intelligenza artificiale, vengano prese decisioni a tutela della libertà del cittadino.

Approvato il regolamento sull’intelligenza artificiale al Parlamento Europeo. Bene il divieto di riconoscimento biometrico, ma andrebbe esteso anche ai migranti.

14 giu – Hermes Center, The Good Lobby Italia e info.nodes, le organizzazioni che hanno lanciato la campagna #DontSpyEU, si dichiarano complessivamente soddisfatte del testo dell’AI Act appena approvato dal Parlamento Europeo.

Il regolamento sull’intelligenza artificiale, che dovrebbe entrare in vigore l’anno prossimo, prevede il divieto di utilizzare i sistemi di riconoscimento biometrico negli spazi pubblici urbani. Il voto in plenaria di questa mattina ha infatti bloccato le istanze contrarie al divieto di EPP, ECR e ID, accogliendo invece le richieste di molte organizzazioni europee per la tutela dei diritti digitali.

L’impiego dei sistemi di riconoscimento biometrico nei luoghi pubblici presenta risvolti pericolosi e antidemocratici, come evidenzia la campagna #DontSpyEU, che consente provocatoriamente di applicare algoritmi di riconoscimento sui volti degli europarlamentari e diffondere i risultati ottenuti al fine di sensibilizzare il pubblico sui rischi di queste tecnologie, a partire proprio dei decisori che sono chiamati a decidere in materia.

La vittoria di oggi a Strasburgo è tuttavia da considerarsi parziale: non sono state infatti aggiunte alcune clausole importanti. Con il testo confermato oggi, l’AI Act non tutela gli individui «in transito» ai confini europei dall’invasività delle tecnologie di videosorveglianza biometrica. Gli europarlamentari avevano l’occasione di includere all’interno della «categoria protetta» anche migranti, profughi e richiedenti asilo, ma hanno deciso di non farlo. La stessa Amnesty si dichiara insoddisfatta della scelta in un tweet di oggi pomeriggio.

C’è di più: sebbene i sistemi di riconoscimento facciale siano stati dichiarati ancora una volta illegali negli spazi pubblici, le forze dell’ordine avrebbero comunque accesso, sotto approvazione giudiziaria, alle registrazioni delle telecamere di sorveglianza. Ciò potrà avvenire soltanto nel caso di «gravi crimini», ma l’abuso di tali strumenti rimane un rischio che i cittadini europei – e non solo – non dovrebbero correre.

Come sottolinea Claudio Agosti, attivista e membro di Hermes Center «Siamo contenti che il Parlamento abbia deciso di vietare i sistemi di riconoscimento biometrico negli spazi pubblici, ma riteniamo inaccettabile che i migranti siano stati volutamente esclusi dalle tutele».

Anche per Davide Del Monte, presidente di info.nodes «l’esclusione dei migranti dalle tutele poste dall’AI Act è un fatto molto grave: la stessa Europa che vuole promuovere i valori universali di inclusività, solidarietà e giustizia sociale non può differenziare tra esseri umani di serie A, da tutelare, e altri di serie B, su cui testare tecnologie lesive di quelli che, giustamente, ritiene diritti fondamentali».

Martina Turola di The Good Lobby Italia aggiunge: «il Parlamento europeo con il suo voto di oggi ha mandato un segnale chiaro all’Italia e a tutti i Paesi che pianificano di investire risorse pubbliche in sistemi dalla dubbia efficacia e potenzialmente lesivi dei diritti dei cittadini. Se, come ci auguriamo, le disposizioni contenute nel regolamento sull’intelligenza artificiale approvato oggi verranno mantenute anche dopo il Trilogo, sistemi di polizia predittiva come quello su cui sta lavorando il Dipartimento di Pubblica sicurezza del Ministero dell’Interno potrebbero diventare illegali fra un anno. Chiediamo quindi al Governo e al Ministero di allinearsi alla direzione presa dall’Unione europea, onde evitare di sprecare risorse che potrebbero essere investite per progetti di vero interesse pubblico».

È importante anche ricordare che l’Unione Europea è pronta a lanciare Itflows, il software che impiega l’intelligenza artificiale per prevedere i flussi migratori. Il progetto sostenuto con i fondi di Horizon 2020, ha degli elevati profili di rischio, come evidenziato, tra gli altri, anche da Access Now.

Fare pressione sulle istituzioni per allargare e rafforzare le tutele è ancora possibile, in vista del Trilogo che seguirà l’approvazione. La campagna #DontSpyEU offre la possibilità di sensibilizzare sul tema sia i privati cittadini che i diretti interessati, ovvero parlamentari, ministri e rappresentanti delle istituzioni europee che prenderanno parte alle prossime negoziazioni.