Triloghi UE: l’AI Act deve garantire il rispetto dei diritti del cittadino

Hermes Center, insieme ad oltre 150 organizzazioni della società civile, ha sottoscritto la seguente dichiarazione sui diritti fondamentali nel Regolamento sull’Intelligenza Artificiale dell’Unione Europea.

Riportamo di seguito la traduzione italiana, potete leggere l’originale sul sito di Edri – European Digital Rigths.

Mentre prendono il via le negoziazioni (triloghi[1]) tra le istituzioni dell’Unione Europea, la società civile si appella a dette istituzioni per assicurarsi che il Regolamento sull’Intelligenza Artificiale (AI Act) metta al primo posto il cittadino e i suoi diritti fondamentali.

In Europa e nel resto del mondo i sistemi d’intelligenza artificiale vengono impiegati anche per monitorare e controllare la cittadinanza negli spazi pubblici, prevedere con quanta probabilità un crimine si verifichi, facilitare violazioni del diritto di richiesta d’asilo, prevedere le emozioni dei cittadini categorizzandoli, e infine per prendere decisioni cruciali per l’accesso ai servizi pubblici, al welfare, all’istruzione e al lavoro.

In assenza di norme restrittive, governi e privati continueranno a ricorrere a sistemi d’intelligenza artificiale in grado di rafforzare la sorveglianza di massa, la discriminazione strutturale, il potere centralizzato delle grandi multinazionali tecnologiche (big tech), le amministrazioni irresponsabili e i danni ambientali.

Ci appelliamo alle istituzioni europee affinché garantiscano che l’utilizzo e lo sviluppo dell’intelligenza artificiale avvengano in modo responsabile e pubblicamente trasparente e affinché la cittadinanza sia incoraggiata a metterne in discussione i rischi.

1. Garantire supporto ai soggetti interessati attraverso un quadro normativo di responsabilità, trasparenza, accessibilità e ricorso

È fondamentale che l’AI Act incoraggi la cittadinanza e i soggetti d’interesse pubblico a comprendere, identificare e mettere in discussione le violazioni di diritti fondamentali legate all’impiego dei sistemi d’intelligenza artificiale, presentando ricorso qualora fosse necessario. Per fare ciò, è importante che l’AI Act fornisca un quadro normativo di responsabilità, trasparenza, accessibilità e ricorso. Il quadro deve includere:

  • Obbligo per tutti i deployer di sistemi AI, sia pubblici che privati, di condurre e pubblicare una valutazione dell’impatto sui diritti fondamentali prima di ogni utilizzo di sistemi “ad alto rischio”; i deployer sono tenuti a coinvolgere nella procedura anche la società civile e i soggetti interessati da queste tecnologie;
  • Obbligo per tutti gli utilizzatori (user) di sistemi ad alto rischio e di tutti i sistemi all’interno della sfera pubblica di registrarsi sul database pubblico dell’Unione Europea prima dell’utilizzo;

Il quadro deve inoltre garantire quanto segue:

  • che i fornitori (provider) con sede nell’Unione Europea, i cui sistemi AI siano rivolti a soggetti al di fuori dell’UE, rispettino gli stessi requisiti;
  • che tutti i sistemi d’intelligenza artificiale presentino accessibilità integrata e orizzontale;
  • che i soggetti interessati dai sistemi d’intelligenza artificiale vengano notificati e abbiano il diritto di chiedere informazioni qualora coinvolti nelle decisioni elaborate e negli esiti ottenuti per mezzo di AI;
  • che i soggetti interessati dai sistemi d’intelligenza artificiale abbiano il diritto di sporgere denuncia presso le autorità nazionali se i loro diritti sono stati violati dall’utilizzo di un sistema AI;
  • che le organizzazioni d’interesse pubblico sporgere denunce presso le autorità nazionali, sia in rappresentanza dei cittadini che in modo autonomo;

–             che venga incluso il diritto al ricorso effettivo in caso di violazione dei diritti.

2. Porre limitazioni alla sorveglianza di massa dannosa e discriminatoria da parte delle autorità preposte alla sicurezza nazionale, delle forze dell’ordine e delle Autorità competenti in materia di migrazione

Sempre più di frequente, alcuni sistemi d’intelligenza artificiale vengono sviluppati per servire forme dannose e discriminatorie di sorveglianza di stato. Sistemi di questo genere prendono già di mira, in larga misura, le comunità marginalizzate e ne minacciano i diritti legali e procedurali, contribuendo anche alla sorveglianza di massa. Quando certi sistemi d’intelligenza artificiale vengono impiegati nei contesti di sicurezza (interna e nazionale) e controllo dei flussi migratori, il rischio di violazioni della legge e dei diritti fondamentali aumenta. Per mantenere il controllo pubblico e prevenire eventuali danni, l’AI Act deve includere:

  • Divieto assoluto per tutti, senza eccezioni, dell’utilizzo negli spazi pubblici dei sistemi di riconoscimento biometrico, sia in tempo reale che a posteriori (ex post);
  • Divieto per le forze dell’ordine e per le autorità giudiziarie di ricorrere ai sistemi predittivi e di profilazione; il divieto include i sistemi che prendono di mira specifici individui, gruppi e aree geografiche;
  • Divieto dell’utilizzo di sistemi d’intelligenza artificiale in contesti migratori allo scopo di profilare individualmente i soggetti interessati e valutarne la pericolosità sulla base di dati personali sensibili; divieto dell’utilizzo di sistemi analitici predittivi qualora questi vengano utilizzati per vietare, limitare e prevenire i flussi migratori;
  • Divieto dell’utilizzo di sistemi di categorizzazione biometrica in grado di categorizzare le persone in base ad attributi sensibili o protetti; divieto di ricorrere ai suddetti sistemi e ai sistemi di rilevazione automatizzata del comportamento negli spazi pubblici;
  • Divieto dell’utilizzo di sistemi di riconoscimento emotivo per dedurre le emozioni e le condizioni mentali delle persone.

L’AI Act è inoltre tenuto a respingere:

  • L’aggiunta da parte del Consiglio dell’esenzione dalle norme dell’AI Act dei sistemi d’intelligenza artificiale sviluppati e/o impiegati per scopi di sicurezza nazionale;
  • Eccezioni e “scappatoie” (loopholes) proposte dal Consiglio per le forze dell’ordine e le autorità preposte al controllo dei flussi migratori.

Infine, l’AI Act deve

  • Garantire trasparenza pubblica sull’utilizzo dei sistemi d’intelligenza artificiale ad alto rischio da parte degli organi pubblici, sia nel contesto della sicurezza interna (forze dell’ordine), sia nel contesto migratorio,
  • respingendo qualsiasi richiesta d’uso delle eccezioni all’obbligo di registrazione dell’utilizzo di sistemi AI ad alto rischio all’interno del database dell’Unione Europea.

3. Respingere l’attività di lobbying delle multinazionali del settore tech (big tech) rimuovendo le scappatoie che minacciano il Regolamento

L’AI Act ha il dovere di fornire standard applicativi chiari e legalmente definiti, nel caso risulti necessario far rispettare il Regolamento. Lo stesso deve mantenere una procedura obiettiva per determinare i sistemi ad alto rischio ed eliminare qualsiasi “categoria ulteriore” aggiunta al processo di classificazione ad alto rischio. Aggiunte di questo tipo permetterebbero agli sviluppatori dei sistemi d’intelligenza artificiale, senza responsabilità e non sottoposti a controlli, di determinare se i propri sistemi pongono rischi abbastanza “significativi” da richiedere scrutinio legale da parte del Regolamento. Una classificazione del rischio così soggettiva rischia di invalidare l’intero AI Act, passando all’autoregolamentazione, presentando sfide insormontabili in materia di applicazione e armonizzazione e incoraggiando le grandi imprese a sottoclassificare i propri sistemi AI.

Le parti negozianti dell’AI Act non devono rinunciare a contrastare i tentativi di lobbying da parte delle multinazionali, che puntano alla circonvenzione delle norme nel proprio interesse economico. L’AI Act deve:

  • Rimuovere l’aggiunta fatta all’Articolo 6, relativa alla procedura di classificazione del rischio, e sostituirla con la versione originale presentata davanti alla Commissione Europea, che delineava la procedura in modo chiaro e obiettivo;
  • Garantire che i provider di sistemi AI a scopo generico siano soggetti a una serie di obblighi ben definiti sotto l’AI Act, evitando che i piccoli provider subiscano le conseguenze di obblighi più adatti alle multinazionali.

[1]   Il Parlamento Europeo, il Consiglio dell’Unione Europea e la Commissione Europea prendono parte a negoziazioni inter-istituzionali, dette “triloghi”, per raggiungere un accordo provvisorio sulla proposta legislativa in questione, in modo che sia accettabile sia per il Parlamento che per il Consiglio.

Riconoscimento facciale: il divieto nei luoghi pubblici durerà fino al 2025. Preoccupano le eccezioni

I diritti digitali dei cittadini italiani verranno rispettati, almeno per quanto riguarda la sorveglianza attiva: il divieto delle tecnologie di riconoscimento facciale sarà infatti prolungato per i prossimi due anni (fino al 31/12/2025). Il riconoscimento facciale era già vietato in Italia dalla fine del 2021, grazie ad una moratoria che prevedeva una “sospensione” dell’utilizzo di questi sistemi negli spazi pubblici fino al 31 dicembre 2023, nell’attesa che l’Unione Europea arrivasse a un accordo ben definito in materia.

Adesso però è ufficiale: l’emendamento (decreto legge 51 del 2023) presentato alla Camera dai deputati PD Marianna Madia, Lia Quartapelle e Filiberto Zaratti è stato votato dalla maggioranza nella giornata di giovedì 22 giugno. L’Italia sembra comprendere i rischi associati all’impiego delle tecnologie di riconoscimento biometrico nei luoghi pubblici urbani, anche se la moratoria attuale prevede delle preoccupanti eccezioni.

Infatti, se è vero che le amministrazioni comunali sono soggette al via libera del Garante della Privacy, lo stesso non si può dire delle autorità giudiziarie (stando a un inciso del comma 12 della legge). Cosa succederebbe se le suddette autorità decidessero quindi di installare telecamere di videosorveglianza biometrica in una piazza, ad esempio? Le implicazioni sono molteplici.

Laura Carrer, del board della nostra associazione, aveva già provato a rispondere alla domanda su Wired:

«Stando alla moratoria attuale, un pm potrebbe richiedere l’impiego di un sistema di riconoscimento facciale per verificare l’identità di alcune persone che si incontrano con un indagato mentre è in una piazza pubblica, dove transitano centinaia di persone estranee all’indagine, ma i cui dati biometrici vengono raccolti e analizzati».

Wired Italia, 06.12.2021

Tecnologie di questo tipo sono già utilizzate in alcuni Stati extraeuropei, tra cui Cina e Iran. Negli ultimi anni, i cittadini di questi e altri Paesi hanno potuto sperimentare sulla propria pelle l’invasività e la pericolosità della videosorveglianza di massa. Si va dal cosiddetto chilling effect, che impedisce all’individuo che sa di essere controllato di esprimersi liberamente, all’arresto vero e proprio di coloro che vengono filmati in atteggiamenti illeciti – in Iran, le donne che non indossano il velo, per esempio. Va da sé che anche la libertà di aggregazione e quindi di manifestazione verrebbero minacciate.

Noi, assieme a Edri – European Digital Rights e alla coalizione Reclaim Your Face, continuiamo a batterci per un divieto assoluto dei sistemi di riconoscimento biometrico, senza eccezioni. Nel frattempo, ci auguriamo che anche a livello europeo con l’AI Act, il regolamento sull’intelligenza artificiale, vengano prese decisioni a tutela della libertà del cittadino.

Approvato il regolamento sull’intelligenza artificiale al Parlamento Europeo. Bene il divieto di riconoscimento biometrico, ma andrebbe esteso anche ai migranti.

14 giu – Hermes Center, The Good Lobby Italia e info.nodes, le organizzazioni che hanno lanciato la campagna #DontSpyEU, si dichiarano complessivamente soddisfatte del testo dell’AI Act appena approvato dal Parlamento Europeo.

Il regolamento sull’intelligenza artificiale, che dovrebbe entrare in vigore l’anno prossimo, prevede il divieto di utilizzare i sistemi di riconoscimento biometrico negli spazi pubblici urbani. Il voto in plenaria di questa mattina ha infatti bloccato le istanze contrarie al divieto di EPP, ECR e ID, accogliendo invece le richieste di molte organizzazioni europee per la tutela dei diritti digitali.

L’impiego dei sistemi di riconoscimento biometrico nei luoghi pubblici presenta risvolti pericolosi e antidemocratici, come evidenzia la campagna #DontSpyEU, che consente provocatoriamente di applicare algoritmi di riconoscimento sui volti degli europarlamentari e diffondere i risultati ottenuti al fine di sensibilizzare il pubblico sui rischi di queste tecnologie, a partire proprio dei decisori che sono chiamati a decidere in materia.

La vittoria di oggi a Strasburgo è tuttavia da considerarsi parziale: non sono state infatti aggiunte alcune clausole importanti. Con il testo confermato oggi, l’AI Act non tutela gli individui «in transito» ai confini europei dall’invasività delle tecnologie di videosorveglianza biometrica. Gli europarlamentari avevano l’occasione di includere all’interno della «categoria protetta» anche migranti, profughi e richiedenti asilo, ma hanno deciso di non farlo. La stessa Amnesty si dichiara insoddisfatta della scelta in un tweet di oggi pomeriggio.

C’è di più: sebbene i sistemi di riconoscimento facciale siano stati dichiarati ancora una volta illegali negli spazi pubblici, le forze dell’ordine avrebbero comunque accesso, sotto approvazione giudiziaria, alle registrazioni delle telecamere di sorveglianza. Ciò potrà avvenire soltanto nel caso di «gravi crimini», ma l’abuso di tali strumenti rimane un rischio che i cittadini europei – e non solo – non dovrebbero correre.

Come sottolinea Claudio Agosti, attivista e membro di Hermes Center «Siamo contenti che il Parlamento abbia deciso di vietare i sistemi di riconoscimento biometrico negli spazi pubblici, ma riteniamo inaccettabile che i migranti siano stati volutamente esclusi dalle tutele».

Anche per Davide Del Monte, presidente di info.nodes «l’esclusione dei migranti dalle tutele poste dall’AI Act è un fatto molto grave: la stessa Europa che vuole promuovere i valori universali di inclusività, solidarietà e giustizia sociale non può differenziare tra esseri umani di serie A, da tutelare, e altri di serie B, su cui testare tecnologie lesive di quelli che, giustamente, ritiene diritti fondamentali».

Martina Turola di The Good Lobby Italia aggiunge: «il Parlamento europeo con il suo voto di oggi ha mandato un segnale chiaro all’Italia e a tutti i Paesi che pianificano di investire risorse pubbliche in sistemi dalla dubbia efficacia e potenzialmente lesivi dei diritti dei cittadini. Se, come ci auguriamo, le disposizioni contenute nel regolamento sull’intelligenza artificiale approvato oggi verranno mantenute anche dopo il Trilogo, sistemi di polizia predittiva come quello su cui sta lavorando il Dipartimento di Pubblica sicurezza del Ministero dell’Interno potrebbero diventare illegali fra un anno. Chiediamo quindi al Governo e al Ministero di allinearsi alla direzione presa dall’Unione europea, onde evitare di sprecare risorse che potrebbero essere investite per progetti di vero interesse pubblico».

È importante anche ricordare che l’Unione Europea è pronta a lanciare Itflows, il software che impiega l’intelligenza artificiale per prevedere i flussi migratori. Il progetto sostenuto con i fondi di Horizon 2020, ha degli elevati profili di rischio, come evidenziato, tra gli altri, anche da Access Now.

Fare pressione sulle istituzioni per allargare e rafforzare le tutele è ancora possibile, in vista del Trilogo che seguirà l’approvazione. La campagna #DontSpyEU offre la possibilità di sensibilizzare sul tema sia i privati cittadini che i diretti interessati, ovvero parlamentari, ministri e rappresentanti delle istituzioni europee che prenderanno parte alle prossime negoziazioni.

AI Act: non accetteremo nessun passo indietro sul divieto al riconoscimento biometrico negli spazi pubblici.

Nonostante l’ultima bozza di legge dell’AI Act preveda il ban assoluto dei sistemi di riconoscimento biometrico negli spazi pubblici urbani, c’è la possibilità che i prossimi triloghi al Parlamento Europeo, in programma a breve, ribaltino la situazione.

Sono trascorsi più di due anni dalla prima presentazione ufficiale dell’AI Act, il regolamento che – se approvato dall’Unione Europea – normerà l’utilizzo dell’intelligenza artificiale in tutti gli Stati Membri. Si teme però che l’effettiva entrata in vigore possa essere ulteriormente rimandata rispetto ai termini sperati, cioè la fine di quest’anno, prima delle elezioni 2024.

«Ci vorrà almeno un anno, se non due, all’entrata in vigore dell’AI Act» ha dichiarato in un’intervista a Bruxelles Margrethe Vestager, vicepresidente della Commissione europea e Commissario europeo per la concorrenza. Il testo, ultimato a fine aprile e votato al Parlamento europeo l’11 maggio scorso, attende ancora la plenaria di settimana prossima (13 giugno) a Strasburgo.

Nel frattempo, Vestager si augura di «arrivare al primo trilogo prima dell’estate, in modo da ottenere un risultato significativo entro la fine del 2023». È pur sempre vero che si tratta del primo regolamento dedicato all’intelligenza artificiale, tecnologia in costante evoluzione, anche se chi vende e lavora con questa tecnologia è già soggetto, in teoria, alla legislazione europea in materia di diritti fondamentali, tutela dei consumatori e sicurezza dei prodotti.

A rallentare il percorso legislativo dell’AI Act sono alcuni punti “spinosi”, già in precedenza oggetto di contestazioni, come l’impiego dell’AI nei sistemi di riconoscimento biometrico. Queste tecnologie funzionano grazie ad algoritmi in grado di riconoscere e identificare un individuo a partire dai cosiddetti “dati biometrici”, ovvero impronta digitale, immagine facciale, voce, DNA e altre caratteristiche uniche per ognuno di noi.

Cosa accadrebbe se istituzioni e/o privati entrassero in possesso delle informazioni sensibili raccolte tramite reti di videosorveglianza poste in aree pubbliche? Sono numerosi i precedenti, fuori dall’Europa, che fanno riflettere sui risvolti antidemocratici di questo ipotetico scenario. Sia i recenti arresti in Iran sia le incursioni della polizia statunitense nelle case dei manifestanti BLM nel 2020, infatti, sono una diretta conseguenza dell’identificazione biometrica.

Insieme a info.nodes e The Good Lobby Italia abbiamo lanciato, la campagna Don’t Spy On Us EU”, volta a sensibilizzare gli europarlamentari rispetto al proprio voto sull’AI Act. Presentato poco prima della seduta dell’11 maggio, il sito è unico nel suo genere: sulla piattaforma è possibile sottoporre i volti degli europarlamentari a un algoritmo di riconoscimento facciale e generare deepfakes, con tanto di premi per le proposte migliori.

La nostra richiesta è chiara e semplice: vogliamo che le tecnologie di riconoscimento biometrico siano vietate negli spazi pubblici delle nostre città.

La bozza attuale dell’AI Act (consultabile a questo link) sembra essere in linea con le istanze presentate dalle organizzazioni europee impegnate nella tutela dei diritti digitali del cittadino – tra cui, oltre a noi, EDRi – European Digital Rights, la più importante rete europea in questo settore. L’ultimo voto ha infatti confermato il divieto assoluto dell’utilizzo di tecnologie di riconoscimento biometrico negli spazi pubblici urbani. È una promessa? Si vedrà nella prossima plenaria e soprattutto nei successivi triloghi.

Per questo continueremo a monitorare l’iter dell’AI Act e a fare pressione sulle istituzioni europee, perché non cedano su questo punto per noi cruciale in termini di libertà e tenuta democratica.

La moratoria sul riconoscimento facciale approvata ieri in Italia ci ricorda perché dobbiamo chiedere un divieto

La moratoria sul riconoscimento facciale approvata in Italia ci ricorda perché dobbiamo chiedere un divieto

Ieri, 1 dicembre 2021, il Parlamento italiano ha introdotto una moratoria sui sistemi di videosorveglianza che impiegano tecnologie di riconoscimento facciale.

Questa legge introduce per la prima volta in uno stato membro dell’Unione Europea una moratoria sull’impiego di questi sistemi in luoghi pubblici o aperti al pubblico, e riguarda alcune autorità pubbliche e tutti i soggetti privati. Questa moratoria è un risultato importante perché pone l’attenzione sui pericoli per i diritti e le libertà delle persone derivanti dall’uso indiscriminato di tecnologie come il riconoscimento facciale. La durata prevista della moratoria è fino al 31 dicembre 2023, a meno che non sia introdotta una nuova legge sul tema della sorveglianza biometrica.

I soggetti privati come ad esempio negozi, palazzetti sportivi e mezzi di trasporto non potranno utilizzare sistemi di videosorveglianza con riconoscimento facciale. Si tratta di un importante successo per la coalizione italiana di Reclaim Your Face che nell’ultimo anno ha chiesto di vietare questo tipo di tecnologie a livello europeo. Nella coalizione italiana, insieme al Centro Hermes, ci sono anche Associazione Luca Coscioni, Certi Diritti, CILD, Eumans, info.nodes, The Good Lobby, Privacy Network, Progetto Winston Smith, e StraLi. 

Il nodo irrisolto

Allo stesso tempo, però, questa moratoria costringe l’Italia a fare un notevole passo indietro per quanto riguarda l’uso di queste tecnologie da parte delle autorità giudiziarie e dei pubblici ministeri.

Fino a questo momento, le autorità di polizia e quelle giudiziarie (inclusi i pubblici ministeri) previste nel decreto legislativo 18 maggio 2018, n. 51 avrebbero dovuto chiedere un parere al Garante privacy prima di utilizzare tecnologie come il riconoscimento facciale poiché implicano il trattamento di dati personali che possono avere un grave impatto sui diritti e sulle libertà dei cittadini. Con le modifiche introdotte con questa moratoria, l’autorità di polizia giudiziaria e il pubblico ministero sono invece esentati da questo tipo di controllo preventivo.

Questa modifica è ancor più grave se si tiene in considerazione il fatto che il codice di procedura penale non contiene dettagli e specifiche per l’impiego di sistemi di riconoscimento facciale: non vi sono distinzioni sulle tipologie di reato per cui possono essere impiegati né dettagli sulla durata dell’impiego di queste tecnologie. Ciò significa che potremmo trovarci nella situazione in cui un pubblico ministero richiede l’impiego di un sistema di riconoscimento facciale in tempo reale per verificare l’identità delle persone che si incontrano con una persona indagata mentre questa è in una piazza pubblica, dove transitano altre centinaia di persone che nulla hanno a che vedere con l’indagine ma i cui dati biometrici vengono comunque raccolti e analizzati dal sistema di riconoscimento facciale. 

Come siamo arrivati qui

Il Garante privacy ha già sottolineato la pericolosità del riconoscimento facciale in tempo reale nel suo parere al Ministero dell’Interno: l’uso del riconoscimento facciale e di altre identificazioni biometriche negli spazi pubblici costituisce una sorveglianza di massa, anche quando le autorità stanno cercando individui specifici presenti in una watch-list. Questo perché, come hanno sottolineato il Garante europeo della protezione dei dati (GEPD) e il Comitato europeo per la protezione dei dati (EDPB), i dati personali e la privacy di chiunque passi in quello spazio sono indebitamente violati da tale sorveglianza.

Di fatto, questa legge segue e porta agli estremi quanto previsto dal regolamento proposto dalla Commissione Europea sull’intelligenza artificiale (AI Act) che pur introducendo la possibilità di vietare tecnologie di sorveglianza biometrica crea ampie eccezioni per quanto riguarda le attività di polizia e giudiziarie. 

Come ricordato dalla recente lettera di EDRi firmata insieme a 119 associazioni, le eccezioni previste nell’AI Act “minano i requisiti di necessità e proporzionalità della Carta dei diritti fondamentali dell’UE e dovrebbero essere rimosse.”

Inoltre, recentemente sono trapelate le intenzioni del Consiglio dell’Unione Europea di rendere possibile ad attori privati di operare sistemi di sorveglianza biometrica di massa per conto delle forze di polizia, e di estendere gli scopi per cui tali sistemi possono essere utilizzati nell’ambito della proposta di legge sull’intelligenza artificiale dell’UE. I piani sono delineati in un rapporto sullo stato di avanzamento delle discussioni pubblicato da Statewatch

Un piccolo passo indietro è stato fatto quindi anche in Italia con le eccezioni concesse alle autorità di polizia giudiziaria e ai pubblici ministeri. La moratoria adottata oggi è comunque un risultato importante, che ci ricorda ancora di più però come l’unica soluzione accettabile sia ottenere il divieto di utilizzo di tutte le tecnologie per la sorveglianza biometrica nei confronti di tutti i soggetti, e non solo limitato al riconoscimento facciale. 

Per questo, con la campagna Reclaim Your Face continuiamo a chiedere a gran voce il ban di queste tecnologie. Firma anche tu la petizione!