La proposta di Regolamento sull’AI della Commissione Europea dimostra esattamente il motivo per cui chiediamo un divieto della sorveglianza biometrica di massa

Ieri la Commissione Europea ha presentato una proposta di Regolamento per l’Intelligenza Artificiale (AI) che sottolinea i rischi della sorveglianza biometrica di massa, e propone una nuova regolamentazione per vietare l’uso da parte delle forze dell’ordine di alcune di queste tecnologie —un piccolo passo nella giusta direzione.

In particolare, siamo lieti di vedere che la Commissione riconosca che la sorveglianza biometrica di massa ha un impatto altamente invasivo sui diritti e le libertà delle persone, così come il fatto che l’uso di queste tecnologie possa “influenzare la vita privata di una grande parte della popolazione ed evocare una sensazione di sorveglianza costante (…)“. Questi sono esattamente i motivi che hanno spinto la coalizione Reclaim Your Face a battersi per vietare la sorveglianza biometrica con una campagna pubblica, e dimostra che i nostri punti hanno colpito nel segno.

Purtroppo, però, siamo delusi perché la proposta odierna non fa abbastanza per proteggere le persone da molteplici tipologie di sorveglianza biometrica di massa che abbiamo già visto in azione in Europa. Come risultato la proposta si contraddice, permettendo alcune forme di sorveglianza biometrica di massa che però riconosce essere incompatibili con i nostri diritti fondamentali e con le libertà protette in Europa!

In particolare, la proposta vieta “l’identificazione biometrica da remoto” in “real-time” per finalità di sicurezza. Eppure, riteniamo ci siano ancora grossi problemi:

  • La formulazione è spesso vaga e contiene diversi elementi definiti in maniera poco precisa, lasciando ampio spazio di interpretazione e discrezione. Ciò riproduce molti dei problemi già esistenti nelle leggi sulla protezione dei dati personali che ci hanno portato a chiedere un divieto esplicito;
  • Il divieto si applica solo alle forze dell’ordine, ma non proibisce usi altrettanto invasivi e pericolosi da parte di altre autorità governative e di aziende private, che costituiscono comunque una sorveglianza biometrica di massa;
  • Il divieto per le forze dell’ordine presenta molte eccezioni definite in modo troppo ampio e che quindi potrebbero seriamente minarne lo scopo. In questo modo si lascia ampio spazio per una sorveglianza biometrica di massa continuativa dello spazio pubblico da parte delle autorità di polizia;
  • È vietata solo l’identificazione in “real-time” a fini di sicurezza. È quindi ancora possibile identificare persone dopo che le immagini sono state registrate (il riferimento nel regolamento a “post”, quindi dopo che un evento è avvenuto)—ciò vuol dire, per esempio, che la polizia potrebbe ancora usare il database di Clearview AI;
  • Tutte le altre pratiche di identificazione biometrica—inclusa quella spesso considerata psuedo-scientifica e altamente discriminatoria della “categorizzazione” biometrica—non sono vietate dalla proposta.

La coalizione Reclaim Your Face, composta al momento da 60 associazioni e gruppi che si occupano di diritti umani digitali e di giustizia sociale in tutta Europa, è nata a ottobre 2020 proprio per opporsi alla sorveglianza biometrica di massa in Europa. La coalizione ha sottolineato che questa pratica è invasiva, discriminatoria e antidemocratica.

Se l’Europa non vieterà la sorveglianza biometrica, il rischio di sorveglianza di massa nelle nostre città sarà estremamente reale. La tecnologia non può avere il potere di definire chi siamo, nè di controllarci. Privacy significa potere. Reclamare il possesso delle nostre città e degli spazi pubblici è il primo step per riappropriarci della nostra faccia.
Laura Carrer – Hermes Center for Transparency and Digital Rights

Dal riconoscimento facciale nei parchi e nelle scuole, alla biometria “intelligente” per sorvegliare i manifestanti, fino alla sorveglianza sistemica e oppressiva di gruppi emarginati della popolazione, per noi non c’è posto nelle nostre società per tecnologie biometriche che ci trasformano tutti in sospetti criminali. Le prove raccolte dalle nostre associazioni hanno rivelato che gli attuali abusi sono vasti e sistemici, e la nostra analisi ha dimostrato che l’unico modo per proteggere i diritti delle persone in Europa è quello di vietare queste pratiche. Non dovremmo essere costretti a guardarci le spalle ovunque andiamo.

Qui c’è l’analisi iniziale di EDRi sull’intera proposta di Regolamento— incluse le preoccupazioni per altri casi d’uso che sarebbero dovuti essere vietati ma così non è stato – e disposizioni che permettono a chi sviluppa sistemi di AI di farsi una auto-valutazione.

Per firmare la petizione: https://reclaimyourface.eu/it/  

Primi importanti risultati a due mesi dal lancio di Riprenditi la Faccia

La scorsa settimana abbiamo raggiunto e superato due importanti obiettivi nazionali della campagna contro l’utilizzo di tecnologie biometriche nello spazio pubblico Europeo.

Nella giornata di venerdì 16 aprile il Garante Privacy ha definito il sistema di riconoscimento facciale SARI Real Time, così come progettato, una possibile forma di sorveglianza ed identificazione di massa che non può essere utilizzata dal Ministero dell’Interno. Il Garante ha analizzato la valutazione d’impatto presentata dal Ministero e ha sottolineato come, allo stato attuale, non vi sia una base legale che autorizzi il trattamento di dati biometrici previsto dal sistema SARI.

La decisione, anche se arrivata dopo tre anni dall’apertura dell’istruttoria nata a seguito della pubblicazione di un articolo, è di grande importanza perché vieta l’utilizzo di tecnologie biometriche discriminanti e poco accurate da parte delle forze dell’ordine su tutti i cittadini. 

“Va considerato, in particolare, – afferma il Garante – che Sari Real Time realizzerebbe un trattamento automatizzato su larga scala che può riguardare anche persone presenti a manifestazioni politiche e sociali, che non sono oggetto di “attenzione” da parte delle forze di Polizia. Ed anche se nella valutazione di impatto presentata il Ministero spiega che le immagini verrebbero immediatamente cancellate, l’identificazione di una persona sarebbe realizzata attraverso il trattamento dei dati biometrici di tutti coloro che sono presenti nello spazio monitorato, allo scopo di generare modelli confrontabili con quelli dei soggetti inclusi nella “watch-list”.

Per il Garante questo tipo di sorveglianza biometrica porterebbe “dalla sorveglianza mirata di alcuni individui alla possibilità di sorveglianza universale allo scopo di identificare alcuni individui.” L’autorità però non si è limitata solo a questa valutazione ma ha sottolineato anche alcuni aspetti critici da tenere in considerazione per qualunque norma futura che regoli il riconoscimento facciale: dai “criteri di individuazione dei soggetti che possano essere inseriti nella watch-list o quelli per determinare i casi in cui può essere utilizzato il sistema” alle “eventuali conseguenze per gli interessati in caso di falsi positivi”— inclusi anche i rischi nei confronti di persone appartenenti a minoranze etniche.

Solo due giorni prima, mercoledì 14 aprile, c’è stata anche una prima risposta da parte della politica italiana al tema del riconoscimento facciale negli spazi pubblici: il deputato Filippo Sensi ha infatti depositato una proposta di legge per una moratoria sull’utilizzo di queste tecnologie. Nella proposta si fa riferimento ad una sospensione fino al 31 dicembre 2021 in attesa di un adeguato quadro legislativo a supporto. Indicazioni si aspettano anche il 21 aprile, quando l’Unione Europea si esprimerà nella tanto attesa normativa sull’IA. 

Il Centro Hermes seguirà certamente l’iter di legge puntando l’attenzione soprattutto su due punti: 

  • L’utilizzo di qualsiasi tecnologia di sorveglianza biometrica di massa deve essere vietato all’interno dello spazio pubblico europeo; 
  • Non devono essere fatte eccezioni per i sistemi utilizzati dalle forze dell’ordine. 

Il nostro lavoro in questo senso continua e sabato 17 aprile siamo stati ospiti di SkyTg24 proprio con un componente del Garante Privacy, l’onorevole Filippo Sensi e Privacy Network, associazione che supporta la campagna Riprenditi la Faccia. Sulla base della decisione contraria del Garante Privacy in merito a SARI Real Time, ci è stato assicurato che i 287 comuni che hanno ricevuto finanziamenti dal Ministero dell’Interno per installare nuovi impianti di videosorveglianza non potranno utilizzare tecnologie biometriche. 

 

Per firmare la petizione ed essere aggiornati sulla campagna, che ha già raggiunto quasi 50.000 persone in Europa: https://reclaimyourface.eu/it/ 

 

 

Aziende, scuole, aeroporti e piazze: il riconoscimento facciale è ovunque. E sorveglia i cittadini europei

Spesso sentiamo dire: “Riconoscimento facciale sui cittadini? Solo in Cina, l’Unione Europea è un insieme di paesi democratici. Non potrà mai succedere a noi.

Sfortunatamente, però, sta già succedendo. Di seguito puoi leggere alcuni esempi che documentano una rapida propagazione di sistemi di sorveglianza biometrica in molti paesi europei.

Qual è (l’unico) aspetto positivo? Che possiamo ancora fermarla. 

Negli ultimi anni, governi ed aziende private hanno spinto per installare o sperimentare tecnologie di sorveglianza che collezionano e processano i nostri dati personali, dati unici sui nostri corpi e i nostri comportamenti durante la nostra vita quotidiana. Questa per noi è sorveglianza di massa.

Nonostante l’Unione Europea dica che esistono già leggi che possano prevenire la sorveglianza dei cittadini, è chiaro che ci troviamo davanti a cavilli legislativi che permettono la sperimentazione di tecnologie biometriche che violano i diritti umani e vengono impiegate su tutti noi. Gli esempi parlano da soli. 

In Germania, la polizia ha sperimentato la sorveglianza biometrica di massa sulle persone che attraversavano la stazione Südkreuz di Berlino e ha sorvegliato i manifestanti del G20 ad Amburgo. Inoltre, è stato dimostrato che la famigerata società di riconoscimento facciale ClearviewAI ha raccolto illegalmente e utilizzato i volti delle persone che vivono in Germania da Internet.

In Austria, la polizia ha usato un software per il riconoscimento facciale in una fase di test a partire da dicembre 2019. Inizialmente, il Ministero dell’Interno aveva dichiarato che il confronto dei volti con il loro database sarebbe stato effettuato solo per indagare reati gravi, come ad esempio rapine in banca o omicidi. Invece, le risposte ad alcune interrogazioni parlamentari hanno rivelato un quadro completamente diverso. Nel 2020 il software è stato usato per 931 casi di reati in soli 10 mesi, inclusi reati minori. Stiamo parlando di circa tre ricerche al giorno. Ad agosto 2020 il sistema è entrato ufficialmente in funzione. Poco dopo, a settembre, i giornali hanno rivelato che il sistema è stato utilizzato dalla polizia per individuare persone che hanno partecipato a una manifestazione.

In Repubblica Ceca, la polizia ha acquistato il software di riconoscimento facciale Cogniware in grado di prevedere emozioni e genere e collegare ogni persona con le proprie informazioni finanziarie, i dati del telefono, l’auto che si guida, il posto di lavoro, i colleghi di lavoro, chi incontrano, i luoghi che visitano e cosa acquistano. Inoltre, l’aeroporto della capitale di Praga sta anche effettuando un ampio monitoraggio biometrico di tutte le persone, senza valutare i rischi, come la legge prevede.

Passando all’Italia, siamo rimasti davvero increduli nell’apprendere che la città di Como aveva segretamente installato, sulle videocamere di sorveglianza esistenti, un sistema di riconoscimento facciale real time allo scopo di … rilevare azioni di “vagabondaggio” e “sconfinamento”. L’aeroporto di Roma ha deciso invece di utilizzare il riconoscimento facciale per la gestione delle code. C’è di più: la polizia italiana ha in programma di espandere il proprio sistema di riconoscimento facciale per monitorare l’arrivo di migranti e richiedenti asilo sulle coste italiane, proprio come ha dichiarato in passato di essere disposta a utilizzare il riconoscimento facciale per monitorare i manifestanti

Per quanto riguarda la Grecia, un dato è certo: sappiamo che con l’Italia non condivide solo il Mediterraneo ma anche lo stesso amore delle autorità nazionali per il riconoscimento facciale di massa. L’esperimento distopico iBorderCTRL è un cosiddetto “rilevatore di bugie” che potrebbe capire se una persona mente in base alle proprie espressioni facciali. Inoltre, la polizia greca è stata colta in flagrante con un contratto di riconoscimento facciale “intelligente” da 4 milioni di euro rivelato nel 2020. Ora, l’autorità greca per la protezione dei dati ha iniziato a indagare sulla polizia greca per l’archiviazione e l’elaborazione illegali dei dati biometrici dei cittadini greci in enormi database centralizzati.

Nei Paesi Bassi, le aziende hanno introdotto tecnologie per la sorveglianza biometrica di massa come il riconoscimento facciale in tempo reale all’interno di palazzetti dello sport e per eventi come i concerti, nei negozi/supermercati e sui mezzi del trasporto pubblico. Le aziende sono state così aggressive nell’introduzione di queste tecnologie di sorveglianza che l’Autorità per la protezione dei dati olandese gli ha dovuto ricordare che queste pratiche sono illegali. In aggiunta, la polizia olandese ha incluso 1.3 milioni di persone nel suo sistema di riconoscimento facciale, molte di queste persone sono innocenti che non sono mai state accusate di un crimine. 

Mais oui, la Francia non è nuova alla sorveglianza biometrica di massa. A Marseille una scuola superiore ha introdotto il riconoscimento facciale contro i propri studenti. Anche la città francese di Nizza ha sperimentato il riconoscimento facciale nelle sue strade. Ma c’è di più, il governo francese ha un enorme database per il riconoscimento facciale (TAJ) che contiene 19 milioni di file e 8 milioni di immagini.

Cioccolato, birra e riconoscimento facciale di massa. Questo potrebbe essere il prossimo slogan promozionale del Belgio. Si è scoperto che chiunque camminasse all’interno dell’aeroporto Zaventeem di Bruxelles veniva spiato segretamente (esatto, non per il controllo dei passaporti), raccogliendo ed elaborando dati sui volti delle persone identificabili in maniera univoca.

Danimarca, vi er ikke enig. Nej. Il governo è riuscito a sfruttare i punti ciechi delle leggi europee e permettere la sorveglianza biometrica di massa sui tifosi di calcio. Il prossimo passo? Vendere l’idea come fosse varmt brød. Il Club di calcio Brøndby ha annunciato che a breve il volto di chiunque sarà scansionato per identificare le persone a cui è stato vietato di assistere alle partite di calcio del Brøndby IF. L’Autorità per la protezione dei dati personali danese ha approvato il sistema.

In Slovenia, si è scoperto che la polizia ricorre alla sorveglianza biometrica di massa. Lo stesso tipo di sorveglianza è stata impiegata per monitorare i manifestanti che esercitavano i propri diritti.

Anche la Svezia è nella mappa degli indiziati. La polizia svedese è stata multata per aver usato illegalmente Clearview AI (sì, di nuovo loro). Inoltre, una scuola svedese ha anche introdotto il riconoscimento facciale di massa per monitorare la frequenza scolastica.

In Polonia e Serbia, abbiamo visto persino altri casi. Una scuola polacca ha utilizzato l’impronta digitale biometrica per gestire la mensa scolastica e in Serbia abbiamo assistito al dispiegamento massiccio di videocamere con riconoscimento facciale nelle strade di Belgrado.

Questi sono solo alcuni degli esempi di cui siamo a conoscenza. Quante saranno le sperimentazioni e i progetti in fase di sviluppo, invece? 

Come se non bastasse, alcuni funzionari dell’UE stanno prendendo in considerazione eccezioni che potrebbero consentire l’impiego della sorveglianza biometrica di massa legalmente. Mentre noi stiamo dando l’allarme per i cavilli già esistenti nella legge, i funzionari preferiscono ampliarli e trasformarli definitivamente in legge. 

Chiediamo una normativa che risolva il vuoto legislativo nel quadro europeo, un vuoto che è attualmente sfruttato da aziende e governi per imporre la sorveglianza biometrica di massa su tutti noi. 

L’enorme quantità di prove dimostra di per sé il motivo per cui abbiamo bisogno di una nuova legge che vieti la sorveglianza biometrica di massa in tutta l’Unione Europea.

Aggiungi il tuo nome alla petizione ufficiale europea: https://reclaimyourface.eu/#sign 

Insieme a 61 associazioni chiediamo al Parlamento europeo di proteggere la libertà di espressione

glitch appearing on screen as if the content has been removed

Il 25 marzo, 61 associazioni di giornalisti e di attivisti per i diritti umani hanno inviato una lettera congiunta ai membri del Parlamento europeo, esortandoli a votare contro la proposta di regolamento per affrontare la diffusione di contenuti terroristici online.

La coalizione ritiene che il regolamento proposto, nella sua forma attuale, non ha posto nel quadro legislativo dell’UE in quanto pone gravi minacce alla libertà di espressione e di opinione, alla libertà di accesso alle informazioni, al diritto alla privacy e allo stato di diritto.

Se adottato, il regolamento permetterebbe a qualsiasi autorità di cancellare qualsiasi contenuto online ovunque in Europa entro un’ora. Poiché non richiede il coinvolgimento di un tribunale indipendente, lo strumento potrebbe essere abusato a fini di censura politica. La proposta delega anche agli algoritmi la decisione di ciò che può essere considerato libertà di parola, concedendo ancora più potere alle attuali pratiche di moderazione dei contenuti opache e non responsabili utilizzate dalle piattaforme dominanti. I rischi sono alti perché questi sistemi automatici non possono distinguere il sarcasmo da un’affermazione fatta con convinzione, le notizie dalla propaganda o l’educazione dall’indottrinamento.

Inoltre, creerebbe un pericoloso precedente per qualsiasi futura legislazione dell’UE che regola l’espressione online e l’ecosistema digitale, in particolare se pensiamo al Digital Services Act.

Come ultimo passo del processo legislativo, il Parlamento europeo deve decidere se approvare il testo, che è il risultato di oltre un anno di negoziati con il Consiglio. Il voto è previsto durante la sessione plenaria del Parlamento alla fine di aprile.

La coalizione incoraggia tutte le organizzazioni e gli individui preoccupati per lo stato dei diritti e delle libertà in Europa a riunirsi intorno a questo appello, a contattare i propri rappresentanti al Parlamento europeo e invitarli a respingere questa pericolosa legislazione.

Puoi leggere la lettera congiunta qui in italiano, inglese, tedesco, francese, polacco, rumeno, spagnolo, svedese e olandese.

 

Credits immagine: Photo by Michael Dziedzic on Unsplash 

Un futuro senza sorveglianza biometrica di massa: l’iniziativa europea Reclaim Your Face punta al milione di firme

Lo scopo è arrivare alla Commissione Europea e rendere il divieto sempre più concreto

Mentre la Commissione Europea sta preparando nuove leggi sull’Intelligenza Artificiale, una coalizione in continua espansione di associazioni per i diritti umani e digitali, guidata da European Digital Rights (EDRi), mette in guardia dai molteplici pericoli che la sorveglianza biometrica di massa presenta per la nostra libertà e per la nostra dignità. 

Oggi la coalizione Reclaim Your Face lancia un’iniziativa dei Cittadini Europei (ECI) per chiedere all’Europa di vietare l’uso di algoritmi di IA che possono arrecare danni alla cittadinanza—come appunto la sorveglianza biometrica di massa. L’ECI è uno strumento ufficiale unico nel suo genere offerto dall’Unione Europea ai propri cittadini per organizzare e chiedere tutti insieme nuovi quadri legislativi su molteplici materie.

L’obiettivo dell’ECI, portata avanti in Italia dal Centro Hermes con il supporto di Associazione Luca Coscioni, Certi Diritti, CILD, Eumans, info.nodes, Privacy Network e StraLi, è raccogliere 1 milione di firme in almeno 7 paesi dell’UE nell’arco di un anno, ovvero febbraio 2022. Se avremo successo la Commissione Europea sarà obbligata a rispondere alla nostra richiesta formale per una nuova legge e aprire un dibattito con gli Stati Membri del Parlamento Europeo.

“Le politiche per la sicurezza della città sono legate a doppio filo già da tempo con altri concetti come il degrado e il decoro urbano. Le videocamere e gli strumenti di sorveglianza sono sempre più normalizzati perché la narrazione entro la quale vengono utilizzati si basa sull’assunto che controllare è più facile. Ma lo spazio della città appartiene ai cittadini e sono loro che, vivendo lo spazio pubblico, la rendono più sicura e inclusiva,” dichiara Laura Carrer, ricercatrice del Centro Hermes.

I cittadini europei si trovano di fronte a un momento storico cruciale: fermare la sorveglianza biometrica di massa prima che diventi talmente pervasiva da essere normalizzata nelle nostre società.

I casi di abuso in tutta Europa

La coalizione di associazioni che hanno dato vita a Reclaim Your Face ha già messo insieme prove di abusi sistematici dei dati biometrici delle persone in tutta Europa, e sta contrastando queste tecnologie con successo. In Serbia le autorità stanno sorvegliando la popolazione per le strade di Belgrado, in Italia le autorità hanno cercato di colpire direttamente le comunità con la sorveglianza biometrica nel parco della città di Como, e malgrado quella installazione sia stata dichiarata illegale dal Garante privacy italiano, altre città stanno cercando di introdurre tecnologie simili e persino la polizia vuole usarle per monitorare gli sbarchi dei migranti sulle coste italiane. In Grecia, le autorità nazionali stanno indagando l’uso della sorveglianza biometrica quando la polizia effettua i controlli in strada. 

In Francia, la società civile ha portato in Tribunale l’impiego della sorveglianza biometrica di massa usata nelle scuole e contro i manifestanti. Nei Paesi Bassi, le autorità nazionali hanno criticato la sorveglianza biometrica di massa nei supermercati. La coalizione Reclaim Your Face è stata fondamentale nel far luce e contrastare queste tecnologie, e nel richiedere l’intervento delle autorità di controllo. Ad esempio Homo Digitalis ha fatto partire un’indagine del garante privacy greco in Grecia e Bits of Freedom ha supportato le dichiarazioni dell’autorità garante contro la sorveglianza biometrica nei Paesi Bassi. 

Malgrado ciò, è evidente che dobbiamo agire uniti, in contemporanea su più paesi, e necessariamente a livello europeo.

I dati biometrici sono intimamente collegati ai nostri corpi ed ai nostri comportamenti, e quindi possono rivelare informazioni sensibili su chi siamo. Ad esempio, i nostri volti possono essere sfruttati con il riconoscimento facciale per effettuare previsioni o valutazioni sul nostro conto—e lo stesso vale per i nostri occhi, vasi sanguigni, voci, l’andatura o il modo in cui digitiamo i tasti della tastiera.

I governi, le forze dell’ordine e le aziende utilizzano dispositivi per la registrazione (come le videocamere a circuito chiuso) e software per il riconoscimento facciale per monitorare i nostri spostamenti da un luogo a un altro sfruttando le nostre caratteristiche ed identificandoci. La raccolta indiscriminata di dati biometrici svolta in luoghi pubblici come la strada, i parchi, le stazioni ferroviarie, i negozi o i palazzetti dello sport, solo perché stiamo cercando di vivere liberamente le nostre vite, è una sorveglianza biometrica di massa.

Il trattamento di qualsiasi dato biometrico è già vietato dall’UE. Eppure, l’Unione Europea concede alcune deroghe a questo divieto generale che sono alquanto problematiche. Vediamo continuamente abusi di queste tecnologie, introdotte sfruttando questa confusione legale, e che—spesso senza un controllo democratico—finiscono con l’essere installate nei nostri spazi pubblici, disumanizzandoci e trattandoci come dei codici a barre che camminano.

La soluzione “innovativa” di Torino: Argo

Le città sono lo spazio che abitiamo, dove costruiamo le nostre comunità, dove partecipiamo a eventi pubblici e, soprattutto, dove creiamo legami tra persone per difendere e reclamare i nostri diritti. La città è lo spazio di tutti noi cittadini e cittadine. La giunta comunale di Torino e la polizia locale, però, vogliono trasformare la città in un inferno di sorveglianza. Non sarà possibile camminare liberamente e incontrare altre persone senza che un occhio elettronico sia lì a prendere nota di come siamo vestiti, quali oggetti portiamo addosso e, soprattutto, se siamo uomo o donna. 

Con il progetto ARGO infatti il comune introduce, allo scopo di “controllare la sicurezza urbana, la sicurezza integrata e la governance della mobilità,” una rete di videosorveglianza diffusa che va ad aggiungersi alle videocamere già installate in precedenza, con funzionalità quali la line crossing detection (rilevazione di superamento di una linea predefinita), la intrusion detection (rilevazione di intrusioni in una certa area), la region entrance (rilevazione dell’entrata di una persona/veicolo in una regione predefinita), la region exiting (il contrario della precedente) e la motion detection (rilevazione del movimento di una persona/veicolo). In città saranno presenti in totale 360 videocamere

Facciamo un passo indietro

Ad agosto 2020 la giunta comunale di Torino discute di un possibile finanziamento del progetto ARGO attraverso i fondi ministeriali (Interno) previsti per i comuni per l’anno 2020 (17 milioni di euro): il Comune stanzia 800.000 euro, il Ministero ne metterà 700.000. E così è stato. Con 1.500.000 euro il progetto preliminare è definito e della realizzazione se ne occuperà l’azienda 5T s.r.l., società pubblica che controlla la mobilità torinese. Le due fasi di progetto coinvolgono prima l’area periferica, nella quale confluirà anche la gestione dei sistemi di videosorveglianza realizzati nell’ambito del progetto AxTO (che favoriva già la cosiddetta “sorveglianza partecipata”), e in un secondo momento l’area centrale della città. Il progetto è reso definitivo ad ottobre 2020, momento nel quale si conferma all’azienda 5T s.r.l. l’erogazione dei soldi della prima fase di ARGO, il cui inizio è previsto per gennaio 2021. Negli ultimi giorni il consiglio comunale di Torino (Lega e M5S) ha parlato nuovamente della questione videocamere, chiedendo siano implementati ancora di più i sistemi di videosorveglianza della città: anche in questo caso si parla di zone “degradate” e di “offrire un maggiore senso di sicurezza a cittadini e cittadine.” 

Attraverso le nuove videocamere il sistema permette di identificare ogni persona in tempo reale sfruttando gli algoritmi: siamo di fronte ad un potenziale sistema di sorveglianza biometrica di massa che viene, così come nel caso di Como, definito “progetto innovativo”. Al fine di proteggere e tutelare alcune categorie di persone, l’amministrazione vorrebbe seguire costantemente una persona e prendere nota del suo aspetto, di dove si trova, dell’orario dei suoi spostamenti.

Può non conoscere direttamente il nostro nome ma può facilmente identificarci e conoscere tutti i nostri movimenti: se siamo stati in una clinica medica, se ci siamo incontrati nel parco con i nostri amici, se abbiamo organizzato un evento o siamo stati a una manifestazione.

Un occhio sulla città in tempo reale?

Il Centro Hermes ha ottenuto, grazie a diverse richieste FOIA, copia del progetto definitivo approvato dalla Giunta lo scorso 26 ottobre e diverse versioni precedenti, la prima risalente al giugno 2018

Il progetto ARGO ha l’obiettivo di integrare strumenti per il monitoraggio della mobilità e del traffico con sistemi di videosorveglianza cittadina. Nel documento del progetto definitivo si legge che il sistema sarà in grado di estrarre metadati in tempo reale dai video. Se la parola metadati può non dire molto, gli esempi indicati dalla polizia locale e dalla società 5T, incaricata di svolgere i lavori, sono invece molto chiari: “distinzione tra uomo/donna; colore di abbigliamento e scarpe; presenza di oggetti come borse, zaini, cappelli ecc.”

Con questo tipo di informazioni sarebbe possibile identificare e pedinare le persone riprese in tempo reale: un cappello, una borsa rossa o una semplice maglietta con un logo, combinati con le informazioni sul genere della persona, permettono di seguire i suoi spostamenti.   

Inoltre il sistema rischia di confondere il sesso biologico con il genere, producendo classificazioni sbagliate e discriminando tutte le persone transgender o che non si identificano nel binarismo di genere. Recenti studi hanno dimostrato come anche gli algoritmi più avanzati commettano errori: donne e uomini che presentano una corrispondenza tra la propria identità di genere e il sesso biologico (cisgender) sono rispettivamente identificate correttamente il 98.3% e il 97.6% delle volte. Nel caso di fotografie che ritraggono uomini trans, lo studio ha dimostrato che vengono erroneamente identificati come donne il 38% delle volte. Nel caso però di persone non binarie, agender, genderqueer, l’algoritmo sbaglia il 100% delle volte. Questo aspetto dovrebbe far riflettere sull’effettiva necessità del sistema di Torino di distinguere tra uomo/donna e quali conseguenze può avere.

Nel documento del progetto ARGO si legge inoltre che uno dei punti di forza è: “La data analysis in real time come modello di “un nuovo modo di fare sicurezza” basato sulle analitiche.” Un linguaggio vuoto che ritroviamo nella narrazione della smart city e che non ha nulla a che fare con il mondo dei diritti umani: siamo persone e il nostro spazio urbano non è un laboratorio di esperimenti tecnologici. 

Ma d’altronde, la valutazione d’impatto preventiva che deve essere prodotta dal comune per valutare i rischi per i diritti delle persone legati al sistema—un documento necessario quando si tratta di sistemi che raccolgono e processano questo tipo di dati—è ancora in fase di ultimazione. Sono passati almeno due anni dalla presentazione della bozza del progetto nel giugno 2018, come ha rivelato l’azienda 5T in una risposta al nostro FOIA, ma i diritti umani vengono sempre considerati per ultimi. 

La giunta ha già approvato la spesa di 1.500.000€ di cui 700.000€ finanziati dal Ministero dell’Interno, eppure non è riuscita a rendersi conto che per un sistema che permette di pedinare le persone è necessario effettuare una valutazione sui rischi per la società e per la democrazia.

Probabilmente, un motivo c’è: effettuare una corretta valutazione d’impatto dimostrerebbe che il sistema è al momento illegale e che quindi quei soldi stanziati rischiano di essere sprecati.

Come ricorda l’associazione EDRi nella sua analisi della sorveglianza biometrica, l’European Data Protection Board (EDPB)—il comitato che raccoglie i vari Garanti privacy degli stati europei—ha confermato che l’identificazione non ha bisogno di rivelare il nome o l’identità ufficiale di qualcuno, ma comprende qualsiasi trattamento che permetta di distinguere una persona da altre, e può essere ugualmente invadente. 

Nelle sue linee guida sulla videosorveglianza, l’EDPB ribadisce che se si processano dati anche biometrici per “individuare un soggetto che rientra nell’area o che entra in un’altra area, lo scopo sarebbe quindi quello di identificare in modo univoco una persona fisica, il che significa che l’operazione rientrerebbe fin dall’inizio nell’ambito di applicazione dell’articolo 9 del GDPR.

Un sistema di videosorveglianza cittadino che analizza in tempo reale e salva i dettagli delle persone riprese fa proprio questo: permette di identificare la stessa persona in luoghi diversi. Il progetto definitivo, approvato dalla Giunta di Torino, lo chiarisce senza troppi dubbi: “a partire dalla descrizione di una persona e del suo abbigliamento se ne potranno individuare la presenza e gli spostamenti nelle varie zone della città grazie alla ricerca in real time da parte degli algoritmi di analisi.”

Come ricorda il provvedimento del Garante privacy italiano sul sistema di riconoscimento facciale di Como, al momento non c’è una base legale per il trattamento di quei dati che ricadono nell’articolo 9 del GDPR da parte della polizia locale in Italia. 

Per questo motivo abbiamo inviato richiesta al Garante per la protezione dei dati personali di intervenire subito e valutare in maniera approfondita il progetto ARGO, prima che vengano sprecati inutilmente ulteriori soldi pubblici in un sistema che rischia di normalizzare una sorveglianza biometrica di massa in tempo reale. 

Lettera al Garante privacy

 

Il Ministero dell’Interno vuole utilizzare il riconoscimento facciale su migranti e richiedenti asilo

L’introduzione del riconoscimento facciale in Italia continua a mostrare gli stessi sintomi che denunciamo nella campagna intereuropea Reclaim Your Face: mancanza di trasparenza, assoluto disinteresse per il rispetto dei diritti umani e incapacità di ammettere che alcuni impieghi di questa tecnologia siano troppo pericolosi.  

L’ultimo episodio riguarda il Sistema Automatico Riconoscimento Immagini (SARI), acquistato dalla polizia scientifica nel 2017 e che ora, come rivela in un’inchiesta IrpiMedia, è stato oggetto di un appalto con lo scopo di potenziare il sistema e impiegarlo per monitorare le attività di sbarco. In sostanza, il ministero vuole usare il riconoscimento facciale direttamente su migranti e richiedenti asilo.  

Lo scontro Viminale-Garante della privacy sul riconoscimento facciale in tempo reale

“Per farlo, il Ministero ha usato due strategie: sfruttare i fondi europei per la Sicurezza Interna e, come mostrano alcuni documenti ottenuti da IrpiMedia grazie a una richiesta FOIA, ignorare le domande del Garante della privacy che da due anni attende di chiudere un’istruttoria proprio sul sistema di riconoscimento facciale che vuole usare la polizia,” scrive IrpiMedia.

Fra le richieste che avanziamo attraverso la campagna Reclaim Your Face chiediamo in modo urgente e deciso che il Ministero dell’Interno pubblichi tutte la valutazioni degli algoritmi utilizzati, i numeri sull’utilizzo del sistema, e tutti i dati relativi alla tipologia di volti presenti nel database usato da SARI.

Queste informazioni sono di fondamentale importanza per capire quali sono gli effetti degli algoritmi che agiscono su un database già fortemente squilibrato e discriminatorio: ricordiamo infatti che, come rivelato quasi due anni fa da Wired Italia, 8 schedati su 10 da SARI sono persone straniere. Non è però altrettanto chiaro quante di queste siano migranti e richiedenti asilo. 

In merito al trattamento biometrico e dell‘identità digitale dei migranti e dei rifugiati anche in Italia, esemplare è la ricerca sul campo realizzata nel 2019 dal ricercatore Mark Latonero in partner con CILD. L’analisi sul campo ha portato alla luce un intero ecosistema composto da ONG, Governo, ricercatori, media e settore privato che raccoglie, analizza e gestisce informazioni digitali su migranti e rifugiati per fornire loro supporto, normarli, studiarne i comportamenti. La raccolta di questi dati può portare a vari gradi di discriminazione dovute ad esistenti bias relativi alla vulnerabilità di migranti e rifugiati. Memori di questo studio, immaginiamo come possa essere pervasivo e privo di tutele un sistema di riconoscimento facciale adottato proprio su una categoria di persone specifiche. Un ulteriore livello di scrutinio che non vogliamo sia normalizzato e diventi parte della vita quotidiana di tutti noi.

Mentre le richieste di trasparenza su SARI non vengono ascoltate e persino il Garante è ancora in attesa di ricevere una valutazione di impatto sul sistema, il Ministero sfrutta anche soldi europei del Fondo Sicurezza Interna.

IrpiMedia ricostruisce così l’oggetto dell’appalto: “Il budget stanziato per il potenziamento del sistema è di 246 mila euro e il potenziamento include l’acquisto della licenza per un software di riconoscimento facciale di proprietà della società Neurotechnology, fra le produttrici più conosciute al mondo, in grado di processare il flusso video proveniente da almeno due videocamere e la gestione di una watch-list che include fino a 10 mila soggetti. Inoltre la configurazione hardware e software deve essere di ridotte dimensioni, da inserire in uno zaino e permettere di «effettuare installazioni strategiche in luoghi difficilmente accessibili con le apparecchiature in dotazione», si legge dalla scheda tecnica del Ministero.”

La sorveglianza biometrica ci disumanizza in bit di dati senza vita, privandoci della nostra autonomia e della capacità di esprimere chi siamo. Ci costringe in un sistema automatizzato e inspiegabile in cui siamo ingiustamente classificati e schedati. 

Solo il divieto della sorveglianza biometrica di massa può garantire che comunità forti, aperte e organizzate possano prosperare.

 

La società civile chiede punti fermi nella proposta dell’Unione Europea sull’Intelligenza Artificiale

Il Centro Hermes per la trasparenza e i diritti umani digitali ha firmato una lettera aperta insieme a EDRi e 60 associazioni della società civile dislocate in tutta Europa—e nel mondo—per ribadire l’urgenza di limiti e regolamenti all’introduzione di soluzioni di intelligenza artificiale che comprimono e violano i diritti umani.

Con la proposta sull’Intelligenza Artificiale che l’Unione Europea lancerà questo trimestre, l’Europa ha l’opportunità di dimostrare al mondo che la vera innovazione può nascere solo quando possiamo essere certi che tutte le persone saranno protette dalle violazioni più pericolose ed eclatanti dei nostri diritti fondamentali. Le industrie europee—dagli sviluppatori di IA alle aziende produttrici di automobili—trarranno grande beneficio dalla certezza normativa che deriva da chiari limiti legali e da condizioni di concorrenza eque.

È fondamentale che il regolamento di prossima introduzione affronti in modo inequivocabile diversi rischi: dalla sorveglianza biometrica di massa (che la campagna Reclaim Your Face sta già sottolineando) al monitoraggio degli spazi pubblici; il pericolo che queste tecnologie intensifichino la discriminazione strutturale, l’esclusione e i danni collettivi fino ad impedire l’accesso a servizi vitali come l’assistenza sanitaria e la sicurezza sociale; i rischi di vedersi impedito un accesso equo alla giustizia e ai diritti procedurali; la normalizzazione di sistemi che fanno inferenze e previsioni sulle nostre caratteristiche, comportamenti e pensieri più intimi; e, soprattutto, la manipolazione e il controllo del comportamento umano e le minacce associate alla dignità umana, all’autonomia e alla democrazia collettiva. 


Leggi la lettera aperta inviata da European Digital Rights e 60 associazioni della società civile (testo in Inglese).  

Riconosco la tua voce ma tu non mi conosci – le vite degli altri

La tecnologia ci permette di condividere facilmente con le nostre persone care momenti di felicità. Siamo al parco e vogliamo immortalare una festa insieme alle nostre amiche e amici: basta registrare un video e caricarlo in un storia su Instagram oppure inoltrarlo su WhatsApp. Questo gesto fa parte della nostra natura sociale poiché ci piace condividere i nostri attimi: che si tratti di un concerto, di uno spettacolo in piazza, di una manifestazione pubblica, o di un comizio elettorale. Quando lo facciamo non pensiamo però che persone estranee (e che non vediamo) possano ascoltare ogni nostra conversazione, estraendo la traccia delle voci all’interno del video e associando un’identità. 

Uno scenario fantascientifico forse, ma nemmeno troppo: nel 2016 la Polizia italiana ha acquistato un sistema di riconoscimento vocale da usare all’interno del progetto CRAIM per il riconoscimento delle voci nei video e audio caricati sul web. Parlare di CRAIM è come parlare di una microspia indossata da ognuno di noi in grado di dare un nome alle persone con le quali parliamo e trascrivere le nostre conversazioni.

Il sistema CRAIM

Facebook, Twitter, YouTube ma anche Google, Yahoo, e Yahoo News. Questi sono solo alcuni dei social e siti da cui la polizia può raccogliere audio e video da analizzare grazie alle tecnologie acquistate dal Centro di Ricerca per l’Analisi delle Informazioni Multimediali (CRAIM) nel 2016, stando a quanto riportato dai documenti del bando pubblico.

Il sistema permette di trascrivere in modo automatico gli audio e i video presenti sul web, sfruttando algoritmi di speech-to-text multilingua (che riconoscono il testo pronunciato e lo trascrivono) e, soprattutto, di generare una impronta vocale e confrontarla con quella all’interno di un database di voci al fine di consentirne l’identificazione. Il sistema dovrà essere in grado di gestire almeno 300 ore di registrazioni giornaliere.

La polizia sembra quindi già possedere un database di voci su cui effettuare la ricerca ma non è chiaro come sia stato creato e su quali basi legali poggi questa raccolta di dati. 

Anche per questo motivo, oltre alla raccolta indiscriminata di dati biometrici, il Garante Privacy aveva dichiarato che avrebbe inviato richiesta di informazioni al Ministero dell’Interno, ma a distanza di 3 anni ancora non si hanno notizie dell’esito dell’istruttoria

È interessante notare come anche in questo caso una delle motivazioni sottostante l’utilizzo di questa tecnologia, e forse quella più rilevante secondo le forze dell’ordine, è l’utilizzo ai fini del contrasto al terrorismo o alla prevenzione della criminalità (anche organizzata). La tecnologia si inserisce ancora appieno nella narrazione contemporanea di strumento fondamentale e unico per eliminare l’errore umano e garantire la sicurezza. A quali spese si mantiene e porta avanti questa narrazione tossica non ci è dato precisamente sapere, ma certo è che già assistiamo (come in questo caso) a invasioni della nostra privacy e alla limitazione di altri diritti fondamentali. 

Hai firmato la petizione Reclaim Your Face? Vogliamo bannare la sorveglianza biometrica di massa in Europa e ci serve il tuo aiuto. Siamo già più di 10.000, unisciti a noi!

Orecchie ovunque

Come ricorda EDRi, il network di associazioni europee che si occupano di diritti digitali, nel suo studio sulla sorveglianza biometrica, siamo abituati a pensare allo spazio pubblico come a strade, parchi o ospedali, ma anche centri commerciali, stadi, trasporti pubblici e altri servizi di interesse pubblico che, pur essendo gestiti da privati, sono accessibili a tutti. Ma ciò al quale non pensiamo spesso, o che non riusciamo a identificare come uno spazio pubblico dove far valere le stesse identiche regole degli esempi precedenti, è il dominio digitale. Gli spazi che occupiamo online hanno un ruolo fondamentale nella nostra quotidianità e per la determinazione e costruzione della nostra identità. Sono perciò una parte molto importante del dibattito civico, della democrazia e della partecipazione pubblica. La nostra società vive anche nei milioni di video che vengono caricati online ogni giorno.

Per queste ragioni, se e qualcuno è in grado di raccogliere indiscriminatamente, analizzare e conservare le nostre voci allora siamo di fronte a una sorveglianza biometrica su scala gigante, della quale non riusciamo nemmeno ad accorgerci. 

Quando carichiamo questi video esercitiamo, in modo più o meno cosciente, una forma di controllo: stiamo condividendo e acconsentendo alla diffusione online di contenuti che possono coinvolgere sia noi che altre persone—a volte sconosciute. È un aspetto delle nostre relazioni sociali e una consapevolezza che si è fatta strada da non molto tempo: la privacy non interessa solo noi ma anche le persone che ci stanno intorno, non solo quando parliamo per strada ma anche quando utilizziamo piattaforme di condivisione come YouTube. La privacy non è un diritto individuale ma condiviso, un diritto di tutti. Se attraverso queste le forze dell’ordine possono individuare i presenti in un determinato luogo o momento, non solo stanno mettendo in pericolo noi ma anche chiunque possa essere all’interno di quel video per sbaglio. E tutto questo viene fatto di nascosto e senza che ci sia la concreta possibilità di opporsi.

“Hey Google! riconosci la mia voce?”

Cos’è

Molti di noi, all’interno delle nostre case, possiedono dispositivi che in diverso modo riconoscono la voce (Alexa, Google Home, Siri, Cortana) e quindi capiscono i discorsi e le richieste che facciamo loro per ascoltare musica, riprodurre film o richiedere informazioni sulle previsioni del tempo. Questi dispositivi si basano su reti neurali artificiali che offrono al sistema la possibilità di apprendere e migliorare sé stessi attraverso l’utilizzo. Le aziende tech hanno cominciato a creare e diffondere questi sistemi per favorire l’interazione uomo-macchina, e il report 2019 di Microsoft parla proprio di quanto spazio si stiano prendendo questi dispositivi nella nostra vita quotidiana (il 76% degli intervistati ha usato assistenti vocali negli ultimi 6 mesi). Ma al di là del prodotto commerciale e delle possibilità che offre a soggetti non vedenti o con altre disabilità correlate, è sicuramente rilevante considerare il rovescio della medaglia: se applicati nello spazio pubblico per monitorare, identificare, e riconoscere le persone rischiano di violare la nostra privacy e possono introdurre ulteriori discriminazioni.

Come funziona

Il riconoscimento vocale può avere diversi scopi: comprendere il significato di quello che stiamo dicendo, riconoscere la voce di una persona che parla e collegarla ad altri audio, oppure cercare di estrarre informazioni sulle emozioni provate dalla persona partendo dalla sua voce. Le nostre voci sono completamente diverse l’una dall’altra: basti pensare al timbro della nostra voce e quella delle nostre persone care. In generale, il funzionamento di un sistema di riconoscimento vocale si basa su un modello matematico che viene elaborato a partire da un database creato in fase di addestramento del sistema. L’algoritmo cerca di individuare le parole che pronunciamo e, per comprenderle, le compara con le parole simili per suono e contenuto all’interno del database utilizzato, oppure quelle che mostrano le stesse caratteristiche fonetiche. Così come nel caso approfondito nella scorsa settimana, anche qui è necessario porre l’attenzione sul database creato per il matching ovvero tenere in considerazione che è da questo che dipende la comprensione o meno dei nostri discorsi. Se dunque il database di un sistema di riconoscimento facciale è allenato solo su individui maschi e bianchi (e quindi l’algoritmo non riconosce alternative), stessa cosa succede per la voce: alcuni studi hanno dimostrato che questi sistemi hanno problemi con accenti e pattern linguistici di persone che appartengono a minoranze o gruppi in generale sottorappresentati nelle nostre società. Oltre a ciò il punto principale che rende questi software invasivi nella nostra vita quotidiana è sicuramente l’impatto sulla privacy. 

Hai già firmato la petizione per bannare la sorveglianza biometrica in Europa?
Riprenditi la faccia, siamo già in più di 10.000!

Ritornando a quanto detto inizialmente, sappiamo ad esempio che in attesa della parola d’ordine impartita (Hey Google, Alexa) i sistemi di riconoscimento vocale sono in perenne funzionamento e monitorano le nostre azioni: Amazon ha dichiarato come Echo sia in ascolto costante ma non registri ciò che avviene prima che l’utente effettivamente pronunci la parola magica. Tuttavia è ancora possibile che accidentalmente alcune parole siano confuse e possano portare al “risveglio” del software e dunque alla registrazione di conversazioni private che tutti vorremmo rimangano tali. A nessuno piacerebbe infatti essere ascoltato da una persona estranea in casa nostra, e ci sono anche prove a sostegno dell’ipotesi che ad esempio Alexa non cancelli effettivamente le conversazioni registrate anche se l’utente ne richiede la cancellazione.

Alcuni studi stanno testando la possibilità di riconoscere determinati rumori negli spazi pubblici, soprattutto nell’ottica di potenziare la sorveglianza nelle smart city e nelle cosiddette safe city—di fatto affermando già all’inizio gli scopi di questa tecnologia. Da considerare è infatti la possibilità che questo tipo di tecnologia, utilizzata ad esempio per intercettare il posto in cui è stato esploso un colpo di arma da fuoco, possa essere combinata insieme ad altre, non ultimo il riconoscimento facciale. Pensare di trovarci di fronte ad un sistema che potrebbe monitorare la nostra presenza quando ci muoviamo in città rischia di ricreare gli stessi pericoli di cui già abbiamo parlato proprio nel caso del riconoscimento dei volti: essere pedinati costantemente perché un orecchio elettronico è in grado di riconoscere la nostra voce. 

Inoltre, sempre più rilevante è anche la questione delle emozioni. Una delle capacità più importanti dell’uomo è quella di riconoscere ed interpretare gli aspetti emotivi legati alle conversazioni e ai contenuti che ci scambiamo. In questi ultimi anni numerosi sono gli studi che cercano di sondare la possibilità di creare dispositivi che siano in grado di riconoscere, in tempo reale ed efficientemente, le emozioni dell’utente che interagisce con essi (un telefono, un computer ma anche un’automobile).