Monitor numero 1, novembre 2021

Monitor numero 1, novembre 2021

A cura di Laura Carrer

con il contributo di Riccardo Coluccini, Vincenzo Tiani

In questo numero 1 di Monitor trovate il nostro report Tecnologie per il controllo delle frontiere in Italia, ricerca che abbiamo realizzato grazie al sostegno di Privacy International. Per ascoltare di che si tratta abbiamo realizzato anche un mini podcast, lo trovate qui sotto. 
Vi aggiorniamo poi sulle ultime novità della campagna Reclaim Your Face, sulle nostre attività ad ampio spettro sul tema della sorveglianza biometrica e tutela dei dati personali, le più rilevanti novità sui progetti OONI e tracking.exposed, e alcune notizie sui diritti digitali direttamente da Bruxelles. 

Se vuoi contribuire a Monitor segnalandoci ricerche, pubblicazioni o notizie interessanti, scrivici a media@hermescenter.org

Report: Tecnologie per il controllo delle frontiere in Italia

Domenica 5 dicembre è uscito il nostro report Tecnologie per il controllo delle frontiere in Italia – parte del progetto proTECHt migrants supportato da Privacy International – accompagnato da un’ inchiesta sullo stesso tema per L’Espresso (online/cartaceo). Il report è consultabile al link https://protecht.hermescenter.org, ed è anche scaricabile in pdf.

Leggi il report qui: https://protecht.hermescenter.org

Il progetto proTECHt migrants è iniziato a giugno 2021 e prevedeva due fasi: la prima di mappatura e contatto con le associazioni nazionali che si occupano di accoglienza su territorio nazionale. Le associazioni che abbiamo coinvolto sono: Mediterranea, Progetto 20k, Pensare Migrante, LasciateCIEntrare, ASGI, A Buon Diritto, Associazione NAGA, COSPE. Con loro abbiamo parlato delle problematiche relative all’utilizzo della tecnologia nel settore dell’immigrazione. Attraverso una survey sono emerse ancor più profondamente alcune preoccupazioni e necessità sul tema, quali il timore che le tecnologie biometriche (come ad esempio il riconoscimento facciale) siano utilizzate senza nessun controllo su migranti, rifugiati e richiedenti asilo; che i database creati a livello nazionale ed europeo siano sempre più interoperabili tra di loro; oppure che i dati anagrafici e biometrici a loro prelevati, senza un consenso davvero informato, siano poi trattati senza le dovute tutele che si applicano invece ai cittadini italiani ed europei.

Durante lo svolgimento della ricerca abbiamo cercato di rispondere il più possibile a questi timori e preoccupazioni, concentrandoci su 4 direttrici considerate fondamentali: una breve disamina sui flussi migratori e sul sistema di accoglienza in Italia, le pratiche di pre-identificazione ed identificazione all’arrivo negli hotspot, il riconoscimento facciale utilizzato dal ministero dell’Interno, e infine i finanziamenti europei in Italia proprio per l’acquisto di tecnologie biometriche che facilitino l’identificazione dei migranti. Da questa analisi emergono i 4 output di ricerca:

  1. La criminalizzazione della persona migrante, rifugiata o richiedente asilo è inscritta nell’infrastruttura tecnologica italiana;
  2. I migranti, rifugiati e richiedenti asilo effettuano un vero e proprio baratto dei loro dati personali e biometrici in cambio di accoglienza;
  3. La gestione e il controllo dei flussi migratori in Europa non passa più solo attraverso le politiche dei flussi o il mero controllo delle frontiere;
  4. Il riconoscimento facciale usato in Italia nelle attività di indagine rischia di avere già conseguenze più gravi su migranti e richiedenti asilo.

Attraverso un webinar abbiamo condiviso alcuni di questi risultati con le associazioni, allo scopo di formare coloro che prima di tutti si trovano a lavorare all’intersezione tra migrazione, diritti umani e tecnologia. Questo è sicuramente uno dei principali motivi per i quali svolgiamo un lavoro su questi temi. Per avere un assaggio del report, ecco un breve riassunto da ascoltare:


La morsa dei garanti privacy su Clearview AI

Stupende notizie dal Regno Unito: l’Information Commissioner’s Office (ICO), autorità per la privacy britannica, ha dichiarato l’intenzione di multare per 17 milioni di sterline la controversa azienda di riconoscimento facciale Clearview AI. L’azienda raccoglie di nascosto le foto che gli utenti caricano online per poi offrire un database alle forze dell’ordine in cui fare ricerche durante le indagini. L’opinione preliminare dell’ICO è che Clearview AI Inc sembra non aver rispettato le leggi britanniche sulla protezione dei dati, non avendo un motivo legittimo per raccogliere quei dati e non informando le persone nel Regno Unito su ciò che stesse accadendo alle loro foto. Clearview AI ora dovrà rispondere alle accuse e l’importo della multa potrebbe persino diminuire considerevolmente. Secondo Privacy International si tratta di un importante risultato e le conclusioni dell’ICO rispecchiano quanto segnalato dall’associazione in un reclamo che aveva inviato a maggio 2021. In quel mese anche il Centro Hermes, noyb e Homo Digitalis avevano inviato segnalazioni e reclami contro Clearview AI alle autorità garanti per la privacy in Italia, Austria e Grecia. Attendiamo quindi notizie dal Garante italiano


Reclaim Your Face: come procede?

Abbiamo superato le 3.500 firme in Italia contro le tecnologie biometriche nello spazio pubblico! Se non hai ancora firmato o vuoi sapere di cosa stiamo parlando, puoi cliccare il bottone qua sopra oppure leggere questo post.

Una moratoria zoppa sul riconoscimento facciale

All’interno del DL Capienze il Parlamento italiano ha approvato una moratoria per i sistemi di videosorveglianza che usano il riconoscimento facciale. La durata prevista della moratoria è fino al 31 dicembre 2023, a meno che non sia introdotta una nuova legge sul tema della sorveglianza biometrica. Autorità pubbliche e tutti i soggetti privati non potranno usare questa tecnologia in luoghi pubblici o aperti al pubblico: pensiamo a mezzi di trasporto, centri commerciali e negozi. Pur essendo un primo risultato importante, i problemi della moratoria sono molteplici: non si applica a sistemi come quelli di Clearview AI o altre tecnologie che usano dati biometrici, e in più lascia carta bianca alle autorità giudiziarie e ai pubblici ministeri che potranno usare durante le indagini i sistemi di riconoscimento facciale senza dover consultare il Garante Privacy. La moratoria adottata è comunque un risultato importante, che ci ricorda ancora di più però come l’unica soluzione accettabile sia ottenere il divieto di utilizzo di tutte le tecnologie per la sorveglianza biometrica nei confronti di tutti i soggetti, e non solo limitato al riconoscimento facciale. 

Anche in Svizzera c’è una petizione contro il riconoscimento facciale

La Svizzera non è uno stato membro dell’UE e per questo motivo fino ad ora i cittadini svizzeri non hanno potuto firmare per la nostra iniziativa Reclaim Your Face che chiede alla Commissione europea di vietare tecnologie come il riconoscimento facciale. Ora però grazie all’azione di Digitalen Gesellschaft, Amnesty International Svizzera e AlgorithmWatch CHc’è una petizione anche in Svizzera. La petizione per il momento si focalizza sulle città di Losanna e Zurigo.

Il sito della petizione è qui. L’annuncio del lancio, invece è qui.

La campagna Reclaim Your Face in una città olandese vicino a te!

Se vivi nei Paesi Bassi potresti esserti imbattuto/a in una campagna pubblicitaria che parla dei sorveglianza biometrica. Bits of Freedom, associazione olandese che si occupa di diritti digitali, ha tappezzato alcune città con poster sui rischi del riconoscimento facciale e delle tecnologie biometriche, e con un invito: firmare la nostra petizione!

In Germania il nuovo governo ha le idee chiare sul riconoscimento facciale

La nuova coalizione di governo tedesca ha chiesto un divieto a livello europeo del riconoscimento facciale in pubblico, e di altre tipologie di sorveglianza biometrica. Richieste che fanno eco a quelle che la nostra campagna Reclaim Your Face, coordinata da EDRi con oltre 65 gruppi della società civile, sta chiedendo all’UE e ai loro governi nazionali dal 2020. Chiaramente per il momento si tratta solo di una dichiarazione di intenti, per questo è fondamentale tenere alta l’attenzione e far sì che alle parole seguano i fatti. 

Qui trovate il testo dell’accordo della coalizione di governo. Qui il nostro commento e della coalizione RYF.

Il kit per il supporter di Reclaim Your Face

Il sito della campagna Reclaim Your Face ha una novità: una nuova sezione dedicata alle informazioni sulle tecnologie biometriche spiegate con esempi chiari e storie di chi, quelle tecnologie, le sta combattendo ogni giorno. In più ci sono sticker, volantini e banner da scaricare per poter diffondere la campagna sia online che offline.  

Riconoscimento facciale contro la popolazione palestinese

Dai territori occupati della Cisgiordania arriva l’ennesimo esempio di come il riconoscimento facciale possa essere usato per opprimere e controllare una popolazione. L’esercito israeliano usa tecnologie di riconoscimento facciale insieme a una rete di videocamere urbane e smartphone per individuare i palestinesi che devono essere fermati, arrestati o lasciati andare.

Qui trovate l’analisi del Washigton Post in merito (inglese). Qui invece quella di Valigia Blu, in italiano.

Quante videocamere incontri giornalmente?

Dalla Germania arriva unsurv-offline, un progetto open-source per un dispositivo in grado di monitorare quante videocamere incrociamo durante la nostra giornata. Per farlo utilizza un database delle posizioni delle videocamere preso da OpenStreetMap e caricato sulla scheda SD del dispositivo, salvando in maniera sicura i dati dei nostri spostamenti giornalieri senza caricarli online. Ci sono già progetti come Surveillance under Surveillance che mappano la posizione di videocamere negli spazi pubblici, e che contengono dati anche sull’Italia. Chiunque può contribuirvi.

Maggiori informazioni sul progetto unsurv-offline si possono trovare qui. La pagina uffiale di finanziamento è invece qui.


Novità da chi ci gravita intorno. Il progetto YouChoose.ai, sponsorizzato dal programma della Commissione Europa Next Generation Internet, si basa su youtube tracking exposed (un sistema di analisi passiva delle raccomandazioni di youtube al fine di analizzarne l’algoritmo) andando però oltre: YC affronta il problema del monopolio degli algorimiti. L’idea alla base è che i creatori di contenuti dovrebbero esercitare più potere nel gestire le loro raccomandazioni. Un’altra ipotesi esplorata è quella di dare il controllo degli algoritmi a chi naviga sulla piattaforma. Un’estensione del browser sviluppata dal team di YC permetterà proprio questo e sarà disponibile al di fuori di una beta chiusa da gennaio in poi. Qui intanto potete leggere l’analisi del progetto e l’analisi di interesse, svolta su 400 persone che hanno partecipato al questionario.

Il progetto di software libero OONI ha compiuto 9 anni! Tanti auguri!

Inoltre: ad ottobre OONI ha pubblicato il report How countries attempt to block Signal Private Messenger App around the world sul blocco di Signal in Iran, China, Cuba e Uzbekistan. Si tratta del primo report che analizza la censura di Signal in giro per il mondo. Il blocco è stato riscontrato per mezzo di tecnologia DPI a Cuba e Uzbekistan. In Iran e China viene invece implementato per mezzo di interferenza a livello DNS.

Come anticipato lo scorso mese, è uscito anche un report in collaborazione con Mozilla. In quest’ultimo, utilizzando un dataset fornito da Mozilla – Telemetry – è stato analizzato il fenomeno degli internet blackout, ossia il momento in cui la connettività internet in un certo paese o regione viene completamente interdetta. Lo studio realizzato da OONI dimostra come è possibile usare questo dataset per confermare casi di blackout già analizzati in passato utilizzando altri dataset: in sostanza, una nuova fonte permette di caratterizzare meglio alcuni degli eventi.


Fino al 31 gennaio 2022 sarà in mostra a Fondazione Modena Arti Visive Monitoring Control, di Paolo Cirio. Il titolo della mostra allude a una duplice forma di monitoraggio: quello esercitato dal potere e, viceversa, quello che le soggettività sociali possono esercitare sulle forme di controllo prendendo coscienza del fenomeno e contrastandolo.


Pillole da Bruxelles

Nuovo compromesso dei governi su AI Act

Continuano i lavori del Consiglio sul testo della proposta di regolamento sull’Intelligenza Artificiale, l’AI Act. La Germania propone un ban del riconoscimento facciale ma ci sono anche cambiamenti nel social scoring e nelle applicazioni ad alto rischio. Intanto il Parlamento Europeo ha finalmente eletto non uno, ma due relatori per il file: Brando Benifei (IMCO/S&D) e Dragoș Tudorache (LIBE/Renew Europe).

Nuove regole in arrivo per la circolazione dei dati

A distanza di un solo anno dalla pubblicazione della proposta della Commissione Europea, il Data Governance Act è ad un passo dal voto finale. La norma regolerà lo scambio di dati, personali e non, tra pubblico e privato per fini di ricerca o di business offrendo regole chiare, trasparenza e indipendenza nella gestione, nel rispetto della protezione dei dati personali così come del segreto industriale.

Una super Autorità che neanche Mazinga

Riferisce POLITICO che l’EDPS, il garante europeo per la privacy, starebbe lavorando ad una nuova autorità che includa anche la tutela dei consumatori e l’Antitrust. Vero è che le tre autorità hanno, sempre di più, visto incrociare le spade come i tre moschettieri. Da qualche anno se ne parla anche in Italia ma solo come proposta.

Modifiche al GDPR in vista?

Vera Jourova, commissaria europea, alla conferenza EUDATA21 organizzata da Forum Europe, ha palesato la possibilità che in caso di revisione del GDPR i poteri si accentrerebbero verso la Commissione Europea o l’EDPB, il comitato dei garanti europei, spostandosi dunque dalle singole autorità. Intanto l’Irish Council for Civil Liberties ha presentato formalmente denuncia al Mediatore Europeo contro la Commissione Europea per non aver agito contro l’Irlanda per la mancata applicazione del GDPR.


Cos’abbiamo letto questo mese (e dovresti leggere anche tu)

Gli immigrati vengono schedati come criminali. Con il benestare della politica → L’Espresso

Progetto Argo, pronta la stretta sulle telecamere intelligenti di Appendino → Corriere della Sera Torino

Chi alimenta la sorveglianza → IrpiMedia

Non metterci la faccia. La Cina e il riconoscimento facciale → Il Manifesto

Israel escalades surveillance of Palestinians with facial recognition program in West Bank → The Washington Post

The ICO provisionally issues 17million fine against facial recognition company Clearview AI → EDRi

We need to regulate mind-reading tech before it exists → Rest of World

Quando il governo abdica al suo ruolo → Il Manifesto

Il controllo biometrico sui Palestinesi → Guerre di Rete

Le regole dell’Europa per fare concorrenza a Cina e Stati Uniti → Wired Italia