Riconosco la tua voce ma tu non mi conosci – le vite degli altri

La tecnologia ci permette di condividere facilmente con le nostre persone care momenti di felicità. Siamo al parco e vogliamo immortalare una festa insieme alle nostre amiche e amici: basta registrare un video e caricarlo in un storia su Instagram oppure inoltrarlo su WhatsApp. Questo gesto fa parte della nostra natura sociale poiché ci piace condividere i nostri attimi: che si tratti di un concerto, di uno spettacolo in piazza, di una manifestazione pubblica, o di un comizio elettorale. Quando lo facciamo non pensiamo però che persone estranee (e che non vediamo) possano ascoltare ogni nostra conversazione, estraendo la traccia delle voci all’interno del video e associando un’identità. 

Uno scenario fantascientifico forse, ma nemmeno troppo: nel 2016 la Polizia italiana ha acquistato un sistema di riconoscimento vocale da usare all’interno del progetto CRAIM per il riconoscimento delle voci nei video e audio caricati sul web. Parlare di CRAIM è come parlare di una microspia indossata da ognuno di noi in grado di dare un nome alle persone con le quali parliamo e trascrivere le nostre conversazioni.

Il sistema CRAIM

Facebook, Twitter, YouTube ma anche Google, Yahoo, e Yahoo News. Questi sono solo alcuni dei social e siti da cui la polizia può raccogliere audio e video da analizzare grazie alle tecnologie acquistate dal Centro di Ricerca per l’Analisi delle Informazioni Multimediali (CRAIM) nel 2016, stando a quanto riportato dai documenti del bando pubblico.

Il sistema permette di trascrivere in modo automatico gli audio e i video presenti sul web, sfruttando algoritmi di speech-to-text multilingua (che riconoscono il testo pronunciato e lo trascrivono) e, soprattutto, di generare una impronta vocale e confrontarla con quella all’interno di un database di voci al fine di consentirne l’identificazione. Il sistema dovrà essere in grado di gestire almeno 300 ore di registrazioni giornaliere.

La polizia sembra quindi già possedere un database di voci su cui effettuare la ricerca ma non è chiaro come sia stato creato e su quali basi legali poggi questa raccolta di dati. 

Anche per questo motivo, oltre alla raccolta indiscriminata di dati biometrici, il Garante Privacy aveva dichiarato che avrebbe inviato richiesta di informazioni al Ministero dell’Interno, ma a distanza di 3 anni ancora non si hanno notizie dell’esito dell’istruttoria

È interessante notare come anche in questo caso una delle motivazioni sottostante l’utilizzo di questa tecnologia, e forse quella più rilevante secondo le forze dell’ordine, è l’utilizzo ai fini del contrasto al terrorismo o alla prevenzione della criminalità (anche organizzata). La tecnologia si inserisce ancora appieno nella narrazione contemporanea di strumento fondamentale e unico per eliminare l’errore umano e garantire la sicurezza. A quali spese si mantiene e porta avanti questa narrazione tossica non ci è dato precisamente sapere, ma certo è che già assistiamo (come in questo caso) a invasioni della nostra privacy e alla limitazione di altri diritti fondamentali. 

Hai firmato la petizione Reclaim Your Face? Vogliamo bannare la sorveglianza biometrica di massa in Europa e ci serve il tuo aiuto. Siamo già più di 10.000, unisciti a noi!

Orecchie ovunque

Come ricorda EDRi, il network di associazioni europee che si occupano di diritti digitali, nel suo studio sulla sorveglianza biometrica, siamo abituati a pensare allo spazio pubblico come a strade, parchi o ospedali, ma anche centri commerciali, stadi, trasporti pubblici e altri servizi di interesse pubblico che, pur essendo gestiti da privati, sono accessibili a tutti. Ma ciò al quale non pensiamo spesso, o che non riusciamo a identificare come uno spazio pubblico dove far valere le stesse identiche regole degli esempi precedenti, è il dominio digitale. Gli spazi che occupiamo online hanno un ruolo fondamentale nella nostra quotidianità e per la determinazione e costruzione della nostra identità. Sono perciò una parte molto importante del dibattito civico, della democrazia e della partecipazione pubblica. La nostra società vive anche nei milioni di video che vengono caricati online ogni giorno.

Per queste ragioni, se e qualcuno è in grado di raccogliere indiscriminatamente, analizzare e conservare le nostre voci allora siamo di fronte a una sorveglianza biometrica su scala gigante, della quale non riusciamo nemmeno ad accorgerci. 

Quando carichiamo questi video esercitiamo, in modo più o meno cosciente, una forma di controllo: stiamo condividendo e acconsentendo alla diffusione online di contenuti che possono coinvolgere sia noi che altre persone—a volte sconosciute. È un aspetto delle nostre relazioni sociali e una consapevolezza che si è fatta strada da non molto tempo: la privacy non interessa solo noi ma anche le persone che ci stanno intorno, non solo quando parliamo per strada ma anche quando utilizziamo piattaforme di condivisione come YouTube. La privacy non è un diritto individuale ma condiviso, un diritto di tutti. Se attraverso queste le forze dell’ordine possono individuare i presenti in un determinato luogo o momento, non solo stanno mettendo in pericolo noi ma anche chiunque possa essere all’interno di quel video per sbaglio. E tutto questo viene fatto di nascosto e senza che ci sia la concreta possibilità di opporsi.

“Hey Google! riconosci la mia voce?”

Cos’è

Molti di noi, all’interno delle nostre case, possiedono dispositivi che in diverso modo riconoscono la voce (Alexa, Google Home, Siri, Cortana) e quindi capiscono i discorsi e le richieste che facciamo loro per ascoltare musica, riprodurre film o richiedere informazioni sulle previsioni del tempo. Questi dispositivi si basano su reti neurali artificiali che offrono al sistema la possibilità di apprendere e migliorare sé stessi attraverso l’utilizzo. Le aziende tech hanno cominciato a creare e diffondere questi sistemi per favorire l’interazione uomo-macchina, e il report 2019 di Microsoft parla proprio di quanto spazio si stiano prendendo questi dispositivi nella nostra vita quotidiana (il 76% degli intervistati ha usato assistenti vocali negli ultimi 6 mesi). Ma al di là del prodotto commerciale e delle possibilità che offre a soggetti non vedenti o con altre disabilità correlate, è sicuramente rilevante considerare il rovescio della medaglia: se applicati nello spazio pubblico per monitorare, identificare, e riconoscere le persone rischiano di violare la nostra privacy e possono introdurre ulteriori discriminazioni.

Come funziona

Il riconoscimento vocale può avere diversi scopi: comprendere il significato di quello che stiamo dicendo, riconoscere la voce di una persona che parla e collegarla ad altri audio, oppure cercare di estrarre informazioni sulle emozioni provate dalla persona partendo dalla sua voce. Le nostre voci sono completamente diverse l’una dall’altra: basti pensare al timbro della nostra voce e quella delle nostre persone care. In generale, il funzionamento di un sistema di riconoscimento vocale si basa su un modello matematico che viene elaborato a partire da un database creato in fase di addestramento del sistema. L’algoritmo cerca di individuare le parole che pronunciamo e, per comprenderle, le compara con le parole simili per suono e contenuto all’interno del database utilizzato, oppure quelle che mostrano le stesse caratteristiche fonetiche. Così come nel caso approfondito nella scorsa settimana, anche qui è necessario porre l’attenzione sul database creato per il matching ovvero tenere in considerazione che è da questo che dipende la comprensione o meno dei nostri discorsi. Se dunque il database di un sistema di riconoscimento facciale è allenato solo su individui maschi e bianchi (e quindi l’algoritmo non riconosce alternative), stessa cosa succede per la voce: alcuni studi hanno dimostrato che questi sistemi hanno problemi con accenti e pattern linguistici di persone che appartengono a minoranze o gruppi in generale sottorappresentati nelle nostre società. Oltre a ciò il punto principale che rende questi software invasivi nella nostra vita quotidiana è sicuramente l’impatto sulla privacy. 

Hai già firmato la petizione per bannare la sorveglianza biometrica in Europa?
Riprenditi la faccia, siamo già in più di 10.000!

Ritornando a quanto detto inizialmente, sappiamo ad esempio che in attesa della parola d’ordine impartita (Hey Google, Alexa) i sistemi di riconoscimento vocale sono in perenne funzionamento e monitorano le nostre azioni: Amazon ha dichiarato come Echo sia in ascolto costante ma non registri ciò che avviene prima che l’utente effettivamente pronunci la parola magica. Tuttavia è ancora possibile che accidentalmente alcune parole siano confuse e possano portare al “risveglio” del software e dunque alla registrazione di conversazioni private che tutti vorremmo rimangano tali. A nessuno piacerebbe infatti essere ascoltato da una persona estranea in casa nostra, e ci sono anche prove a sostegno dell’ipotesi che ad esempio Alexa non cancelli effettivamente le conversazioni registrate anche se l’utente ne richiede la cancellazione.

Alcuni studi stanno testando la possibilità di riconoscere determinati rumori negli spazi pubblici, soprattutto nell’ottica di potenziare la sorveglianza nelle smart city e nelle cosiddette safe city—di fatto affermando già all’inizio gli scopi di questa tecnologia. Da considerare è infatti la possibilità che questo tipo di tecnologia, utilizzata ad esempio per intercettare il posto in cui è stato esploso un colpo di arma da fuoco, possa essere combinata insieme ad altre, non ultimo il riconoscimento facciale. Pensare di trovarci di fronte ad un sistema che potrebbe monitorare la nostra presenza quando ci muoviamo in città rischia di ricreare gli stessi pericoli di cui già abbiamo parlato proprio nel caso del riconoscimento dei volti: essere pedinati costantemente perché un orecchio elettronico è in grado di riconoscere la nostra voce. 

Inoltre, sempre più rilevante è anche la questione delle emozioni. Una delle capacità più importanti dell’uomo è quella di riconoscere ed interpretare gli aspetti emotivi legati alle conversazioni e ai contenuti che ci scambiamo. In questi ultimi anni numerosi sono gli studi che cercano di sondare la possibilità di creare dispositivi che siano in grado di riconoscere, in tempo reale ed efficientemente, le emozioni dell’utente che interagisce con essi (un telefono, un computer ma anche un’automobile). 

Pedinati in città

La videosorveglianza sta invadendo le nostre città da anni: quasi ogni angolo del nostro spazio urbano è monitorato costantemente dall’occhio elettronico di quelle che oramai sono diventati degli addobbi architettonici a cui non fare più attenzione.

Ma se fino ad ora le riprese delle videocamere di sorveglianza dovevano essere analizzate manualmente alla ricerca di persone sospette o per ricostruire degli eventi particolari a posteriori, con l’introduzione di sistemi di riconoscimento facciale e di analisi avanzata dei flussi video siamo di fronte alla possibilità di essere pedinati ogni istante della nostra giornata

Il caso di Mosca: se vuoi ricostruire la vita di una donna bastano 200 euro

A Mosca sono già in funzione videocamere con il riconoscimento facciale che ricoprono tutta la città, eppure l’associazione per i diritti digitali Roskomsvoboda non si aspettava di trovare un modo illegale per accedere al sistema e testare le sue capacità.

È bastato semplicemente rispondere ad un avviso su un canale Telegram dove si pubblicizzava l’accesso alle informazioni del sistema di riconoscimento facciale cittadino pagando 16,000 rubli—poco meno di 200€. L’unica altra azione richiesta: inviare una foto della persona da monitorare. Dopo due giorni Anna Kuznetsova, la persona che si è offerta di rispondere all’annuncio, ha ricevuto un messaggio con una lista di tutti gli indirizzi che aveva visitato nel mese precedente, incluse 79 foto che confermano senza dubbio la sua identità—complete di indirizzo, data e ora del momento immortalato.

Non è chiaro se si tratti di una persona esterna che ha accesso al sistema di videosorveglianza oppure un abuso del sistema da parte delle forze dell’ordine, quel che è certo è che da quelle immagini era possibile ricostruire un quadro dettagliato della vita della donna: dove abita, il luogo di lavoro, e altre abitudini di spostamento giornaliere. 

Uno strumento del genere rischia di diventare un incubo se usato da stalker, fidanzati violenti o qualunque altro malintenzionato. Per non parlare dei rischi legati alla partecipazione a manifestazioni di piazza o proteste: sarebbe possibile seguire i partecipanti e mettere in pratica ritorsioni e minacce sapendo sempre dove e quando colpire la vittima. 

Non serve nemmeno che sia riconoscimento facciale


Alla luce delle proteste per l’impiego del riconoscimento facciale e dei ban che sono stati introdotti in diverse città statunitensi—e discussi in alcuni stati—, sempre più aziende stanno cercando di creare un’altra fascia di sorveglianza biometrica, cercando di smussare gli angoli e nascondendo sotto al tappeto le parti più controverse. Come sottolinea un recente articolo dell’Electronic Frontier Foundation (EFF), le forze dell’ordine stanno andando pazze per il termine “video analytics”, ovvero l’uso di machine learning, intelligenza artificiale, e algoritmi di computer vision per estrarre informazioni dai video: il genere della persona, la presenza di oggetti particolari, e riconoscere indumenti specifici. I manuali dei venditori di queste tecnologie, analizzati da EFF, sono la guida perfetta a un mondo distopico.

Attraverso tale sistema si può individuare lo spostamento di una persona impostando semplicemente il colore dei capelli, il genere, e qualche indumento distintivo. Non si tratta di riconoscimento facciale ma il risultato sarebbe lo stesso. 

Inoltre, sottolinea EFF, usare gli algoritmi per categorizzare i corpi sulla base del genere rischia di introdurre ulteriori discriminazioni. Studi scientifici dimostrano che questi algoritmi hanno impatti negativi su tutte quelle persone che sono gender nonconforming, nonbinary, trans, e che hanno un corpo con disabilità che le fa scostare dal criterio pericoloso di “corpo normale.” 

“Tali errori di identificazione possono creare danni concreti nel mondo reale, come far partire indagini sbagliate,” spiegano da EFF.

Simile è la situazione anche in Italia: nella città di Torino il progetto di videosorveglianza ARGO, che ufficialmente avrà inizio nel gennaio 2021, prevede il riconoscimento di persone di sesso femminile o maschile e degli indumenti che indossa. Proprio per questo motivo, tra i punti della campagna Reclaim Your Face chiediamo anche che il Garante Privacy monitori le evoluzioni dei progetti di videosorveglianza nelle municipalità italiane e che, soprattutto, obblighi le città di Torino e Udine alla pubblicazione tempestiva delle valutazioni di impatto sulla privacy dei cittadini. 

Il riconoscimento facciale e la sorveglianza biometrica sono degli strumenti di oppressione dei nostri diritti. Queste tecnologie mettono in piedi la possibilità di pedinare chiunque in ogni momento della giornata. Come ricorda il Garante privacy olandese, intervenuto in una trasmissione radiofonica, con queste tecnologie “è come se qualcuno ti seguisse con una telecamera e un blocco per gli appunti, è una società di sorveglianza che non vogliamo.”



Firma anche tu la petizione della campagna Reclaim Your Face: siamo già a più di 10.000 firme!

Se vuoi aiutare le attività del Centro Hermes e di questa campagna, sostienici con una donazione

Grazie!

Cos’è il riconoscimento facciale e perché ci interessa

Cos’è

Il riconoscimento facciale è un tipo di applicazione biometrica che utilizza l’analisi statistica e le previsioni algoritmiche per misurare e identificare automaticamente i volti delle persone. Lo scopo, oltre ad attribuire quindi un nome e un cognome al volto analizzato, è anche quello di fornire una valutazione o prendere una decisione: l’algoritmo trova una somiglianza tra il volto ripreso e quello di un sospetto? Allora la polizia interverrà per interrogare quella persona.

Il riconoscimento facciale può compiere diverse tipologie di analisi: dalla verifica di un volto (questa persona corrisponde alla foto del passaporto), all’identificazione di un volto (questa persona corrisponde a qualcuno nel nostro database), alla classificazione di un volto (questa persona è giovane). Altre distinzioni poi riguardano il quando viene utilizzato il riconoscimento facciale: dal vivo (ad esempio, analizzando in tempo reale le riprese delle telecamere a circuito chiuso per vedere se qualcuno per strada corrisponde a un criminale in un database della polizia) o non dal vivo (ad esempio, la corrispondenza di due foto fatta a posteriori).

Non hai ancora firmato la petizione online per il ban delle tecnologie biometriche in EU? Aderisci alla campagna Reclaim Your Face e firma anche tu! https://www.hermescenter.org/campaigns-reclaimyourface/
Non hai ancora firmato la petizione online per il ban delle tecnologie biometriche in EU? Aderisci alla campagna Reclaim Your Face e firma anche tu! https://www.hermescenter.org/campaigns-reclaimyourface/

Come funziona

Il riconoscimento facciale è una tecnologia biometrica, misura e trasforma il nostro volto in una serie di bit artificiali. Il nostro volto diventa una sequenza incomprensibile ai nostri occhi ma che per i computer è l’equivalente del nostro calco facciale: la posizione degli occhi, la forma del naso, i tratti salienti, vengono tutti fusi insieme.

Gli algoritmi di riconoscimento facciale hanno bisogno di due ingredienti: un database di volti su cui essere addestrati, e un algoritmo che calcola la probabilità che due immagini siano legate alla stessa persona. Diversi algoritmi possono portare a risultati diversi sia in base a come sono stati sviluppati sia su quali immagini sono stati addestrati.

Se un algoritmo vede solo immagini di maschi bianchi sarà bravissimo a riconoscere immagini simili ma sarà completamente incapace di riconoscere volti di donne nere o persone di colore. Ma attenzione: pur non riuscendo a riconoscerle non vuol dire che non produrrà dei risultati. L’algoritmo rischierà di effettuare uno scambio di persona come già avvenuto a Detroit.  

Dobbiamo ricordare che il riconoscimento facciale non è mai oggettivo, e pensare che la tecnologia sia neutra è un grave errore. Secondo l’Agenzia dell’Unione Europea per i Diritti Fondamentali (FRA), “un algoritmo non restituisce mai un risultato definitivo, ma solo delle probabilità.” Quando queste probabilità statistiche vengono interpretate come se fossero una certezza neutrale, possono esserci conseguenze negative per i nostri diritti umani e digitali.


Vuoi sostenere la campagna Reclaim Your Face del Centro Hermes? Puoi farlo qui

Grazie! :)

Siamo qui per riprenderci la faccia (e i nostri diritti!)

Oggi il Centro Hermes lancia insieme alla società civile in tutta Europa la campagna Reclaim your Face per vietare la sorveglianza di massa biometrica. Questa alleanza chiede un dibattito pubblico trasparente sui rischi individuali e collettivi, per la nostra dignità e per la società, che siamo costretti ad affrontare visti gli attuali impieghi del riconoscimento facciale negli spazi pubblici europei.

Almeno 15 paesi europei hanno sperimentato tecnologie di sorveglianza biometrica come il riconoscimento facciale negli spazi pubblici. Negli Stati Uniti, al momento 5 grandi città hanno vietato l’uso del riconoscimento facciale.

La campagna

La campagna Reclaim Your Face è spinta dal desiderio di un futuro digitalizzato, democratico e incentrato sulle persone, in cui tutti possano vivere con dignità e rispetto dei nostri diritti umani.

Il Centro Hermes si unisce a Bits of Freedom (Paesi Bassi), Iuridicum Remedium (Repubblica Ceca), SHARE Foundation (Serbia), Chaos Computer Club (Germania), Homo Digitalis (Grecia), Access Now, ARTICLE 19, EDRi e Privacy International nel chiedere trasparenza alle autorità locali, comunali e nazionali in tutta Europa sullo sviluppo, la diffusione, l’uso o i piani per l’impiego di tecnologie biometriche dannose, strumenti usati nelle nostre strade e nei nostri quartieri.

Dal momento che già alcune forze di polizia e autorità locali in diversi paesi europei stanno introducendo rapidamente e in gran segreto queste tecnologie invasive, dobbiamo assolutamente difendere uno spazio pubblico in cui i nostri diritti, le nostre libertà e le nostre comunità siano protette.

Crediamo che la conversazione debba iniziare ora, prima che sia troppo tardi. Firma la petizione e mettiti in contatto se vuoi essere coinvolto.

Contesto nazionale italiano

In Italia l’impiego di tecnologie di riconoscimento biometrico e facciale è già ampiamente diffuso su due diversi livelli: uno nazionale e uno locale. Il sistema SARI gestito dalla polizia scientifica si è dimostrato da subito controverso e coperto da un velo di segretezza estrema: interrogazioni parlamentari sull’accuratezza del sistema mai risposte e la mancanza di informazioni sui 9 milioni di volti delle persone incluse nel database hanno trasformato il sistema SARI in un buco nero. A livello locale, invece, l’esperimento distopico della città di Como è stato subito stroncato da un provvedimento del Garante privacy grazie anche ad una tempestiva inchiesta giornalistica che ha sottolineato l’importanza di maggiore trasparenza sui processi decisionali che si trovano dietro all’installazione di tecnologie di riconoscimento biometrico. Eppure altre città hanno già annunciato l’installazione di tecnologie simili, come Torino e Udine, ma del tema si discute anche all’interno degli stadi di calcio. Inoltre, il Ministero dell’Interno ha già acquistato anche un sistema di riconoscimento vocale da utilizzare sui video raccolti online.

Perché è importante

La tipologia più nota di tecnologia biometrica è il riconoscimento facciale, ma l’acquisizione biometrica può essere effettuata con molti altri tipi di dati derivati ad esempio dagli occhi (iride), dal modo di camminare (andatura), dalle orecchie, dal canale uditivo, dal DNA, dalla voce, dalle impronte digitali e da altre caratteristiche, ad esempio l’abbigliamento religioso. 

Gli spazi pubblici sono il luogo in cui condividiamo le esperienze e ci riuniamo. Dove stiamo insieme alle nostre persone care. Fare una passeggiata nel parco. Organizzare una festa con la nostra comunità. Tenere discussioni politiche. Protestare contro le ingiustizie. Tutte queste attività sono minacciate dal fatto che le autorità locali europee, le forze di polizia e le aziende private diffondono tecnologie di riconoscimento facciale che tracciano e prendono di mira la gente comune negli spazi pubblici.

Non accetteremmo mai che una persona ci segua costantemente, monitorando e valutando chi siamo, cosa facciamo, quando e dove ci muoviamo.

Non solo il nostro comportamento cambierà automaticamente perché sappiamo di essere osservati, ma rischiamo anche di essere considerati una minaccia perché l’algoritmo giudica male un gesto o un’espressione facciale. Alcuni di noi potrebbero addirittura essere considerati sospettati di un crimine per il modo in cui sono vestiti, per il colore della pelle o semplicemente per aver partecipato a una protesta. Quel che è peggio, non ci accorgiamo nemmeno di essere osservati, non sappiamo chi è che ci guarda, per quale motivo e per quanto tempo.

Il riconoscimento facciale e le altre tecnologie biometriche utilizzate negli spazi pubblici fanno di ognuno di noi un potenziale sospetto. Studi dimostrano che queste tecnologie amplificano la discriminazione e vengono utilizzate per perseguitare le persone che stanno semplicemente esercitando i propri diritti.

L’uso della tecnologia biometrica per la sorveglianza di ogni persona che abita e vive lo spazio pubblico danneggia i nostri diritti e le nostre libertà, la nostra capacità di esprimerci pienamente, di organizzarci, di discutere, di festeggiare e di protestare.

Firma la petizione e mettiti in contatto se vuoi essere coinvolto.

I programmi di aiuto dell’UE esportano la sorveglianza

Oggi insieme a Privacy International (PI) e ad altre 13 organizzazioni della società civile europee e africane abbiamo chiesto urgenti riforme dei programmi di aiuto e cooperazione dell’UE per garantire che questi promuovano la tutela della privacy nei Paesi terzi e non facilitino l’uso della sorveglianza che viola i diritti fondamentali.

Privacy International ha pubblicato centinaia di documenti ottenuti dopo un anno di negoziati con gli organismi dell’Unione europea in base alle leggi previste sull’accesso ai documenti FOIA. I report e i documenti ottenuti mostrano che:

  • le forze di polizia e le agenzie di sicurezza in Africa e nei Balcani sono addestrate, con il supporto dell’UE, a spiare gli utenti di Internet e dei social media e a utilizzare tecniche e strumenti di sorveglianza controversi; Leggi il rapporto di PI qui.
  • gli organismi dell’UE stanno formando e dotando le autorità di frontiera e chi si occupa di migrazione nei paesi terzi di strumenti di sorveglianza, compresi i sistemi di intercettazione e altri strumenti di sorveglianza telefonica, nel tentativo di “esternalizzare” i controlli alle frontiere dell’UE; Leggi il rapporto di PI qui.
  • Civipol, una società di sicurezza francese con ottimi collegamenti nel settore, sta sviluppando sistemi biometrici di massa con fondi di aiuto dell’UE in Africa occidentale per fermare la migrazione e facilitare le deportazioni, tutto questo senza adeguate valutazioni del rischio. Leggi il rapporto di PI qui.

Per questi motivi, chiediamo alla Commissione Europea di fermare la questa deviazione dei fondi per gli aiuti, di mettere in atto rigorose procedure di due diligence e di valutazione del rischio, e di accettare misure sulla trasparenza, il controllo parlamentare e controllo pubblico volte a proteggere i diritti umani nei paesi terzi.

Qui è possibile consultare la lettera inviata: versione in inglese.

Per maggiori informazioni, consultare il sito di Privacy International.

ANAC e Hermes Center risolvono una controversia sull’applicazione della licenza AGPL al software OpenWhistleblowing

ANAC e Hermes Center for Transparency and Digital Human Rights comunicano con reciproca soddisfazione di aver risolto amichevolmente una controversia giudiziale circa l’applicazione della licenza GNU AGPL versione 3 al software per la gestione delle segnalazioni di illeciti OpenWhistleblowing, messo a disposizione delle amministrazioni pubbliche da ANAC, edizione derivata dalla soluzione GlobaLeaks 2.60.144 di Hermes.

Le parti hanno concordato alcune modifiche al codice e alla licenza d’uso adottata da ANAC, che hanno consentito il ripristino dell’aderenza alla licenza AGPLv3 e il rispetto delle condizioni apposte da Hermes al proprio codice per concederne la licenza d’uso pubblica e gratuita.

Hermes, titolare dei diritti economici sul codice di GlobaLeaks, da cui OpenWhistleblowing è derivato, dichiara dunque pubblicamente che la licenza GNU AGPLv3 viene contestualmente ripristinata appieno e che ANAC è licenziataria di pieni diritti secondo la medesima licenza pubblica.

Coloro che avessero scaricato, utilizzato e modificato OpenWhistleblowing a partire dalla versione originariamente pubblicata da ANAC sono invitati ad adeguare in tempi ragionevoli la propria versione alle modifiche effettuate da ANAC contestualmente alla pubblicazione del presente Comunicato, dal momento che il permesso degli autori del software è condizionato al rispetto della licenza AGPLv3 negli esatti termini pubblicati da Hermes e ANAC, e dunque non è possibile avvalersi della licenza EUPL, né della licenza AGPL v.3 senza le ulteriori integrazioni previste.


ANAC e Hermes Center si dichiarano liete dello spirito di collaborazione con cui si è pervenuti alla composizione delle differenti posizioni nell’interesse della collettività e della protezione di coloro che segnalano irregolarità nel settore pubblico, ringraziando l’opera dell’Avvocatura dello Stato e dei difensori che hanno prestato la loro assistenza con competenza e dedizione e hanno collaborato ad appianare le divergenze.

Per ogni chiarimento o precisazione è possibile contattare:
Per ANAC: l’ing. Stefano Fuligni (s.fuligni@anticorruzione.it)
Per Hermes: l’Avv. Carlo Piana (k+owb@array.eu)

Dichiarazione congiunta della società civile: Gli Stati che utilizzano le tecnologie di sorveglianza digitale per combattere la pandemia devono rispettare i diritti umani

La pandemia COVID-19 è un’emergenza sanitaria pubblica globale che richiede una risposta coordinata e su larga scala da parte dei governi di tutto il mondo. Tuttavia, gli sforzi degli Stati per contenere il virus non devono essere usati come copertura per inaugurare una nuova era di diffusi sistemi di sorveglianza digitale invasiva.

Noi, le organizzazioni firmatarie, esortiamo i governi a dare prova di leadership nell’affrontare la pandemia in modo da garantire che l’uso delle tecnologie digitali per tracciare e monitorare gli individui e le popolazioni sia effettuato nel rigoroso rispetto dei diritti umani.

La tecnologia può e deve svolgere un ruolo importante in questo sforzo per salvare vite umane, ad esempio per diffondere messaggi di salute pubblica e aumentare l’accesso all’assistenza sanitaria. Tuttavia, un aumento dei poteri di sorveglianza digitale dello Stato, come l’accesso ai dati di localizzazione dei telefoni cellulari, minaccia la privacy, la libertà di espressione e la libertà di associazione, in modi che potrebbero violare i diritti e degradare la fiducia nelle autorità pubbliche – minando l’efficacia di qualsiasi risposta di salute pubblica. Tali misure comportano anche un rischio di discriminazione e possono danneggiare in modo sproporzionato le comunità già emarginate.

Sono tempi fuori dall’ordinario, ma le leggi sui diritti umani sono ancora in vigore. Infatti, il quadro dei diritti umani è stato progettato per garantire che i diversi diritti possano essere attentamente bilanciati per proteggere gli individui e le società in generale. Gli Stati non possono semplicemente ignorare diritti come la privacy e la libertà di espressione in nome di una crisi sanitaria pubblica. Al contrario, la protezione dei diritti umani promuove anche la salute pubblica. Ora più che mai, i governi devono garantire rigorosamente che qualsiasi restrizione a questi diritti sia in linea con le salvaguardie dei diritti umani stabilite da tempo.

Questa crisi offre l’opportunità di dimostrare la nostra umanità condivisa. Possiamo compiere sforzi straordinari per combattere questa pandemia che siano coerenti con gli standard dei diritti umani e con lo stato di diritto. Le decisioni che i governi prendono ora per affrontare la pandemia daranno forma al mondo del futuro.

Qui potete leggere le misure che, insieme ad oltre 100 organizzazioni della società civile, chiediamo siano rispettate dagli Stati quando valutano soluzioni di sorveglianza digitale per contrastare il COVID-19.

Il testo della dichiarazione è disponibile anche in inglese, francese, e spagnolo.

 

 

Lettera aperta: la società civile esorta gli Stati membri a rispettare i principi di legge nel regolamento online sui contenuti terroristici

Il 27 marzo 2020, il Centro Hermes ha firmato insieme ad altre 16 organizzazioni e ad EDRi una lettera aperta inviata ai rappresentanti degli Stati membri in seno al Consiglio dell’Unione Europea. Nella lettera, esprimiamo la nostra profonda preoccupazione per la proposta di legge sulla regolamentazione dei contenuti terroristici online e di quelle che consideriamo potenziali minacce ai diritti fondamentali della privacy, della libertà di espressione, e chiedere di astenersi dall’adottare filtri di upload obbligatori e garantire che le eccezioni per determinate forme di espressione protette, come materiale didattico, giornalistico e di ricerca, siano mantenute nella proposta.

Qui è disponibile la lettera in in lingua inglese.

Il Centro Hermes chiede al governo una risposta all’emergenza COVID-19 nel pieno rispetto dei diritti umani

La diffusione del nuovo coronavirus e della malattia COVID-19 rappresentano una sfida globale per la salute pubblica. Per affrontarla, i Paesi di tutto il mondo devono impegnarsi in risposte coordinate e basate su evidenze scientifiche. Le nostre risposte dovrebbero essere fondate sulla solidarietà, sul sostegno e sul rispetto dei diritti umani, come ha sottolineato il Commissario per i diritti umani del Consiglio Europeo.

Se da un lato la risposta all’emergenza richiede azioni rapide, queste non devono essere necessariamente affrettate poiché possono avere ripercussioni significative sulla libertà di espressione, sulla privacy e su altri diritti umani—sia in questo momento che nel futuro.

A meno che non siamo in grado di definire chiaramente quali siano i benefici di queste azioni sulla base di prove scientificamente valide, non potremo capire se il danno che stiamo per arrecare alla società con una sorveglianza invasiva sia giustificato.

Dobbiamo evitare l’approccio del “raccolgo tutti i dati ora e penso dopo alle conseguenze” e dobbiamo tenere al centro i principi della minimizzazione dei dati, del consenso informato per i cittadini, dell’importanza di dati scientifici validi, e una valutazione puntuale dell’effettiva necessità di adottare soluzioni invasive per la privacy.

Come sottolinea lo European Data Protection Board nel suo Statement on the processing of personal data in the context of the COVID-19 outbreak, le autorità pubbliche dovrebbero prima cercare di elaborare i dati di localizzazione in modo anonimo e, solo quando ciò non sia possibile, valutare misure diverse. 

Per questo motivo oggi il centro Hermes ha inviato alla Presidenza del Consiglio, al Ministro per l’innovazione tecnologica e la digitalizzazione, al Ministro dello Sviluppo Economico e al Ministro dell’Università e Ricerca, la richiesta di garantire che tutte le misure di sanità pubblica adottate per contrastare il coronavirus rispettino rigorosamente i diritti fondamentali.

Il centro Hermes invita i Ministri a tenere in considerazioni alcuni principi essenziali per garantire il giusto bilanciamento tra privacy dei cittadini e la loro salute, come ad esempio ridurre al minimo la quantità di dati raccolti, garantire forme robuste di anti-deanonimizzazione dei dati, adottare la massima trasparenza per ogni processo decisionale, stabilire in anticipo tempi certi per le scadenze della raccolta e del trattamento dei dati, e garantire la supervisione da parte della società civile.

Qui è disponibile una copia della lettera inviata.

Maggiori informazioni: