Vivere in una #PaperBagSociety

Negli ultimi mesi abbiamo puntato l’attenzione sui pericoli della sorveglianza biometrica di massa. Nel farlo abbiamo anche studiato e capito quanto siano complessi i sistemi che si basano sui dati biometrici. Abbiamo cercato di trovare diversi modi per ingannarli, guardando alle tecnologie di sorveglianza del riconoscimento facciale impiegate nei nostri spazi pubblici. I risultati però sono chiari: come singoli individui, è terribilmente difficile ingannare la sorveglianza biometrica di massa. Non possiamo sfuggire all’algoritmo.

Questo è il motivo per cui uno degli organizzatori della campagna ha scherzato dicendo: “Mettiamoci un sacchetto di carta in testa e saremo al sicuro dalla sorveglianza del riconoscimento facciale.

Allora ci siamo chiesti: come sarebbe vivere la vita di tutti i giorni con un sacchetto di carta sulla testa? Abbiamo bisogno di usare un sacchetto di carta per proteggere i nostri volti dalle inquietanti tecnologie di riconoscimento facciale? È questa la società in cui vogliamo vivere? 

 La #PaperBagSociety è una realtà distopica, una metafora del modo in cui la sorveglianza biometrica di massa sopprime le nostre scelte, la nostra parola e le nostre libertà. 

Ci siamo resi conto che questo potrebbe essere un perfetto esercizio di immaginazione per chiunque voglia capire meglio perché abbiamo bisogno di un mondo libero da tecnologie intrusive che tracciano i nostri corpi e comportamenti. 

Così è nata la #PaperBagSociety challenge

La #PaperBagSociety è una sfida sui social media e fa parte della campagna #ReclaimYourFace. La sfida invita tutti a condividere sui social l’impatto che avrebbe vivere con un sacchetto di carta in testa. 

Creando degli scenari assurdi, questa azione vuole focalizzare l’attenzione sul perché il desiderio di evitare le inquietanti tecnologie di sorveglianza biometrica negli spazi pubblici non dovrebbe essere un pesante fardello che ricade su di noi, le persone. 

Invece, un futuro alternativo è possibile. Ci sono soluzioni per prevenire una società dove tutti indossiamo una busta di carta in testa: dobbiamo vietare la sorveglianza biometrica di massa in tutta l’UE e oltre!

Partecipa alla sfida #PaperBagSociety!

  1. Vai a fare una passeggiata in uno spazio accessibile al pubblico (piazza pubblica, per strada, in una stazione ferroviaria, un supermercato, un caffè, uno stadio, un centro commerciale, ecc);
  2. Mettiti un sacchetto di carta e prova a vivere nello spazio pubblico;
  3. Fai un video o una foto dell’esperienza e condividila sui social media;
  4. Ricorda di taggare #ReclaimYourFace & #PaperBagSociety e spiega ai tuoi amici perché dobbiamo vietare la sorveglianza biometrica di massa;

P.S. Prima di ogni altra cosa: assicurati di non mettere in pericolo te stesso o gli altri. Non fare nulla di pericoloso.

P.P.S. Hai la fortuna di essere cittadino di un paese dell’UE? FIRMA per vietare la sorveglianza biometrica di massa!

Il Centro Hermes e altre 3 associazioni hanno inviato segnalazioni e reclami contro Clearview AI

Una coalizione di associazioni che include il Centro Hermes, Privacy International, Homo Digitalis e noyb – the European Center for Digital Rights ha inviato una serie di segnalazioni contro Clearview AI, Inc., un’azienda di riconoscimento facciale che afferma di avere “il più grande database conosciuto con oltre 3 miliardi di immagini di volti.” I reclami e le segnalazioni sono stati inviati alle Autorità per la protezione dei dati personali di Austria, Francia, Grecia, Italia, e Regno Unito.

Come sottolineato nelle nostre analisi, Clearview AI utilizza un sistema automatico per fare scraping delle immagini, uno strumento che scandaglia il web e raccoglie immagini in cui rileva la presenza di un volto umano. Clearview AI fa scraping di miliardi di immagini dai social media e da altri siti sul web. Tutti questi volti vengono poi analizzati dall’algoritmo di riconoscimento facciale di Clearview AI per costruire un gigantesco database di dati biometrici. Clearview vende poi l’accesso a questo database a forze dell’ordine e aziende private.

A causa della sua natura estremamente invasiva, l’impiego di sistemi per il riconoscimento facciale, e specialmente qualunque modello di business che punta a sfruttarli, solleva gravi preoccupazioni per le società moderne e le nostre libertà individuali. Il mese scorso, il Garante per la protezione dei dati personali italiano ha bloccato i piani della polizia che prevedevano l’impiego del riconoscimento facciale in tempo reale. “Le tecnologie per il riconoscimento facciale mettono in pericolo le nostre vite sia quando siamo su internet che quando siamo in strada,” ha dichiarato Fabio Pietrosanti, Presidente del Centro Hermes. “Raccogliendo di nascosto i nostri dati biometrici, queste tecnologie introducono una sorveglianza costante dei nostri corpi.”

Le Autorità ora hanno 3 mesi di tempo per rispondere ai reclami. Al momento, le Autorità per la protezione dei dati dell’Italia e del Regno Unito stanno già esaminando le attività dell’azienda e ci auguriamo che le nostre segnalazioni possano fornire un supporto alle loro istruttorie. Ci aspettiamo inoltre che le Autorità dei diversi stati uniscano le proprie forze e collaborino insieme per stabilire che le attività di Clearview non sono ammesse in Europa—questo avrebbe ramificazioni importanti anche sulle attività a livello globale dell’azienda.

Clearview AI e la minaccia ai nostri diritti

Clearview è uscita allo scoperto nel gennaio 2020, quando un’inchiesta del New York Times ha rivelato al mondo intero le sue attività. Prima di allora, Clearview aveva operato in gran segreto mentre allo stesso tempo offriva il suo prodotto alle forze dell’ordine in vari paesi, nonché ad aziende private.

Insieme alle immagini dei volti, lo strumento di scraping di Clearview AI raccoglie anche i metadati associati alle immagini, come il titolo dell’immagine o quello del sito web da cui è presa, dati di posizione, e il link della fonte.

“Le leggi europee sulla protezione dei dati sono molto chiare quando si tratta delle finalità per cui le aziende possono usare i nostri dati” ha detto Ioannis Kouvakas, Legal Officer di Privacy International. “Estrarre le nostre caratteristiche facciali uniche o addirittura condividerle con la polizia e altre aziende va ben oltre quello che potremmo mai aspettarci come utenti online”.

“Clearview sembra voler scambiare Internet per uno spazio omogeneo e completamente pubblico dove tutto è lì a disposizione di tutti per essere preso” ha sottolineato Lucie Audibert, Legal Officer di Privacy International. “Tutto questo è chiaramente sbagliato. Tali pratiche minacciano il carattere aperto di Internet e i numerosi diritti e libertà che favorisce.”

Le cinque segnalazioni, alcune delle quali si basano anche su richieste di accesso effettuate dagli interessati, vanno ad aggiungersi a una serie di istruttorie avviate sulla scia delle rivelazioni dello scorso anno. “Solo perché qualcosa è ‘online’ non significa che sia lì per essere presa da altri in qualsiasi modo essi vogliano – e questo vale sia moralmente che legalmente,” ha dichiarato Alan Dahi, Data Protection Lawyer presso noyb. “Le Autorità per la protezione dei dati personali devono intervenire e impedire a Clearview e ad aziende simili di raccogliere i dati personali delle persone che risiedono in Europa.”

Secondo quanto riferito dai giornali, Clearview ha siglato contratti anche con alcune forze dell’ordine europee. In Grecia, a seguito di una richiesta di informazioni inviata da Homo Digitalis, la polizia ha negato la collaborazione con l’azienda. “È importante aumentare l’attenzione e lo scrutinio su questo tema. Le Autorità per la protezione dei dati hanno forti poteri investigativi e abbiamo bisogno di una reazione coordinata a queste partnership pubblico-privato,” ha ribadito Marina Zacharopoulou, Avvocata e membro di Homo Digitalis.

I cittadini e le cittadine europee possono chiedere a Clearview se il proprio volto è contenuto nel database e richiedere che i propri dati biometrici non siano più inclusi nelle ricerche inviando una richiesta all’indirizzo [privacy@clearview.ai] oppure seguendo le modalità offerte dalla piattaforma My Data Done Right.


Qui è disponibile il testo della segnalazione inviata al Garante per la protezione dei dati personali.

Ricorda che puoi firmare anche l’Iniziativa dei cittadini europei per chiedere il ban della sorveglianza biometrica di massa sul sito della campagna Reclaim Your Face.

La proposta di Regolamento sull’AI della Commissione Europea dimostra esattamente il motivo per cui chiediamo un divieto della sorveglianza biometrica di massa

Ieri la Commissione Europea ha presentato una proposta di Regolamento per l’Intelligenza Artificiale (AI) che sottolinea i rischi della sorveglianza biometrica di massa, e propone una nuova regolamentazione per vietare l’uso da parte delle forze dell’ordine di alcune di queste tecnologie —un piccolo passo nella giusta direzione.

In particolare, siamo lieti di vedere che la Commissione riconosca che la sorveglianza biometrica di massa ha un impatto altamente invasivo sui diritti e le libertà delle persone, così come il fatto che l’uso di queste tecnologie possa “influenzare la vita privata di una grande parte della popolazione ed evocare una sensazione di sorveglianza costante (…)“. Questi sono esattamente i motivi che hanno spinto la coalizione Reclaim Your Face a battersi per vietare la sorveglianza biometrica con una campagna pubblica, e dimostra che i nostri punti hanno colpito nel segno.

Purtroppo, però, siamo delusi perché la proposta odierna non fa abbastanza per proteggere le persone da molteplici tipologie di sorveglianza biometrica di massa che abbiamo già visto in azione in Europa. Come risultato la proposta si contraddice, permettendo alcune forme di sorveglianza biometrica di massa che però riconosce essere incompatibili con i nostri diritti fondamentali e con le libertà protette in Europa!

In particolare, la proposta vieta “l’identificazione biometrica da remoto” in “real-time” per finalità di sicurezza. Eppure, riteniamo ci siano ancora grossi problemi:

  • La formulazione è spesso vaga e contiene diversi elementi definiti in maniera poco precisa, lasciando ampio spazio di interpretazione e discrezione. Ciò riproduce molti dei problemi già esistenti nelle leggi sulla protezione dei dati personali che ci hanno portato a chiedere un divieto esplicito;
  • Il divieto si applica solo alle forze dell’ordine, ma non proibisce usi altrettanto invasivi e pericolosi da parte di altre autorità governative e di aziende private, che costituiscono comunque una sorveglianza biometrica di massa;
  • Il divieto per le forze dell’ordine presenta molte eccezioni definite in modo troppo ampio e che quindi potrebbero seriamente minarne lo scopo. In questo modo si lascia ampio spazio per una sorveglianza biometrica di massa continuativa dello spazio pubblico da parte delle autorità di polizia;
  • È vietata solo l’identificazione in “real-time” a fini di sicurezza. È quindi ancora possibile identificare persone dopo che le immagini sono state registrate (il riferimento nel regolamento a “post”, quindi dopo che un evento è avvenuto)—ciò vuol dire, per esempio, che la polizia potrebbe ancora usare il database di Clearview AI;
  • Tutte le altre pratiche di identificazione biometrica—inclusa quella spesso considerata psuedo-scientifica e altamente discriminatoria della “categorizzazione” biometrica—non sono vietate dalla proposta.

La coalizione Reclaim Your Face, composta al momento da 60 associazioni e gruppi che si occupano di diritti umani digitali e di giustizia sociale in tutta Europa, è nata a ottobre 2020 proprio per opporsi alla sorveglianza biometrica di massa in Europa. La coalizione ha sottolineato che questa pratica è invasiva, discriminatoria e antidemocratica.

Se l’Europa non vieterà la sorveglianza biometrica, il rischio di sorveglianza di massa nelle nostre città sarà estremamente reale. La tecnologia non può avere il potere di definire chi siamo, nè di controllarci. Privacy significa potere. Reclamare il possesso delle nostre città e degli spazi pubblici è il primo step per riappropriarci della nostra faccia.
Laura Carrer – Hermes Center for Transparency and Digital Rights

Dal riconoscimento facciale nei parchi e nelle scuole, alla biometria “intelligente” per sorvegliare i manifestanti, fino alla sorveglianza sistemica e oppressiva di gruppi emarginati della popolazione, per noi non c’è posto nelle nostre società per tecnologie biometriche che ci trasformano tutti in sospetti criminali. Le prove raccolte dalle nostre associazioni hanno rivelato che gli attuali abusi sono vasti e sistemici, e la nostra analisi ha dimostrato che l’unico modo per proteggere i diritti delle persone in Europa è quello di vietare queste pratiche. Non dovremmo essere costretti a guardarci le spalle ovunque andiamo.

Qui c’è l’analisi iniziale di EDRi sull’intera proposta di Regolamento— incluse le preoccupazioni per altri casi d’uso che sarebbero dovuti essere vietati ma così non è stato – e disposizioni che permettono a chi sviluppa sistemi di AI di farsi una auto-valutazione.

Per firmare la petizione: https://reclaimyourface.eu/it/  

Primi importanti risultati a due mesi dal lancio di Riprenditi la Faccia

La scorsa settimana abbiamo raggiunto e superato due importanti obiettivi nazionali della campagna contro l’utilizzo di tecnologie biometriche nello spazio pubblico Europeo.

Nella giornata di venerdì 16 aprile il Garante Privacy ha definito il sistema di riconoscimento facciale SARI Real Time, così come progettato, una possibile forma di sorveglianza ed identificazione di massa che non può essere utilizzata dal Ministero dell’Interno. Il Garante ha analizzato la valutazione d’impatto presentata dal Ministero e ha sottolineato come, allo stato attuale, non vi sia una base legale che autorizzi il trattamento di dati biometrici previsto dal sistema SARI.

La decisione, anche se arrivata dopo tre anni dall’apertura dell’istruttoria nata a seguito della pubblicazione di un articolo, è di grande importanza perché vieta l’utilizzo di tecnologie biometriche discriminanti e poco accurate da parte delle forze dell’ordine su tutti i cittadini. 

“Va considerato, in particolare, – afferma il Garante – che Sari Real Time realizzerebbe un trattamento automatizzato su larga scala che può riguardare anche persone presenti a manifestazioni politiche e sociali, che non sono oggetto di “attenzione” da parte delle forze di Polizia. Ed anche se nella valutazione di impatto presentata il Ministero spiega che le immagini verrebbero immediatamente cancellate, l’identificazione di una persona sarebbe realizzata attraverso il trattamento dei dati biometrici di tutti coloro che sono presenti nello spazio monitorato, allo scopo di generare modelli confrontabili con quelli dei soggetti inclusi nella “watch-list”.

Per il Garante questo tipo di sorveglianza biometrica porterebbe “dalla sorveglianza mirata di alcuni individui alla possibilità di sorveglianza universale allo scopo di identificare alcuni individui.” L’autorità però non si è limitata solo a questa valutazione ma ha sottolineato anche alcuni aspetti critici da tenere in considerazione per qualunque norma futura che regoli il riconoscimento facciale: dai “criteri di individuazione dei soggetti che possano essere inseriti nella watch-list o quelli per determinare i casi in cui può essere utilizzato il sistema” alle “eventuali conseguenze per gli interessati in caso di falsi positivi”— inclusi anche i rischi nei confronti di persone appartenenti a minoranze etniche.

Solo due giorni prima, mercoledì 14 aprile, c’è stata anche una prima risposta da parte della politica italiana al tema del riconoscimento facciale negli spazi pubblici: il deputato Filippo Sensi ha infatti depositato una proposta di legge per una moratoria sull’utilizzo di queste tecnologie. Nella proposta si fa riferimento ad una sospensione fino al 31 dicembre 2021 in attesa di un adeguato quadro legislativo a supporto. Indicazioni si aspettano anche il 21 aprile, quando l’Unione Europea si esprimerà nella tanto attesa normativa sull’IA. 

Il Centro Hermes seguirà certamente l’iter di legge puntando l’attenzione soprattutto su due punti: 

  • L’utilizzo di qualsiasi tecnologia di sorveglianza biometrica di massa deve essere vietato all’interno dello spazio pubblico europeo; 
  • Non devono essere fatte eccezioni per i sistemi utilizzati dalle forze dell’ordine. 

Il nostro lavoro in questo senso continua e sabato 17 aprile siamo stati ospiti di SkyTg24 proprio con un componente del Garante Privacy, l’onorevole Filippo Sensi e Privacy Network, associazione che supporta la campagna Riprenditi la Faccia. Sulla base della decisione contraria del Garante Privacy in merito a SARI Real Time, ci è stato assicurato che i 287 comuni che hanno ricevuto finanziamenti dal Ministero dell’Interno per installare nuovi impianti di videosorveglianza non potranno utilizzare tecnologie biometriche. 

 

Per firmare la petizione ed essere aggiornati sulla campagna, che ha già raggiunto quasi 50.000 persone in Europa: https://reclaimyourface.eu/it/ 

 

 

Aziende, scuole, aeroporti e piazze: il riconoscimento facciale è ovunque. E sorveglia i cittadini europei

Spesso sentiamo dire: “Riconoscimento facciale sui cittadini? Solo in Cina, l’Unione Europea è un insieme di paesi democratici. Non potrà mai succedere a noi.

Sfortunatamente, però, sta già succedendo. Di seguito puoi leggere alcuni esempi che documentano una rapida propagazione di sistemi di sorveglianza biometrica in molti paesi europei.

Qual è (l’unico) aspetto positivo? Che possiamo ancora fermarla. 

Negli ultimi anni, governi ed aziende private hanno spinto per installare o sperimentare tecnologie di sorveglianza che collezionano e processano i nostri dati personali, dati unici sui nostri corpi e i nostri comportamenti durante la nostra vita quotidiana. Questa per noi è sorveglianza di massa.

Nonostante l’Unione Europea dica che esistono già leggi che possano prevenire la sorveglianza dei cittadini, è chiaro che ci troviamo davanti a cavilli legislativi che permettono la sperimentazione di tecnologie biometriche che violano i diritti umani e vengono impiegate su tutti noi. Gli esempi parlano da soli. 

In Germania, la polizia ha sperimentato la sorveglianza biometrica di massa sulle persone che attraversavano la stazione Südkreuz di Berlino e ha sorvegliato i manifestanti del G20 ad Amburgo. Inoltre, è stato dimostrato che la famigerata società di riconoscimento facciale ClearviewAI ha raccolto illegalmente e utilizzato i volti delle persone che vivono in Germania da Internet.

In Austria, la polizia ha usato un software per il riconoscimento facciale in una fase di test a partire da dicembre 2019. Inizialmente, il Ministero dell’Interno aveva dichiarato che il confronto dei volti con il loro database sarebbe stato effettuato solo per indagare reati gravi, come ad esempio rapine in banca o omicidi. Invece, le risposte ad alcune interrogazioni parlamentari hanno rivelato un quadro completamente diverso. Nel 2020 il software è stato usato per 931 casi di reati in soli 10 mesi, inclusi reati minori. Stiamo parlando di circa tre ricerche al giorno. Ad agosto 2020 il sistema è entrato ufficialmente in funzione. Poco dopo, a settembre, i giornali hanno rivelato che il sistema è stato utilizzato dalla polizia per individuare persone che hanno partecipato a una manifestazione.

In Repubblica Ceca, la polizia ha acquistato il software di riconoscimento facciale Cogniware in grado di prevedere emozioni e genere e collegare ogni persona con le proprie informazioni finanziarie, i dati del telefono, l’auto che si guida, il posto di lavoro, i colleghi di lavoro, chi incontrano, i luoghi che visitano e cosa acquistano. Inoltre, l’aeroporto della capitale di Praga sta anche effettuando un ampio monitoraggio biometrico di tutte le persone, senza valutare i rischi, come la legge prevede.

Passando all’Italia, siamo rimasti davvero increduli nell’apprendere che la città di Como aveva segretamente installato, sulle videocamere di sorveglianza esistenti, un sistema di riconoscimento facciale real time allo scopo di … rilevare azioni di “vagabondaggio” e “sconfinamento”. L’aeroporto di Roma ha deciso invece di utilizzare il riconoscimento facciale per la gestione delle code. C’è di più: la polizia italiana ha in programma di espandere il proprio sistema di riconoscimento facciale per monitorare l’arrivo di migranti e richiedenti asilo sulle coste italiane, proprio come ha dichiarato in passato di essere disposta a utilizzare il riconoscimento facciale per monitorare i manifestanti

Per quanto riguarda la Grecia, un dato è certo: sappiamo che con l’Italia non condivide solo il Mediterraneo ma anche lo stesso amore delle autorità nazionali per il riconoscimento facciale di massa. L’esperimento distopico iBorderCTRL è un cosiddetto “rilevatore di bugie” che potrebbe capire se una persona mente in base alle proprie espressioni facciali. Inoltre, la polizia greca è stata colta in flagrante con un contratto di riconoscimento facciale “intelligente” da 4 milioni di euro rivelato nel 2020. Ora, l’autorità greca per la protezione dei dati ha iniziato a indagare sulla polizia greca per l’archiviazione e l’elaborazione illegali dei dati biometrici dei cittadini greci in enormi database centralizzati.

Nei Paesi Bassi, le aziende hanno introdotto tecnologie per la sorveglianza biometrica di massa come il riconoscimento facciale in tempo reale all’interno di palazzetti dello sport e per eventi come i concerti, nei negozi/supermercati e sui mezzi del trasporto pubblico. Le aziende sono state così aggressive nell’introduzione di queste tecnologie di sorveglianza che l’Autorità per la protezione dei dati olandese gli ha dovuto ricordare che queste pratiche sono illegali. In aggiunta, la polizia olandese ha incluso 1.3 milioni di persone nel suo sistema di riconoscimento facciale, molte di queste persone sono innocenti che non sono mai state accusate di un crimine. 

Mais oui, la Francia non è nuova alla sorveglianza biometrica di massa. A Marseille una scuola superiore ha introdotto il riconoscimento facciale contro i propri studenti. Anche la città francese di Nizza ha sperimentato il riconoscimento facciale nelle sue strade. Ma c’è di più, il governo francese ha un enorme database per il riconoscimento facciale (TAJ) che contiene 19 milioni di file e 8 milioni di immagini.

Cioccolato, birra e riconoscimento facciale di massa. Questo potrebbe essere il prossimo slogan promozionale del Belgio. Si è scoperto che chiunque camminasse all’interno dell’aeroporto Zaventeem di Bruxelles veniva spiato segretamente (esatto, non per il controllo dei passaporti), raccogliendo ed elaborando dati sui volti delle persone identificabili in maniera univoca.

Danimarca, vi er ikke enig. Nej. Il governo è riuscito a sfruttare i punti ciechi delle leggi europee e permettere la sorveglianza biometrica di massa sui tifosi di calcio. Il prossimo passo? Vendere l’idea come fosse varmt brød. Il Club di calcio Brøndby ha annunciato che a breve il volto di chiunque sarà scansionato per identificare le persone a cui è stato vietato di assistere alle partite di calcio del Brøndby IF. L’Autorità per la protezione dei dati personali danese ha approvato il sistema.

In Slovenia, si è scoperto che la polizia ricorre alla sorveglianza biometrica di massa. Lo stesso tipo di sorveglianza è stata impiegata per monitorare i manifestanti che esercitavano i propri diritti.

Anche la Svezia è nella mappa degli indiziati. La polizia svedese è stata multata per aver usato illegalmente Clearview AI (sì, di nuovo loro). Inoltre, una scuola svedese ha anche introdotto il riconoscimento facciale di massa per monitorare la frequenza scolastica.

In Polonia e Serbia, abbiamo visto persino altri casi. Una scuola polacca ha utilizzato l’impronta digitale biometrica per gestire la mensa scolastica e in Serbia abbiamo assistito al dispiegamento massiccio di videocamere con riconoscimento facciale nelle strade di Belgrado.

Questi sono solo alcuni degli esempi di cui siamo a conoscenza. Quante saranno le sperimentazioni e i progetti in fase di sviluppo, invece? 

Come se non bastasse, alcuni funzionari dell’UE stanno prendendo in considerazione eccezioni che potrebbero consentire l’impiego della sorveglianza biometrica di massa legalmente. Mentre noi stiamo dando l’allarme per i cavilli già esistenti nella legge, i funzionari preferiscono ampliarli e trasformarli definitivamente in legge. 

Chiediamo una normativa che risolva il vuoto legislativo nel quadro europeo, un vuoto che è attualmente sfruttato da aziende e governi per imporre la sorveglianza biometrica di massa su tutti noi. 

L’enorme quantità di prove dimostra di per sé il motivo per cui abbiamo bisogno di una nuova legge che vieti la sorveglianza biometrica di massa in tutta l’Unione Europea.

Aggiungi il tuo nome alla petizione ufficiale europea: https://reclaimyourface.eu/#sign