Immagine in evidenza: Arthur Mazi via Unsplash
Nel Regno Unito, nel giorno dell’incoronazione di re Carlo, sono stati scansionati 68mila volti, compresi quelli dei manifestanti anti-monarchici. Quello messo in campo dalle forze dell’ordine il 6 maggio scorso è stato uno dei dispiegamenti più massicci di sistemi con riconoscimento facciale nella città di Londra.
La Polizia metropolitana britannica prima dell’evento aveva promesso di “non avere intenzione di utilizzare la tecnologia per reprimere proteste legali o prendere di mira attivisti”, ma le parti della società civile da sempre attente al tema della sorveglianza tecnologica sanno che c’è poco da fidarsi.
“Abbiamo già assistito a un’enorme repressione delle proteste prima dell’incoronazione, con nuove misure introdotte proprio questa settimana per limitare ulteriormente i modi in cui le persone possono far sentire la propria voce”, ha dichiarato Emmanuelle Andrews della ong Liberty al Guardian, “ora è probabile che il riconoscimento facciale venga utilizzato per monitorare chiunque voglia esercitare il proprio diritto di protestare, uno scenario estremamente preoccupante”.
Già a gennaio 2021, Amnesty International lanciava una campagna per abolire i sistemi di riconoscimento facciale, “una forma di sorveglianza di massa che viola il diritto alla privacy e minaccia la libertà di espressione e associazione”. Questo tipo di tecnologia, inoltre, “esacerba il razzismo sistemico” andando a impattare in maniera sproporzionata le minoranze, già soggette alla discriminazione e alle violazioni dei propri diritti da parte delle forze dell’ordine.
Il team di ricerca della Essex University, guidato dal professor Pete Fussey, nel 2020 aveva condotto l’unico studio indipendente sulle telecamere con riconoscimento facciale utilizzate dalla Polizia metropolitana di Londra e aveva dimostrato come solo il 19% dei casi rilevati potesse ritenersi accurato, a dispetto del 70% di affidabilità millantato dalle autorità londinesi.
L’intelligenza artificiale nelle mani di Putin
Ma se il riconoscimento facciale gode di buona salute in democrazia, nei paesi autoritari è in forma splendente. Lo scorso marzo Reuters ha esaminato più di 2000 processi che si sono celebrati a Mosca, in Russia, dimostrando come in centinaia di questi le forze dell’ordine abbiano utilizzato il riconoscimento facciale per arrestare manifestanti e oppositori politici.
Un donna di 32 anni, architetta, arrestata già due volte per aver preso parte a delle manifestazioni, ha raccontato che lo scorso anno la polizia si è ripetutamente presentata davanti casa sua, e che in un’occasione l’agente le ha detto esplicitamente che “potevano controllare in qualsiasi momento se fosse in casa o meno accedendo alle immagini delle telecamere proprio all’entrata del suo palazzo”.
Decine di intervistati poi hanno raccontato di essere stati fermati dalla polizia nelle stazioni della metro, dove gli agenti hanno fatto intendere di essere riusciti ad individuarli grazie ai sistemi di riconoscimento facciale.
Il sistema di riconoscimento facciale utilizzato in Russia si chiama Sphere e, come spiega Laura Carrer su Wired, è in grado di riconoscere le persone ricercate e avvisare la polizia nella metropolitana in 3-5 secondi. Sphere è in funzione dal primo settembre 2020 ed è in grado di trasformare il volto di un passeggero che attraversa il tornello in un’impronta biometrica univoca, confrontabile con le banche dati della polizia.
Più in generale, l’intelligenza artificiale ha aiutato la macchina della propaganda putiniana a tenere lontani gli oppositori politici delle strade ma anche a “bonificare” l’ecosistema virtuale.
Nell’agosto 2022, l’agenzia governativa incaricata di sorvegliare la rete internet in Russia, GRFC, ha sborsato 57 milioni di rubli (quasi 700mila euro) per sviluppare un sistema di intelligenza artificiale chiamato Oculus per monitorare qualsiasi contenuto viaggiasse sui social network. Secondo alcuni documenti riservati ottenuti da Radio Free Europe, l’agenzia GRFC ha creato una entity list sulla quale addestrare Oculus. Obiettivo: individuare post, immagini o video lesivi nei confronti del presidente Putin.
Tra le espressioni e le immagini contenute nella lista troviamo “Putin a forma di granchio”, “Putin a forma di falena”, così come “comparazioni con Hitler” o vampiri.
Nel recente rapporto “Automated Apartheid”, Amnesty International ha svelato l’esistenza di un sistema di riconoscimento facciale conosciuto con il nome di Red Wolf in Israele.
Red Wolf fa parte di un’estesa rete di sorveglianza che mira a rafforzare il controllo del Governo israeliano sulla popolazione palestinese e consolidare quello che Amnesty definisce “un sistema di apartheid”.
Le telecamere sono dispiegate ai checkpoint nella città di Hebron e in Cisgiordania, dove scansionano ogni giorno volti di palestinesi non consenzienti. Amnesty ha documentato l’aumento di telecamere soprattutto nelle aree adiacenti agli insediamenti illegali degli occupanti israeliani.
Questo tipo di sorveglianza, si legge nel rapporto, fa parte di “un deliberato tentativo da parte delle autorità israeliane di creare un ambiente ostile e coercitivo per i palestinesi, con l’obiettivo di ridurre la loro presenza in aree strategiche”.
Anche al Governo italiano piace il riconoscimento facciale
Per quanto riguarda l’Italia, tra le risposte che la destra avanza periodicamente per far fronte all’“emergenza sicurezza” c’è senz’altro quella di rafforzare la videosorveglianza nelle strade e “sbloccare il riconoscimento facciale”. L’ultimo a invocare quella che per molti amministratori comunali appare come una panacea è stato il Ministro dell’interno Matteo Piantedosi, che a gennaio ha varato un piano per incrementare la vigilanza nelle città di Milano, Roma e Napoli: oltre all’incremento degli agenti in stazioni e aree circostanti è previsto l’utilizzo di tecnologie dotate di identificazione biometrica.
“La videosorveglianza è uno strumento fondamentale. La sua progressiva estensione è obiettivo condiviso con tutti i sindaci”, ha dichiarato Piantedosi alla fine dello scorso aprile. “Il riconoscimento facciale dà ulteriori e significative possibilità di prevenzione e di indagine. Proprio in questi giorni abbiamo avviato specifiche interlocuzioni con il Garante [per la protezione dei dati personali] per trovare una soluzione condivisa”.
Tuttavia, le evidenze scientifiche raccolte negli ultimi anni vanno in tutt’altra direzione: se la videosorveglianza è di per sé un deterrente marginale contro il crimine o perlomeno molto limitato a certi contesti, la sorveglianza biometrica si è rivelata ancora più problematica viste le ripercussioni che ha sulla privacy dei cittadini, la reiterazione di bias (pregiudizi) discriminatori e l’alto rischio di utilizzi impropri da parte delle autorità.
In Italia è in vigore dal 2021 – e sarà valida almeno fino al 31 dicembre 2023 – una moratoria che vieta l’installazione e l’uso di sistemi di riconoscimento facciale tramite dati biometrici, “a meno che il trattamento non sia effettuato per indagini della magistratura o prevenzione e repressione dei reati”, si legge nel comunicato stampa del Garante per la protezione dei dati personali in cui si spiega che la moratoria “nasce dall’esigenza di disciplinare requisiti di ammissibilità, condizioni e garanzie relative al riconoscimento facciale”.
Questo perché non esiste ancora una legge che regoli l’utilizzo di tecnologie per l’identificazione biometrica e, più in generale, che dia un quadro normativo all’intelligenza artificiale. L’Unione Europea ci sta però lavorando da tempo, e l’iter legislativo è ormai a buon punto.
Il riconoscimento facciale in Europa secondo l’AI Act
L’AI Act – questo il nome del pacchetto di norme sullo sviluppo dell’intelligenza artificiale nell’Ue – è stato approvato lo scorso 11 maggio dalle commissioni Mercato interno e Libertà civili, per essere votato in sessione plenaria a Strasburgo a metà giugno.
Quella avanzata dai correlatori Brando Benifei (S&D, Italia) e Dragos Tudorache (Renew, Romania) è una proposta ambiziosa che ha come obiettivo quello di “garantire uno sviluppo etico dell’intelligenza artificiale che pone al centro l’uomo”.
Il testo fornisce prima di tutto una definizione condivisa di intelligenza artificiale (AI), ovvero un sistema progettato per funzionare con livelli di autonomia variabili e in grado di “generare output come contenuti, previsioni, raccomandazioni o decisioni che influenzano l’ambiente con cui il sistema interagisce, tanto in una dimensione fisica quanto in una digitale”. Rispetto alla prima bozza che “prevedeva eccezioni troppo estese”, ha spiegato lo stesso eurodeputato Benifei intervistato recentemente da La Stampa, nella nuova formulazione sono stati imposti maggiori divieti e limitazioni, soprattutto al riconoscimento facciale.
Sarà dunque vietato il riconoscimento facciale in tempo reale nei luoghi pubblici, mentre quello a posteriori sarà possibile solo previa autorizzazione di un giudice e per il perseguimento di reati gravi.
Il divieto varrà anche per la profilazione biometrica sulla base di elementi sensibili come etnia, genere, religione, orientamento politico e stato di cittadinanza; per i sistemi in grado di riconoscere gli stati emotivi e per quelli addestrati alla polizia predittiva, ovvero alla previsione di crimini futuri, della loro localizzazione e all’elaborazione di profili criminali. Non si potrà nemmeno fare scraping indiscriminato di dati biometrici catturati da social media o di filmati di videosorveglianza (CCTV) per creare database.
“Il Parlamento europeo con questi divieti sta inviando un messaggio significativo ai Governi e agli sviluppatori di AI di tutto il mondo, schierandosi dalla parte della società civile secondo cui alcuni utilizzi dell’intelligenza artificiale sono semplicemente troppo dannosi per essere consentiti”, ha dichiarato Sarah Chander, Senior Policy Adviser dello European Digital Rights (EDRi), associazione civile che si occupa della difesa dei diritti digitali.
La stessa ha anche sottolineato come “sfortunatamente, il sostegno del Parlamento europeo ai diritti della persona si sia fermato prima di tutelare quelli dei migranti”. Tra i divieti previsti nel testo, infatti, non c’è quello esplicito all’utilizzo discriminatorio dell’intelligenza artificiale e del riconoscimento facciale effettuato sulle persone migranti per facilitare i respingimenti illegali.
I confini “smart” con cani robot, telecamere e droni
Negli stessi giorni in cui l’AI Act veniva approvato dalle Commissioni europee, la Francia autorizzava l’uso di droni per la “cattura, registrazione e trasmissione di immagini” al fine di contrastare i passaggi irregolari al confine con l’Italia. Secondo la prefettura, quella dei droni è “la migliore soluzione” nonché il dispositivo “meno intrusivo”.
A utilizzarli nel Mediterraneo c’è anche Frontex, l’agenzia europea della guardia di frontiera e costiera, secondo cui la sorveglianza aerea è utile per salvare le persone in mezzo al mare e catturare i trafficanti. Un’indagine di Human Rights Watch e Border Forensics ha però dimostrato come Frontex abbia utilizzato i droni per individuare le barche dei migranti e segnalarle alla Guardia costiera libica.
Nel Regno Unito, invece, l’organizzazione Privacy International ha denunciato l’utilizzo di braccialetti elettronici con rilevatore GPS che i migranti devono indossare 24 ore su 24, 7 giorni su 7. La rilevazione costante della localizzazione diventa per le autorità competenti uno strumento per decidere, ad esempio, se concedere o meno il diritto di asilo o un permesso di soggiorno.
Come ha spiegato Eliot Bendinelli di Privacy International, “il problema principale di utilizzare un braccialetto elettronico nell’ambito dell’immigrazione è l’interpretazione del dato. Anche in uno scenario ipotetico in cui si hanno a disposizione dati accurati, non si può dire cosa stia veramente facendo una persona che indossa un braccialetto elettronico. Ad esempio: andare a fare la spesa ad un certo orario della sera può essere interpretato come l’acquisto di alcol, mentre la persona che frequenta regolarmente un luogo di culto o partecipa ad una manifestazione sarà etichettato come estremista”.
Se l’immagine di una persona costretta a trascorrere diverse ore per ricaricare il braccialetto elettronico senza alcuna possibilità di poterlo sfilare evoca una possibile puntata della serie Black Mirror, la distopia diventa meno remota se guardiamo alle politiche che stanno attuando gli Stati Uniti al confine con il Messico.
L’Agenzia per l’immigrazione statunitense, riporta Coda Story, sta testando un orologio da polso dotato di GPS e riconoscimento facciale da fornire ai migranti che attraversano il confine. L’apparecchio – sostengono i funzionari – servirà a ridurre i tempi di attesa per accedere ai colloqui con l’agenzia.
Entrando poi alla fiera Border Security Expo che si tiene ogni anno a El Paso (in Texas), come ha fatto la giornalista Candice Bernd, si assiste al tripudio della tecnologia pensata per la “sicurezza” dei confini : cani robot, sensori di movimento, modelli avanzati di droni e taser, armature antiproiettile e telecamere di sorveglianza di ogni forma e dimensione. A questo punto non è neanche più necessario costruire muri fisici. Un muro “intelligente”, infatti, composto da sistemi di riconoscimento facciale e droni, potrebbe rivelarsi una barriera persino peggiore di quella di acciaio.
Il principale sponsor della fiera quest’anno è la Anduril Industries, fondata dall’imprenditore Palmer Luckey insieme a tre ex dirigenti della Palantir. Tra i principali investitori della Anduril, nonché fondatore della Palantir, vi è nientemeno che Peter Thiel, il miliardario venture capitalist libertariano e sostenitore di Donald Trump.