Immagine in evidenza: conferenza stampa sull’AI Act, fonte: Parlamento Europeo
L’intelligenza artificiale è sempre più una questione politica. Già prima dell’esplosione degli strumenti di IA generativa – è noto a tutti il caso di ChatGPT – l’Unione Europea ha iniziato a lavorare a una proposta di regolamento conosciuto come AI Act, pensato per regolare gli utilizzi delle tecnologie di intelligenza artificiale all’interno degli Stati membri. La proposta è considerata uno dei più ambiziosi progetti normativi nel mondo occidentale. L’AI Act è stato da poco adottato dalle due commissioni che hanno guidato il processo all’interno del Parlamento Europeo, la Commissione IMCO (Mercato Interno e Protezione dei Consumatori) e LIBE (Libertà civili, giustizia e affari interni), in una votazione avvenuta l’11 maggio. Proprio in questi giorni è prevista l’approvazione definitiva da parte dell’assemblea plenaria del Parlamento (il 13 giugno ci sarà il dibattito e il 14 la votazione). Dopo questo passo inizieranno i cosiddetti “triloghi”, le negoziazioni tra i due organi legislativi dell’Unione (Parlamento e Consiglio) e la Commissione Europea. Il Consiglio è l’organo che insieme al Parlamento detiene il potere legislativo in Europa, ed è composto da rappresentanti dei Governi degli Stati membri. Insomma, le fasi procedurali sono tutt’altro che concluse.
L’AI Act non sta proseguendo il suo viaggio da solo: all’ultimo vertice del G7, tenutosi a Hiroshima, in Giappone, i leader mondiali hanno discusso di un framework comune per la regolamentazione dell’intelligenza artificiale. Negli Stati Uniti Sam Altman, il Ceo di OpenAI ha testimoniato di fronte al Congresso federale. “L’intelligenza artificiale può fare diversi danni”, ha detto Altman. Il CEO ha proposto un sistema di licenze per le compagnie che intendono sviluppare sistemi complessi di intelligenza artificiale, gestito da un’agenzia governativa.
Tra negoziazioni istituzionali e dibattiti pubblici dai toni distopici, abbiamo cercato di fare un quadro dei punti principali del regolamento sull’intelligenza artificiale, spiegando quali sono i nodi principali su riconoscimento facciale in tempo reale in spazi pubblici, polizia predittiva, sistemi di riconoscimento delle emozioni, chatbot e contenuti generati da IA e controllo delle frontiere.
Un sistema basato sul rischio
L’AI Act ha una struttura cosiddetta “risk-based”, ovvero basata sulla valutazione del rischio. Esistono obblighi diversi per i provider di tecnologie e servizi a seconda del livello di rischio identificato dai legislatori. Alcuni usi dell’IA sono addirittura considerati del tutto proibiti. Tra questi vi sono l’identificazione biometrica in tempo reale in spazi pubblici, i sistemi di polizia predittiva e i sistemi di riconoscimento delle emozioni utilizzati in ambito di sicurezza, lavorativo ed educativo.
“I rischi sono stati identificati e categorizzati sulla base di tre aspetti principali”, spiega a Guerre di Rete Brando Benifei, europarlamentare e membro dell’Alleanza progressista di Socialisti e Democratici, co-relatore del testo in Parlamento insieme a Dragoş Tudorache. “Salute, sicurezza e rispetto dei diritti fondamentali. I sistemi classificati come “ad alto rischio” sono soggetti a obblighi specifici di certificazione e trasparenza. Vi sono poi delle istanze in cui vengono riconosciuti dei rischi limitati – ad esempio, nel caso di chatbot deve essere chiaro che a fornire gli output non è un essere umano”.
Il cuore del regolamento è ovviamente costituito dalle pratiche proibite. “Il Parlamento Europeo ha allargato gli ambiti di divieto: abbiamo ad esempio introdotto proibizioni più stringenti rispetto alla sorveglianza biometrica negli spazi pubblici e abbiamo inserito il divieto di uso di sistemi di polizia predittiva”, continua Benifei. “Queste pratiche infatti non aumentano la sicurezza dei cittadini, ma rischiano di danneggiarla”.
ChatGPT e le intelligenze artificiali generative
Nel testo dell’AI Act vengono identificati i cosiddetti “modelli fondativi” (foundational models), tra cui è incluso anche GPT-4, il modello linguistico alla base della popolare applicazione ChatGPT. Nel testo, questi sistemi vengono descritti come modelli addestrati su dati ampi e su scala, e progettati per un’ampia gamma di applicazioni. La definizione è contenuta nell’articolo 3.
Le aziende o le organizzazioni che sviluppano tali modelli saranno soggette a una serie di obblighi, ad esempio “dimostrare, attraverso una progettazione, una sperimentazione e un’analisi appropriate, che l’identificazione, la riduzione e la mitigazione dei rischi ragionevolmente prevedibili per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo stato di diritto precedono e accompagnano lo sviluppo”.
Riconoscibilità di contenuti generati da IA
Le intelligenze artificiali generative hanno conosciuto un’esplosione di popolarità a partire dalla fine dello scorso anno. Questo ha spinto i legislatori a modificare il regolamento per includere le nuove applicazioni.
“Abbiamo allargato lo scopo del testo per includere questi modelli, che inizialmente sfuggivano al proposito del regolamento”, prosegue Benifei. “Abbiamo inserito degli obblighi di trasparenza rafforzata. I contenuti generati da intelligenza artificiale dovranno essere chiaramente riconoscibili. Abbiamo inserito anche una clausola sulla riconoscibilità dei deepfake, con lo scopo di combattere la disinformazione. I provider di intelligenze artificiali generative avranno anche l’obbligo di dare una lista sufficientemente esaustiva di materiali coperti da copyright utilizzati per l’addestramento degli algoritmi”.
La necessità di regolare l’uso di IA generativa è riconosciuta anche da una parte dei leader dell’industria. “Nella fase iniziale di stesura del testo abbiamo incontrato delle resistenze da parte dell’industria. Ma con l’esplosione delle applicazioni di IA generativa, questa pressione si è allentata. C’è la consapevolezza, anche nel settore, che non sia possibile non regolare l’uso di tecnologie simili”.
No alla sorveglianza biometrica in spazi pubblici
Diverse organizzazioni per i diritti umani e digitali si sono esposte in azioni di advocacy su alcuni aspetti dell’AI Act. In una dichiarazione pubblicata subito dopo il voto nelle Commissioni dell’11 maggio, la coalizione European Digital Rights (EDRi) composta da 47 organizzazioni della società civile, si è dichiarata soddisfatta di alcuni passi compiuti nel testo di compromesso, in particolare rispetto alla proibizione della sorveglianza biometrica in spazi pubblici.
“Gli eurodeputati hanno ascoltato l’avvertimento di oltre 80 gruppi della società civile e di decine di migliaia di sostenitori della campagna Reclaim Your Face, decidendo di porre fine a molte delle pratiche chiave che equivalgono alla sorveglianza biometrica di massa (BMS). Si tratta di una vittoria significativa nella lotta contro le pratiche che violano la nostra privacy e la nostra dignità e che trasformano i nostri spazi pubblici in luoghi di sospetto e di soppressione dei nostri diritti e delle nostre libertà democratiche”, si legge nel comunicato.
Rimasti fuori i diritti dei migranti e la gestione frontiere
Restano, secondo gli attivisti, alcune criticità, soprattutto rispetto alla protezione delle persone migranti e alla gestione delle frontiere, un tema fortemente politicizzato e un’area in cui l’intelligenza artificiale rischia di risultare in pratiche estremamente discriminatorie.
“La proposta ha un impianto complessivo risk-based, ovvero basato sulla categorizzazione dei rischi”, commenta a Guerre di Rete Caterina Rodelli, EU Policy Analyst per l’organizzazione Access Now. “E’ diverso, ad esempio, da altre legislazioni, come il General Data Protection Regulation (GDPR), che invece sono rights-based, ovvero focalizzate su una serie di diritti fondamentali. Il problema principale riguarda la definizione di questi rischi: chi e in che modo li identifica? E chi sono i soggetti e i gruppi presi in considerazione?”
“Il Parlamento europeo non è riuscito a proteggere i diritti dei migranti dalla sorveglianza discriminatoria. Gli eurodeputati non hanno incluso nell’elenco delle pratiche vietate l’uso dell’intelligenza artificiale per facilitare i respingimenti illegali o per profilare gli individui in modo discriminatorio. Senza questi divieti, il Parlamento europeo sta aprendo la strada all’utilizzo di un panopticon alle frontiere dell’UE”, si legge ancora nella dichiarazione di EDRi.
Il tema sarà anche probabilmente molto dibattuto in fase di negoziazioni interistituzionali, con l’organo co-legislativo (il Consiglio, composto dai ministri competenti degli Stati Membri) che premerà per introdurre delle eccezioni per quanto riguarda le forze di polizia e l’applicazione delle politiche migratorie.
“Il testo originario della Commissione prevedeva molte eccezioni all’applicazione della legge, in particolare nell’ambito delle forze di polizia. E sappiamo che in molti casi le politiche migratorie e quelle di pubblica sicurezza convergono”, commenta ancora Rodelli. “Dopo il voto in plenaria il Parlamento entrerà ai triloghi con la consapevolezza che il Consiglio spingerà perché l’AI Act e le sue limitazioni non siano applicate alle forze di polizia e alle autorità migratorie”.
Tecnologie automatizzate di sorveglianza già usate ai confini
Uno dei problemi è che le tecnologie automatizzate di sorveglianza dei confini sono già in uso ai confini europeo. A maggio del 2022, Access Now ha mappato l’utilizzo di tecnologie di intelligenza artificiale per il controllo delle frontiere in Europa. “Ci sono forti interessi in gioco”, specifica Rodelli. “C’è un’infrastruttura di sorveglianza che questa legislazione ha la possibilità di mettere in discussione. Il Consiglio probabilmente si opporrà all’allargamento dei ban.”
Anche Brando Benifei anticipa una situazione simile. “Sarà un negoziato probabilmente difficile”, precisa. “Il Parlamento Europeo [sulle tematiche legate alla sicurezza] ha una visione diversa rispetto a quella che probabilmente avranno molti Governi”.
“Le frontiere sono sempre un terreno di sperimentazione e una cartina tornasole per le legislazioni vigenti”, conclude Rodelli. “Se non sono in grado di proteggere le persone ai margini della società, la loro efficacia resta limitata.”
Il Consiglio aveva già adottato una posizione a novembre del 2022, in cui esprimeva la necessità di garantire alle forze dell’ordine un certo grado di flessibilità, anche nell’utilizzo di sistemi generalmente proibiti dalla legislazione, oppure considerati ad alto rischio. Euractiv riporta, al momento, anche diverse tensioni tra i gruppi parlamentari in vista del dibattito in plenaria. Le negoziazioni tra Parlamento, Consiglio e Commissione potranno andare avanti per diversi mesi: ci si aspetta tuttavia che il regolamento verrà formalmente adottato prima delle prossime elezioni europee, previste per giugno 2024.