Intelligenza Artificiale, vietato il riconoscimento facciale in luoghi pubblici

Arrivano le regole del Parlamento Europeo: con il voto all’AiAct ha stabilito nuove regole per l’IA che riguardano anche il riconoscimento dei connotati

di DOMENICO GUARINO
2 giugno 2023

L'Eurocamera vota contro il riconoscimento facciale con l'IA

Vietato il riconoscimento facciale in luoghi pubblici e trasparenza nella generazione dei contenuti: con il voto all’AiAct le commissioni Giustizia e Mercato interno del Parlamento Europeo (58 i voti a favore, 36 contrari e 10 astenuti) hanno stabilito nuove regole per l’Intelligenza Artificiale La messa al bando era stata chiesta da Socialisti, Verdi e Liberali. In sostanza d’ora in avanti sarà vietato l’ uso delle tecnologie IA per il riconoscimento delle persone attraverso la lettura dei connotati facciali in tutti gli Stati dell’Ue. Il Parlamento europeo ha dato il via libera all’AiAct, il documento che stabilisce per la prima volta le nuove regole europee per l’Intelligenza Artificiale. Il punto che ha fatto più scalpore è stato il voto dell’Eurocamera per il divieto totale di uso delle tecnologie IA per il riconoscimento facciale nei luoghi pubblici negli Stati dell’Ue.

Intelligenza Artificiale: i limiti

A pochi giorni dall’allarme lanciato da Sam Altman (ceo di l’azienda che ha dato vita a ChatGpt) secondo cui “l’intelligenza artificiale è pericolosa e potrebbe portare all’estinzione dell’umanità”, l’Unione Europea è la prima a provare a regolamentare una vera e propria rivoluzione per evitare una pericolosa deriva. Non sono mancate le discussioni, ovviamente anche perché il tema è altamente divisivo, mettendo contro le tesi dei permissivisti e dei rigoristi.
intelligenza-artificiale-facciale

AI Act, super limiti al riconoscimento facciale, “ma in Italia il rischio c’è ancora”

Il Parlamento è di fatto spaccato in due: una parte le tesi di chi è contrario al riconoscimento facciale da parte di Intelligenze Artificiali, sostenendo che si tratti di sistemi di sorveglianza totale e che si debba urgentemente dibattere sull’influenza che l’IA sta avendo sulle nostre vite, dall’altra chi è favorevole e ritiene che lo sviluppo di questo sistemi possa prevenire crimini e salvaguardare la sicurezza nazionale. In particolare i deputati che si sono fatti promotori del testo approvato vogliono far sì che i sistemi di IA siano supervisionati da persone formate, affinché si accerti che siano sicuri, trasparenti, non discriminatori, tracciabili ed anche rispettosi per l’ambiente che ci circonda. La disposizione riguarda anche i modelli generativi di contenuti (che tutti conosciamo ormai come Chat Gpt) che d’ora in poi dovranno rispettare requisiti di trasparenza, rendendo noto che il contenuto è stato generato dall’Intelligenza Artificiale. Sarà posta anche attenzione alla progettazione per impedire che dia il via a contenuti illegali. Ed andranno riepilogati i dati protetti da copyright utilizzati per la formazione. Viene richiesta anche una definizione uniforme per l’IA che dovrà essere progettata per essere neutrale dal punto di vista tecnologico. Inoltre i sistemi di IA considerati con livello di rischio inaccettabile per le persone dovranno essere banditi. Si tratta ad esempio di quelli che impiegano tecniche subliminali o intenzionalmente manipolative o che vengono usati per attribuire un punteggio sociale, cioè per classificare gli individui in base al loro stato socio-economico e al loro comportamento.
intelligenza-artificiale-facciale

L'Eurocamera vota contro il riconoscimento facciale con l'IA

Infine sono stati così aggiunti all’elenco ad alto rischio i sistemi di intelligenza artificiale che vanno ad influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione delle piattaforme di social media. Secondo Gianclaudio Malgieri, professore dell’università di Leiden, autore del libro Vulnerability and data protection law: “La proposta del Parlamento europeo sul Fundamental Right Impact Assessment va nella direzione giusta per molti motivi. Una nota degna di menzione è il riferimento ai soggetti vulnerabili (sia come gruppi che come individui) su cui il fundamental rights impact assessment deve concentrarsi. Il problema sarà concretizzare questi principi, ma lo sforzo dovrà essere collettivo (accademia, istituzioni e società civile) nel fornire modelli chiari e misurabili per valutare e mitigare gli effetti sui diritti fondamentali”. Il voto finale sul testo da parte del Parlamento in seduta plenaria è previsto per il 14 giugno. Da quel momento inizieranno i triloghi, che si auspica finiranno entro la fine della legislatura, prima elle elezioni che dovrebbero tenersi tra il 6 e il 9 giugno 2024.