Via libera del Parlamento europeo all’AI Act, prima legge mondiale sull’intelligenza artificiale che mira a tutelare i diritti fondamentali, lo Stato di diritto, la democrazia e la sostenibilità ambientale dai sistemi di AI ad alto rischio.
Approvato con una larga maggioranza di voti (523 favorevoli, 46 contrari e 49 astenuti), il testo normativo stabilisce degli obblighi in relazione ai potenziali rischi e al livello d’impatto dell’AI ed è volto a promuovere l’innovazione garantendo all’Europa, prima al mondo a disciplinare compiutamente l’intelligenza artificiale, un ruolo preminente nel settore.
“Accolgo con favore lo straordinario sostegno del Parlamento europeo al nostro AI Act, le prime regole complete e vincolanti al mondo per un’AI affidabile. L’Europa è ora un regolatore globale degli standard nel campo dell’intelligenza artificiale. Stiamo regolamentando il meno possibile, ma quanto necessario”, ha dichiarato tramite social il commissario Ue al Mercato interno Thierry Breton.
Il nuovo testo normativo vieta le applicazioni di AI che possono costituire una minaccia per i diritti dei cittadini, tra cui i sistemi di categorizzazione biometrica basati su caratteristiche sensibili o l’estrazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di videosorveglianza per creare banche dati di riconoscimento facciale. Vietati anche i sistemi di riconoscimento delle emozioni nelle scuole e nei luoghi di lavoro, nonché le attività di polizia predittiva che si basino esclusivamente sulla profilazione del soggetto, così come i sistemi che influenzano i comportamenti delle persone.
Sono tuttavia previste delle eccezioni al divieto di utilizzo di sistemi di identificazione biometrica per le forze dell’ordine, ad esempio per la ricerca di persone scomparse o per la prevenzione di attacchi terroristici, purché sia assicurato il rispetto di rigorose garanzie; l’impiego di tali sistemi, considerato a posteriori ad alto rischio, necessiterà infatti che la relativa autorizzazione giudiziaria sia connessa ad un reato.
Specifici obblighi sono previsti anche per altri sistemi di AI considerati ad alto rischio per la possibilità che rechino pregiudizio alla salute, ai diritti fondamentali, alla sicurezza, all’ambiente, alla democrazia e allo Stato di diritto. Per tali sistemi sarà necessario valutare e ridurre i rischi, tenere dei registri d’uso, garantire sorveglianza umana e trasparenza. I cittadini potranno inoltre presentare reclami sui sistemi di intelligenza artificiale e ottenere riscontro sulle decisioni fondate su sistemi di AI ad alto rischio che hanno ripercussioni sui loro diritti.
I modelli di intelligenza artificiale dovranno rispettare determinati requisiti di trasparenza e la normativa europea in tema di diritto d’autore durante le fasi di addestramento; sono previsti obblighi ulteriori per i modelli il cui impiego può comportare maggiori rischi, come ad esempio nel caso dei contenuti multimediali artificiali o manipolati, i quali dovranno essere esplicitamente identificati come tali.
Gli Stati membri dell’Ue dovranno inoltre istituire e rendere accessibili aree di sperimentazione normativa e procedure di prova in condizioni reali, così che le PMI e le start-up possano sviluppare e addestrare nuovi sistemi di AI prima di immetterli sul mercato.
Commenti
Posta un commento
Partecipa alla discussione