In un contesto tecnologico in rapida evoluzione, l'Unione Europea si fa strada con una mossa storica: l'introduzione del rivoluzionario AI Act. Questo nuovo quadro normativo, atteso per il voto nel 2024, mira a stabilire nuovi standard globali in termini di sicurezza e trasparenza per gli sviluppatori di intelligenza artificiale, tra cui OpenAI e altri. Con l'obiettivo di equilibrare innovazione e diritti fondamentali, l'AI Act potrebbe rappresentare una svolta significativa nella regolamentazione dell'AI a livello mondiale.
Cosa rappresenta l'AI Act?
L'AI Act, come detto, è un punto di svolta nella politica tecnologica dell'UE, perché introduce un quadro completo per la sicurezza e la trasparenza dell'intelligenza artificiale.
Dopo oltre 36 ore (tempo effettico) di dibattiti intensi, i funzionari dell'UE hanno finalizzato un insieme di linee guida, che al momento sono le più rigorose a livello globale. Questo atto pone l'Europa come un esempio per altre nazioni nel campo della regolamentazione dell'AI.
Quali sono i punti del nuovo AI Act?
Il fulcro dell'AI Act è la classificazione degli strumenti e delle applicazioni AI in quattro "categorie di rischio". Le AI con il più alto livello di rischio affrontano un esame regolamentare intenso. Tra queste ci sono veicoli autonomi, strumenti per infrastrutture critiche, dispositivi medici e sistemi di identificazione biometrica.
Questi sistemi "ad alto rischio" richiederanno valutazioni d'impatto sui diritti fondamentali, severi requisiti di trasparenza e dovranno essere registrati in un database pubblico dell'UE.
I divieti e le sanzioni
Oltre a definire le categorie di rischio, l'AI Act proibisce categoricamente alcuni usi dell'intelligenza artificiale. Tra questi, il riconoscimento facciale in tempo reale (un traguardo inseguito da tempo), il riconoscimento delle emozioni e i sistemi di "credito sociale" sono vietati.
Le importanti aziende tecnologiche statunitensi (come OpenAI e Google) che gestiscono "sistemi AI di uso generale", dovranno conformarsi a nuovi standard imposti dall'UE. Questi includono l'aggiornamento delle autorità dell'UE sui metodi di addestramento dei loro modelli e la creazione di politiche per aderire alle leggi sul copyright dell'UE.
Le aziende tecnologiche che violano queste regole potrebbero affrontare multe significative, che variano tra l'1,5% e il 7% del loro fatturato totale. Tanto? Poco? Sufficiente a dissuadere, oppure no? Domande destinate a non avere risposta, per ora.
Commenti
Posta un commento
Partecipa alla discussione