AI: l’Europa approva la regolamentazione. Cosa cambia?

Una decisione che fa seguito a dibattiti intensi iniziati nel 2021, culminata in una normativa che stabilisce regole stringenti per l’uso dell’Intelligenza artificiale, benché alcune delle proposte più severe siano state mitigate da compromessi dell’ultimo minuto.
Con 523 voti favorevoli l’Atto sull’Intelligenza artificiale dell’Unione Europea, l’AI Act, è stato ufficialmente adottato.

Il via libera dal Parlamento Europeo alla normativa sull’AI segna un punto di svolta per il controllo di questa tecnologia. La normativa cerca di bilanciare la promozione dell’innovazione tecnologica con la tutela dei diritti civili e la protezione dei consumatori, ponendo la UE come ‘leader’ nella regolamentazione dell’Intelligenza artificiale a livello mondiale.

No a sistemi per la sorveglianza di massa sì a restrizioni dei sistemi ‘ad alto rischio’

L’AI Act mira a proibire sistemi basati su AI per la sorveglianza pubblica di massa e impone restrizioni su sistemi ritenuti ‘ad alto rischio’ per la società, tra cui quelli applicati a infrastrutture critiche, educazione e formazione professionale, e sistemi di applicazione della legge.
La normativa è stata oggetto di dibattito non solo per le sue implicazioni all’interno dell’Unione ma anche per il suo potenziale impatto a livello globale, sollevando preoccupazioni tra le big tech negli Stati Uniti come OpenAI, Microsoft, Google e Meta.

Nonostante le critiche da parte di alcuni stati membri o figure politiche come il presidente francese Emmanuel Macron, che temono possa ostacolare l’innovazione, l’AI Act rappresenta un passo significativo verso la creazione di un quadro regolamentare equilibrato, riporta Adnkronos.

“Un modello di sviluppo che metta l’essere umano davvero al centro”

“Siamo molto soddisfatti del risultato e dell’ampia maggioranza raggiunta – commenta Brando Benifei, relatore all’Eurocamera per l’AI Act e capodelegazione del Pd al Parlamento europeo – ora bisogna concentrarsi sull’attuazione, sugli investimenti, sulla condivisione delle capacità dei supercomputer e sul lavoro con i partner internazionali, per affermare un nostro modello di sviluppo dell’AI che metta l’essere umano davvero al centro”. 

Ora spetta agli Stati membri istituire agenzie nazionali di supervisione

I sistemi considerati ad alto rischio saranno soggetti a regole severe che si applicheranno prima del loro ingresso nel mercato della UE.
Le norme generali sull’AI si applicheranno un anno dopo l’entrata in vigore, nel maggio 2025, e gli obblighi per i sistemi ad alto rischio in tre anni, sotto la supervisione delle autorità nazionali, supportate dall’ufficio creato ad hoc della Commissione europea.

Spetta ora agli Stati membri istituire agenzie nazionali di supervisione. Un portavoce della Commissione ha dichiarato a Euronews che i Paesi hanno 12 mesi di tempo per nominare gli organi di controllo.