Approfondimenti

AI Act: le regole europee sull'intelligenza artificiale entrano in vigore

Con l'applicazione progressiva dell'AI Act, l'Europa consolida il proprio approccio regolatorio. Cosa cambia per imprese, pubblica amministrazione e ricerca.

Dal 2 agosto 2026 si applicano integralmente le disposizioni dell’AI Act relative ai sistemi di intelligenza artificiale ad alto rischio. Si chiude così il percorso di implementazione graduale del primo regolamento al mondo sull’IA, entrato in vigore nell’agosto 2024.

Un quadro normativo a rischi differenziati

L’AI Act classifica i sistemi di IA in quattro categorie: rischio inaccettabile (vietati), alto rischio (soggetti a obblighi stringenti), rischio limitato (obblighi di trasparenza) e rischio minimo (nessun obbligo specifico). La categoria ad alto rischio include, tra gli altri, i sistemi usati in ambito sanitario, giudiziario, scolastico e nel reclutamento del personale.

Per le imprese che sviluppano o immettono sul mercato questi sistemi, gli obblighi principali riguardano: valutazione di conformità, registrazione in una banca dati europea, documentazione tecnica, supervisione umana e gestione dei rischi.

Il nodo della pubblica amministrazione italiana

Le PA italiane che utilizzano sistemi di IA per l’erogazione di servizi pubblici sono direttamente coinvolte. Ho presentato un’interrogazione parlamentare alla Commissione europea per sapere quante amministrazioni degli Stati membri abbiano già avviato le procedure di conformità e quali risorse siano state allocate per la formazione del personale.

Verso un ecosistema dell’innovazione

La sfida non è solo regolatoria. L’Europa deve evitare che il rigore normativo si traduca in un vantaggio competitivo per i grandi operatori extraeuropei. Ho sostenuto in commissione gli emendamenti che prevedono sandbox regolatori per le PMI e le startup, riducendo i costi di compliance per i soggetti che non dispongono di uffici legali strutturati.