La struttura dell’AI Act: un regolamento basato sul rischio
L’AI Act introduce il primo modello normativo al mondo costruito su una classificazione del rischio.
L’idea è semplice e pragmatica: non tutte le AI sono uguali, e non tutte richiedono lo stesso livello di controllo.
La regolazione si divide in quattro categorie:
1. Sistemi ad uso vietato – pratiche manipolative, sorveglianza biometrica non mirata,
sistemi che sfruttano vulnerabilità o influenze subliminali.
2. Sistemi ad alto rischio – AI che incidono su diritti fondamentali, sicurezza, accesso al lavoro,
credito, istruzione, giustizia, infrastrutture critiche. Richiedono valutazioni di impatto, trasparenza,
documentazione tecnica, gestione dei dati e supervisione umana.
3. Sistemi a rischio limitato – richiedono solo trasparenza minima (es. chatbot dichiarati).
4. Sistemi a rischio minimo – quasi tutti quelli non classificati, privi di obblighi specifici.
Modelli Fondativi e GPAI: la vera rivoluzione del regolamento
Il regolamento riconosce formalmente una categoria nuova: i modelli fondativi (foundation models) e i
GPAI – General Purpose AI, ovvero i modelli in grado di svolgere molteplici compiti e
diventare la base di applicazioni successive.
Per questi sistemi l’AI Act introduce:
– requisiti di documentazione e trasparenza,
– gestione dei dataset e misure contro bias e allucinazioni,
– watermarking dei contenuti generati,
– valutazioni di sicurezza e robustezza,
– obblighi aggiuntivi per i modelli ad alto impatto.
Trasparenza, responsabilità e governance dei modelli
La logica dell’AI Act è chiara: le imprese devono sapere cosa accade nei sistemi che usano, e gli utenti devono
sapere quando interagiscono con un sistema artificiale. La trasparenza diventa un asse portante:
– dichiarazione obbligatoria di contenuti artificiali,
– sistemi generativi che indicano l’origine dei dati,
– watermark invisibili per contrastare disinformazione e manipolazione.
La responsabilità è multilivello: coinvolge sviluppatori, distributori, integratori e utenti professionali.
Chi introduce un modello deve valutarne gli impatti e predisporre controlli adeguati.
Impatto sul mercato e sulle imprese
L’AI Act non vuole rallentare l’innovazione: vuole creare condizioni di fiducia.
Le PMI avranno misure proporzionate e semplificazioni, mentre il mercato beneficerà di standard uniformi
applicabili in tutta l’Unione Europea.
L'applicazione sarà graduale: molte norme entreranno in vigore tra il 2025 e il 2027, con standard tecnici
definiti dagli organismi europei di normazione (CEN/CENELEC).
📌 Classificazione del rischio
– uso vietato
– alto rischio
– rischio limitato
– rischio minimo
📌 Obblighi per i modelli fondativi
– gestione dataset
– sicurezza e robustezza
– watermarking
– trasparenza sugli output
– documentazione tecnica
📌 Obblighi per le imprese
– governance interna
– controlli proporzionati
– valutazioni di impatto
– supervisione umana
– conformità CE
📌 Temi centrali dell’AI Act
– trasparenza
– accountability
– watermarking
– sicurezza
– bias & dataset
– modelli fondativi e GPAI
A cura dell’Avv. Giuseppe Fragola,
esperto in AI e TechLaw e architetto dei flussi informativi.
Dal 1999 guida ICC Digital Media e sviluppa ecosistemi digitali ad alto valore, integrando visione strategica, diritto e responsabilità tecnologica.
Autore nel 2020 del
Manifesto Illuminismo Digitale
.
Strumenti utili per Professionisti ESG
Corso ESG su Coursera
Approfondisci sostenibilità, governance e finanza ESG con i migliori corsi online delle università internazionali.
Scopri i CorsiETF ESG su Scalable Capital
Investi nei principali ETF ESG globali con commissioni competitive e piattaforma intuitiva.
Vai a ScalableSicurezza per la Governance
Proteggi i dati aziendali e i report ESG con una VPN affidabile e veloce conforme agli standard di governance.
Attiva la VPN