Skip to main content

L’AI Act, recentemente approvato dall’Unione Europea, rappresenta una svolta epocale nella regolamentazione dell’intelligenza artificiale (IA). Questo regolamento innovativo è destinato a stabilire nuovi standard di trasparenza, sicurezza e responsabilità per lo sviluppo e l’utilizzo dei sistemi di IA in Europa. Con l’obiettivo di proteggere i diritti fondamentali dei cittadini e garantire un uso etico della tecnologia, l’AI Act introduce un quadro normativo rigoroso e dettagliato che le aziende devono seguire.

1. Entrata in Vigore

Agosto 2024
Il primo passo importante è l’entrata in vigore del regolamento, che avverrà 20 giorni dopo la sua pubblicazione nella Gazzetta ufficiale dell’Unione Europea. Questo è un momento fondamentale, poiché segna l’inizio ufficiale dell’applicazione dell’AI Act. Le aziende e gli sviluppatori di IA devono iniziare a familiarizzare con le nuove norme e prepararsi a conformarsi alle future scadenze.

2. Divieto sui Sistemi di IA ad Alto Rischio

Febbraio 2025
Sei mesi dopo l’entrata in vigore, entrerà in atto il divieto per i sistemi di IA considerati a rischio inaccettabile. Questi includono tecnologie che manipolano i comportamenti delle persone, sistemi di sorveglianza biometrica, raccolta massiva di immagini facciali da internet e riconoscimento delle emozioni in ambienti come scuole e luoghi di lavoro. Le uniche eccezioni riguardano specifiche situazioni di sicurezza pubblica gestite dalle forze dell’ordine.

3. Codici di Condotta

Maggio 2025
Tre mesi dopo l’implementazione del divieto sui sistemi ad alto rischio, entreranno in vigore i codici di condotta. Questi codici sono progettati per garantire che i principi dell’AI Act siano integrati nelle operazioni quotidiane delle aziende. In particolare, si concentrano su sostenibilità ambientale e sociale, formazione, alfabetizzazione e principi etici nella produzione tecnologica. Sarà importante che questi codici siano chiari e misurabili per evitare pratiche di “tech-washing”.

4. Regole di Governance per l’IA Generale

Agosto 2025
Un anno dopo l’entrata in vigore, le regole di governance e gli obblighi per l’IA di scopo generale diventeranno applicabili. Questo riguarda sistemi come ChatGPT e Google Bard, che dovranno rispettare rigidi requisiti di trasparenza. I contenuti generati da questi sistemi dovranno essere chiaramente etichettati, e gli utenti devono essere informati quando interagiscono con un’intelligenza artificiale. I deepfake, ad esempio, dovranno essere chiaramente identificati tramite watermarking o altre tecniche simili.

5. Applicazione per i Sistemi di IA ad Alto Rischio

Agosto 2026
Due anni dopo l’entrata in vigore, l’AI Act diventerà applicabile ai sistemi di IA ad alto rischio. Questi includono sistemi di identificazione biometrica, algoritmi usati in infrastrutture critiche, educazione, lavoro, amministrazione pubblica, forze dell’ordine e giustizia. Le aziende dovranno garantire che questi sistemi rispettino rigidi requisiti di trasparenza, sicurezza e controllo. Dovranno inoltre mantenere registri dettagliati e aggiornati per tutta la vita commerciale dell’algoritmo, permettendo di tracciare eventuali problemi e risolverli tempestivamente.

6. Applicazione Completa del Regolamento

Agosto 2027
Tre anni dopo l’entrata in vigore, il regolamento sarà pienamente applicabile in tutte le sue parti. Questo include l’obbligo per gli sviluppatori di IA di rispettare tutte le normative, inclusi i requisiti di sorveglianza biometrica, che saranno permessi solo in casi specifici come la ricerca di vittime di reati o minacce terroristiche. Le aziende che non rispettano le norme rischiano sanzioni severe, fino a 35 milioni di euro o il 7% del fatturato globale annuo.

Implicazioni per le Aziende

Le aziende che sviluppano o utilizzano intelligenza artificiale in Europa devono prepararsi ad adeguarsi a una serie di nuove normative che coprono vari aspetti, dalla trasparenza alla sicurezza, fino alla protezione dei dati personali. La conformità con l’AI Act non solo eviterà sanzioni, ma contribuirà anche a costruire un ambiente di fiducia e sicurezza intorno all’uso dell’IA.