AI Act, dal 2 febbraio scattano i primi divieti: sanzioni fino al 7% del fatturato





Articolo Precedente
Articolo Successivo
Da domenica 2 febbraio 2025, sono operative le prime disposizioni dell’AI Act, il regolamento europeo sull’intelligenza artificiale approvato nel 2024, che introduce un quadro normativo inedito per lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA. Sebbene l’Unione Europea sia stata pioniera in questo campo, il cosiddetto “Bruxelles effect” – quel fenomeno per cui le norme Ue diventano uno standard globale, come accaduto con il Gdpr – non è ancora realtà. Diversi Paesi extra Ue stanno osservando con attenzione, e non senza critiche, l’evoluzione di questa legislazione, che potrebbe influenzare future regolamentazioni internazionali.
Il regolamento, pubblicato sulla Gazzetta Ufficiale dell’Unione Europea il 12 luglio 2024, è entrato in vigore ad agosto dello stesso anno, ma è solo da febbraio 2025 che le aziende sono tenute a rispettare le nuove norme. L’obiettivo principale dell’AI Act è garantire che l’intelligenza artificiale sia antropocentrica, affidabile e in linea con i valori europei, promuovendo al contempo l’innovazione e proteggendo la salute, la sicurezza e i diritti fondamentali sanciti dalla Carta dei diritti dell’Unione. Tra questi, rientrano anche la tutela della democrazia, dello Stato di diritto e dell’ambiente, oltre alla prevenzione degli effetti nocivi derivanti dall’uso improprio dei sistemi di IA.
Le pratiche vietate, che includono l’uso di sistemi di IA per manipolare il comportamento umano in modo da causare danni fisici o psicologici, sono ora soggette a sanzioni severe. Le aziende che non rispetteranno le norme rischiano multe fino a 35 milioni di euro o al 7% del fatturato globale annuo, a seconda di quale dei due importi sia maggiore. Questo approccio punitivo mira a scoraggiare abusi e a garantire che l’intelligenza artificiale sia sviluppata e utilizzata in modo responsabile.
L’AI Act rappresenta un tentativo di bilanciare innovazione e protezione, in un contesto in cui le potenzialità dell’IA sono ancora in gran parte inesplorate. Le istituzioni europee hanno voluto anticipare i rischi, imponendo restrizioni rigorose e stabilendo un codice di condotta chiaro. Tra le preoccupazioni principali vi è l’uso di sistemi di IA generativa, che, sebbene promettano progressi significativi, potrebbero essere utilizzati in modo dannoso per i diritti dei cittadini e la sicurezza pubblica.