Regolamento AI,  ecco cosa prevede la normativa europea

regolamento ai

Approfondimenti

L’AI Act, o Regolamento sull’Intelligenza Artificiale, è un provvedimento legislativo dell’Unione Europea che mira a stabilire un quadro normativo completo per lo sviluppo, l’utilizzo e la commercializzazione dell’intelligenza artificiale all’interno dell’UE. L’obiettivo principale dell’AI Act è quello di promuovere lo sviluppo e l’utilizzo di un’intelligenza artificiale sicura, affidabile e responsabile, che rispetti i diritti fondamentali e i valori dell’UE. 

Classificazione delle AI in base al loro livello di rischio

L’Intelligenza Artificiale (IA) rappresenta una tecnologia rivoluzionaria con un immenso potenziale per il progresso umano. Tuttavia, come ogni strumento potente, nasconde un duplice volto: da un lato, promette soluzioni innovative che migliorano la nostra vita quotidiana, dall’altro, presenta rischi per la sicurezza, i diritti e l’equità. 

Un aspetto chiave del regolamento è la classificazione dei sistemi di IA in base al loro livello di rischio, suddividendoli in quattro categorie:

1. Rischio Inaccettabile: Comprende sistemi che violano i valori e i principi fondamentali dell’UE, come la dignità umana e lo stato di diritto. Sono vietati o soggetti a severe restrizioni. Esempi includono sistemi che manipolano il comportamento umano o abilitano il “punteggio sociale” da parte delle autorità pubbliche.

2. Rischio Elevato: Raggruppa sistemi che possono avere un impatto significativo sui diritti o la sicurezza delle persone. Prima di essere immessi sul mercato o utilizzati, devono rispettare rigorosi obblighi e requisiti. Rientrano in questa categoria, ad esempio, i sistemi utilizzati per la selezione del personale, l’accesso all’istruzione, la fornitura di servizi sociali essenziali, la sorveglianza biometrica e le applicazioni giudiziarie e di polizia.

3. Rischio Limitato: Comprende sistemi che possono influenzare i diritti o le scelte degli utenti in misura minore rispetto a quelli ad alto rischio. Sono soggetti a requisiti di trasparenza per garantire agli utenti di essere consapevoli dell’interazione con un sistema di IA. Esempi includono sistemi utilizzati per la generazione o la manipolazione di contenuti audiovisivi e per fornire suggerimenti personalizzati.

4. Rischio Minimo o Nullo: Raggruppa sistemi che non hanno alcun impatto diretto sui diritti o la sicurezza delle persone e offrono agli utenti un ampio margine di scelta e controllo. Sono liberi da qualsiasi obbligo normativo per favorire l’innovazione e la sperimentazione. Rientrano in questa categoria, ad esempio, i sistemi utilizzati per scopi ludici o estetici.

Regolamento AI: requisiti di conformità per i produttori e gli utenti di AI

Al centro dell’AI Act vi è la classificazione del rischio dei sistemi di IA, che, come abbiamo visto, suddivide i sistemi in quattro categorie: inaccettabile, elevato, limitato e minimo o nullo. Tale classificazione determina i requisiti di conformità che i produttori e gli utenti di IA devono rispettare.

I produttori di sistemi ad alto rischio, ad esempio quelli utilizzati per la selezione del personale o il riconoscimento facciale, hanno l’obbligo di implementare rigorosi sistemi di gestione del rischio, condurre valutazioni di conformità e sottostare a monitoraggi da parte di organismi indipendenti.

Anche gli utenti di sistemi AI hanno delle responsabilità: scegliere sistemi conformi all’AI Act, utilizzarli in modo sicuro e responsabile e garantire la conformità dei dati utilizzati alle norme sulla protezione dei dati.

L’AI Act introduce inoltre importanti obblighi di trasparenza validi per tutti i livelli di rischio, che garantiscono agli utenti di essere informati quando interagiscono con un sistema di IA e di conoscere le sue capacità e limitazioni.

Clicca sull’immagine e scarica la tabella riassuntiva.

Sanzioni previste in caso di violazione delle norme del regolamento AI

L’AI Act prevede un sistema di sanzioni amministrative per le violazioni delle sue norme, con l’obiettivo di dissuadere i comportamenti non conformi e promuovere il rispetto del regolamento. Le sanzioni possono essere applicate dalle autorità nazionali competenti in ciascuno Stato membro. 

Le sanzioni possono essere molto severe: 

  • Fino a 30 milioni di euro: Per le violazioni più gravi, come la messa sul mercato o l’utilizzo di sistemi AI vietati o non conformi a obblighi di valutazione e conformità per i sistemi ad alto rischio.
  • Fino al 6% del fatturato globale annuo dell’impresa: In alternativa ai 30 milioni di euro, può essere applicata una percentuale del fatturato, a seconda di quale sia il valore più alto.

Le violazioni più gravi, come la messa sul mercato di sistemi AI vietati o il mancato rispetto degli obblighi di valutazione per i sistemi ad alto rischio, saranno punite con le sanzioni più pesanti. Le autorità nazionali competenti possono anche ordinare il ritiro dal mercato o la cessazione dell’utilizzo di sistemi AI non conformi.

Oltre alle sanzioni pecuniarie, le violazioni dell’AI Act possono comportare anche la pubblicazione delle informazioni sulle sanzioni applicate e l’avvio di procedimenti penali.

Le imprese che sviluppano o utilizzano sistemi di intelligenza artificiale devono quindi prestare molta attenzione a rispettare tutte le norme dell’AI Act. Le sanzioni previste sono severe e non è da sottovalutare il rischio di incorrere in esse.L’intelligenza artificiale ha il potenziale per rivoluzionare molti aspetti della nostra vita, ma è fondamentale che questo avvenga in modo responsabile e sicuro. L’AI Act rappresenta un primo passo importante in questa direzione, ma è solo l’inizio di un percorso che richiederà impegno e collaborazione da parte di tutti.

Contattaci

Troveremo insieme la soluzione adatta alle tue esigenze