Intelligenza Artificiale: la Commissione europea presenta la prima proposta di regolamento

20/04/2021

In un’era in cui l’Intelligenza Artificiale (IA) offre un crescente potenziale in molteplici settori, l'UE affronta lo sviluppo di nuove norme globali e stabilisce gli standard per una tecnologia etica in tutto il mondo, mantenendo il proprio ruolo di leadership. Il potenziale, però, genera anche rischi in virtù dei quali la Commissione europea ha presentato la prima proposta di regolamento mai realizzata in Europa, volta a identificare e ad affrontare tali rischi per un’Intelligenza Artificiale affidabile.

Attraverso il nuovo regolamento, l’Europa nutrirà una maggiore fiducia nei confronti di ciò che l'IA ha da offrire incentrando il suo sviluppo sull'uomo.

Motivi e obiettivi della proposta

La nuova proposta stabilisce le regole per lo sviluppo dell’Intelligenza Artificiale in Europa secondo un approccio proporzionato al rischio. Essa propone un'unica definizione: “L'intelligenza artificiale è una famiglia di tecnologie in rapida evoluzione che può portare a un'ampia gamma di vantaggi economici e sociali in tutto lo spettro delle industrie e delle attività sociali”. L’Unione ha riconosciuto l’importanza di redigere una regolamentazione dettagliata poiché elementi e tecniche che alimentano i benefici socio-economici dell'IA possono condurre a nuovi rischi.

L’approccio e il rischio

Le nuove regole saranno applicate trasversalmente in tutti gli Stati membri secondo un approccio basato sui diversi gradi di rischio.

  • Rischio inaccettabile:

Il “rischio inaccettabile” comprende tutti quei sistemi di IA il cui uso è considerato inaccettabile in quanto in contrasto con i valori dell'Unione (ad esempio, se violano i diritti fondamentali sanciti dalla Carta). L’elenco delle pratiche proibite, infatti, racchiude le azioni che possono potenzialmente manipolare le persone attraverso tecniche subliminali al di là della loro consapevolezza o di sfruttare le vulnerabilità di specifici gruppi al fine di distorcere materialmente il loro comportamento. Altre pratiche manipolative o di sfruttamento che colpiscono gli adulti e che potrebbero essere facilitate dai sistemi di IA potrebbero essere coperte dalla legislazione esistente in materia di protezione dei dati, protezione dei consumatori e servizi digitali che garantiscono che le persone fisiche siano adeguatamente informate. Infine, è vietato anche l'uso di sistemi di identificazione biometrica a distanza "in tempo reale" in spazi accessibili al pubblico ai fini di applicazione della legge, a meno che non si applichino alcune eccezioni limitate.

  • Rischio elevato:

I sistemi di IA a “rischio elevato” sono permessi sul mercato europeo a condizione che siano conformi ad alcuni requisiti obbligatori e a una valutazione di conformità ex-ante. La classificazione di un sistema di IA a rischio elevato si basa sullo scopo previsto del sistema di intelligenza artificiale, in linea con la legislazione esistente sulla sicurezza dei prodotti. Pertanto, la classificazione a “rischio elevato” non dipende solo dalla funzione svolta dal sistema di IA, ma anche dallo scopo specifico e dalle modalità di utilizzo di tale sistema.

Due le categorie principali di sistemi AI ad alto rischio:

  1. sistemi di intelligenza artificiale destinati a essere utilizzati come componenti di sicurezza di prodotti soggetti a valutazione di conformità ex-ante da parte di terzi;
  2. altri sistemi IA autonomi con implicazioni sui diritti fondamentali.

I requisiti

I sistemi di IA dovranno rispettare una serie di requisiti orizzontali obbligatori e seguire procedure di valutazione di conformità prima che tali sistemi siano immessi sul mercato dell'Unione. Tale procedimento di gestione comprenderà le seguenti fasi:

  1. identificazione e analisi dei rischi noti e prevedibili;
  2. stima e valutazione dei rischi;
  3. valutazione di altri rischi che possono emergere sulla base dell'analisi dei dati raccolti dal sistema di monitoraggio;
  4. adozione di adeguate misure di gestione del rischio.

Nell'individuare le misure di gestione dei rischi più appropriate, occorrerà garantire quanto segue:

  1. l'eliminazione o la riduzione dei rischi per quanto possibile attraverso un'adeguata progettazione e sviluppo;
  2. l'attuazione di adeguate misure di mitigazione e controllo;
  3. l'attuazione di adeguate misure di mitigazione e di controllo in relazione ai rischi che non possono essere eliminati;
  4. fornitura di informazioni adeguate.

I test ex-ante

I test saranno obbligatori e assicureranno che i sistemi IA ad alto rischio funzionino in modo coerente e siano conformi ai requisiti. Le prove saranno effettuate in qualsiasi momento nel corso del processo di sviluppo e prima di ogni messa in commercio o  in servizio.

La trasparenza

I sistemi di IA ad alto rischio sono progettati e sviluppati in modo da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare eventuali rischi.

Distributori, importatori, utenti o qualsiasi altro terzo dovranno attenersi al regolamento.

  • Rischio basso o minimo

I sistemi identificati come a rischio limitato, invece, prevedono che gli utenti siano consapevoli della propria interazione con una macchina in modo da poter agire consapevolmente. Essi includono applicazioni come videogiochi o filtri antispam e non saranno soggetti a regolamento poiché rappresentano un rischio valutato minimo o nullo per i diritti o la sicurezza dei cittadini.

La base giuridica

La scelta di un regolamento come strumento giuridico è frutto dalla necessità di un'applicazione uniforme delle nuove norme in tutta Europa. La base giuridica risiede nell'articolo 114 del trattato sul funzionamento dell'Unione europea (TFUE). Esso prevede l'adozione di misure che garantiscano il funzionamento del mercato interno evitandone la frammentazione sui requisiti per i prodotti e i servizi di IA, la loro commercializzazione, il loro uso, la supervisione da parte delle autorità pubbliche e la diminuzione della certezza del diritto per fornitori e utenti

I diritti fondamentali

L’Unione europea ha sottolineato la propria propensione a garantire un alto livello di protezione dei diritti fondamentali. La proposta influirà inoltre positivamente sui diritti dei gruppi speciali. Gli obblighi di test ex-ante e la supervisione faciliteranno la tutela di altri diritti fondamentali. Questo contribuirà a minimizzare il rischio di decisioni errate o tendenziose in aree critiche (l'istruzione e la formazione, l'occupazione, l'applicazione della legge e il sistema giudiziario). I divieti coprono anche le pratiche che possono manipolare le persone attraverso tecniche subliminali finalizzate al condizionamento del comportamento, causando danni psicologici o fisici a loro o a terzi.

Governance e attuazione

A livello dell'Unione, la proposta istituisce un Comitato Europeo per l'Intelligenza Artificiale, composto da rappresentanti degli Stati membri e della Commissione. Con la propria consulenza, il Comitato faciliterà un'attuazione regolare, efficace e armonizzata del regolamento. Gli Stati membri dovranno designare una o più autorità nazionali competenti.

Per facilitare le operazioni di controllo verrà creata una banca dati europea per i sistemi autonomi ad alto rischio con particolare attenzione ai diritti fondamentali. Tale banca sarà gestita dalla Commissione.

Il regolamento prevede anche la segnalazione in fase di post-commercializzazione e le indagini su incidenti e malfunzionamenti legati all'IA. L'applicazione ex-post garantirà alle autorità pubbliche i poteri e le risorse per intervenire nel caso in cui i sistemi di IA generassero rischi imprevisti. Esse potranno inoltre richiedere qualsiasi documentazione e organizzare test del sistema di IA ad alto rischio attraverso mezzi tecnici.

L'approccio europeo ai nuovi prodotti di macchinari

I macchinari coprono una vasta gamma di prodotti di consumo e professionali e il nuovo Regolamento Macchine ne definisce i requisiti di salute e sicurezza. Mentre il regolamento IA affronterà i rischi di sicurezza dei sistemi IA, il nuovo regolamento macchine assicurerà l'integrazione sicura della IA nel macchinario. Le imprese dovranno eseguire una valutazione di conformità.

Il nuovo Regolamento Macchine risponderà alle esigenze del mercato apportando una maggiore chiarezza giuridica alle disposizioni attuali, semplificando l'onere amministrativo e i costi per le imprese. Fornirà inoltre formati digitali per la documentazione garantendo la coerenza con il quadro legislativo dell'UE.

PIANO COORDINATO SULL'INTELLIGENZA ARTIFICIALE

REVISIONE 2021

La revisione del piano coordinato del 2021 propone una serie concreta di azioni congiunte su come creare una leadership globale e affidabile dell'UE sull'IA. La Commissione europea insieme agli Stati membri e agli attori privati sfrutteranno i finanziamenti dell'UE disponibili  attraverso i programmi Digital Europe (DEP), Horizon Europe (HE) e il Recovery and Resilience Facility (RRF)5. La Commissione ha proposto che l'Unione investa nell'IA almeno 1 miliardo di € all'anno da Horizon Europe e dai programmi Digital Europe nel periodo di programmazione 2021-2027. Questo finanziamento a livello di UE dovrebbe promuovere la collaborazione tra gli Stati membri.

L'obiettivo è quello di aumentare gradualmente gli investimenti pubblici e privati in IA per un totale di 20 miliardi di € all'anno.

Obiettivo

Le azioni congiunte previste per l’attuazione del Piano Coordinato mirano a creare una leadership globale dell’UE in materia di IA affidabile. Le azioni chiave proposte riflettono la visione in base alla quale la Commissione europea, gli Stati membri e i soggetti privati dovranno:

  1. accelerare gli investimenti nelle tecnologie di IA per stimolare una ripresa economica e sociale resiliente attraverso soluzioni digitali;
  2. agire sulle strategie e sui programmi in modo da attuarli pienamente e tempestivamente, al fine di garantire che l’UE possa beneficiare appieno del vantaggio della prima mossa; e
  3. allineare le politiche per eliminare la frammentazione e affrontare le sfide globali.

Creare condizioni favorevoli

Tre le condizioni per sostenere lo sviluppo e per raggiungere gli obiettivi:

  1. un quadro di governance e di coordinamento che aiuti a costruire economie di scala, ridurre al minimo  i costi di informazione e di transazione e faciliti le sinergie tra gli Stati membri;
  2. garantire la protezione dei dati personali;
  3. elaborare un'infrastruttura di calcolo per memorizzare, analizzare ed elaborare banche dati di grandi dimensioni.

La revisione propone quindi tre azioni chiave: costruire un quadro di governance per acquisire, accumulare e condividere efficacemente le intuizioni politiche sull'IA; sfruttare il potenziale dei dati; promuovere un'infrastruttura di calcolo.

La Commissione ha istituito tre gruppi di esperti:

  1. Gruppo di esperti di alto livello sull'intelligenza artificiale;
  2. Gruppo di esperti di alto livello sull'impatto della trasformazione digitale sui mercati del lavoro dell'UE;
  3. Gruppo di esperti sulla responsabilità e le nuove tecnologie;

Come gli Stati membri investiranno nell’IA

Con il fine di massimizzare le risorse e coordinare gli investimenti attraverso i programmi Digital Europe e Horizon Europe, la Commissione prevede di investire 1 miliardo di € l’anno in IA. L’obiettivo è mobilitare ulteriori investimenti da parte del settore privato e degli Stati membri al fine di raggiungere un volume di investimenti annuo di 20 miliardi di € entro il 2030. Il dispositivo per la ripresa e la resilienza di recente adozione, il più grande pacchetto di incentivi mai finanziato dal bilancio dell’UE, mette a disposizione 134 miliardi di  € per il digitale.

IA e obiettivi Green Deal

La Commissione contribuirà a un’IA sostenibile, ad esempio sviluppando modelli di IA a minore intensità di dati e a basso consumo energetico. Come annunciato nella strategia dell’UE per i dati, il programma Digital Europe consentirà alla Commissione di investire in un’IA rispettosa dell’ambiente attraverso la creazione di spazi di dati in settori quali ambiente, energia e agricoltura. La Commissione investirà inoltre in strutture di prova e sperimentazione incentrate sull’ambiente e sul clima.

Luca Persiani

Autore
Luca Persiani
Argomento
Focus