Loading...

Guide

AI Act: i sistemi ad alto rischio 

I sistemi di IA ad alto rischio offrono opportunità significative, ma pongono anche sfide importanti. Con l'AI Act, il Parlamento Europeo mira a bilanciare innovazione e tutela, assicurando che questi sistemi migliorino la vita delle persone rispettando i diritti fondamentali.

I sistemi di intelligenza artificiale

Indice dei contenuti

  • Cosa sono i sistemi di IA ad alto rischio? 
  • Profili di rischio 
  • Eccezioni alla classificazione 
  • Impatti sociali e industriali 
  • Regole di classificazione 
  • Applicazioni pratiche e obblighi 
  • Impatti sugli stati membri 

L’Artificial Intelligence Act (AI Act) rappresenta una pietra miliare nella regolamentazione dell’intelligenza artificiale ad alto rischio nell’Unione Europea.

Promulgato dal Parlamento Europeo, il regolamento stabilisce criteri rigidi per identificare e gestire i sistemi di IA ad alto rischio che possono influire su salute, sicurezza e diritti fondamentali. 

Cosa sono i sistemi di IA ad alto rischio? 

I sistemi di intelligenza artificiale ad alto rischio rappresentano una delle categorie più delicate e regolamentate nell’ambito dell’Artificial Intelligence Act. Si tratta di sistemi progettati per essere utilizzati in contesti che possono avere un impatto significativo su aspetti cruciali della vita umana, come la salute, la sicurezza, i diritti fondamentali e la fiducia pubblica

Definizione normativa 

Secondo l’articolo 6 del Regolamento (UE) 2024/1689, un sistema di IA è considerato ad alto rischio se soddisfa due condizioni fondamentali: 

  • Integrazione con prodotti regolamentati
    Il sistema deve essere un componente di sicurezza o un prodotto regolato da normative armonizzate dell’Unione Europea, come dispositivi medici, automobili o apparecchiature industriali. 
  • Valutazione della conformità
    Il prodotto o sistema deve essere soggetto a una valutazione indipendente che ne garantisca la sicurezza e la conformità alle norme UE. 

Inoltre, i sistemi elencati nell’allegato III del regolamento sono automaticamente considerati ad alto rischio, salvo eccezioni specifiche. 

Tipologie di sistemi 

Tra i principali sistemi di intelligenza artificiale ad alto rischio rientrano: 

  • Sistemi di identificazione biometrica
    Tecnologie di riconoscimento facciale usate per l’identificazione delle persone in tempo reale o remota, ad esempio nei luoghi pubblici. 
  • Strumenti di analisi delle emozioni
    Impiegati in contesti come il reclutamento del personale o l’istruzione, possono influenzare le decisioni sulla base di valutazioni soggettive. 
  • Sistemi per infrastrutture critiche
    Come quelli impiegati per gestire il traffico aereo, le reti elettriche o i trasporti pubblici, dove un errore potrebbe causare danni su larga scala. 
  • IA in ambito sanitario
    Ad esempio, strumenti per la diagnosi automatica o la pianificazione di interventi medici. 

Questi esempi mettono in evidenza come tali sistemi possano generare rischi sistemici, che richiedono controlli approfonditi per garantire la sicurezza. 

Elenco dei sistemi di cui all’allegato III 

I sistemi di intelligenza artificiale (IA) ad alto rischio, definiti nell’articolo 6, paragrafo 2, riguardano applicazioni che possono avere un impatto significativo su diritti, sicurezza e dignità delle persone. Ecco una descrizione più dettagliata dei principali ambiti di applicazione: 

Biometria 

I sistemi IA che utilizzano tecnologie biometriche sono considerati ad alto rischio, specialmente se destinati all’identificazione biometrica remota di individui. Questo include strumenti che consentono di riconoscere persone a distanza tramite caratteristiche fisiche, come volti o impronte digitali, spesso senza che gli interessati ne siano consapevoli. 

Altri sistemi ad alto rischio includono quelli che categorizzano le persone in base a caratteristiche sensibili dedotte, come etnia, genere o orientamento religioso, e quelli progettati per rilevare emozioni attraverso segnali fisiologici o comportamentali, come espressioni facciali o tono della voce. 

Infrastrutture critiche 

Questi sistemi sono utilizzati per garantire la sicurezza e l’efficienza di infrastrutture vitali, come il traffico stradale, la fornitura di acqua, energia, gas e riscaldamento. Il loro utilizzo comporta rischi elevati, poiché eventuali malfunzionamenti potrebbero compromettere servizi essenziali, con gravi conseguenze per la società. 

Istruzione e formazione professionale 

Nell’ambito dell’istruzione, i sistemi ad alto rischio AI Act includono quelli utilizzati per determinare l’accesso agli istituti formativi o per valutare i risultati degli studenti.

Questo riguarda anche strumenti che monitorano i comportamenti durante le prove, al fine di rilevare eventuali violazioni, o che influenzano il percorso formativo e le opportunità educative basandosi su analisi automatizzate. 

Occupazione e gestione dei lavoratori 

Questi sistemi vengono impiegati per prendere decisioni importanti nel contesto lavorativo, come l’assunzione, la selezione o la valutazione delle prestazioni dei dipendenti. Possono anche essere utilizzati per monitorare i lavoratori o per decidere promozioni e cessazioni contrattuali.

Il rischio associato deriva dal possibile impatto su carriera, privacy e trattamento equo dei dipendenti. 

Accesso a servizi essenziali 

In questo ambito, i sistemi IA possono valutare l’ammissibilità delle persone a servizi pubblici o privati fondamentali, come assistenza sanitaria, prestazioni sociali o credito finanziario.

Strumenti simili vengono utilizzati per determinare il merito creditizio o i premi assicurativi, decisioni che possono influire profondamente sulla vita delle persone. 

Attività di contrasto 

I sistemi IA utilizzati da autorità di polizia o organi simili comprendono strumenti per profilare criminali, prevedere recidive o determinare rischi di vittimizzazione.

Altri sistemi aiutano a valutare l’affidabilità delle prove durante le indagini o vengono utilizzati per attività di sorveglianza avanzata. Tali applicazioni sollevano preoccupazioni per possibili discriminazioni, violazioni della privacy o errori giudiziari. 

Migrazione, asilo e controllo delle frontiere 

In questo ambito, i sistemi IA sono utilizzati per analizzare i rischi posti da persone in movimento, come quelli legati alla sicurezza o alla salute. Altri strumenti supportano le autorità nell’esame di richieste di asilo, visti o permessi di soggiorno, influendo sulla decisione di accoglienza.

Esempio
Tecnologie simili possono essere usate anche per identificare individui nei punti di controllo delle frontiere. 

Amministrazione della giustizia e processi democratici 

Nella giustizia, i sistemi IA assistono le autorità giudiziarie nella ricerca e interpretazione dei fatti, oltre che nell’applicazione della legge. Tuttavia, il loro uso deve essere attentamente regolamentato per evitare ingerenze indebite o decisioni errate.

Esempio
Nel contesto democratico, i sistemi IA possono influenzare l’esito di elezioni o referendum, tramite analisi del comportamento degli elettori o contenuti personalizzati, sollevando preoccupazioni su manipolazioni e trasparenza. 

Profili di rischio 

I sistemi di IA ad alto rischio non sono valutati solo in base alla loro funzione, ma anche in relazione al contesto di utilizzo e al potenziale impatto: 

  • Rischio inaccettabile
    Riguarda sistemi che, per loro natura, non possono essere autorizzati, come quelli per la manipolazione subliminale o la sorveglianza indiscriminata. 
  • Rischi significativi
    Anche in casi in cui i sistemi migliorano attività umane, se non adeguatamente gestiti, possono portare a danni fisici, psicologici o sociali. 

Eccezioni alla classificazione 

Un sistema può non essere considerato ad alto rischio, anche se elencato nell’allegato III, se non presenta un rischio significativo per: 

  • la salute o la sicurezza degli individui;
  • i diritti fondamentali, inclusi la privacy e la libertà individuale. 

Esempio
Un sistema progettato per supportare la valutazione umana senza influenzare direttamente il risultato decisionale può essere escluso dalla classificazione. 

Impatti sociali e industriali 

La classificazione dei sistemi di IA ad alto rischio non è solo una misura tecnica, ma ha profonde implicazioni per la società e l’industria. Tali sistemi richiedono un equilibrio tra innovazione e regolamentazione, per evitare rischi inaccettabili senza frenare il progresso tecnologico. 

Comprendere la definizione e le caratteristiche dei sistemi di IA ad alto rischio è fondamentale per garantire un utilizzo responsabile e conforme, minimizzando i pericoli e massimizzando i benefici per cittadini e imprese. 

Un regolamento dell'UE

Regole di classificazione 

Il regolamento definisce due condizioni principali per considerare un sistema come “ad alto rischio”: 

  • deve essere un prodotto o un componente soggetto a normative UE armonizzate;
  • deve richiedere una valutazione della conformità da parte di terzi. 

Inoltre, la normativa prevede eccezioni: un sistema non è considerato ad alto rischio se non presenta rischi significativi per la salute o la sicurezza, né influenza in modo determinante le decisioni umane. Tuttavia, ogni sistema che effettua profilazione di persone fisiche è automaticamente classificato come ad alto rischio. 

Applicazioni pratiche e obblighi 

Le applicazioni pratiche dei sistemi di intelligenza artificiale ad alto rischio sono molteplici e includono settori sensibili come: 

  • infrastrutture critiche, dove la sicurezza è una priorità assoluta; 
  • sistemi utilizzati nella sanità, per esempio nella diagnosi medica automatizzata;
  • strumenti per il riconoscimento facciale in tempo reale, sempre più usati nella sorveglianza. 

Questi sistemi sono soggetti a rigidi obblighi di trasparenza, inclusa la documentazione completa delle valutazioni di conformità e delle modalità di utilizzo. 

Impatti sugli stati membri 

L’implementazione del AI Act richiede che ogni stato membro sviluppi un quadro normativo adeguato. I fornitori di tali sistemi devono dimostrare che i loro prodotti rispettano le regole, pena l’esclusione dal mercato UE. Le autorità nazionali competenti svolgono un ruolo cruciale nel monitoraggio e nella verifica della conformità. 

Conclusioni 

I sistemi di IA ad alto rischio rappresentano sia un’opportunità che una sfida. Il Parlamento Europeo, attraverso il AI Act, intende bilanciare innovazione e protezione, garantendo che tali sistemi migliorino la vita delle persone senza comprometterne i diritti fondamentali. 


Domande e risposte 

  1. Cos’è l’AI Act?
    L’AI Act è un regolamento dell’UE che disciplina l’uso dei sistemi di intelligenza artificiale, con particolare attenzione a quelli ad alto rischio. 
  2. Quali sono i sistemi di IA ad alto rischio?
    Sono sistemi che possono influire su salute, sicurezza o diritti fondamentali, come quelli per il riconoscimento biometrico o delle emozioni. 
  3. Quali settori sono coinvolti?
    Sanità, infrastrutture critiche, sorveglianza pubblica e tutti i settori con potenziali rischi sistemici. 
  4. Cosa significa “rischio inaccettabile”?
    Indica sistemi che comportano rischi troppo elevati per essere accettati, come l’uso di IA per manipolazione subliminale. 
  5. Come vengono classificati i sistemi ad alto rischio?
    Attraverso criteri definiti nell’articolo 6 del Regolamento (UE) 2024/1689, che includono valutazioni di conformità. 
  6. Chi verifica la conformità dei sistemi?
    Autorità competenti di ciascuno stato membro dell’UE. 
  7. Quali obblighi hanno i fornitori?
    Devono documentare le valutazioni di rischio e garantire la conformità del sistema. 
  8. Cosa prevede il regolamento per le eccezioni?
    Alcuni sistemi elencati nell’allegato III non sono considerati ad alto rischio se non causano danni significativi. 
  9. Che ruolo hanno gli stati membri?
    Devono implementare misure per garantire che i sistemi di IA rispettino le normative. 
  10. Qual è l’obiettivo del regolamento?
    Garantire un uso sicuro e trasparente dei sistemi di intelligenza artificiale nell’UE. 
To top