Indice dei contenuti
- L’Unione Europea rafforza la regolamentazione dell’AI
- I pilastri dell’AI Act e il principio del rischio
- Le pratiche proibite: le nuove Linee Guida UE
- Sanzioni severe per chi non rispetta l’AI Act
- L’AI Act e il panorama globale
- Un futuro di AI sicura e responsabile
L’Unione Europea rafforza la regolamentazione dell’AI
Con la pubblicazione delle Linee Guida sulle pratiche proibite, la Commissione Europea compie un nuovo passo per definire il perimetro dell’uso etico e sicuro dell’Intelligenza Artificiale.
A un anno dall’approvazione dell’AI Act, il regolamento che disciplina l’AI nell’UE, emergono ora direttive più dettagliate per impedire abusi e tutelare i diritti fondamentali dei cittadini europei.
La Commissione ha pubblicato gli orientamenti sulle pratiche vietate in materia di intelligenza artificiale, come definite dalla legge sull’IA. Questi orientamenti forniscono una panoramica delle pratiche di AI ritenute inaccettabili a causa dei loro potenziali rischi per i valori e i diritti fondamentali europei.
I pilastri dell’AI Act e il principio del rischio
L’AI Act (AIA), noto formalmente come Regolamento Europeo 2024/1689, è il primo tentativo normativo globale per disciplinare l’Intelligenza Artificiale. Basandosi su un approccio risk-based, classifica l’AI in diverse categorie di rischio:
- Inaccettabile
Per strumenti che violano i diritti umani, come il social scoring e la sorveglianza biometrica di massa.
- Alto
Per tecnologie che impattano sulla privacy, come software per il settore sanitario o per la selezione del personale.
- Specifico per la trasparenza
Per strumenti come chatbot e assistenti vocali, che devono chiaramente informare gli utenti sulla natura artificiale delle loro risposte.
- Minimo
Per usi considerati sicuri, come nei videogiochi o nei filtri antispam.
La legge sull’IA mira a promuovere l’innovazione garantendo al contempo elevati livelli di protezione della salute, della sicurezza e dei diritti fondamentali.
Le pratiche proibite: le nuove Linee Guida UE
La Commissione Europea ha pubblicato le Linee Guida sulle pratiche AI vietate, ovvero quelle che pongono un rischio troppo elevato per la società. Si tratta di tecnologie che, secondo l’UE, possono minacciare la dignità umana, la privacy e i diritti fondamentali, creando discriminazioni o distorsioni nella società. Tra le tecnologie bandite troviamo:
- Manipolazione dannosa
Include tutte le tecniche di persuasione occulta che mirano a influenzare le decisioni degli utenti senza il loro consenso consapevole. Esempi sono gli algoritmi di profilazione predittiva, che possono manipolare il comportamento attraverso pubblicità mirate o suggerimenti personalizzati.
- Sfruttamento di vulnerabilità
Sistemi AI progettati per approfittare di individui in condizioni di vulnerabilità, come bambini, anziani o persone con disabilità, per ottenere vantaggi economici o politici.
- Social scoring AI
Sistemi che classificano i cittadini sulla base del loro comportamento sociale o delle loro caratteristiche personali, con possibili ripercussioni su diritti e opportunità.
- Predizione del rischio criminale individuale
Tecnologie che analizzano dati personali per prevedere il potenziale comportamento criminale di una persona, spesso senza una base giuridica solida, aumentando il rischio di discriminazione.
- Scraping massivo di dati per il riconoscimento facciale
Pratica non autorizzata di raccolta di immagini biometriche da Internet o altre fonti per costruire database di riconoscimento facciale, senza il consenso degli interessati.
- Riconoscimento delle emozioni
AI progettata per interpretare le emozioni umane attraverso espressioni facciali, toni di voce o altri parametri, con potenziali usi invasivi nella selezione del personale, nell’educazione o nella sorveglianza.
- Identificazione biometrica da remoto in tempo reale
Tecnologie che consentono la sorveglianza e il monitoraggio di massa attraverso l’analisi biometrica in spazi pubblici, con il rischio di violazione della privacy e dei diritti individuali.
Le Linee Guida sono concepite per garantire l’applicazione coerente, efficace e uniforme della legge sull’IA in tutta l’Unione Europea. Tuttavia, pur offrendo interpretazioni preziose, non sono vincolanti, lasciando alla Corte di Giustizia dell’Unione Europea (CGUE) l’interpretazione autorevole dei divieti.
Inoltre, forniscono spiegazioni legali ed esempi pratici per aiutare le parti interessate a comprendere e rispettare i requisiti della legge sull’IA. L’iniziativa sottolinea l’impegno dell’UE a promuovere un panorama dell’IA sicuro ed etico.
Si noti che, sebbene la Commissione abbia approvato il progetto di orientamenti, non li ha ancora adottati formalmente.
Sanzioni severe per chi non rispetta l’AI Act
Per garantire l’applicazione del regolamento, l’UE ha istituito un sistema di monitoraggio attraverso l’European Artificial Intelligence Office. Le aziende che non si conformano alle regole rischiano:
- fino a 35 milioni di euro o il 7% del fatturato annuo globale per l’uso di AI proibita;
- fino a 15 milioni di euro o il 3% del fatturato per il mancato rispetto degli obblighi normativi;
- fino a 7,5 milioni di euro o l’1,5% del fatturato per la fornitura di informazioni false o incomplete.
Le sanzioni sono proporzionate per le PMI e le start-up, per evitare un impatto eccessivo sulle piccole realtà innovative.
L’AI Act e il panorama globale
Il modello normativo europeo sta influenzando altre giurisdizioni. Negli Stati Uniti, l’Executive Order on AI ha introdotto linee guida simili, pur senza un quadro vincolante.
La Cina, invece, ha adottato una regolamentazione più rigida su AI generativa e social scoring, con un maggiore controllo governativo.
Un futuro di AI sicura e responsabile
L’UE punta a costruire un ecosistema AI trasparente, sicuro e rispettoso dei diritti umani. Con l’entrata in vigore dell’AI Act, nuove direttive potrebbero affinare il quadro normativo, adattandolo all’evoluzione tecnologica.