Personalizza le preferenze di consenso

Utilizziamo i cookie per aiutarti a navigare in maniera efficiente e a svolgere determinate funzioni. Troverai informazioni dettagliate su tutti i cookie sotto ogni categoria di consensi sottostanti. I cookie categorizzatati come “Necessari” vengono memorizzati sul tuo browser in quanto essenziali per consentire le funzionalità di base del sito.... 

Sempre attivi

I cookie necessari sono fondamentali per le funzioni di base del sito Web e il sito Web non funzionerà nel modo previsto senza di essi. Questi cookie non memorizzano dati identificativi personali.

I cookie funzionali aiutano a svolgere determinate funzionalità come la condivisione del contenuto del sito Web su piattaforme di social media, la raccolta di feedback e altre funzionalità di terze parti.

I cookie analitici vengono utilizzati per comprendere come i visitatori interagiscono con il sito Web. Questi cookie aiutano a fornire informazioni sulle metriche di numero di visitatori, frequenza di rimbalzo, fonte di traffico, ecc.

I cookie per le prestazioni vengono utilizzati per comprendere e analizzare gli indici di prestazione chiave del sito Web che aiutano a fornire ai visitatori un'esperienza utente migliore.

Nessun cookie da visualizzare.

I cookie pubblicitari vengono utilizzati per fornire ai visitatori annunci pubblicitari personalizzati in base alle pagine visitate in precedenza e per analizzare l'efficacia della campagna pubblicitaria.

Nessun cookie da visualizzare.

Notizie Flash

AI Act: la nuova stretta dell’UE sulle pratiche proibite 

Le Linee Guida della Commissione Europea delineano i limiti dell'Intelligenza Artificiale

La nuova stretta dell'UE sulle pratiche proibite 

Indice dei contenuti

  • L’Unione Europea rafforza la regolamentazione dell’AI 
  • I pilastri dell’AI Act e il principio del rischio 
  • Le pratiche proibite: le nuove Linee Guida UE 
  • Sanzioni severe per chi non rispetta l’AI Act 
  • L’AI Act e il panorama globale 
  • Un futuro di AI sicura e responsabile 

L’Unione Europea rafforza la regolamentazione dell’AI 

Con la pubblicazione delle Linee Guida sulle pratiche proibite, la Commissione Europea compie un nuovo passo per definire il perimetro dell’uso etico e sicuro dell’Intelligenza Artificiale.

A un anno dall’approvazione dell’AI Act, il regolamento che disciplina l’AI nell’UE, emergono ora direttive più dettagliate per impedire abusi e tutelare i diritti fondamentali dei cittadini europei. 

La Commissione ha pubblicato gli orientamenti sulle pratiche vietate in materia di intelligenza artificiale, come definite dalla legge sull’IA. Questi orientamenti forniscono una panoramica delle pratiche di AI ritenute inaccettabili a causa dei loro potenziali rischi per i valori e i diritti fondamentali europei. 

I pilastri dell’AI Act e il principio del rischio 

L’AI Act (AIA), noto formalmente come Regolamento Europeo 2024/1689, è il primo tentativo normativo globale per disciplinare l’Intelligenza Artificiale. Basandosi su un approccio risk-based, classifica l’AI in diverse categorie di rischio: 

  • Inaccettabile
    Per strumenti che violano i diritti umani, come il social scoring e la sorveglianza biometrica di massa
  • Alto
    Per tecnologie che impattano sulla privacy, come software per il settore sanitario o per la selezione del personale
  • Specifico per la trasparenza
    Per strumenti come chatbot e assistenti vocali, che devono chiaramente informare gli utenti sulla natura artificiale delle loro risposte. 
  • Minimo
    Per usi considerati sicuri, come nei videogiochi o nei filtri antispam

La legge sull’IA mira a promuovere l’innovazione garantendo al contempo elevati livelli di protezione della salute, della sicurezza e dei diritti fondamentali

Le pratiche proibite: le nuove Linee Guida UE 

La Commissione Europea ha pubblicato le Linee Guida sulle pratiche AI vietate, ovvero quelle che pongono un rischio troppo elevato per la società. Si tratta di tecnologie che, secondo l’UE, possono minacciare la dignità umana, la privacy e i diritti fondamentali, creando discriminazioni o distorsioni nella società. Tra le tecnologie bandite troviamo: 

  • Manipolazione dannosa
    Include tutte le tecniche di persuasione occulta che mirano a influenzare le decisioni degli utenti senza il loro consenso consapevole. Esempi sono gli algoritmi di profilazione predittiva, che possono manipolare il comportamento attraverso pubblicità mirate o suggerimenti personalizzati. 
  • Sfruttamento di vulnerabilità
    Sistemi AI progettati per approfittare di individui in condizioni di vulnerabilità, come bambini, anziani o persone con disabilità, per ottenere vantaggi economici o politici. 
  • Social scoring AI
    Sistemi che classificano i cittadini sulla base del loro comportamento sociale o delle loro caratteristiche personali, con possibili ripercussioni su diritti e opportunità. 
  • Predizione del rischio criminale individuale
    Tecnologie che analizzano dati personali per prevedere il potenziale comportamento criminale di una persona, spesso senza una base giuridica solida, aumentando il rischio di discriminazione. 
  • Scraping massivo di dati per il riconoscimento facciale
    Pratica non autorizzata di raccolta di immagini biometriche da Internet o altre fonti per costruire database di riconoscimento facciale, senza il consenso degli interessati. 
  • Riconoscimento delle emozioni
    AI progettata per interpretare le emozioni umane attraverso espressioni facciali, toni di voce o altri parametri, con potenziali usi invasivi nella selezione del personale, nell’educazione o nella sorveglianza. 
  • Identificazione biometrica da remoto in tempo reale
    Tecnologie che consentono la sorveglianza e il monitoraggio di massa attraverso l’analisi biometrica in spazi pubblici, con il rischio di violazione della privacy e dei diritti individuali. 

Le Linee Guida sono concepite per garantire l’applicazione coerente, efficace e uniforme della legge sull’IA in tutta l’Unione Europea. Tuttavia, pur offrendo interpretazioni preziose, non sono vincolanti, lasciando alla Corte di Giustizia dell’Unione Europea (CGUE) l’interpretazione autorevole dei divieti. 

Inoltre, forniscono spiegazioni legali ed esempi pratici per aiutare le parti interessate a comprendere e rispettare i requisiti della legge sull’IA. L’iniziativa sottolinea l’impegno dell’UE a promuovere un panorama dell’IA sicuro ed etico

Si noti che, sebbene la Commissione abbia approvato il progetto di orientamenti, non li ha ancora adottati formalmente

Sanzioni severe per chi non rispetta l’AI Act 

Per garantire l’applicazione del regolamento, l’UE ha istituito un sistema di monitoraggio attraverso l’European Artificial Intelligence Office. Le aziende che non si conformano alle regole rischiano: 

  • fino a 35 milioni di euro o il 7% del fatturato annuo globale per l’uso di AI proibita;
  • fino a 15 milioni di euro o il 3% del fatturato per il mancato rispetto degli obblighi normativi;
  • fino a 7,5 milioni di euro o l’1,5% del fatturato per la fornitura di informazioni false o incomplete. 

Le sanzioni sono proporzionate per le PMI e le start-up, per evitare un impatto eccessivo sulle piccole realtà innovative. 

L’AI Act e il panorama globale 

Il modello normativo europeo sta influenzando altre giurisdizioni. Negli Stati Uniti, l’Executive Order on AI ha introdotto linee guida simili, pur senza un quadro vincolante.

La Cina, invece, ha adottato una regolamentazione più rigida su AI generativa e social scoring, con un maggiore controllo governativo. 

Un futuro di AI sicura e responsabile 

L’UE punta a costruire un ecosistema AI trasparente, sicuro e rispettoso dei diritti umani. Con l’entrata in vigore dell’AI Act, nuove direttive potrebbero affinare il quadro normativo, adattandolo all’evoluzione tecnologica. 

To top