Loading...

Novità

Pratiche IA vietate dall’AI ACT 

Il regolamento vieta pratiche di IA che rappresentano rischi per la sicurezza e i diritti delle persone. Queste includono tecniche subliminali che influenzano il comportamento senza la consapevolezza dell'utente, la classificazione sociale basata su IA che può causare discriminazione, e l'uso di tecnologie predittive per identificare potenziali reati, minacciando la privacy e la libertà individuale.

Sistemi di riconoscimento delle emozioni

Indice dei contenuti

  • Le pratiche di IA vietate dal nuovo regolamento europeo 
  • La definizione di pratiche IA vietate 
  • I rischi del riconoscimento delle emozioni e biometria 
  • Sistemi di identificazione biometrica remota 
  • Implicazioni per i fornitori di sistemi di IA 

Le pratiche di IA vietate dal nuovo regolamento europeo 

Il regolamento UE 2024/1689 (AI Act), adottato il 12 luglio 2024, rappresenta un passo cruciale nella regolamentazione dei sistemi di intelligenza artificiale nell’Unione Europea. Questo quadro normativo, noto anche come AI Act, stabilisce i confini etici e operativi per garantire la sicurezza, il rispetto dei diritti fondamentali e la tutela contro un utilizzo improprio della tecnologia.

La normativa entrerà pienamente in vigore nell’agosto 2026, ma già da febbraio 2025 inizieranno ad applicarsi alcune disposizioni chiave. Analizziamo le pratiche di IA vietate e il loro impatto. 

La definizione di pratiche IA vietate 

Il regolamento identifica come pratiche di intelligenza artificiale vietate tutte quelle applicazioni che rappresentano un rischio inaccettabile per la sicurezza, la dignità e i diritti delle persone.

Questi divieti sono specificati nell’articolo 5 del testo normativo e riguardano diverse aree critiche. Tra queste troviamo: 

  • L’uso di tecniche subliminali o manipolative che influenzano il comportamento senza la consapevolezza dell’utente. Questi sistemi, progettati per sfruttare vulnerabilità cognitive, rappresentano una minaccia alla capacità di prendere decisioni informate. 
  • La classificazione sociale basata su sistemi di IA che analizzano comportamenti o caratteristiche personali per attribuire punteggi sociali. Questo tipo di categorizzazione, spesso utilizzato in contesti non correlati, può portare a trattamenti discriminatori. 
  • L’impiego di tecnologie predittive per identificare potenziali reati basandosi esclusivamente su profili psicologici o comportamentali, con gravi implicazioni per la privacy e la libertà individuale. 

I rischi del riconoscimento delle emozioni e biometria 

Uno degli aspetti più controversi riguarda l’uso di sistemi di riconoscimento delle emozioni e di tecnologie biometriche avanzate.

Sebbene questi strumenti siano spesso associati a progressi significativi in ambiti come la sicurezza o la sanità, il loro utilizzo in spazi pubblici o sul luogo di lavoro solleva gravi interrogativi etici. Ad esempio, il regolamento vieta: 

  • L’utilizzo di sistemi di IA per inferire le emozioni in contesti come scuole e uffici, salvo che per motivi medici o di sicurezza. 
  • La categorizzazione di persone sulla base di dati biometrici per dedurre informazioni sensibili come orientamento sessuale, opinioni politiche o affiliazione religiosa. 

Questi divieti mirano a prevenire discriminazioni e abusi, salvaguardando il diritto alla privacy e la neutralità delle tecnologie. 

Regolamento UE sull’intelligenza artificiale

Sistemi di identificazione biometrica remota 

Un ulteriore capitolo riguarda i sistemi di identificazione biometrica remota in tempo reale, spesso utilizzati per attività di contrasto. La normativa ne consente l’impiego solo in casi estremamente limitati, come: 

  • La ricerca di vittime di tratta o persone scomparse. 
  • La prevenzione di minacce terroristiche imminenti. 
  • La localizzazione di sospetti legati a gravi crimini. 

Anche in questi contesti, gli Stati membri devono rispettare rigide condizioni, tra cui l’obbligo di autorizzazione preventiva da parte di un’autorità indipendente e la garanzia di tutele proporzionate per i diritti umani. 

Implicazioni per i fornitori di sistemi di IA 

I fornitori di sistemi di IA sono direttamente coinvolti nel garantire la conformità al regolamento. Oltre a dover condurre valutazioni di impatto sui diritti fondamentali, sono obbligati a registrare i loro sistemi nella banca dati dell’UE.

L’inosservanza di queste norme comporta sanzioni significative, che possono includere multe fino al 6% del fatturato globale dell’azienda. 


Domande e risposte 

  1. Cosa sono le pratiche IA vietate dal regolamento europeo? 
    Sono applicazioni di intelligenza artificiale che comportano rischi inaccettabili per la sicurezza e i diritti umani, come tecniche manipolative o categorizzazioni discriminatorie. 
  1. Quando entrerà in vigore il regolamento UE sull’intelligenza artificiale? 
    Il regolamento sarà pienamente operativo nell’agosto 2026, con alcune disposizioni già attive da febbraio 2025. 
  1. Quali sono i rischi del riconoscimento delle emozioni? 
    Questi sistemi possono violare la privacy e portare a discriminazioni, specialmente se utilizzati in contesti sensibili come scuole o luoghi di lavoro. 
  1. Cosa prevede il regolamento sui sistemi di identificazione biometrica? 
    Ne vieta l’uso indiscriminato in spazi pubblici, salvo eccezioni legate a sicurezza e contrasto al crimine. 
  1. Qual è l’obiettivo principale del regolamento UE 2024/1689? 
    Garantire un uso sicuro, etico e rispettoso dei diritti fondamentali nei sistemi di intelligenza artificiale. 
  1. Quali sono le sanzioni per chi viola il regolamento? 
    Le aziende possono essere multate fino al 6% del fatturato globale per violazioni gravi. 
  1. Come il regolamento tutela i diritti fondamentali? 
    Stabilendo divieti su pratiche IA manipolative, discriminanti o invasive della privacy. 
  1. Cosa si intende per rischio inaccettabile nell’AI Act? 
    Un livello di rischio che non può essere mitigato e che compromette la sicurezza o la dignità umana. 
  1. I sistemi di punteggio sociale sono vietati? 
    Sì, il regolamento vieta categoricamente la classificazione sociale basata su dati personali. 
  1. Quali paesi sono soggetti al regolamento? 
    Tutti gli stati membri dell’Unione Europea. 
To top