Pratiche di IA Vietate ai sensi del Regolamento UE sull'IA
Elenco completo delle pratiche di IA vietate dal Regolamento UE sull'IA — social scoring, IA manipolativa, sorveglianza biometrica in tempo reale e altro. Cosa è vietato e perché.
L'Articolo 5 del Regolamento UE sull'IA (Regolamento 2024/1689) traccia un confine netto. Determinati usi dell'intelligenza artificiale sono ritenuti così fondamentalmente incompatibili con i valori dell'UE — dignità umana, non discriminazione, democrazia e stato di diritto — da essere vietati in modo assoluto, indipendentemente dalle salvaguardie che un fornitore o un deployer potrebbe implementare.
Questi divieti sono entrati in vigore il 2 febbraio 2025, rendendoli le prime disposizioni del regolamento ad essere divenute applicabili. Le violazioni comportano il livello sanzionatorio più elevato: fino a 35 milioni di EUR o il 7% del fatturato annuo globale.
Unacceptable RiskIl presente articolo esamina in dettaglio ciascuna pratica vietata, illustra la ratio del divieto e identifica le eccezioni circoscritte laddove esistano.
1. Tecniche di IA manipolative e ingannevoli
L'Articolo 5, paragrafo 1, lettera a) vieta l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA che impiegano tecniche subliminali al di sotto della soglia di coscienza della persona, o tecniche volutamente manipolative o ingannevoli, con l'obiettivo o l'effetto di distorcere materialmente il comportamento di una persona in modo da causare o rischiare ragionevolmente di causare un danno significativo.
Cosa comprende
Questo divieto riguarda i sistemi di IA progettati per manipolare il processo decisionale umano in modi che le persone non possono percepire o a cui non possono resistere. Tra gli esempi:
- Interfacce guidate dall'IA che utilizzano dark pattern potenziati da algoritmi di personalizzazione per manipolare le decisioni di acquisto in modo da causare danni finanziari
- Sistemi che impiegano stimoli audio o visivi subliminali per influenzare il comportamento senza la consapevolezza della persona
- Sistemi di persuasione basati su deepfake progettati per indurre le persone ad azioni contrarie ai propri interessi
- Sistemi di IA che sfruttano i bias cognitivi in modo sistematico e personalizzato per distorcere il comportamento
Aspetti chiave
Il divieto richiede che la manipolazione causi o rischi ragionevolmente di causare un danno significativo — fisico, psicologico o finanziario. La pubblicità tradizionale, gli algoritmi di raccomandazione e il design persuasivo non sono automaticamente vietati. La soglia è la manipolazione che supera l'influenza legittima entrando nel territorio dello sfruttamento o dell'inganno.
Il regolamento distingue tra "tecniche subliminali" (che operano al di sotto della soglia di coscienza) e "tecniche manipolative o ingannevoli" (che possono essere percepibili ma sono progettate per distorcere il comportamento). Entrambe sono vietate quando causano danni significativi, ma la distinzione è rilevante per l'analisi giuridica.
2. Sfruttamento delle vulnerabilità
L'Articolo 5, paragrafo 1, lettera b) vieta i sistemi di IA che sfruttano le vulnerabilità di una persona o di un gruppo specifico di persone dovute alla loro età, disabilità o situazione sociale o economica specifica, con l'obiettivo o l'effetto di distorcere materialmente il loro comportamento in modo da causare o rischiare ragionevolmente di causare un danno significativo.
Cosa comprende
Questo va oltre il divieto generale di manipolazione per tutelare specificamente i gruppi che possono essere meno in grado di identificare o resistere all'influenza guidata dall'IA:
- Sistemi di IA che prendono di mira le persone anziane con prodotti finanziari fuorvianti, sfruttando la loro ridotta alfabetizzazione digitale
- Sistemi di gioco o applicazioni progettati per sfruttare la suscettibilità dei minori a meccaniche che creano dipendenza
- Algoritmi di prestito predatorio che prendono specificamente di mira le persone in difficoltà finanziaria
- Sistemi di truffa basati sull'IA che profilano e prendono di mira persone sulla base di indicatori di declino cognitivo
Rapporto con il divieto di manipolazione
Mentre l'Articolo 5, paragrafo 1, lettera a), si applica alla popolazione generale, questa disposizione si applica anche laddove la soglia di manipolazione potrebbe essere più bassa. La vulnerabilità del gruppo interessato comporta che tecniche meno aggressive possano comunque oltrepassare il confine del territorio vietato.
3. Social scoring da parte delle autorità pubbliche
L'Articolo 5, paragrafo 1, lettera c) vieta i sistemi di IA utilizzati dalle autorità pubbliche (o per loro conto) per valutare o classificare persone fisiche per un determinato periodo sulla base del loro comportamento sociale o di caratteristiche personali note, dedotte o previste, quando il punteggio sociale risultante porta a:
- Un trattamento pregiudizievole o sfavorevole di persone in contesti sociali non correlati ai contesti in cui i dati sono stati originariamente generati o raccolti, oppure
- Un trattamento pregiudizievole o sfavorevole che è ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità
Cosa comprende
Si tratta del divieto del "sistema di credito sociale in stile cinese". Impedisce alle autorità pubbliche di:
- Aggregare dati provenienti da molteplici ambiti della vita di una persona (comportamento finanziario, attività sui social media, abitudini di viaggio) in un unico punteggio comportamentale che determina l'accesso ai servizi pubblici
- Utilizzare l'IA per creare valutazioni di affidabilità dei cittadini che influenzano diritti o prestazioni
- Impiegare sistemi di polizia predittiva che assegnano punteggi di rischio agli individui sulla base del comportamento sociale e li utilizzano per giustificare restrizioni preventive
Cosa non comprende
Il divieto è specificamente rivolto alle autorità pubbliche. Il credit scoring del settore privato, la valutazione del rischio assicurativo e pratiche simili non sono vietati da questa disposizione — sebbene possano essere classificati come ad alto rischio ai sensi dell'Allegato III e soggetti a requisiti stringenti.
Inoltre, il divieto richiede che il trattamento pregiudizievole sia (a) in un contesto non correlato oppure (b) sproporzionato. Un'autorità pubblica che utilizza l'IA per valutare un comportamento pertinente nello stesso contesto (ad esempio, dati sulla conformità fiscale per valutare il rischio fiscale) non rientrerebbe automaticamente in questo divieto.
Il confine tra una valutazione del rischio legittima e un social scoring vietato può essere sottile. Le organizzazioni che collaborano con le autorità pubbliche su sistemi di valutazione basati sull'IA dovrebbero richiedere un'analisi giuridica per confermare che il loro specifico caso d'uso non rientri nel territorio vietato.
4. Polizia predittiva individuale
L'Articolo 5, paragrafo 1, lettera d) vieta i sistemi di IA che effettuano valutazioni del rischio di persone fisiche per valutare o prevedere il rischio che una persona commetta un reato, basandosi esclusivamente sulla profilazione o sulla valutazione dei tratti e delle caratteristiche della personalità.
Cosa comprende
Questo divieto riguarda la polizia predittiva basata sulla pura profilazione — sistemi che segnalano gli individui come probabili criminali sulla base di chi sono piuttosto che di cosa hanno fatto:
- Sistemi di IA che prevedono la probabilità di un individuo di commettere un reato sulla base di dati demografici, valutazioni della personalità o caratteristiche sociali
- Strumenti di attribuzione del rischio che valutano la propensione criminale basandosi esclusivamente su quartiere, storia familiare o indicatori socioeconomici
L'eccezione fondamentale
Il divieto non si applica ai sistemi di IA che supportano la valutazione umana del coinvolgimento in attività criminose basata su fatti oggettivi e verificabili direttamente collegati all'attività criminosa. In altre parole, l'IA che assiste nell'analisi di prove di comportamento criminale effettivo è consentita; l'IA che predice la futura criminalità basandosi esclusivamente su caratteristiche personali non lo è.
State costruendo sistemi di IA conformi agli standard europei?
Ctrl AI fornisce tracce di esecuzione verificabili e output contrassegnati dalla fiducia, aiutandovi a dimostrare la conformità ai requisiti del Regolamento UE sull'IA fin dal primo giorno.
Scoprite come funziona Ctrl AI5. Raccolta indiscriminata per banche dati di riconoscimento facciale
L'Articolo 5, paragrafo 1, lettera e) vieta i sistemi di IA che creano o ampliano banche dati di riconoscimento facciale attraverso la raccolta indiscriminata di immagini facciali da Internet o da telecamere a circuito chiuso.
Cosa comprende
Questa disposizione prende di mira direttamente pratiche come quelle di Clearview AI, che ha costruito una banca dati di riconoscimento facciale raccogliendo miliardi di immagini dai social media e da Internet:
- La scansione di piattaforme di social media, siti di notizie o siti web pubblici per raccogliere immagini facciali ai fini della costruzione di banche dati biometriche
- La raccolta di filmati da telecamere a circuito chiuso per costruire banche dati di identificazione senza la conoscenza o il consenso delle persone riprese
- Qualsiasi raccolta sistematica e non mirata di immagini facciali per addestrare o popolare sistemi di riconoscimento facciale
Cosa non comprende
Il divieto riguarda la raccolta indiscriminata. Le banche dati di riconoscimento facciale costruite con immagini raccolte su base giuridica adeguata — ad esempio, le banche dati di foto segnaletiche mantenute dalle forze dell'ordine in base a specifiche disposizioni di legge, o banche dati costruite con immagini fornite con consenso informato — non sono vietate da questa disposizione. Tuttavia, possono essere soggette ai requisiti del GDPR e ad altri obblighi del Regolamento sull'IA.
6. Riconoscimento delle emozioni nei luoghi di lavoro e negli istituti di istruzione
L'Articolo 5, paragrafo 1, lettera f) vieta i sistemi di IA che deducono le emozioni di una persona fisica nei contesti del luogo di lavoro e degli istituti di istruzione, salvo che il sistema di IA sia destinato ad essere installato o utilizzato per motivi medici o di sicurezza.
Cosa comprende
Questo divieto riguarda l'uso dell'IA per il riconoscimento delle emozioni in due contesti specifici:
- Luoghi di lavoro: sistemi di IA che monitorano le espressioni facciali, il tono della voce o i segnali fisiologici dei dipendenti per valutarne lo stato emotivo — a fini di valutazione delle prestazioni, monitoraggio del coinvolgimento o gestione del personale
- Istituti di istruzione: sistemi che rilevano le emozioni degli studenti durante le lezioni o gli esami — per il monitoraggio dell'attenzione, la valutazione del coinvolgimento o la valutazione comportamentale
L'eccezione medica e di sicurezza
Il riconoscimento delle emozioni è consentito nei luoghi di lavoro e negli istituti di istruzione quando utilizzato per:
- Finalità mediche: sistemi che rilevano segni di disagio, affaticamento o condizioni mediche (come il monitoraggio della vigilanza di un autista di mezzi pesanti o il rilevamento di segni di emergenza medica di uno studente)
- Motivi di sicurezza: sistemi progettati per garantire la sicurezza fisica (come il rilevamento della sonnolenza negli operatori di macchinari pesanti)
L'IA per il riconoscimento delle emozioni utilizzata al di fuori dei luoghi di lavoro e degli istituti di istruzione — ad esempio, nelle ricerche di mercato con consenso informato o in contesti di terapia clinica — non è vietata dall'Articolo 5. Tuttavia, è classificata come sistema a rischio limitato ai sensi dell'Articolo 50 ed è soggetta a obblighi di trasparenza: le persone devono essere informate che sono sottoposte a riconoscimento delle emozioni.
7. Categorizzazione biometrica per attributi sensibili
L'Articolo 5, paragrafo 1, lettera g) vieta i sistemi di IA che categorizzano le persone fisiche sulla base dei loro dati biometrici per dedurre o inferire caratteristiche sensibili, specificamente:
- Razza o origine etnica
- Opinioni politiche
- Appartenenza sindacale
- Convinzioni religiose o filosofiche
- Vita sessuale o orientamento sessuale
Cosa comprende
Questo divieto riguarda i sistemi di IA che analizzano tratti del viso, andatura, pattern vocali o altri dati biometrici per classificare le persone in categorie basate su caratteristiche protette:
- Sistemi di analisi facciale che pretendono di determinare l'etnia, la religione o l'orientamento sessuale di una persona
- Strumenti di analisi vocale che tentano di inferire le tendenze politiche
- Sistemi di analisi dell'andatura che categorizzano le persone per razza
Cosa non comprende
Il divieto si applica alla categorizzazione biometrica — la classificazione sistematica degli individui. Non vieta ogni trattamento di dati biometrici. Ad esempio, il trattamento di dati biometrici per finalità di verifica dell'identità (come il riconoscimento delle impronte digitali o del volto per l'autenticazione) esula da questa disposizione, sebbene resti soggetto al GDPR e potenzialmente ai requisiti per i sistemi di IA ad alto rischio.
Il regolamento prevede inoltre un'eccezione per l'etichettatura o il filtraggio di set di dati biometrici legittimamente acquisiti nel settore delle attività di contrasto — ad esempio, il filtraggio di immagini per colore dei capelli al fine di restringere una ricerca nell'ambito di un'indagine penale.
8. Identificazione biometrica remota in tempo reale negli spazi pubblici
L'Articolo 5, paragrafo 1, lettera h) vieta l'uso di sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico a fini di attività di contrasto, con eccezioni specifiche.
Cosa comprende
Si tratta del divieto più dibattuto del regolamento. Vieta il riconoscimento facciale in tempo reale e altre forme di identificazione biometrica in tempo reale negli spazi pubblici da parte o per conto delle forze dell'ordine:
- Sistemi CCTV in tempo reale che identificano automaticamente gli individui confrontando i loro volti con una lista di sorveglianza
- Tracciamento pedonale in tempo reale mediante riconoscimento dell'andatura o altri identificatori biometrici
- Dispositivi mobili di identificazione biometrica utilizzati dalla polizia per identificare le persone in pubblico in tempo reale
Le eccezioni circoscritte
A differenza di altri divieti, questo prevede eccezioni attentamente definite. L'identificazione biometrica remota in tempo reale negli spazi pubblici da parte delle forze dell'ordine è consentita solo per:
- Ricerca mirata di vittime di rapimento, tratta o sfruttamento sessuale, e ricerca di persone scomparse
- Prevenzione di una minaccia specifica, consistente e imminente alla vita o all'incolumità fisica delle persone, o di una minaccia reale e attuale o ragionevolmente prevedibile di attacco terroristico
- Identificazione di un sospettato di un reato punibile con una pena detentiva di almeno quattro anni (per reati specifici elencati nel regolamento)
Salvaguardie per le eccezioni
Anche quando queste eccezioni si applicano, l'Articolo 5, paragrafo 2, impone condizioni rigorose:
- Ogni utilizzo deve essere autorizzato da un'autorità giudiziaria o da un'autorità amministrativa indipendente (con riesame giudiziario ex post entro 24 ore nei casi urgenti)
- L'utilizzo deve essere necessario e proporzionato — l'autorità deve condurre una valutazione d'impatto sui diritti fondamentali
- L'utilizzo deve essere limitato nel tempo, nell'ambito geografico e nel numero di persone destinatarie
- Ogni utilizzo deve essere notificato all'autorità di vigilanza del mercato e all'autorità per la protezione dei dati competenti
- Ogni utilizzo deve essere registrato nella banca dati dell'UE per i sistemi di IA ad alto rischio
Le eccezioni al divieto di identificazione biometrica in tempo reale sono estremamente circoscritte e soggette a molteplici livelli di autorizzazione. Qualsiasi forza dell'ordine che consideri l'utilizzo di tali sistemi deve garantire la rigorosa conformità a tutti i requisiti procedurali. L'utilizzo non autorizzato comporta le sanzioni di Livello 1.
Come le pratiche vietate interagiscono con la classificazione del rischio
Il quadro basato sul rischio del Regolamento UE sull'IA colloca le pratiche vietate al vertice:
Unacceptable Risk Vietate in modo assoluto — nessun grado di conformità può renderle lecite.
High Risk Soggette a requisiti rigorosi ma consentite con salvaguardie.
Limited Risk Soggette principalmente a obblighi di trasparenza.
Minimal Risk Nessun obbligo specifico (codici di condotta volontari incoraggiati).
La distinzione fondamentale è che i sistemi ad alto rischio possono diventare conformi attraverso misure tecniche e organizzative. Le pratiche vietate no. Se il vostro sistema di IA rientra nell'Articolo 5, l'unico comportamento conforme è non implementarlo — o riprogettarlo radicalmente affinché non soddisfi più i criteri del divieto.
Cosa devono fare le organizzazioni adesso
I divieti sono applicabili dal 2 febbraio 2025. Le organizzazioni dovrebbero intervenire immediatamente:
1. Verificate il vostro portafoglio di IA
Esaminate ogni sistema di IA che sviluppate, implementate o distribuite. Per ciascun sistema, valutate se qualsiasi aspetto della sua funzionalità potrebbe rientrare nei divieti dell'Articolo 5. Prestate particolare attenzione a:
- Sistemi che coinvolgono il trattamento di dati biometrici
- Sistemi che personalizzano contenuti o raccomandazioni in modi che potrebbero essere considerati manipolativi
- Sistemi utilizzati nelle risorse umane, nell'istruzione o nei processi decisionali del settore pubblico
- Sistemi che profilano o categorizzano gli individui
2. Documentate la vostra analisi
Per qualsiasi sistema che opera in un'area adiacente a un divieto (ad esempio, un sistema di raccomandazione, uno strumento di analisi HR o un sistema di autenticazione biometrica), documentate la vostra analisi del motivo per cui non rientra nelle categorie vietate. Questa documentazione sarà preziosa se la vostra classificazione dovesse essere messa in discussione da un'autorità di regolamentazione.
3. Implementate salvaguardie tecniche
Laddove un sistema potrebbe teoricamente essere riconvertito per un uso vietato, implementate controlli tecnici che impediscano tale riconversione. Ad esempio, se fornite tecnologia di riconoscimento facciale per la verifica dell'identità, assicuratevi che l'architettura del vostro sistema impedisca il suo utilizzo per la raccolta indiscriminata o la categorizzazione biometrica di attributi sensibili.
4. Formate i vostri team
Assicuratevi che product manager, ingegneri, data scientist e team di procurement comprendano le pratiche vietate e siano in grado di identificare potenziali problematiche nelle fasi iniziali del ciclo di sviluppo o di approvvigionamento.
I divieti dell'Articolo 5 non sono mere barriere normative — riflettono un ampio consenso sui limiti dell'uso accettabile dell'IA. Le organizzazioni che allineano le proprie pratiche di IA a questi valori non stanno solo evitando sanzioni; stanno costruendo sistemi di IA di cui utenti, dipendenti e cittadinanza possono fidarsi.
Conclusione
Le pratiche vietate dal Regolamento UE sull'IA rappresentano la dichiarazione di principio più chiara del regolamento: alcuni usi dell'IA sono semplicemente inaccettabili in una società democratica. Dal social scoring alle tecniche subliminali manipolative, dalla raccolta indiscriminata per il riconoscimento facciale alla sorveglianza emotiva nelle scuole e nei luoghi di lavoro, questi divieti definiscono i limiti esterni dell'uso lecito dell'IA in Europa.
Con l'applicazione già attiva e sanzioni che raggiungono il 7% del fatturato globale, comprendere questi divieti non è facoltativo. Ogni organizzazione che tocca l'IA nel mercato dell'UE deve sapere esattamente dove si trovano le linee rosse — e assicurarsi di essere dalla parte giusta.
Make Your AI Auditable and Compliant
Ctrl AI provides expert-verified reasoning units with full execution traces — the infrastructure you need for EU AI Act compliance.
Explore Ctrl AIArticoli correlati
Attuazione del Regolamento UE sull'IA per Paese
Come i diversi Stati membri dell'UE stanno attuando il Regolamento sull'IA — autorità nazionali competenti, spazi di sperimentazione normativa e approcci nazionali alla governance dell'IA.
IA per Finalità Generali (GPAI) nel Regolamento UE sull'IA
Guida completa agli obblighi per i modelli GPAI nel Regolamento UE sull'IA — requisiti di trasparenza, valutazione del rischio sistemico e cosa devono fare i fornitori di modelli di fondazione.
Obblighi di Trasparenza del Regolamento UE sull'IA: Cosa Dovete Comunicare
Guida ai requisiti di trasparenza del Regolamento UE sull'IA — obblighi di divulgazione per sistemi di IA, chatbot, deepfake e riconoscimento delle emozioni. Articoli 50-52 spiegati.