L’AI Act non istituisce una singola “valutazione del rischio”, ma un ecosistema di processi di valutazione distinti, che si attivano in base a tre variabili:
- il livello di rischio associato al sistema,
- il ruolo dell’operatore economico (fornitore o utilizzatore),
- il momento del ciclo di vita del prodotto (prima dell’immissione sul mercato, durante l’uso, dopo l’immissione).
In questa guida analizziamo come funziona la valutazione del rischio secondo l’AI Act, e ti forniamo gli strumenti pratici per classificare correttamente i tuoi sistemi AI. Capire bene questi passaggi permette di applicare l’AI con maggiore tranquillità operativa.
CONTENUTO DELL'ARTICOLO
- 1 Il quadro di riferimento della valutazione del rischio nell’AI Act
- 2 Sistemi vietati: il controllo preliminare
- 3 La classificazione dei sistemi ad alto rischio
- 4 Obblighi del fornitore per i sistemi ad alto rischio
- 5 Obblighi dell’utilizzatore per i sistemi ad alto rischio
- 6 La valutazione dei sistemi a rischio limitato e minimo
- 7 Serve supporto sulla compliance AI?
Il quadro di riferimento della valutazione del rischio nell’AI Act
La valutazione del rischio dell’AI Act si inserisce in un impianto più ampio, che combina ruoli diversi, principi di proporzionalità e livelli di rischio definiti dal Regolamento. Prima di analizzare il processo vero e proprio, è utile chiarire questi elementi di contesto per capire come e perché l’AI Act struttura la valutazione in modo così articolato.
Chi valuta cosa: la distinzione tra fornitore e utilizzatore
Prima di analizzare i singoli livelli di rischio, è essenziale comprendere chi è responsabile della valutazione del rischio secondo l’AI Act.
La Valutazione del Rischio è un obbligo del fornitore, che progetta, sviluppa e immette sul mercato il sistema.
La “Valutazione d’Impatto” (FRIA) è, invece, un obbligo primario dell’utilizzatore, che impiega il sistema in un contesto operativo specifico.
L’anello di congiunzione legale che trasferisce le informazioni sul rischio tra questi due attori è l’obbligo di trasparenza: il fornitore deve fornire all’utilizzatore informazioni chiare e dettagliate sui rischi individuati durante la progettazione, affinché questi possa svolgere una FRIA consapevole e completa, includendo le misure di mitigazione e supervisione necessarie.
Se non sai qual è il tuo ruolo, ti consiglio di leggere prima di tutto questo: “Differenza tra fornitore e utilizzatore di AI”
Il principio dell’approccio risk-based
Il legislatore europeo ha creato un sistema graduato dove maggiore è il rischio potenziale, più stringenti sono i requisiti di conformità.
Nel linguaggio dell’AI Act, rischio è la combinazione della probabilità che si verifichi un danno e della gravità del danno stesso. Un sistema AI potenzialmente pericoloso può rappresentare un rischio basso se utilizzato in contesti controllati, mentre un sistema apparentemente innocuo può diventare ad alto rischio se applicato in ambiti sensibili come l’accesso al credito o la valutazione dei lavoratori.
I 4 livelli di rischio
L’AI Act distingue quattro livelli di rischio che servono a determinare quale percorso regolatorio si applica al sistema prima delle analisi successive.
| Livello di rischio | Cosa comprende |
| 🚫 Inaccettabile | Social scoring pubblico, sistemi manipolativi, riconoscimento emotivo in contesti sensibili, pratiche di sorveglianza non mirata. |
| ⚠️ Alto rischio | Sistemi per il recruiting e la gestione del personale, credit scoring, identificazione biometrica, applicazioni in settori regolati o a forte impatto sui diritti delle persone. |
| ℹ️ Rischio limitato | Chatbot non critici, modelli generativi utilizzati fuori dagli ambiti sensibili, sistemi di raccomandazione che non incidono su diritti fondamentali. |
| ✓ Rischio minimo | Filtri antispam, strumenti di automazione leggera, videogiochi, traduttori automatici e applicazioni a impatto minimo. |
Pericolo vs rischio
Un sistema di intelligenza artificiale può essere intrinsecamente pericoloso ma rappresentare un rischio minimo, o viceversa. Il pericolo è la capacità teorica di causare un danno, il rischio è la probabilità concreta che quel danno si verifichi nel tuo specifico contesto d’uso.
Prendiamo un sistema di riconoscimento facciale. Il pericolo è sempre lo stesso: può identificare e tracciare persone. Ma il rischio cambia radicalmente:
- Lo usi internamente per l’accesso dei dipendenti alla sala server con loro consenso scritto? Rischio basso
- Lo implementi per identificare clienti che entrano nel negozio senza informarli? Rischio inaccettabile
Lo stesso identico software AI può richiedere zero obblighi o essere completamente illegale a seconda di come lo implementi nella tua azienda. Per questo l’AI Act valuta non solo le caratteristiche tecniche del sistema, ma soprattutto il contesto operativo, le persone coinvolte e le misure di mitigazione che adotti.
Corso Legale utilizzo IA
14 lezioni teoriche e pratiche sull’IA
Con questo corso potrai imparare, tra l’altro:
- Tutti gli aspetti fondamentali della legge sull’IA
- Elementi legali indispensabili per la tutela per l’IA
- Diritto d’autore e copyright sui contenuti creati
- Come gestire i dati utilizzati dall’IA
- Responsabilità legali per l’utilizzo della IA
- Prevenzione di controversie legali con i clienti
Il nostro corso esclusivo su tutto quello che ti serve sapere per approcciare al mondo dell’intelligenza artificiale senza rischi legali e con la consapevolezza di sfruttare tool come ChatGpt, Dall-E o Midjourney in modo performante e sicuro.
Sistemi vietati: il controllo preliminare
Il processo di valutazione inizia sempre da una verifica preliminare: capire se il sistema di IA rientra nelle pratiche vietate dall’articolo 5 dell’AI Act.
In questa fase non si parla ancora di “valutazione del rischio” in senso stretto, perché i sistemi vietati non sono valutabili.
Sono classificati direttamente come “rischio inaccettabile”: non possono essere immessi sul mercato né utilizzati nell’Unione Europea, indipendentemente da misure tecniche o contesto d’uso.
Un sistema vietato è quindi un sistema di IA che, per come è progettato o per lo scopo per cui viene utilizzato, presenta un rischio talmente elevato per diritti, libertà e sicurezza da rendere impossibile qualsiasi mitigazione.
Le Linee Guida della Commissione Europea e l’articolo 5 individuano otto pratiche vietate:
- Manipolazione e inganno;
- Sfruttamento delle vulnerabilità;
- Social scoring da parte di autorità pubbliche
- Valutazione del rischio di reato basata solo sulla profilazione
- Scraping facciale non mirato
- Riconoscimento delle emozioni in contesti sensibili
- Categorizzazione biometrica basata su dati sensibili
- Identificazione biometrica remota in tempo reale in spazi pubblici (forze dell’ordine): vietata salvo deroghe eccezionali, da usare solo in casi di stretta necessità e previo controllo giudiziario.
Solo se il sistema supera questo controllo preliminare si passa alla valutazione del rischio vera e propria.
La classificazione dei sistemi ad alto rischio
Questa è la classificazione più delicata dell’intero Regolamento. Una valutazione errata, ad esempio considerare “limitato” un sistema che dovrebbe essere “alto”, compromette l’intera strategia di compliance e integra una violazione rilevante.
L’articolo 6 stabilisce due condizioni attraverso le quali un sistema entra nell’alto rischio.
Primo criterio: componenti di sicurezza
Il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o è esso stesso un prodotto, rientrante nella legislazione di armonizzazione dell’Unione elencata nell’Allegato I (macchinari, giocattoli, ascensori, dispositivi medici ecc.). Quando il funzionamento dell’IA può incidere sulla sicurezza complessiva del prodotto, la classificazione è automatica.
Secondo criterio: casi d’uso tassativi
L’Allegato III individua i settori nei quali l’uso dell’IA può incidere in modo significativo su diritti, opportunità e condizioni delle persone (biometria, istruzione, lavoro, credito, servizi essenziali, migrazione, giustizia, processi elettorali).
La valutazione qui riguarda lo scopo dichiarato: si verifica se il sistema è destinato a svolgere una delle funzioni indicate nell’allegato, non se potrebbe farlo potenzialmente. È un punto che può generare equivoci: non si analizza la tecnologia, ma la funzione e il suo impatto.
Una volta stabilito che il sistema rientra nell’alto rischio, diventano obbligatori tutti i passaggi successivi del processo: gestione del rischio, requisiti sui dati, supervisione umana, documentazione tecnica, valutazione di conformità e FRIA.
La deroga e il suo limite strutturale
L’inclusione nell’Allegato III non conclude la classificazione.
L’articolo 6.3 consente di escludere il sistema dall’alto rischio se il fornitore dimostra l’assenza di un rischio significativo per salute, sicurezza o diritti fondamentali. La deroga è ammessa solo in quattro casi:
- il sistema svolge un compito procedurale ristretto;
- completa o migliora un’attività umana già conclusa;
- rileva pattern senza influenzare decisioni già prese;
- svolge un compito preparatorio (es. predisporre un fascicolo senza determinare un punteggio).
La deroga, tuttavia, non opera quando il sistema effettua profilazione di persone fisiche.
La nozione di profilazione è ampia (valutazione di aspetti economici, lavorativi, sanitari, comportamentali, preferenze, affidabilità ecc.), e copre gran parte delle applicazioni operative nell’Allegato III, come screening dei CV o credit scoring.
Obblighi del fornitore per i sistemi ad alto rischio
Per il fornitore, la valutazione non è un documento ma un ciclo operativo che attraversa tutto il ciclo di vita dell’IA. Si articola in tre blocchi: gestione del rischio, conformità ex-ante e monitoraggio post-immissione.
Gestione del rischio
La gestione del rischio è un processo continuo che deve esistere prima dell’immissione sul mercato e rimanere attivo per tutta la durata di vita del sistema. L’articolo 9 richiede quattro passaggi:
- identificare i rischi noti e quelli ragionevolmente prevedibili, anche in condizioni di uso improprio;
- stimarli e valutarli;
- individuare rischi emergenti sulla base dei dati raccolti dopo l’immissione sul mercato;
- definire misure di mitigazione, seguendo l’ordine:
- interventi sulla progettazione,
- controlli tecnici e organizzativi,
- informazioni e formazione agli utilizzatori.
La gestione del rischio è il punto di raccordo che collega progettazione, dati e monitoraggio.
Valutazione di conformità ex-ante
Prima di immettere il sistema sul mercato, il fornitore deve dimostrare la conformità ai requisiti del Capo III.
La valutazione ex-ante include: gestione del rischio, governance dei dati, documentazione tecnica, requisiti informativi, supervisione umana, accuratezza, robustezza e cybersecurity.
Il Regolamento prevede due modalità procedurali:
- controllo interno (Allegato VI), usato dalla maggior parte dei sistemi dell’Allegato III;
- valutazione di terza parte (Allegato VII), obbligatoria per i sistemi di identificazione biometrica e per quelli già soggetti a controllo di terza parte ai sensi della normativa di prodotto applicabile.
La conformità ex-ante si conclude con la marcatura CE e l’autorizzazione all’immissione sul mercato.
Monitoraggio post-immissione
Una volta sul mercato, il sistema deve essere monitorato in modo attivo.
Il fornitore deve predisporre un Piano di Monitoraggio da includere nella documentazione tecnica e utilizzarlo per raccogliere dati nel mondo reale, verificare la performance del sistema, individuare anomalie e aggiornare la valutazione dei rischi.
I dati raccolti alimentano nuovamente la gestione del rischio: se emergono criticità, il fornitore deve intervenire con misure correttive o, nei casi più rilevanti, con una nuova valutazione di conformità.
Un ciclo di compliance che non si interrompe
Questi tre momenti – gestione del rischio, conformità ex-ante e monitoraggio – formano un ciclo continuo. La valutazione del rischio per il fornitore non è un adempimento iniziale, ma un processo permanente che accompagna progettazione, immissione sul mercato e uso del sistema.
Guida gratuita sull’Intelligenza Artificiale
43 pagine formative gratuite sull’intelligenza artificiale
SFOGLIA L’ANTEPRIMA
Una Guida esclusiva di 43 pagine per gestire l’uso dell’intelligenza artificiale nel tuo lavoro senza pericoli di natura legale.
Lo strumento gratuito migliore per affacciarsi al mondo dell’intelligenza artificiale!
Obblighi dell’utilizzatore per i sistemi ad alto rischio
Una volta che il sistema è conforme e marcato CE, l’attenzione si sposta sull’ambiente in cui viene impiegato. L’utilizzatore deve verificare che il sistema, classificato ad alto rischio e integrato nei propri processi, non generi rischi ulteriori rispetto a quelli valutati in fase di progettazione.
Per questo l’AI Act affida all’utilizzatore una serie di responsabilità operative, tra cui la FRIA, che valuta l’impatto concreto del sistema nel contesto specifico in cui viene adottato.
La valutazione d’Impatto sui Diritti Fondamentali (FRIA)
L’utilizzatore deve valutare l’impatto che l’IA produce nel proprio contesto operativo attraverso la FRIA, richiesta dall’articolo 27.
La FRIA riguarda il modo in cui il sistema viene integrato nei processi aziendali e nelle decisioni che influenzano persone reali.
È una valutazione che misura l’effetto concreto sull’ambiente in cui l’IA viene utilizzata, tenendo conto delle misure organizzative adottate, dei flussi decisionali, delle procedure interne e del tipo di dati trattati.
Il risultato della FRIA è una verifica delle condizioni operative: se l’uso previsto presenta rischi residui significativi, l’azienda deve introdurre misure aggiuntive o rivedere l’implementazione.
Poiché la FRIA è un elemento centrale della compliance per gli utilizzatori, e richiede un approfondimento dedicato, puoi leggerlo qui:
👉 Valutazione d’Impatto sui Diritti Fondamentali (FRIA): guida completa
Il monitoraggio operativo e l’aggiornamento della valutazione
Una volta che il sistema è attivo, l’azienda deve monitorare il suo funzionamento nel contesto reale e verificare che le condizioni analizzate nella FRIA rimangano valide nel tempo.
Il monitoraggio riguarda tre dimensioni principali:
- comportamento del sistema: come si modifica nel tempo in base ai dati e alle interazioni;
- coerenza con le procedure interne: se l’uso effettivo segue davvero le modalità previste nella FRIA;
- effetti sulle persone: se emergono criticità in termini di accuratezza, inclusività, trasparenza o accessibilità dei risultati.
Quando l’utilizzatore rileva deviazioni rilevanti, deve aggiornare la FRIA o introdurre misure correttive: nuove procedure, controlli aggiuntivi, formazione del personale, cambiamenti nei flussi decisionali. Nei casi più impattanti, l’azienda può dover riesaminare l’intera implementazione o sospendere temporaneamente l’uso del sistema.
Il monitoraggio non è un obbligo formale: è la condizione che assicura continuità tra valutazione ex-ante, uso operativo e tutela delle persone coinvolte. È anche il punto in cui le informazioni fornite dal fornitore, incluse quelle emerse dal suo monitoraggio post-market, devono essere integrate nel quadro di rischio aziendale.
Il risultato è un sistema di valutazione circolare: il fornitore alimenta l’utilizzatore con i dati del PMM; l’utilizzatore verifica l’impatto nel proprio ambiente; la FRIA viene aggiornata quando necessario; il processo riprende.
La valutazione dei sistemi a rischio limitato e minimo
Quando un sistema non rientra né tra le pratiche vietate né tra i casi ad alto rischio, resta da verificare se ricade nel rischio limitato o nel rischio minimo. Qui il Regolamento cambia prospettiva: il tema non è più la sicurezza o l’impatto sui diritti fondamentali, ma la possibilità che l’utente venga tratto in inganno o non sia consapevole della natura artificiale dell’interazione.
Rischio limitato
Rientrano in questa categoria i sistemi che, pur non incidendo su diritti o condizioni delle persone in modo significativo, possono creare un rischio di opacità. È il caso delle tecnologie che interagiscono direttamente con gli utenti, come chatbot e assistenti virtuali, o che generano contenuti artificiali, come testo, immagini, audio o video.
La valutazione è un controllo rapido: se il sistema dialoga con esseri umani o produce contenuti potenzialmente confondibili con quelli reali, scatta l’unico obbligo previsto: informare chiaramente l’utente.
Le modalità possono cambiare (etichettatura, messaggi informativi, segnalazioni), ma il principio è unico: evitare fraintendimenti.
Rischio minimo
È la categoria residuale. Quando un sistema non rientra in nessuna delle tre categorie precedenti, è automaticamente classificato come rischio minimo. La maggior parte delle applicazioni oggi diffuse ricade qui: filtri antispam, sistemi nei videogiochi, strumenti che non incidono su decisioni o diritti.
La valutazione si riduce a una verifica sequenziale: non è vietato; non è ad alto rischio; non presenta obblighi di trasparenza. A questo punto il sistema è a rischio minimo e il Regolamento non prevede obblighi.
Il legislatore incoraggia comunque l’adozione volontaria di codici di condotta, per sostenere un uso responsabile dell’IA anche in questa categoria.
Questa fase chiude il percorso di classificazione: una volta identificata la categoria corretta, l’azienda può applicare gli obblighi specifici o, nel caso dei sistemi a rischio minimo, procedere senza adempimenti ulteriori.
Serve supporto sulla compliance AI?
Mettere in sicurezza un sistema di intelligenza artificiale richiede competenze che tengano insieme diritto, tecnologia e operatività aziendale. È un equilibrio che non si improvvisa: servono avvocati in grado di dialogare con sviluppatori, product owner e marketer, e di trasformare i requisiti dell’AI Act in processi sostenibili.
È esattamente il tipo di lavoro che svolgiamo in Legal for Digital:
- Supportiamo sviluppatori nella classificazione e nella documentazione tecnica,
- Le imprese nella governance e nel risk assessment,
- I team marketing nell’uso conforme dell’AI generativa, e
- Le aziende nella formazione obbligatoria richiesta dal Regolamento.
Se hai bisogno di confrontarti su un progetto, valutare un sistema o impostare la governance AI della tua azienda, scrivici!
