In molte aziende l’introduzione dell’AI è ancora ferma ai tavoli decisionali. Nell’operatività quotidiana, però, l’AI è già presente. La usano i dipendenti.
ChatGPT, Copilot, tool di sintesi, generatori di testi e codice vengono usati ogni giorno per lavorare più in fretta. Spesso senza dirlo a nessuno. Spesso incollando nei prompt dati aziendali, file interni, informazioni riservate.
Questo comportamento ha un nome: Shadow AI. Ormai si può dire che è un fenomeno non occasionale, ma strutturale. È il modo in cui l’AI sta entrando nelle imprese.
Secondo una recente indagine, condotta da Adnkronos, il 68% dei lavoratori utilizza strumenti di AI senza informare l’azienda. E nel 15% dei casi questo ha già portato a incidenti di sicurezza.
In questo articolo vediamo cos’è la Shadow AI, perché rappresenta un rischio preoccupante, e cosa può fare un’azienda per gestirla prima che diventi un problema.
CONTENUTO DELL'ARTICOLO
Cos’è la shadow AI
La shadow AI è l’utilizzo di strumenti di intelligenza artificiale da parte dei dipendenti senza che l’azienda ne sia a conoscenza o abbia dato autorizzazione. Parliamo di chatbot come ChatGPT, Claude, Gemini, ma anche di tool di sintesi vocale, generatori di immagini, assistenti di scrittura e strumenti di analisi dati.
Il termine shadow AI riprende quello di shadow IT, usato da anni per descrivere software e applicazioni installate dai dipendenti al di fuori dei canali ufficiali. Ma c’è una differenza sostanziale: con la shadow IT il rischio principale è la frammentazione: sistemi non integrati, licenze non tracciate, potenziali vulnerabilità. I dati, però, restano perlopiù all’interno del perimetro aziendale.
Con la shadow AI i dati escono. Ogni volta che un dipendente incolla un testo, carica un file o formula una richiesta in un tool di AI generativa, quelle informazioni vengono trasmesse a server esterni. In molti casi, possono essere utilizzate per addestrare i modelli. E una volta uscite, non c’è modo di recuperarle.
I numeri dello Shadow AI
Secondo l’indagine Menlo Security 2025, il 68% dei dipendenti utilizza strumenti di AI generativa attraverso account personali, al di fuori di qualsiasi controllo aziendale. Non occasionalmente: come prassi quotidiana. E il 57% di questi ammette di inserire regolarmente dati sensibili nei prompt.
Il trend è in accelerazione. Cyberhaven ha rilevato un aumento del 485% dei dati aziendali inseriti in tool AI tra il 2023 e il 2024. Di questi, il 27,4% è classificabile come sensibile: codice sorgente, documenti interni, informazioni su clienti, strategie commerciali.
Esempi comuni di shadow AI in azienda:
- Un commerciale copia un’offerta riservata in ChatGPT per migliorarne il tono
- Un tecnico incolla codice sorgente per farsi aiutare nel debug
- Un HR carica CV di candidati per generare una sintesi
- Un marketing manager chiede a un tool AI di analizzare i dati di una campagna
- Un legale inserisce una bozza di contratto per avere suggerimenti di revisione
Nessuno di questi comportamenti nasce da cattive intenzioni. Nella maggior parte dei casi, chi lo fa vuole semplicemente lavorare meglio e più velocemente. Il problema è che lo sta facendo con strumenti che l’azienda non controlla, su cui non ha visibilità e di cui, spesso, non conosce nemmeno l’esistenza.
Perché la shadow AI non è solo un tema IT
Di fronte alla shadow AI, molte aziende reagiscono sul piano tecnico: blocchi, filtri, monitoraggio.
L’uso dell’AI per attività lavorative espone però l’organizzazione a profili di responsabilità che vanno ben oltre l’IT.
Tre domande che spostano il tema dal tecnico al legale
1) Che cosa è stato inserito nel prompt?
Nella richiesta non finiscono solo testi “neutri”. Si chiede ai BOT di elaborare al email di clienti, informazioni su dipendenti e candidati, note interne, documenti di lavoro. In quel momento non si sta più semplicemente usando uno strumento: si sta effettuando è trattamento di dati, con tutte le conseguenze che ne derivano in termini di base giuridica, informativa, trasferimenti extra-UE e misure di sicurezza..
2) Dove sono finiti quei dati?
Con la shadow AI, l’azienda spesso non sa quale piattaforma è stata usata, con quali impostazioni, con quali condizioni d’uso e se i dati possano essere utilizzati per addestramento o conservati. IIl problema non è l’uso individuale dell’AI, ma la perdita di controllo sul flusso informativo.
3) Quali obblighi ricadono sull’organizzazione?
Il quadro normativo non guarda alle intenzioni, ma ai fatti: l’AI è usata in azienda? Allora servono governance, formazione, regole interne. Se l’uso è sommerso, quegli obblighi diventano difficili da rispettare e soprattutto da documentare.
Il caso Samsung: tre leak in venti giorni
Aprile 2023. Samsung Electronics autorizza l’uso di ChatGPT in alcuni reparti della divisione semiconduttori. Nessuna policy strutturata, nessuna formazione specifica. Solo il via libera.
In meno di tre settimane, tre episodi distinti:
- Caso 1 Un ingegnere incolla porzioni di codice sorgente protetto da segreto industriale per chiedere una revisione
- Caso 2 Un tecnico condivide una sequenza di test proprietaria per ottimizzarla
- Caso 3 Un dipendente carica la registrazione di una riunione interna per ottenere una trascrizione
Tre persone, tre reparti diversi, lo stesso schema: usare l’AI per lavorare meglio, senza sapere cosa stavano esponendo.
Samsung non è una PMI sprovveduta. È una multinazionale con budget miliardari per la sicurezza informatica. Eppure il danno non è arrivato da un attacco esterno. È arrivato da dipendenti con buone intenzioni e zero consapevolezza dei rischi.
Corso Legale utilizzo IA
14 lezioni teoriche e pratiche sull’IA
Con questo corso potrai imparare, tra l’altro:
- Tutti gli aspetti fondamentali della legge sull’IA
- Elementi legali indispensabili per la tutela per l’IA
- Diritto d’autore e copyright sui contenuti creati
- Come gestire i dati utilizzati dall’IA
- Responsabilità legali per l’utilizzo della IA
- Prevenzione di controversie legali con i clienti
Il nostro corso esclusivo su tutto quello che ti serve sapere per approcciare al mondo dell’intelligenza artificiale senza rischi legali e con la consapevolezza di sfruttare tool come ChatGpt, Dall-E o Midjourney in modo performante e sicuro.
Le 6 tipologie di rischio per l’impresa
La shadow AI non espone l’azienda a un rischio legale generico. Produce effetti giuridici differenziati, ciascuno con conseguenze proprie.
1. Rischio privacy (GDPR)
Quando un dipendente inserisce in ChatGPT il nome di un cliente, i dati di un candidato, le note di una riunione con riferimenti a persone identificabili, l’azienda sta trattando dati personali attraverso un sistema esterno. E quel trattamento non rispetta il GDPR:
- Base giuridica assente. L’interessato non ha prestato consenso a quel trattamento specifico e il legittimo interesse difficilmente può essere invocato per flussi di dati che l’azienda non controlla.
- Informativa inesistente. Gli interessati non sono stati informati del fatto che i loro dati sarebbero stati inseriti in strumenti di AI e trasferiti su server di terzi.
- Trasferimento extra-UE non gestito. Molti tool di AI operano su server localizzati negli Stati Uniti; in assenza di garanzie adeguate, ogni trasferimento costituisce una violazione autonoma.
- Principio di minimizzazione disatteso. Prompt scritti senza filtri contengono spesso più dati del necessario, in contrasto diretto con il GDPR.
Nel caso di shadow AI l’azienda risponde per l’operato del dipendente, poiché la mancanza di controlli tecnici (es. blocco dei siti AI, DLP) viene spesso interpretata dalla giurisprudenza come una negligenza del titolare del trattamento.
Le conseguenze possono essere rilevanti: sanzioni fino al 4% del fatturato mondiale annuo, provvedimenti correttivi e obblighi risarcitori verso gli interessati.
2. Rischio segreti commerciali
Il Codice della Proprietà Industriale (artt. 98-99) protegge le informazioni aziendali riservate a patto che soddisfino tre requisiti cumulativi:
- Siano segrete.
- Abbiano valore economico in quanto segrete.
- Siano sottoposte a misure ragionevolmente adeguate a mantenerle segrete.
Il segreto commerciale non si perde perché qualcuno te lo ruba. Si perde perché non lo hai protetto.
Quando un dipendente carica codice sorgente, strategie commerciali, documenti interni, metodologie proprietarie su una piattaforma AI pubblica, sta rimuovendo la protezione legale da quelle informazioni.
Non serve che OpenAI usi quei dati per addestrare il modello (anche se in molti casi può farlo). Il danno giuridico si consuma nel momento in cui l’informazione esce dal perimetro controllato dall’azienda:
- L’informazione può perdere lo status di “segreto commerciale”
- L’azienda non può più agire legalmente contro chi la utilizza
- I competitor che ne vengono a conoscenza potrebbero sfruttarla legittimamente
- Il valore economico di quel know-how si azzera
Nel caso Samsung, tre dipendenti in venti giorni hanno esposto codice sorgente, sequenze di test e contenuti di riunioni riservate. Non c’è stato un attacco informatico. C’è stata un’azione volontaria, inconsapevole, non presidiata.
Le conseguenze sono rilevanti: perdita irreversibile di asset strategici, impossibilità di tutela legale e danno competitivo difficilmente quantificabile.
3. Diritto d’autore a rischio
L’art. 25 della Legge 132/2025 chiarisce che la tutela del diritto d’autore è riservata alle opere frutto dell’ingegno umano.
Quindi, se un dipendente utilizza l’AI in modo non dichiarato per generare codice software, testi di marketing, grafiche o design, tali output potrebbero non essere protetti dal diritto d’autore.
Il danno può essere grave: l’azienda ritiene di essere titolare di un asset (ad esempio un software proprietario), ma in realtà potrebbe detenere un’opera priva del requisito dell’autorialità umana o rispetto alla quale non è in grado di dimostrare un apporto creativo umano prevalente. Con tutto quello che ne consegue:
- Un concorrente potrebbe copiarla legittimamente, lasciando l’azienda priva di strumenti di tutela.
- L’azienda sostiene costi per ottenere output sui quali non vanta diritti esclusivi.
4. Rischio contrattuale
Per agenzie, software house, consulenti e fornitori di servizi digitali, questo rischio emerge spesso prima di qualsiasi intervento del regolatore.
La maggior parte dei contratti B2B contiene clausole che l’uso non governato dell’AI tende a violare::
- NDA e obblighi di riservatezza. Gli accordi vietano la comunicazione di informazioni del cliente a soggetti terzi. L’inserimento di quei dati in un tool di AI esterno può integrare una violazione contrattuale.
- Clausole di data protection. Molti contratti prevedono obblighi puntuali su modalità di trattamento, accesso ai dati e misure di sicurezza. La Shadow AI rende spesso impossibile rispettarli.
- Obblighi di data localization. In settori come PA, sanità o finance, i dati devono restare in UE o in Italia. Un prompt su una piattaforma AI pubblica può comportare un trasferimento extra-UE non consentito.
- Service Level Agreement. Se il contratto richiede standard di sicurezza certificati (ISO 27001, SOC 2), l’uso di strumenti AI non autorizzati può configurare un inadempimento.
Il cliente non deve dimostrare un danno effettivo. Deve solo dimostrare che hai violato il contratto.
5. Rischio organizzativo e probatorio
Questo è il rischio che nessuno vede finché non è troppo tardi.
Se non sai chi usa l’AI in azienda, con quali strumenti, inserendo quali dati, per prendere quali decisioni, hai un problema che precede tutti gli altri: non puoi documentare nulla.
- Non puoi documentare la formazione del personale, perché non sai chi utilizza quali strumenti.
- Non puoi attestare di aver adottato misure di sicurezza adeguate, perché non sai cosa presidiare.
- Non puoi ricostruire i processi decisionali, perché non esiste alcuna tracciabilità.
In caso di ispezione, la prima domanda sarà: «Quali sistemi di AI utilizzate e come li gestite?».Se la risposta è «non lo sappiamo», il procedimento parte in salita.
In caso di contenzioso con un cliente o un ex dipendente, sarà necessario ricostruire cosa è successo, quando e per mano di chi. Senza log, policy e documentazione, la ricostruzione diventa impossibile.
In operazioni di due diligence (M&A, investimenti, partnership strategiche), l’assenza di una governance sull’AI è una red flag che può compromettere l’operazione o incidere sulla valutazione.
L’assenza di visibilità non ti protegge. Ti espone.
6. Rischio AI Act
L’AI Act non fa distinzioni tra AI adottata formalmente e AI usata di nascosto dai dipendenti.
Il regolamento definisce “deployer” qualsiasi soggetto che utilizza un sistema di AI sotto la propria autorità in un contesto professionale. Quando i tuoi dipendenti usano ChatGPT per lavorare, anche senza autorizzazione, l’azienda è qualificata come deployer e e si applicano gli obblighi previsti dal regolamento::
- Obbligo di formazione (art. 4). Devi garantire che chi usa l’AI abbia competenze adeguate. Ma se non sai chi la usa, come dimostri di averlo formato?
- Obbligo di trasparenza (art. 50). Se l’AI genera contenuti destinati all’esterno (testi, immagini, comunicazioni), devi dichiararlo. Ma se non sai quali output sono AI-generated, come puoi essere trasparente?
- Obbligo di governance. L’uso dell’AI deve essere documentato, i rischi valutati e le misure di controllo implementate. La Shadow AI svuota di efficacia questi obblighi.
Il regime sanzionatorio dell’AI Act prescinde dalla consapevolezza soggettiva dell’impresa.
La mancata conoscenza dell’uso dell’AI non costituisce un’esimente, ma un indicatore di carenza nella governance e di assenza dei controlli minimi richiesti dalla norma.
Vietare amplifica la shadow AI
Di fronte a questi rischi, molte aziende hanno reagito con divieti generalizzati: blocco di ChatGPT, limitazioni sull’AI generativa, filtri di rete. È una risposta comprensibile, ma inefficace. I dipendenti aggirano i controlli usando dispositivi personali, reti esterne o account privati. L’uso dell’AI non si interrompe: si sposta fuori dal perimetro aziendale.
La Shadow AI non è un problema da reprimere, ma da rendere visibile e governare. Perché le sue conseguenze non restano confinate all’IT, ma incidono su compliance, legale, HR, area commerciale e direzione.
Guida gratuita sull’Intelligenza Artificiale
43 pagine formative gratuite sull’intelligenza artificiale
SFOGLIA L’ANTEPRIMA
Una Guida esclusiva di 43 pagine per gestire l’uso dell’intelligenza artificiale nel tuo lavoro senza pericoli di natura legale.
Lo strumento gratuito migliore per affacciarsi al mondo dell’intelligenza artificiale!
Sanzioni e aggravanti penali (Legge 132/2025)
Mentre l’AI Act prevede sanzioni amministrative pecuniarie, (fino a 15 milioni di euro o al 3% del fatturato per violazioni degli obblighi di governance )la Legge 132/2025 introduce un profilo di rischio ulteriore: le aggravanti penali connesse all’uso dell’intelligenza artificiale.
La normativa stabilisce che l’impiego dell’AI nella commissione di determinati reati, come truffa, sostituzione di persona, diffamazione o frode informatica, costituisce una circostanza aggravante.
Se un dipendente utilizza strumenti di shadow AI per commettere uno di questi reati nell’interesse o a vantaggio dell’ente, il rischio non resta confinato alla sfera individuale. In tali casi, l’uso dell’AI può incidere direttamente sulla responsabilità amministrativa dell’ente per il D.Lgs. 231/2001, rendendo necessario un aggiornamento dei Modelli di Organizzazione, Gestione e Controllo (MOG) per includere i rischi legati all’AI.
Come prevenire la shadow AI: un framework operativo
Il nodo centrale non è decidere se usare l’intelligenza artificiale, ma ricondurne l’uso entro un perimetro conoscibile e governabile, prima che lo faccia il quadro normativo dall’esterno.
L’alternativa al divieto è una AI policy aziendale che renda l’uso dell’AI visibile, regolato e documentabile.
Quattro passaggi più uno, in ordine di priorità.
- Mappa l’esistente. Prima di scrivere policy o erogare formazione, è necessario sapere cosa sta accadendo: quali strumenti di AI vengono utilizzati, da chi, per quali attività e con quali dati. La mappatura tecnica (DLP, analisi log) va fatta nel rispetto dello Statuto dei Lavoratori, quindi deve essere preceduta da un accordo con le Rappresentanze Sindacali Aziendali (RSA/RSU) o da autorizzazione ITL
- Definisci le regole. Devono essere chiare, concrete, applicabili:
- Quali strumenti sono autorizzati (e quali esplicitamente vietati)
- Quali tipologie di dati non possono mai essere inserite in tool AI esterni
- Quali output richiedono revisione umana prima della pubblicazione
- Come documentare l’uso dell’AI nei processi aziendali
- Forma il personale: è anche lo strumento più efficace per trasformare comportamenti rischiosi in comportamenti consapevoli. La formazione deve coprire tre aree:
- Funzionamento base: cos’è l’AI generativa, come elabora i dati, perché un prompt non è una ricerca Google
- Rischi specifici: cosa succede quando inserisci dati aziendali, clienti, codice, documenti riservati
- Regole aziendali: cosa prevede la policy, a chi rivolgersi in caso di dubbi
- Documenta e monitora. La documentazione è la principale linea di difesa dell’azienda. In caso di ispezione, contenzioso o data breach, sarà necessario dimostrare di aver adottato misure adeguate per prevenire e gestire i rischi. Il monitoraggio non implica una sorveglianza invasiva (contraria allo Statuto dei Lavoratori), ma la capacità di mantenere visibilità sui flussi e intercettare utilizzi anomali
- Clausole di proprietà intellettuale: introduci nei contratti di lavoro e nelle policy una clausola che obblighi il dipendente a dichiarare l’uso di AI nella creazione di opere, per permettere all’azienda di valutare la tutelabilità dell’asset.
Gestire la shadow AI con Legal for Digital
Per affrontare la Shadow AI servono due competenze che devono convivere: conoscere la normativa e capire come funziona davvero un’azienda digitale.
La prima senza la seconda produce documenti inapplicabili. La seconda senza la prima lascia buchi che prima o poi qualcuno trova.
Lavoriamo ogni giorno con agenzie, e-commerce, software house. Conosciamo i tool che usano i tuoi team, i dati che rischiano di caricare, le dinamiche che portano un dipendente a usare ChatGPT di nascosto invece di chiedere.
È per questo che le soluzioni che costruiamo reggono nella pratica, non solo in teoria.
Se vuoi portare l’AI fuori dall’ombra e dentro un perimetro che puoi controllare, parliamone.
