Il Cloud and Threat Report 2026 di Netskope Threat Labs racconta una verità che molte organizzazioni stanno scoprendo nel modo più difficile: l’intelligenza artificiale generativa è entrata nei processi quotidiani, ma la sicurezza non sta tenendo lo stesso passo.  

Nel 2025 le violazioni delle policy sui dati legate alle applicazioni di genAI sono più che raddoppiate rispetto al 2024, segnale che il problema non è più solo “governance”, ma esposizione concreta di informazioni sensibili.   

La crescita dell’adozione rende il quadro ancora più significativo. La percentuale di lavoratori che usa strumenti di genAI su base mensile è arrivata al 15% (triplicando in un anno) e i prompt inviati sono aumentati di sei volte, passando da una media di 3.000 a 18.000 al mese. In molte realtà, inoltre, l’uso è ormai ad alta intensità: il 25% delle organizzazioni più attive supera i 70.000 prompt mensili.   

Dati sensibili nei prompt: l’esposizione cresce più velocemente dei controlli 

Il punto più delicato non è solo che la genAI venga usata di più, ma come viene usata. Netskope rileva in media 223 tentativi mensili, per organizzazione, di inserimento di dati sensibili nei prompt o nei caricamenti verso strumenti di AI generativa. Dentro questa categoria rientrano proprietà intellettuale, codice sorgente e credenziali, cioè informazioni che possono generare impatti enormi se finiscono in canali non protetti o non governati.   

Nell’intervista esclusiva realizzata con Paolo Passeri, Senior Solution Architect di Netskope, emerge un messaggio molto chiaro: gli incidenti legati all’intelligenza artificiale “coinvolgono quasi esclusivamente l’esposizione di dati” e, in particolare, riguardano soprattutto codice sorgente, informazioni regolamentate e proprietà intellettuale. Passeri descrive un quadro che non lascia spazio a interpretazioni ottimistiche: si era chiuso un anno con questi rischi e se ne apre un altro con gli stessi rischi, “che sfortunatamente sono aumentati”.   

Shadow AI: il rischio diminuisce, ma resta uno dei punti ciechi più pericolosi 

Il report Cloud and Threat Report 2026 evidenzia che la shadow AI rimane una criticità centrale, perché si verifica quando i dipendenti usano strumenti di intelligenza artificiale con account personali o servizi non approvati dall’organizzazione. In quel momento la sicurezza perde visibilità, e senza visibilità non può esserci prevenzione efficace, soprattutto sul dato. 

La buona notizia è che qualcosa si muove: la quota di utenti che usa account personali di genAI sul lavoro è scesa al 47%, rispetto al 78% di un anno fa. È un calo importante, ma significa comunque che quasi un utente su due continua a utilizzare canali fuori controllo per interazioni che spesso includono informazioni aziendali.   

Passeri interpreta questa discesa come un segnale di maggiore consapevolezza: le organizzazioni stanno spingendo verso servizi approvati e infatti l’utilizzo di genAI “autorizzata” è cresciuto dal 25% al 62% nel corso dell’anno. Questo dato racconta un cambio culturale, prima ancora che tecnologico: l’AI non viene più solo “subita” come fenomeno spontaneo, ma gestita come una capability aziendale.   

Cloud personale e insider threat: il problema non è finito, si è trasformato 

Accanto alla genAI, Netskope conferma un tema storico che continua a generare incidenti: l’uso di applicazioni cloud personali in ambito lavorativo. Il report segnala che quasi un lavoratore su tre carica dati ogni mese su app cloud personali e che il 60% degli incidenti di minaccia interna coinvolge proprio questo comportamento.   

Passeri lega questa dinamica a un rischio che in Italia è noto da tempo, ma che oggi riguarda un contesto molto più ampio e internazionale: l’uso di servizi personali per scambiare informazioni porta con sé un’alta probabilità di esposizione di dati che non dovrebbero uscire dall’azienda, e infatti la componente regolamentata pesa in modo significativo su queste violazioni.   

Cloud and Threat Report 2026: Microsoft è il brand più imitato e il bersaglio è l’accesso 

Il report non parla solo di data protection e AI, ma anche di minacce “classiche” che stanno evolvendo. Nel 2025, ogni mese, 87 dipendenti su 10.000 hanno cliccato su un link di phishing. Il dato mostra un miglioramento anno su anno (la suscettibilità diminuisce del 27%), ma resta abbastanza alto da alimentare compromissioni reali.   

Il dettaglio più interessante è l’obiettivo: man mano che i sistemi critici migrano nel cloud, gli attaccanti progettano campagne sempre più orientate al furto di credenziali cloud. Non a caso Microsoft diventa il brand più falsificato, con il 52% dei clic nelle campagne di phishing che prendono di mira servizi cloud, seguito da Hotmail (11%) e DocuSign (10%).   

Malware nel cloud: GitHub, OneDrive e Google Drive restano canali di distribuzione privilegiati 

Un’altra evidenza forte è la capacità degli attaccanti di sfruttare piattaforme considerate affidabili dagli utenti. Nel malware, la logica è simile al phishing: usare canali familiari, ridurre la diffidenza e aumentare le probabilità di esecuzione. 

GitHub rimane il servizio più abusato per la distribuzione di file malevoli, con il 12% delle organizzazioni che ogni mese rileva esposizione a malware tramite questa applicazione. Seguono Microsoft OneDrive (10%) e Google Drive (5,8%). È un segnale chiaro: non basta “fidarsi” della piattaforma, perché i flussi cloud possono essere abusati prima che i provider riescano a rimuovere i contenuti dannosi.   

Cloud and Threat Report 2026: le contromisure stanno crescendo, ma il gap con il rischio è ancora evidente 

Dentro un quadro così denso di minacce, Netskope evidenzia anche un elemento positivo: le aziende stanno reagendo. Tuttavia, la maturità dei controlli non è uniforme. Solo la metà delle organizzazioni ha implementato strumenti DLP per impedire la divulgazione di dati sensibili tramite applicazioni di genAI, e quasi una su quattro (23%) non dispone di controlli in tempo reale per rilevare o bloccare la perdita di dati tramite applicazioni cloud personali.   

Passeri, su questo punto, è molto diretto: le aziende stanno aumentando i blocchi e la selezione delle applicazioni, arrivando a ridurre tipicamente il numero di strumenti di AI utilizzati internamente, e crescono anche le organizzazioni che applicano controlli DLP sul cloud personale, salite dal 70% al 77%. Ma proprio perché gli incidenti di esposizione dati legati alla genAI stanno crescendo, la priorità per il 2026 deve essere estendere controlli come il DLP anche ai flussi AI, con la stessa determinazione con cui sono stati applicati altrove.   

Sovranità del dato e tensioni geopolitiche: perché il 2026 sarà un anno cruciale 

Tra i temi che emergono con forza nel dibattito attuale c’è anche la sovranità del dato, che oggi non è solo una questione normativa, ma strategica. Passeri collega l’attenzione crescente a un contesto di tensioni geopolitiche che rende le organizzazioni più sensibili alla dipendenza tecnologica e infrastrutturale. 

In questa cornice, l’Europa sta provando a dare una risposta unificata con l’AI Act e l’AI Action Plan, puntando anche allo sviluppo di un’“intelligenza artificiale sovrana” per ridurre la dipendenza dagli hyperscaler extraeuropei. Passeri sottolinea che il 2026 sarà un anno cruciale per questa roadmap e ricorda che l’Italia è in una posizione interessante, con una delle AI Factory previste situata a Bologna.   

Cloud and Threat Report 2026: innovazione sì, ma con controllo sul dato 

La sintesi più utile del Cloud and Threat Report 2026 è che cloud e AI stanno cambiando il modo in cui i dipendenti lavorano, e quindi cambiano anche le superfici di attacco. Il rischio più grande non è l’adozione in sé, ma l’adozione non governata, dove dati sensibili finiscono in prompt, upload, app personali e workflow che la sicurezza non riesce a monitorare in tempo reale. 

Il 2026, nella lettura di Passeri, sarà l’anno in cui le aziende dovranno rendere strutturale la protezione dei dati anche nei flussi di genAI, perché l’uso crescerà ancora e i rischi aumenteranno “proporzionalmente al crescente utilizzo”. Se c’è una lezione chiara in questa ricerca, è che l’intelligenza artificiale in azienda non può essere gestita solo con policy scritte o strumenti “ufficiali” sulla carta: servono controlli concreti, continui e applicati dove davvero transitano le informazioni.   

Cloud e GenAI: perché nel 2025 sono esplose le violazioni di sicurezza (e cosa fare nel 2026 secondo Netskope) ultima modifica: 2026-01-27T10:33:16+01:00 da Marco Lorusso

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui