Il manufacturing accelera sulla Generative AI, ma cresce la consapevolezza dei rischi
Un’analisi dei nuovi dati Netskope e il commento di Paolo Passeri nel corso di una nuova intensa puntata dei #SergenTalk
l Manufacturing tra adozione massiva e governance dell’AI
L’industria manifatturiera sta vivendo una fase cruciale nell’adozione dell’intelligenza artificiale generativa: la corsa all’innovazione rimane intensa, ma per la prima volta emerge un chiaro cambio di passo nella gestione del rischio. Secondo il nuovo Netskope Threat Labs Report sul manufacturing—appena pubblicato e basato su dati reali raccolti in forma anonima dalle reti dei clienti—il settore sta compiendo un balzo deciso verso un uso più controllato, responsabile e “enterprise” delle tecnologie GenAI.
La fotografia è chiara: il 94% delle organizzazioni manifatturiere utilizza oggi applicazioni di GenAI. Ma ciò che cambia davvero gli equilibri è la forte riduzione della shadow AI — l’uso di strumenti personali e non autorizzati — scesa dall’83% del dicembre 2024 al 51% nel settembre 2025, mentre le applicazioni approvate dalle aziende sono cresciute dal 15% al 42%. Una curva che, come osserva Netskope, riduce a meno di 10 punti percentuali la distanza tra uso autorizzato e non autorizzato.
Si tratta di un progresso strategico: meno strumenti non controllati significa minori rischi di fuga di dati, violazioni di compliance e perdita di proprietà intellettuale, elementi particolarmente sensibili nel settore industriale.
[Guarda e ascolta il nuovo #SergenTalk in compagnia di un fuoriclasse della cloud security come Paolo Passeri di Netskope. Un confronto come sempre prezioso, informale, diretto]
I numeri della ricerca: dove nascono i rischi
Il report evidenzia che quando si verificano incidenti di sicurezza legati all’uso dell’AI, le cause più frequenti riguardano la condivisione impropria di dati sensibili. Nel dettaglio, il 41% degli incidenti coinvolge dati regolamentati, il 32% proprietà intellettuale e il 19% password o chiavi API.
In un contesto produttivo, dove documentazione tecnica, progetti industriali, dati operativi e codice sorgente rappresentano il cuore del vantaggio competitivo, queste esposizioni sono particolarmente critiche. Non a caso il codice sorgente costituisce da solo il 28% degli incidenti di data exposure collegati all’AI, un dato che richiama l’urgenza di maggiore controllo sugli strumenti usati dagli sviluppatori.
Il report conferma inoltre che la minaccia non proviene solo dalle piattaforme di GenAI, ma anche dagli ecosistemi cloud più diffusi: OneDrive, GitHub e Google Drive risultano essere i principali veicoli di malware nel settore, con percentuali mensili di download malevoli rispettivamente del 18%, 14% e 11%.
Manufacturing e Generative AI. Il commento di Paolo Passeri: “Innovazione e sicurezza devono avanzare insieme”
Nel confronto dedicato al report, Paolo Passeri, esperto di cloud security e architect Netskope, conferma che siamo davanti a una trasformazione importante, guidata sia da maggiore consapevolezza sia da precise contromisure adottate dalle aziende.
Passeri sottolinea che l’uso dell’AI non può essere bloccato — sarebbe un freno competitivo — ma va governato. Oggi le organizzazioni possono monitorare e controllare l’uso della GenAI, applicare politiche di Data Loss Prevention e consentire soltanto servizi approvati, riducendo drasticamente la possibilità che dati interni, documenti riservati o codice vengano inviati in piattaforme non protette.
Un rischio particolarmente rilevante, ricorda Passeri, riguarda i possibili effetti di allucinazioni o attacchi di prompt injection, che possono indurre i sistemi a restituire informazioni sensibili immesse da altri utenti. È già successo in diversi contesti sperimentali, a dimostrazione che la governance non può limitarsi ai soli aspetti tecnici ma deve includere formazione continua e cultura della sicurezza.
Il ruolo della governance: l’Italia “fa scuola”
Sul tema della protezione dei dati e della regolamentazione, Passeri evidenzia come l’Italia abbia un ruolo di primo piano. Il Garante della Privacy è stato il primo in Europa a comminare una multa da 15 milioni di euro a OpenAI già a fine 2024 e continua a monitorare, guidare e, quando necessario, sanzionare comportamenti non conformi.
Il panorama italiano, quindi, pur essendo caratterizzato da una forte adozione delle tecnologie digitali, sta dimostrando maturità e rigore, con un’attenzione crescente alla formazione degli utenti e alla gestione del rischio.
Manufacturing. Un futuro di integrazione tra AI e industria
Il settore manifatturiero, sottolinea anche Netskope, ha ancora ampio margine di crescita nell’adozione di piattaforme GenAI private, come Azure OpenAI, Amazon Bedrock e Google Vertex AI, oggi utilizzate dal 29% delle aziende del comparto.
Man mano che l’AI diventa parte integrante dei processi operativi — dalla progettazione alla produzione, fino alla manutenzione predittiva — il vero obiettivo sarà mantenere equilibrio tra innovazione, efficienza e sicurezza.
Gli strumenti ci sono: governance strutturata, piattaforme enterprise, DLP avanzati, threat protection e un nuovo livello di consapevolezza degli utenti.
Come afferma Passeri, “educazione, approvazione e protezione” saranno i tre pilastri su cui costruire un utilizzo della GenAI realmente sicuro e produttivo. E questa volta l’industria manifatturiera sembra aver imboccato la direzione giusta.








