GenAI e finanza: il 59% delle violazioni riguarda dati regolamentati. Nel settore finanziario, l’intelligenza artificiale generativa ha smesso di essere una promessa futura per diventare una realtà operativa quotidiana. Ma con l’accelerazione nell’adozione di questi strumenti c’è una vulnerabilità strutturale che i nuovi dati di Netskope Threat Labs mettono in luce: il confine tra utilizzo produttivo e esposizione di dati sensibili è sempre più sottile.
Il report fotografa uno scenario in cui la corsa all’AI porta con sé conseguenze ancora non del tutto governate. Il dato più rilevante riguarda la natura delle informazioni esposte: il 59% delle violazioni delle policy sui dati legate alla genAI coinvolge dati regolamentati, come informazioni bancarie, fiscali o dati dei clienti.
A questi si aggiungono proprietà intellettuale (20%), codice sorgente (11%) e credenziali sensibili (9%).
GenAI nel settore finanziario: adozione diffusa, ma con nuove vulnerabilità
La portata del fenomeno emerge chiaramente dai numeri: il 70% degli utenti del settore finanziario utilizza attivamente applicazioni di intelligenza artificiale generativa, mentre il 97% interagisce con software che integrano queste funzionalità.
Particolarmente critico è il tema dell’utilizzo dei dati: il 94% degli utenti opera con applicazioni che sfruttano le informazioni inserite per addestrare i modelli.
C’è però un segnale positivo: la shadow AI sta diminuendo. L’uso di strumenti personali non autorizzati è sceso dal 76% al 36%, mentre le soluzioni gestite dall’organizzazione sono salite dal 33% al 79%.
La zona grigia tra uso personale e aziendale
Il vero nodo resta la sovrapposizione tra ambienti personali e aziendali. La quota di utenti che trasferisce dati tra account personali e aziendali è salita dal 9% al 15%.
Questo flusso rappresenta uno dei principali vettori di rischio, perché consente ai dati sensibili di muoversi tra contesti con livelli di sicurezza diversi.
Tra le applicazioni più diffuse, ChatGPT guida con il 76% di adozione, seguita da Google Gemini al 68%. Crescono anche strumenti più verticali come Google NotebookLM (39%) e AssemblyAI, in forte espansione.
Parallelamente, le aziende iniziano a bloccare applicazioni ritenute rischiose come ZeroGPT e DeepSeek, segno di un approccio più selettivo alla governance dell’AI.
Cloud e malware: minacce sempre più sofisticate
Il rischio non si limita alla genAI. L’uso di applicazioni cloud personali continua a rappresentare una falla significativa: i dati regolamentati costituiscono il 65% delle violazioni delle policy in questi contesti.
Nel lavoro quotidiano emergono piattaforme molto diffuse come LinkedIn, Google Drive e ChatGPT, spesso utilizzate anche in ambito professionale senza adeguati controlli.
A questo si aggiunge un’evoluzione nelle tecniche di attacco: i cybercriminali sfruttano piattaforme affidabili per distribuire malware. GitHub è oggi la più abusata, seguita da Microsoft OneDrive.
Come sottolinea Ray Canzanese, il problema non è solo tecnologico ma di gestione: più cresce l’adozione della genAI, più aumentano i punti di uscita dei dati sensibili.
La risposta deve essere multilivello: controllo del traffico, limitazione delle applicazioni, prevenzione della perdita dati e strumenti avanzati di isolamento.
LEGGI ANCHE: Cloud e GenAI: perché nel 2025 sono esplose le violazioni di sicurezza








