Generative AI, la ricerca di Netskope Threat Labs accende un faro sulla diffusione incontrollata di applicazioni come ChatGPT, tutto quello che serve sapere

Le applicazioni basate sulla AI generativa, su tutte ChatGPT, stanno aumentando la loro diffusione con numeri difficili anche soltanto da immaginare. Le potenzialità dei LLM (large language model) basati sull’intelligenza artificiale hanno generato un entusiasmo senza precedenti, che porta spesso a trascurare i rischi relativi alla condivisione dei dati sensibili all’interno dei prompt, in particolare per quanto riguarda il codice sorgente.

La gioventù della disciplina rende la threat intelligence in merito alle Generative AI un aspetto molto acerbo, di cui si conosce ancora poco. In questo contesto si dimostra estremamente preziosa la ricerca: Cloud & Threat Report: AI Apps in the Enterprise che traccia un quadro esaustivo circa i rischi legati alle AI quando si condividono, spesso in maniera del tutto inconsapevole, una serie di dati sensibili che potrebbero facilmente finire nelle mani di soggetti malintenzionati.

Netskope, leader tecnologico nelle soluzioni SASE (Secure Access Service Edge) ha inoltre annunciato l’innovativo SkopeAI, che utilizza tecniche di AI e ML per fornire una protezione dei dati moderna e una difesa costante dalle minacce informatiche, superando le limitazioni delle tecnologie di sicurezza convenzionali grazie alle funzioni analitiche dell’intelligenza artificiale.

Generative AI e cybersecurity: i rischi della condivisione del codice in ChatGPT

Secondo quanto emerge dal report Cloud & Threat Report: AI Apps in the Enterprise, l’attuale dibattito circa l’intelligenza artificiale e Generative AI si concentra particolarmente sugli aspetti etici, relativi alle opportunità e alle minacce per l’umanità. Le organizzazioni devono però far fronte ad altri temi di discussione, come la possibilità di utilizzare le applicazioni di AI generativa in modo sicuro, a cominciare da un’adeguata protezione dei dati.

Nel loro percorso di trasformazione digitale, le aziende implementano applicazioni dotate di funzioni di intelligenza artificiale e Generative AI per migliorare le operazioni, le esperienze dei clienti e facilitare il processo decisionale, sulla base di dati oggettivi. Oggi diventa sempre più necessario implementare nuovi tool garantendo sicurezza e protezione. Nel caso delle AI il principale ostacolo alla sicurezza risiede nel modo in cui alcuni utenti potrebbero utilizzare queste applicazioni, condividendo informazioni contenenti dati sensibili.

Una particolare criticità è legata a ChatGPT, sempre più utilizzato per revisionare il codice sorgente da difetti di sicurezza o completare la scrittura del codice stesso. Questa funzione porta molti sviluppatori a caricare nei prompt il codice sorgente, che può contenere dati sensibili o informazioni riservate.

Una soluzione al problema potrebbe essere, come in molti casi accade in azienda, il blocco verso applicazioni come ChatGPT. Si tratta, tuttavia, di una scelta discutibile, in quanto ostativa nei confronti dell’innovazione. Rinunciare, oggi, alle potenzialità delle app AI sarebbe una scelta non solo miope, ma oltremodo irresponsabile, soprattutto nell’era del digitale.

Lo studio effettuato da Netskope mira ad approfondire, in favore delle aziende, l’importanza delle applicazione basate sulla AI generativa, delineando i rischi che possono derivare da una poco accorta implementazione: perdite di dati e potenziali attività degli aggressori, proponendo al tempo stesso strategie per integrare in modo sicuro ChatGPT e altri strumenti di intelligenza artificiale in un ambiente IT realmente sicuro per il business.

Generative AI. Rischi delle app: i numeri della ricerca di Netskope Threat Labs

Secondo i risultati della ricerca effettuata da Netskope Threat Labs, il numero di utenti che accedono alle app AI in azienda sta crescendo in modo esponenziale. Negli ultimi due mesi, la percentuale di utenti aziendali che accedono ad almeno una app AI ogni giorno è aumentata del 2,4% su base settimanale, per un aumento totale del 22,5% in quel periodo di tempo. Se dovesse confermarsi il tasso di crescita attuale, tali utenti dovrebbero almeno raddoppiare entro i prossimi sette mesi.

Sempre in relazione agli ultimi due mesi, il numero di app AI in uso in azienda è rimasto relativamente stabile. Le organizzazioni con più di 1.000 utenti ha rilevato una media di 3 diverse app AI al giorno, mentre per le organizzazioni con più di 10.000 utenti il dato sale ad una media di 5 app AI al giorno. In altri termini, al termine dello scorso mese di giugno, un utente aziendale su 100 interagiva ogni giorno con una app AI.

Come facilmente prevedibile, la app più utilizzata al momento è ChatGPT, che vanta un numero di utenti attivi al giorno almeno 8 volte superiore rispetto a qualsiasi possibile competitor, a cominciare da Grammarly, app dedicata all’assistenza alla scrittura. Il terzo gradino del podio è occupato da Google Bard, competitor diretto di ChatGPT. Le altre app presentano una presenza sul mercato ben inferiore rispetto a questo terzetto, anche se rimane opportuno segnalare la presenza di Jasper, Chatbase e Copy.ai.

Negli ultimi due mesi, la app AI che ha registrato la maggior crescita si è rivelata Google Bard. Sebbene sia ancora molto indietro rispetto a ChatGPT in termini di popolarità assoluta, Google Bard sta attualmente aggiungendo utenti ad un tasso del 7,1% a settimana, rispetto all’1,6% di ChatGPT, che sarebbe al momento più prossimo ad una sorta di saturazione. Su queste basi, Google Bard potrebbe raggiungere ChatGPT in poco più di un anno, anche se gli andamenti di un mercato tecnologico così giovane rimangono molto difficile da stimare con certezza.

Generative AI. Il problema dei dati sensibili su ChatGPT

In merito al rischio relativo ai dati, la ricerca si è concentrata su ChatGPT, il cui utente medio pubblica circa sei prompt al giorno. Il livello di attività varia in base all’utente, Per ogni 10.000 utenti, un’organizzazione può aspettarsi circa 660 richieste giornaliere a ChatGPT. Ma la vera domanda sta nel contenuto di questi suggerimenti: si tratta di query innocue o possono inavvertitamente rilevare dati sensibili ad occhi indiscreti?

Lo studio di Netskope ha rivelato come, per ogni 10.000 utenti aziendali, un’azienda mediamente incorre ogni mese in circa 183 incidenti che riguardano dati sensibili pubblicati sull’applicazione. Il codice sorgente è il più largamente condiviso tra i dati sensibili esposti. Questa tendenza non appare del tutto inaspettata, considerando la capacità di ChatGPT di revisionare con successo il codice, oltre ad individuare possibili bug e vulnerabilità di sicurezza.

Sebbene questi servizi siano di base vantaggiosi, la condivisione del codice sorgente riservato con ChatGPT apre la via a nuovi rischi, tra cui potenziali violazioni o divulgazione accidentale dei dati, oltre ai rischi legali e normativi legati al loro trattamento.

Altri dati sensibili condivisi su ChatGPT includono i dati finanziari, i dati sanitari, informazioni personali, proprietà intellettuale con esclusione del già citato codice sorgente oltre a password e chiavi di accesso che rimangono incorporate nel codice sorgente.

È inevitabile che alcuni utenti caricheranno codice sorgente proprietario o testo contenente dati sensibili sugli strumenti di intelligenza artificiale che promettono di aiutare nella programmazione o nella scrittura” ha dichiarato Ray Canzanese, Threat Research Director, Netskope Threat Labs: “Pertanto, è fondamentale che le organizzazioni applichino dei controlli sull’IA per prevenire perdite di dati sensibili. Gli obiettivi principali sono i controlli che consentono agli utenti di ottenere i benefici dell’IA, semplificando le operazioni e migliorando l’efficienza, riducendo al minimo i rischi. I controlli più efficaci che osserviamo sono una combinazione di DLP (Data Loss Prevention) e un coaching interattivo degli utenti“.

Generative AI. Chi sono i cybercriminali che sfruttano le AI app

La popolarità di ChatGPT ha attirato truffatori, cybercriminali ed altre figure malevole, che tentano quotidianamente di ottenere illecitamente dei guadagni dal suo utilizzo. Il Netskope Threat Labs Cloud and Threat Report ha evidenziato come la popolarità di un fenomeno sia sempre associabile all’attività cybercrminale, come è avvenuto anche per i fenomeni geopolitici come la guerra russo-ucraina, il terremoto in Turchia e Siria e il crollo della Silicon Valley Bank.

L’hype e la popolarità di ChatGPT attirano l’attenzione di aggressori e truffatori a causa dell’ampio pool di obiettivi e del potenziale di profitto, combinati con la variegata competenza degli utenti sulla piattaforma.

Durante la prima metà del 2023, Netskope Threat Labs ha monitorato numerose campagne di phishing, campagne di distribuzione di malware e siti Web di spam e frode che cercano di capitalizzare l’hype di ChatGPT. Netskope Threat Labs sta inoltre monitorando con costanza più proxy ChatGPT, vale a dire quei siti che propongono il vantaggio, soltanto apparente, di un accesso gratuito e non autenticato al chatbot, al costo di rivelare tutte le istruzioni e le risposte all’operatore proxy. Un ingenuità che può risultare a tutti gli effetti fatale, se operata in un contesto aziendale.

Generative AI, bloccare ChatGPT equivale a precludere l’innovazione: le raccomandazioni di Netskope per mitigare i rischi

Netskope Threat Labs sta attualmente monitorando i proxy di ChatGPT e oltre 1.000 URL e domini malevoli utilizzati da attaccanti opportunisti che cercano di trarre vantaggio dall’entusiasmo per l’IA, tra cui diverse campagne di phishing, campagne di distribuzione di malware e siti web di spam e frodi.

Come già accennato, bloccare l’accesso ai contenuti e alle applicazioni correlate all’IA è una soluzione a breve termine per mitigare i rischi e comporta il sacrificio dei potenziali vantaggi offerti dalle applicazioni di IA in termini di innovazione aziendale e produttività dei dipendenti, pertanto si tratta di una soluzione non raccomandabile, tuttavia molto diffusa in azienda.

I dati di Netskope mostrano che nel settore dei servizi finanziari e dell’assistenza sanitaria, entrambi settori altamente regolamentati, circa 1 su 5 organizzazioni hanno imposto un divieto completo sull’uso di ChatGPT da parte dei dipendenti, mentre nel settore tecnologico solo 1 su 20 organizzazioni ha fatto altrettanto.

Come responsabili della sicurezza, non possiamo semplicemente decidere di vietare le applicazioni senza influire sull’esperienza e sulla produttività degli utenti” ha detto James Robinson, Deputy Chief Information Security Officer presso Netskope: “Le organizzazioni dovrebbero puntare a far evolvere la consapevolezza della propria forza lavoro e le policy sui dati per andare incontro alle esigenze dei dipendenti che utilizzano prodotti di intelligenza artificiale in modo produttivo. È possibile consentire in modo sicuro l’uso di IA generativa adottando gli strumenti giusti e la giusta mentalità“.

Per consentire l’adozione sicura delle applicazioni di IA, le organizzazioni devono adottare un approccio che miri a identificare le applicazioni consentite e ad applicare controlli che permettano agli utenti di utilizzarle al meglio, proteggendo al contempo l’organizzazione dai rischi. Tale approccio dovrebbe includere filtro dei domini, delle URL e ispezione dei contenuti per proteggersi dagli attacchi.

Altri passi per proteggere i dati e utilizzare gli strumenti di IA in modo sicuro includono:

  • Bloccare l’accesso alle applicazioni che non servono a scopi legittimi per l’attività aziendale o che presentano un rischio sproporzionato per l’organizzazione.
  • Utilizzare il coaching agli utenti per ricordare loro la policy aziendale riguardante l’uso delle applicazioni di intelligenza artificiale e in particolare Generative AI.
  • Utilizzare tecnologie moderne di prevenzione della perdita di dati (DLP) per individuare testi contenenti informazioni potenzialmente sensibili.

Netskope SkopeAI: le nuove funzioni AI integrate nella celebre piattaforma SASE

Netskope ha recentemente annunciato SkopeAI, la suite di innovazioni basate su intelligenza artificiale, machine learning (AI/ML) e Generative AI, disponibile in tutto il portafoglio di Netskope. SkopeAI utilizza l’AI/ML per fornire una protezione dei dati moderna e una difesa dalle minacce informatiche, superando le limitazioni delle tecnologie di sicurezza convenzionali e fornendo protezione attraverso tecniche di intelligenza artificiale ad alta velocità che non si trovano in prodotti di altri fornitori SASE.

Le innovazioni di SkopeAI nella piattaforma SASE unificata di Netskope utilizzano l’AI/ML per scavalcare i sistemi di sicurezza tradizionali, proteggere le aziende dalle minacce generate dall’AI e dalla perdita di dati derivante dall’abuso di ChatGPT e di altri popolari strumenti di AI generativa, portando le tecniche di protezione dei dati e di difesa dalle minacce nell’era moderna, con una velocità e semplicità senza precedenti.

Le aziende tecnologiche lungimiranti come Netskope hanno utilizzato l’IA e il ML per innovare la sicurezza molto prima che fosse di moda annunciarlo: sono stati presenti nei nostri prodotti fin dal giorno in cui Netskope è stata fondata” ha dichiarato Sanjay Beri, CEO e co-fondatore di Netskope: “Ma solo Netskope ha completamente allineato l’uso di AI/ML con le esigenze della sicurezza moderna e della difesa dalle minacce, rendendo disponibile a tutti l’accesso alle tecniche di sicurezza dei dati che si muovono alla velocità richiesta dall’era dell’IA. SkopeAI libera il potere di AI/ML per proteggere dati strutturati e non strutturati e difendere le aziende dalle minacce in continua evoluzione“.

Le capabilities di SkopeAI includono:

  • Conoscenza approfondita del contesto che consente al motore avanzato DLP (Data Loss Prevention) di identificare, analizzare e proteggere dati strutturati e non strutturati.
  • Classificazione automatica dei dati tramite Machine Learning e tecnologia “Train Your Own Classifiers” (TYOC), che identifica e categorizza automaticamente nuovi dati utilizzando un approccio “train-and-forget”, garantendo che la protezione dei dati si adatti e si applichi oltre i limiti dei processi tradizionali di identificazione del dato.
  • Protezione dalle minacce basata sull’IA, che offre una velocità senza precedenti e risultati straordinari nel rilevare una vasta gamma di minacce, inclusi attacchi multivettore, malware polimorfico, nuovi domini web per il phishing, minacce zero-day e contenuti web malevoli.
  • La recente espansione di Netskope Intelligent SSE per consentire un’adozione sicura di applicazioni di AI generativa, come ChatGPT, utilizzando tecniche avanzate di protezione dei dati.
  • Operazioni SD-WAN basate su IA, che monitorano proattivamente la rete, forniscono informazioni predittive, semplificano la gestione, riducono al minimo le richieste di supporto e rilevano i problemi dei dispositivi remoti, migliorando le prestazioni della rete e l’esperienza dell’utente.

Per conoscere nel dettaglio le funzionalità di SkopeAI, qui tutte le risorse

Generative AI, allarme dati sensibili. Perché e quando usare ChatGPT è un rischio ultima modifica: 2023-08-07T15:16:27+02:00 da Francesco La Trofa

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui