Lo sdoganamento dell’utilizzo dell’intelligenza artificiale è ormai un dato di fatto, sia a livello aziendale, sia personale. Il ricorso all’AI per avere risposte immediate è pratica quotidiana, virtuosa nel privato, un po’ meno quando questi strumenti vengono utilizzati in azienda, sfumando i confini di sicurezza delle informazioni sensibili, rischiando di mettere nel calderone che alimenta la conoscenza dell’AI pubblico documenti, dati, progetti, brevetti che sarebbe meglio restassero gelosamente confinati e custoditi all’interno dell’azienda. Ma se le imprese investono in AI, lo fanno per creare strumenti che rispondano a criteri propri, fondati su processi e dati riservati che devono agire entro confini controllati, con modelli costruiti sulle informazioni dell’azienda e non su una conoscenza generica. Un’AI che evolve insieme all’azienda sorretta da infrastrutture flessibili. Ed è proprio su queste premesse che Red Hat basa la propria offerta, proponendosi con una piattaforma aperta in grado di orchestrare container e microservizi, architetture ibride e private, a garanzia di una tracciabilità e controllo potenziate dall’approccio opensource, che già di suo ha qualità di adattabilità, trasparenza e interoperabilità.
“L’AI in azienda non è un’entità generica, ma un insieme di componenti progettate per rispondere a regole, politiche sui dati, ruoli e requisiti normativi – spiega Rodolfo Falcone, Country Manager di Red Hat Italia -. Per renderla affidabile ci vuole un’infrastruttura che permetta di osservare e governare quello che succede nei modelli e nei flussi decisionali, integrandolo in architetture ibride dove pubblico, privato ed edge lavorano in equilibrio e che l’intervento opensource rende ancora più flessibile e adattabile al patrimonio informativo e agli obiettivi aziendali”.
Sull’utilità ed efficacia dell’AI non ci sono dubbi. Sono ormai numerosi gli studi che mostrano come il suo utilizzo aumenti l’efficienza di chi la utilizza, migliorando tempi, qualità e capacità di affrontare attività complesse. Questo è quasi per assodato. A fare la differenza non è la quantità di benefici quanto il tipo di AI che le aziende decidono di mettere nelle mani delle persone. “L’AI deve lavorare sui nostri dati e dentro le nostre regole – osserva Falcone -, e diventa un supporto tangibile solo quando è costruita sul modo in cui l’azienda lavora, amplificando il contributo individuale senza esporre informazioni sensibili né generare comportamenti poco allineati con il patrimonio aziendale”.
Serve quindi uno stack tecnologico per leggere e gestire quello che l’AI fa sui dati e sui processi, ed è proprio in questo spazio che si collocano le piattaforme aperte e ibride che Red Hat propone come base per far convivere pubblico, privato ed edge, orchestrare container e microservizi e integrare modelli di AI nel pieno rispetto delle regole.
Che sull’AI le aziende italiane stiano puntando con decisione lo confermano i risultati di una recente survey realizzata da Censuswide tra quasi 10.000 tra responsabili IT e figure affini in EMEA tra medio-grandi aziende. Compresa l’Italia, il cui spaccato indica che il 76% degli intervistati ci vede nel giro di tre anni tra le grandi potenze dell’AI. Un segnale di fiducia che si riflette negli investimenti in AI, che stanno aumentando del 30%, pur restando per lo più ancora preparazione del terreno che effettivo riscontro dai clienti. Dopo i temi di sovranità e di ottimizzazione dei costi, al terzo posto delle intenzioni d’investimento per i prossimi 18 mesi c’è l’AI (41%). Lo shadow AI, ossia il suo utilizzo in azienda pur non autorizzato preoccupa il 93% dei CIO ascoltati, mentre è assodato che gli ambienti opensource e l’AI siano un’accoppiata vincente. Lo pensa il 70% del panel e in questo percorso il 56% pensa che per il bene dell’AI sia necessario un riallineamento della strategia Cloud.
Le aziende preparano l’infrastruttura cloud per l’ingresso dell’AI nei processi
Di quest’ultimo aspetto ne è convinto anche Stefano Mainetti, docente e responsabile dell’Osservatorio Cloud Ecosystem della School of Management del Politecnico di Milano chiamato a commentare i movimenti del mercato sul cloud in relazione a un collocamento dell’AI a livello aziendale. Il quale sottolinea che, leggendo i dati dell’ultimo Osservatorio “il cloud non è più una semplice destinazione, ma un ecosistema che si sta trasformando per accogliere l’AI, in un panorama che vede le imprese muoversi in un ambiente fatto di cloud pubblico, privato, edge e data center che convivono e si completano, mentre i budget restano sotto pressione e costringono a investire con attenzione. E l’attenzione maggiorè è posta sull’infrastruttura, segno che molte aziende stanno in effetti preparando le basi su cui innestare servizi e modelli di AI”.
La complessità, però, rischia di aumentare. Gestire costi variabili, decidere dove allocare i carichi, bilanciare sicurezza e innovazione richiede un’architettura che sappia muoversi tra ambienti diversi. “Senza visibilità sugli ambienti, senza automazione e senza un approccio evolutivo ai sistemi, l’AI resta una promessa difficile da portare nei flussi operativi”avverte Mainetti.
Piccoli modelli AI specializzati e open source per rispondere alle specifiche aziendali

Che poi non significa che tutti i modelli di AI debbano essere di grandi dimensioni o esterni. Anzi, si sta facendo sempre più strada l’idea di modelli più piccoli e specializzati, spesso open source, da eseguire in ambienti controllati, vicini ai dati e ben integrati nelle logiche aziendali. Un approccio che permette di rispettare le regole di governance e di ottenere benefici concreti senza perdere il controllo sugli asset critici. Qui il cloud ibrido assume un nuovo ruolo, che assicura flessibilità. Un’infrastruttura che è una specie di esperanto, lingua comune che interpreta architetture complesse per distribuirvi workload, orchestrare microservizi, gestire pipeline di sviluppo e integrare l’AI nel punto in cui serve davvero.
Una trasformazione che prepara il terreno alle piattaforme aperte di Red Hat, pensate per tradurre queste esigenze in scelte tecniche che portino l’AI dentro ai processi, uscendo dall’ambito della sperimentazione e fissando definitivamente i bulloni a quei binari che dovranno sostenerla nel tempo.
“L’IT non può più limitarsi a chiedere budget per “mettere container” o aggiungere nuove infrastrutture, deve spiegare come queste scelte aprono opzioni di business – osserva Giorgio Galli, Director Tech Sales di Red Hat Italia -. Il nostro lavoro è accompagnare le aziende in questo cambio di mentalità, aiutandole a costruire casi d’uso concreti e misurabili”.
Open source e supporto europeo. I vantaggi di Red Hat sui temi lock-in e sovranità
Le imprese chiedono piattaforme flessibili, trasparenti e senza vincoli rigidi, in grado di spostare workload tra diversi ambienti per ragioni di costo, rischio o regolamentazione. E qui Red Hat gioca le carte che la contraddistinguono. Da un lato la sua natura open, con Linux e Kubernetes che restano utilizzabili anche senza sottoscrizione, cancellando di fatto l’effetto lock-in; dall’altro un modello di supporto gestito interamente in Europa, pensato per chi deve garantire che dati e processi restino sotto la giurisdizione locale.
Il cuore della proposta emerge però nel passaggio all’AI. L’open source non riguarda soltanto i modelli, ma tutto quel che serve per farli vivere dentro un’architettura complessa, con gli strumenti per addestrarli, aggiornarli, ottimizzare GPU e acceleratori, distribuire i carichi, controllare consumi e prestazioni. È un’evoluzione simile a quella vissuta dalle applicazioni, quando si è passati dai monoliti ai microservizi. Oggi la stessa trasformazione avviene nell’AI, con il passaggio dal “modello unico” a insiemi di agenti specializzati che collaborano. E per farli lavorare serve una piattaforma che li sostenga, li coordini e li integri nei flussi aziendali.
Red Hat ha lavorato proprio in questa direzione: prendere i progetti open più maturi per la gestione dei modelli, unirli alle tecnologie che sfruttano al meglio GPU e acceleratori e costruire un’unica architettura che controlla tutti questi microambienti.
Le aziende possono così sperimentare nel cloud pubblico, grazie alla disponibilità di GPU, e poi portare gli stessi componenti vicino ai dati più sensibili, nel proprio data center o in un cloud privato, senza riscrivere nulla. La piattaforma consente di usare qualsiasi modello, su qualunque GPU e in qualunque ambiente, mantenendo sempre lo stesso modo di sviluppare e gestire l’AI. Su questa base si appoggiano funzioni come la gestione dei container, l’automazione e il monitoraggio, che permettono all’AI di integrarsi senza difficoltà nell’architettura IT dell’azienda.
Un nuovo partner program a supporto dell’ecosistema Red Hat
E poi c’è l’ecosistema, fatto di partner e system integrator che aiutano le imprese a maturare casi d’uso, valutare i ritorni e progettare l’ingresso dell’AI nei processi. Un mondo anch’esso in trasformazione, soprattutto dal punto di vista delle competenze e alla ricerca di strumenti per il calcolo di ROI da poter mostrare ai clienti. Per il ROI servono casi d’uso, da mostrare, mentre sul fronte competenze AI, Red Hat sta investendo molto in formazione tecnica e sull’adozione dell’AI, creando centri di eccellenza e programmi congiunti con partner specializzati, in modo da colmare quella carenza che rischia di frenare il mercato e per rendere l’ecosistema più autonomo nel supportare i clienti lungo tutto il percorso. Un ecosistema che si sta via via variegando, e che comprende system integrator, ISV e cloud provider nazionali, ognuno con i suoi compiti. Con i provider Red Hat sta lavorando per offrire soluzioni cloud sovrane, pensate per chi deve tenere i dati in Italia o in Europa, mentre i system integrator portano i servizi AI nei sistemi esistenti e costruiscono casi d’uso replicabili e gli ISV sviluppano soluzioni portabili e interoperabili. A questi si aggiungono i distributori, che ampliano la capacità del canale di scalare l’offerta.
Una evoluzione che Red Hat supporta aggiornando il proprio partner program con nuovi moduli dedicati ai servizi, agli ISV e ai cloud provider. “L’obiettivo è premiare il valore generato lungo l’intero ciclo – specifica Giampiero Cannavò, Regional Director, Head of Italy and MED -, dalla consulenza alla vendita, fino alla gestione dei servizi e accelerare l’ingaggio sui casi d’uso AI. Un lavoro con cui stiamo portando Red Hat verso una nuova fase, con partner più formati, più specializzati e pronti a sostenere i clienti nei loro progetti AI. Perché l’AI richiede una combinazione di tecnologia, competenze e collaborazione tra attori diversi. Ed è solo attraverso la cooperazione dell’ecosistema che si riesce a trasformare idee e prototipi in soluzioni reali, scalabili e adatte ai diversi settori”.









