Un momento storico fatto di opportunità e paradossi
L’intelligenza artificiale sta attraversando forse la fase più cruciale della sua maturazione, una fase in cui l’uso dei dati aziendali diventa la vera discriminante tra miglioramenti marginali e trasformazione reale. È un momento che, secondo Alessandro La Volpe, Vice President Technology di IBM Italia, rappresenta “il periodo più dinamico e ricco di opportunità degli ultimi trent’anni”.
Un’affermazione che non cancella ambiguità e curve d’apprendimento, ma che restituisce l’idea di una soglia storica: la tecnologia corre più veloce della capacità delle aziende di utilizzarla, e proprio questo scarto crea uno spazio di trasformazione che non si vedeva dall’ingresso di Internet nel mondo industriale.
Quando l’AI non porta risultati
Il momento è senza dubbio paradossale. E il paradosso è confermato dai numeri. Una ricerca McKinsey condotta pochi mesi fa racconta che l’ottanta per cento delle imprese che ha implementato soluzioni di intelligenza artificiale non ha registrato alcun beneficio reale sulla profittabilità. Anche i dati italiani confermano questa transizione intermedia: più della metà delle aziende nota i primi segnali positivi in termini di produttività, ma solo una minoranza registra un impatto realmente trasformativo.
Lo stesso La Volpe ricorda il caso di un grande gruppo internazionale che “ha in parallelo oltre millenovecento proof of concept basati sull’AI, ma nessun impatto misurabile sulla marginalità”.
Il motivo di questa mancanza di risultati non risiede nella tecnologia in sé, ma nell’assenza dei dati aziendali nei modelli di AI e nella mancata revisione dei processi. La quasi totalità dei dati pubblici presenti sul web è già stata utilizzata per addestrare i modelli generativi, mentre meno dell’un per cento dei dati proprietari – quelli che rappresentano la vera leva competitiva – è stato messo a disposizione dei sistemi.
“Se i modelli non vengono alimentati con ciò che rende unica un’azienda, è impossibile aspettarsi risultati trasformativi”, osserva La Volpe.
IBM, l’AI come preambolo della trasformazione
Per comprendere dove ci troviamo in questa curva evolutiva, IBM utilizza una metafora storica: l’invenzione della lampadina. La sua comparsa portò subito un miglioramento evidente nell’illuminazione degli ambienti, ma la vera rivoluzione si compì solo quando l’elettricità ridisegnò l’organizzazione delle fabbriche, introducendo nuovi processi, nuovi ritmi e un nuovo concetto di produttività.
“Con l’AI enterprise siamo esattamente in questa fase. Vediamo i primi miglioramenti, ma la trasformazione inizierà quando ripenseremo i processi alla radice”, spiega La Volpe.
L’ascesa degli agenti AI e la complessità della governance
La portata del cambiamento è comunque evidente. Quando arrivò l’iPhone, ci vollero dieci anni per vedere nascere due milioni di applicazioni. Con gli agenti AI la previsione è radicalmente diversa: un miliardo di nuove applicazioni entro tre anni.
Gli agenti AI rappresentano oggi la nuova frontiera dell’intelligenza artificiale applicata ai processi aziendali: non si limitano a fornire informazioni, ma prendono decisioni, automatizzano passaggi, dialogano con altre applicazioni e incidono in modo diretto sulle operazioni quotidiane.
In un contesto così dinamico, la governance dell’AI diventa un elemento cruciale. Serve trasparenza, servono meccanismi di controllo e servono architetture in grado di orchestrare ecosistemi sempre più interconnessi.
IBM: obiettivi chiari, dati pronti e modelli adeguati
In questo scenario, la differenza non la fa lo strumento, ma il metodo.
La Volpe insiste su un punto: “Prima di scegliere un modello di AI bisogna capire qual è l’obiettivo strategico dell’azienda e quali dati servono per raggiungerlo. La domanda fondamentale non è quale modello usare, ma quali problemi vogliamo davvero risolvere e se abbiamo i dati per farlo”.
Solo dopo aver definito la direzione, l’organizzazione può decidere se orientarsi verso modelli molto grandi o verso modelli più piccoli e leggeri, spesso più efficaci nel mondo enterprise perché più facili da addestrare, più veloci da distribuire e più sostenibili.
Hybrid cloud e governance dell’AI: evitare gli errori del passato
La stessa riflessione vale per l’infrastruttura. Per IBM l’hybrid cloud è l’architettura naturale dell’AI aziendale.
L’addestramento dei modelli trova nel cloud pubblico la flessibilità necessaria, mentre l’inferenza deve spesso avvenire vicino ai dati, per motivi di governance, latenza e controllo dei costi.
“Abbiamo già visto cosa è accaduto quando molte aziende sono migrate in massa verso il cloud pubblico senza una strategia. Non possiamo ripetere gli stessi errori con l’AI”, sottolinea La Volpe.
IBM: il modello client zero e i risultati ottenuti
Questa impostazione è alla base della strategia AI di IBM, che usa la propria organizzazione come laboratorio prima del rilascio ai clienti: il modello client zero.
Ogni tecnologia viene testata internamente per mesi. I risultati sono significativi.
Grazie all’adozione estesa dell’AI generativa nei propri processi, IBM ha ottenuto un risparmio annuale di 4,5 miliardi di dollari. Non si tratta di un miglioramento marginale, ma di un impatto sistemico sul procurement, sulla finanza, sul supporto IT e sullo sviluppo software.
In questo ultimo ambito, la collaborazione con Anthropic ha portato alla creazione di Project BoB, una metodologia che coinvolge seimila sviluppatori e che ha prodotto un aumento di produttività compreso tra il quaranta e il quarantacinque per cento.
“Sono numeri che non si raggiungono con qualche ottimizzazione. Sono effetti trasformativi, che derivano dall’orchestrazione dell’AI dentro i processi, non alla loro periferia”, afferma La Volpe.
I casi italiani
Gli stessi principi si riflettono nei progetti resi pubblici negli ultimi mesi.
Sparkle ha adottato WatsonX in un’architettura ibrida per ottimizzare l’operatività della rete.
Unipol, con il progetto Nami, ha portato in esecuzione locale modelli addestrati in cloud pubblico, automatizzando l’intera control room.
Campari ha ridisegnato l’esperienza digitale del brand Cinzano grazie al lavoro con IBM Consulting.
Dati in tempo reale e il valore strategico dell’acquisizione Confluent
La strategia di IBM si è ulteriormente rafforzata con l’annuncio dell’intenzione di acquisire Confluent per quindici miliardi di dollari.
L’operazione risponde a una necessità chiave: l’AI ha valore solo quando può accedere ai dati giusti nel momento esatto in cui servono. Questo richiede infrastrutture capaci di distribuire flussi informativi continui, affidabili e in tempo reale.
Verso il 2026: fiducia, trasparenza e il ruolo del quantum computing
A livello più ampio, l’IBM Institute for Business Value ha individuato alcune tendenze che segneranno il 2026.
L’incertezza geopolitica rende la capacità di decidere in tempo reale una priorità. I dipendenti chiedono più AI, non meno. I consumatori perdonano gli errori, ma non la mancanza di trasparenza. La sovranità dei dati diventa una componente critica della competitività.
Parallelamente, l’avanzamento del quantum computing, che potrebbe raggiungere il cosiddetto quantum advantage già nel 2026, apre scenari inediti per simulazioni molecolari, finanza e ricerca avanzata. IBM sta costruendo un ecosistema che coinvolge più di trecento partner tra università, enti di ricerca e imprese per accelerare le prime applicazioni concrete.
LEGGI ANCHE: IBM compra Confluent per 11 miliardi e rafforza la scommessa sull’AI








