Per oltre vent’anni la virtualizzazione è stata una tecnologia “silenziosa”. Fondamentale, pervasiva, ma raramente messa in discussione. I grandi data center enterprise, le infrastrutture critiche, i sistemi informativi di banche, telco e grandi imprese si sono sviluppati nel tempo attorno a uno stack stabile, noto, considerato quasi un’infrastruttura di base più che una scelta architetturale.
Oggi questo equilibrio si è spezzato.
Il mercato della virtualizzazione sta attraversando la più profonda fase di discontinuità dalla sua nascita. Non si tratta di un semplice cambio tecnologico, né dell’ennesima evoluzione di prodotto: è un cambiamento che investe modelli di licensing, governance dell’infrastruttura, rapporto tra vendor e clienti e, più in generale, il modo in cui le aziende stanno ripensando il proprio futuro IT.
Al centro di questa accelerazione c’è senza dubbio l’acquisizione di VMware da parte di Broadcom. Un’operazione che, più che ridisegnare il perimetro competitivo, ha innescato una serie di reazioni a catena destinate a incidere sull’intero mercato della virtualizzazione nei prossimi anni.
[Scopri le nuove regole della virtualizzazione e cosa significano davvero per le imprese. Partecipa al webinar organizzato da Computer Gross in collaborazione con Parallels e ottieni una visione chiara per governare i tuoi ambienti digitali. Registrati ora!]

Il “caso VMware” come punto di non ritorno
Secondo Gartner, il mercato della server virtualizationsta vivendo “la più significativa disruption degli ultimi decenni”. Una definizione netta, che fotografa bene la portata del momento.
Le decisioni prese da Broadcom dopo l’acquisizione di VMware – dalla revisione dei modelli di licensing alla focalizzazione su un numero più ristretto di grandi clienti, fino all’abbandono di alcune modalità contrattuali storiche – hanno generato un diffuso senso di incertezza tra i clienti.
Il tema non è soltanto economico, anche se gli aumenti del costo totale di possesso segnalati da molte organizzazioni – in alcuni casi tra il 300 e il 400% – hanno avuto un impatto immediato. A pesare è soprattutto la percezione di una rottura del patto di fiducia che per anni aveva legato VMware al suo ecosistema: roadmap meno chiare, supporto percepito come meno vicino alle esigenze dei clienti e una strategia sempre più orientata a un modello di piattaforma cloud estesa.
È significativo che Gartner, pur riconoscendo che VMware continui a detenere oltre il 96% del fatturato del mercato della virtualizzazione server e che nessun competitor sia oggi in grado di replicarne integralmente lo stack, consideri tutt’altro che improbabile – se non addirittura auspicabile – che le aziende inizino a pianificare un’uscita dal fornitore storico. Non un abbandono immediato, ma un percorso strutturato e consapevole, capace di tenere insieme riduzione del debito tecnico e modernizzazione applicativa.
Le onde tecnologiche che stanno ridefinendo la virtualizzazione
Ridurre questa fase di trasformazione alla sola reazione al caso VMware, però, sarebbe fuorviante. Le tensioni su licensing e contratti hanno accelerato il dibattito, ma il mercato della virtualizzazione era già attraversato da forze più profonde, di natura tecnologica e architetturale, che ne stanno ridefinendo il ruolo all’interno dei sistemi informativi.
La prima riguarda l’evoluzione dei workload. Le applicazioni non sono più pensate per vivere in ambienti statici e omogenei, ma si distribuiscono tra data center, cloud pubblici, edge e ambienti specializzati. In questo contesto, la virtualizzazione non è più soltanto un meccanismo di consolidamento delle risorse, ma uno strato di astrazione funzionale alla portabilità, alla resilienza e alla gestione del ciclo di vita dei carichi di lavoro.
La seconda onda è legata all’affermazione di architetture cloud-native e containerizzate. Kubernetes e le piattaforme di orchestrazione non sostituiscono la virtualizzazione tradizionale, ma ne ridefiniscono i confini. Sempre più spesso le macchine virtuali diventano il substrato su cui girano ambienti container, servizi gestiti e pipeline applicative moderne, spostando l’attenzione dalla singola tecnologia alla capacità di integrazione tra modelli diversi.
Un terzo elemento riguarda automazione e intelligenza artificiale applicata all’IT. L’aumento della complessità rende sempre meno sostenibile una gestione manuale degli ambienti virtualizzati. Policy-driven infrastructure, ottimizzazione dinamica delle risorse e osservabilità avanzata diventano requisiti centrali. In questo scenario, la virtualizzazione evolve da piattaforma passiva a componente attiva di ecosistemi sempre più adattivi.
Infine, pesa il tema della distribuzione. Edge computing, filiali e ambienti produttivi portano la virtualizzazione fuori dal data center tradizionale, introducendo nuovi requisiti di semplicità operativa, leggerezza e aggiornabilità. Anche questo contribuisce a frammentare il mercato e a rendere meno centrale l’idea di una piattaforma unica e onnipresente.
È l’intersezione di queste onde – cloud ibrido, container, automazione, AI ed edge – a spiegare perché la virtualizzazione stia cambiando pelle. Il caso Broadcom–VMware ha reso evidente il problema, ma la trasformazione è più ampia e strutturale.
[Scopri le nuove regole della virtualizzazione e cosa significano davvero per le imprese. Partecipa al webinar organizzato da Computer Gross in collaborazione con Parallels e ottieni una visione chiara per governare i tuoi ambienti digitali. Registrati ora!]

Un mercato che si frammenta (e si riapre)
La conseguenza più evidente di questa discontinuità è la frammentazione del mercato. Un settore che per anni è stato fortemente concentrato si sta aprendo a una pluralità di opzioni, con approcci, modelli e livelli di maturità differenti.
Da un lato emergono soluzioni open source, che stanno guadagnando attenzione per la combinazione di flessibilità, costi contenuti e maggiore controllo dell’infrastruttura. Non piattaforme pensate per replicare uno a uno l’esperienza VMware, ma basi solide per architetture più semplici e razionali, spesso inserite in percorsi di consolidamento o refactoring applicativo.
Dall’altro lato, player come Red Hat intercettano questa fase di transizione offrendo un ponte tra virtualizzazione tradizionale e mondo cloud-native. OpenShift viene sempre più considerato come un ambiente unificato capace di gestire workload virtualizzati e containerizzati all’interno di strategie ibride.
In parallelo, i grandi cloud provider continuano a spingere su modelli SaaS e managed, rispondendo all’esigenza di ridurre complessità operativa. Il risultato è un mercato meno monolitico, in cui la virtualizzazione smette di essere una scelta “di default” e torna a essere una decisione strategica.
Virtualizzazione, cloud e nuovi carichi di lavoro
La crisi del modello tradizionale non coincide con una riduzione della rilevanza della virtualizzazione. Al contrario, questa resta una componente chiave dell’IT moderno, ma cambia il modo in cui viene utilizzata.
L’adozione di architetture cloud e hybrid è ormai strutturale. Workload diversi convivono tra ambienti on-premise, cloud pubblici ed edge, e la virtualizzazione diventa un elemento di continuità e orchestrazione.
A questo si aggiungono nuovi carichi di lavoro. L’intelligenza artificiale e il machine learning richiedono infrastrutture flessibili e scalabili; anche quando girano su hardware specializzato, la virtualizzazione resta centrale per isolamento, gestione e orchestrazione. Parallelamente, la virtualizzazione di desktop ed endpoint continua a crescere, trainata dal lavoro ibrido, dalla sicurezza e dalle esigenze di compliance.
Dal problema alla scelta consapevole
Il punto chiave, oggi, non è individuare “il nuovo VMware”, ma ripensare il ruolo della virtualizzazione all’interno dell’architettura IT complessiva. Un passaggio che richiede tempo, competenze e una visione chiara degli obiettivi di business.
Non a caso Gartner sottolinea che la maggior parte delle migrazioni avverrà tra il 2026 e il 2027, invitando le organizzazioni ad agire con cognizione di causa: definire i requisiti, identificare opportunità a basso rischio, avviare progetti pilota. Non per rincorrere l’urgenza, ma per trasformare una crisi di mercato in un’occasione di modernizzazione reale.
Un momento di confronto per orientarsi
È in questo scenario frammentato e in rapida evoluzione che si colloca il webinar Le nuove regole della virtualizzazione: ciò che nessuno sta dicendo al mercato, in programma il prossimo 10 febbraio, dalle ore 15.00 alle ore 16.00 e promosso da Computer Gross e Parallels.
Non un semplice aggiornamento tecnologico, ma come momento di lettura critica di una trasformazione che oggi tocca livelli ben più profondi dell’infrastruttura.
La virtualizzazione è diventata una leva che incide su governance, modelli di costo, continuità operativa e capacità delle aziende di mantenere controllo e autonomia decisionale sui propri ambienti digitali. Il webinar nasce dall’esigenza di fare chiarezza su questo nuovo equilibrio, affrontando i nodi che molte organizzazioni stanno incontrando nella gestione quotidiana di infrastrutture, workspace e piattaforme virtualizzate.
Un’occasione per leggere il mercato con dati, esperienze e casi concreti e per trasformare l’incertezza in scelte più consapevoli, costruendo roadmap coerenti con le reali esigenze di business e di controllo dell’infrastruttura digitale.








