Come abbiamo più volte raccontato su queste pagine, il mercato dell’hardware IT sta attraversando una fase di tensione che tocca da un lato i prezzi, dall’altro – ed è questo l’aspetto più critico – la tenuta complessiva dei modelli di approvvigionamento e pianificazione tecnologica.
Interessante, nelle analisi che in queste settimane si susseguono da parte di analisti e attori coinvolti, un recente intervento di Marco Aldo Ballan, Director of Infrastructure di IBM Italia, che, a partire da un blog post sul sito stesso della società, mette in fila le dinamiche che stanno ridisegnando il settore: carenza di componenti, aumento dei costi, domanda crescente legata all’intelligenza artificiale e un contesto di virtualizzazione in rapido cambiamento.

“Il 2026 si sta rivelando un anno particolarmente complesso per il mercato dell’hardware IT”, osserva Ballan, confermando come le tensioni sulla supply chain stiano colpendo componenti chiave come memorie, storage e CPU, con impatti diretti su disponibilità e capacità di pianificazione.
Ma il vero punto di criticità è rappresentato dalla sovrapposizione di più fattori che si stanno rafforzando a vicenda.
“Alla scarsità di componenti e all’aumento dei costi hardware si aggiunge un secondo livello di pressione, meno visibile ma altrettanto rilevante: quello della virtualizzazione. Negli ultimi mesi, i cambiamenti nei modelli di licensing e nei prezzi delle piattaforme stanno aumentando il costo complessivo delle infrastrutture, rendendo meno sostenibili configurazioni che fino a poco tempo fa erano standard”.
Il risultato è che per le imprese “è sempre più difficile garantire capacità future e mantenere sotto controllo i costi”.
Una pressione strutturale
Ridurre il problema a una crisi temporanea della supply chain sarebbe fuorviante. Le tensioni che attraversano il mercato hanno una natura più profonda e, soprattutto, più duratura.
Da un lato c’è la domanda crescente di infrastruttura per l’AI, che sta drenando componenti critici – RAM, SSD, controller – verso workload ad alta intensità computazionale. Dall’altro lato, si stanno sommando dinamiche di mercato che impattano direttamente il costo complessivo delle architetture IT.
“In questo momento – osserva Ballan – al tema della disponibilità si assomma anche un problema di riallineamento dei prezzi lungo tutta la filiera. Memorie, dischi, componenti: tutto sta subendo incrementi”.
Inclusi i prezzi in crescita delle piattaforme di virtualizzazione.
Fattori che si assommano l’un l’altro, cosa che altera completamente il perimetro decisionale delle imprese.
Hardware IT: progetti rallentati e pianificazione sotto stress
Le conseguenze di queste situazioni sono già evidenti nelle operation IT.
Le aziende che devono aggiornare o espandere le infrastrutture si trovano a operare in condizioni di incertezza: tempi di consegna variabili, prezzi non stabili, difficoltà nel definire budget e roadmap.
“Il risultato è molto concreto: progetti che slittano, pianificazione più complessa e una crescente attenzione al riutilizzo delle risorse già presenti nei data center”.
In questo quadro si inseriscono anche le difficoltà che stanno emergendo sul fronte degli acquisti pubblici. In alcuni casi – come quello delle gare Consip andate deserte – il contesto di mercato rende più complesso portare avanti i processi di procurement.
Ballan riconosce l’impatto di queste dinamiche:
“Questo tipo di situazioni mette in difficoltà le organizzazioni, soprattutto nella Pubblica Amministrazione, che devono portare avanti progetti di digitalizzazione”.
È un inevitabile effetto a catena: investimenti rinviati, progetti rallentati, innovazione che procede a velocità ridotta.
Riuso e ottimizzazione: quando la risposta può partire dall’esistente
In questo scenario emerge anche un tema più operativo, legato alla gestione dell’esistente. Nel corso del confronto, il tema del riuso dell’hardware IT viene introdotto come una delle possibili leve per affrontare il contesto attuale.
Ballan si aggancia a questo spunto e ne amplia il perimetro:
“Il riutilizzo di quello che già si ha è un punto interessante. In questo contesto è una strada che sta avvenendo davvero”.
Più che una scelta strutturale, si tratta spesso di una risposta pragmatica alle difficoltà del momento, che in alcuni casi apre però a considerazioni più ampie sull’architettura.
“Abbiamo visto clienti che, invece di sostituire l’infrastruttura, hanno deciso di intervenire sul layer software. Ad esempio, passando a soluzioni open source per la virtualizzazione”.
Il punto non è semplicemente “tenere” l’hardware IT esistente, ma capire dove intervenire per ottenere flessibilità: separare livelli, ridurre la dipendenza da specifiche tecnologie e, dove possibile, estendere il ciclo di vita delle risorse già disponibili.
Ballan cita un caso reale che fotografa bene questo approccio:
“Un cliente voleva abbandonare la virtualizzazione in uso e passare a un’alternativa open source basata su Red Hat. Abbiamo costruito una proposta che permettesse di farlo mantenendo i server x86 già presenti”, ovvero intervenendo sul layer che genera maggiore vincolo – in questo caso la virtualizzazione – separando hardware e software.
Capacità latente: come sfruttare ciò che è già installato
Accanto al riuso, emerge un approccio complementare: sfruttare capacità già presenti nei sistemi, ma non ancora attivate.
“Uno dei modi più efficaci per ridurre l’investimento è analizzare bene le risorse già disponibili nelle infrastrutture aziendali”, sottolinea Ballan.
In molti ambienti enterprise esiste infatti una quota di capacità latente – CPU, memoria, storage – che può essere attivata senza nuovi acquisti hardware IT.
“Su piattaforme come Power o IBM Z è possibile attivare risorse fisiche già presenti semplicemente tramite licenze”.
Questo modello introduce una flessibilità che diventa strategica in contesti di incertezza: riduce il tempo di risposta, limita l’esposizione ai prezzi di mercato e consente di modulare gli investimenti.
Ma c’è anche un ulteriore livello di lettura. Queste piattaforme permettono di consolidare workload diversi su infrastrutture più efficienti.
“Power, ad esempio, è in grado di ospitare ambienti diversi – Unix, Linux, applicazioni SAP, database Oracle, container – offrendo un’alternativa concreta alla dipendenza dal mondo x86”.
LEGGI ANCHE: Crisi delle memorie. La corsa all’AI mette sotto pressione il mercato hardware globale
Refurbished: crescita reale, ma con limiti strutturali
La pressione sui costi sta riportando in primo piano anche il tema del refurbished.
Ballan conferma che si tratta di una tendenza reale, ma con perimetri ben definiti:
“Sì, è una tendenza che ho colto anch’io dai clienti, soprattutto nel mondo PC”.
Nel segmento enterprise, però, il quadro è più articolato. Esiste un ecosistema di operatori specializzati – in particolare nella manutenzione indipendente – che fanno leva su componenti rigenerate e circuiti di brokeraggio.
È un modello che sta crescendo, ma che presenta anche limiti tecnici difficili da superare.
“Il tema dei firmware e del microcode rende sempre più complessa la compatibilità. Nei sistemi proprietari non è sempre garantita”.
E soprattutto, il vantaggio economico non è sempre sostenibile nel tempo.
“Se guardiamo consumi energetici, spazio occupato e costi operativi, non è una soluzione efficiente a lungo termine. È un tampone”.
LEGGI ANCHE: Crisi delle memorie, prezzi in salita e hardware introvabile: così usato e refurbished ridisegnano il mercato IT
Canale sotto pressione: la “tempesta perfetta”
Se lato clienti la situazione è complessa, lato partner lo è ancora di più.
“Il nostro ecosistema sta vivendo una tempesta perfetta”, dice Ballan, riprendendo un’espressione emersa nel confronto con il canale.
La sovrapposizione delle diverse criticità che rende più difficile operare sul mercato, perché costringe i partner a gestire insieme instabilità dei costi, richieste dei clienti sempre più stringenti e la necessità di ripensare le soluzioni proposte.
Alle imprese “serve disponibilità rapida, implementazione on premise, un buon rapporto qualità-prezzo e soprattutto uno stack open source che eviti lock-in”.
Ma c’è un elemento in più, legato all’AI:
“Le aziende chiedono governance e spiegabilità. Non basta avere modelli, serve poterli controllare”.
La risposta di IBM: consolidamento, hybrid cloud e controllo dei costi
IBM prova a rispondere a questa fase di instabilità agendo su più livelli.
allan individua tre direttrici principali: infrastruttura, cloud e storage.
Sul fronte infrastrutturale, l’obiettivo è aumentare l’efficienza di quello utilizzato.
“I sistemi Power permettono di consolidare più workload riducendo il numero di macchine, lo spazio occupato e i consumi energetici”, spiega.
È un passaggio rilevante, perché sposta il tema dal “quanto hardware serve” a “quanto hardware è davvero necessario”, con un impatto diretto su costi e sostenibilità.
A questo si aggiunge la possibilità di attivare capacità on demand:
“Attraverso meccanismi di attivazione di CPU e memoria è possibile avviare nuove progettualità senza dover introdurre immediatamente nuovi sistemi”.
In parallelo, il cloud entra come leva di flessibilità, più che come alternativa secca all’on premise.
“IBM Cloud consente di avere capacità disponibile rapidamente e modelli di approvvigionamento flessibili, anche per gestire picchi o ambienti di sviluppo”.
Il punto, qui, è evitare che la rigidità della supply chain blocchi i progetti, introducendo un livello di elasticità che consenta di assorbire la variabilità del mercato.
C’è poi un terzo elemento, centrale nel contenimento dei costi: lo storage.
“Le nuove soluzioni FlashSystem permettono di ridurre drasticamente il footprint fisico e i consumi, grazie a tecnologie di compressione e deduplica”.
Qui, l’ottimizzazione non passa solo dalla potenza computazionale, ma dalla gestione del dato e dalla capacità di ridurne l’impatto operativo.
Nello stesso perimetro rientrano anche soluzioni come IBM Fusion, pensate per semplificare la gestione dei workload e accelerare il time-to-market, insieme al ritorno di tecnologie come il tape per scenari specifici:
“Per i dati freddi e i backup massivi, il tape resta una soluzione estremamente efficiente dal punto di vista economico”.
Sicurezza e riuso: dove emerge davvero il rischio
C’è poi l’aspetto della sicurezza che anche in uno scenario di incertezza non può e non deve venir meno, anche e soprattutto là dove si parla di riuso e refurbished.
“L’utilizzo di hardware non di ultima generazione può sottendere un rischio”, osserva Ballan, soprattutto quando si traduce in sistemi non aggiornati o privi delle patch più recenti.
È qui che la logica del “tirare avanti con quello che c’è” può entrare in tensione con i requisiti di sicurezza.
IBM insiste su un approccio “security by design”, integrato direttamente nelle piattaforme. Ballan richiama, ad esempio, le funzionalità quantum-safe presenti sui sistemi Power e le capacità di rilevamento ransomware in tempo reale integrate nello storage, a dimostrazione di come la sicurezza venga incorporata a livello infrastrutturale, invece di essere gestita come un elemento separato. “L’obiettivo è garantire continuità operativa e protezione nel tempo”, sottolinea.








