Con l’Agentic AI il focus torna sull’infrastruttura. A ben guardare, negli ultimi due anni il dibattito sull’intelligenza artificiale si è concentrato soprattutto sui modelli. La competizione si è giocata prevalentemente sulla dimensione degli LLM, sulla qualità delle risposte generate, sulla corsa alle GPU e sulle capacità dei chatbot di nuova generazione.

Con l’emergere dell’Agentic AI, il focus si sta progressivamente spostando verso una nuova fase dell’intelligenza artificiale enterprise.
Gli agenti AI introducono infatti sistemi capaci di eseguire attività, orchestrare workflow, interagire con applicazioni aziendali, recuperare informazioni da basi dati e coordinarsi con altri agenti software all’interno dei processi operativi.

Questo passaggio porta con sé un cambiamento profondo anche sul piano infrastrutturale.
La crescita di sistemi autonomi e distribuiti aumenta infatti la necessità di orchestrare workload dinamici, gestire inferenza continua, governare flussi di dati sempre più estesi e sostenere livelli di complessità operativa molto più elevati rispetto alla prima fase della GenAI.

Secondo Gartner, entro il 2028 circa un terzo delle applicazioni software enterprise incorporerà funzionalità agentiche, rispetto a meno dell’1% nel 2024. Sempre entro il 2028, almeno il 15% delle decisioni operative quotidiane potrebbe essere preso autonomamente da sistemi AI. 

La questione, quindi, non riguarda più soltanto l’adozione di modelli AI, ma la capacità delle aziende di sostenere nuovi carichi operativi caratterizzati da orchestrazione continua, inferenza distribuita, accesso ai dati e collaborazione tra agenti software.

[Il futuro dell’AI e dell’innovazione cloud-native arriva il prossimo 17 giugno nel cuore dello straordinario Cinema The Space Moderno di Roma. Non perdere l’occasione di toccare con mano la rivoluzione che sta trasformando la tua impresa e il tuo modo di lavoare. Qui tutti i dettagli per garantirti un posto in prima fila!]

Agentic AI, aumenta la pressione sulle infrastrutture

A differenza dei tradizionali chatbot o dei copiloti, i sistemi agentici non si limitano a rispondere a una richiesta.
Possono eseguire task, richiamare API, interrogare database, coordinare workflow, attivare processi e collaborare con altri agenti specializzati.

Questo cambia radicalmente il profilo dei workload.

L’AI enterprise inizia infatti a generare un numero crescente di micro-operazioni distribuite, con interazioni continue tra applicazioni, modelli, piattaforme dati e sistemi infrastrutturali.
Crescono così le esigenze di inferenza continua, aumenta il volume di comunicazioni interne tra workload e ambienti applicativi e diventa sempre più centrale la capacità di orchestrare carichi dinamici distribuiti tra cloud, data center ed edge. Parallelamente, si rafforza la dipendenza da piattaforme dati ad alte prestazioni e aumenta la complessità operativa nella gestione di ambienti hybrid e multicloud.

È anche per questo motivo che il mercato infrastrutturale legato all’intelligenza artificiale sta entrando in una nuova fase di espansione. 
Già lo scorso anno IDC sosteneva che la spesa mondiale per infrastrutture dedicate all’AI sarebbe destinata a superare i 200 miliardi di dollari entro il 2028, sostenuta soprattutto dalla crescita dei workload enterprise e delle attività inferenziali legate all’adozione operativa dell’intelligenza artificiale.

È un cambio di prospettiva importante.
Nella prima fase della GenAI il dibattito si era concentrato soprattutto sul training dei modelli e sulla disponibilità di potenza computazionale.
Oggi, invece, molte aziende si stanno confrontando soprattutto con il tema dell’inferenza: fare lavorare sistemi AI in produzione, in modo continuativo, integrato e governato.

LEGGI ANCHE: Nutanix accelera su AI, multicloud e sovranità: una piattaforma unica per gestire infrastrutture sempre più complesse

Kubernetes, orchestrazione e workload distribuiti diventano centrali

L’Agentic AI si inserisce in modo naturale dentro architetture cloud-native perché gli agenti AI tendono a funzionare come componenti software distribuiti, capaci di attivarsi, scalare e collaborare dinamicamente in funzione delle attività da eseguire.
Per sostenere questo modello servono quindi ambienti infrastrutturali flessibili, basati su container, microservizi e piattaforme di orchestrazione capaci di gestire workload in continua evoluzione.

Non a caso, Kubernetes sta tornando al centro delle strategie infrastrutturali legate all’intelligenza artificiale enterprise.
Viene infatti sempre più spesso utilizzato per coordinare applicazioni AI distribuite, allocare risorse computazionali, automatizzare il deployment dei modelli e garantire scalabilità operativa in ambienti hybrid e multicloud.

Secondo la Cloud Native Computing Foundation, oltre il 70% delle organizzazioni utilizza oggi Kubernetes in ambienti produttivi, mentre cresce rapidamente il numero di aziende che lo impiegano anche per workload AI e machine learning.

Il tema riguarda sempre meno la sola disponibilità di potenza computazionale e sempre di più la capacità di coordinare ambienti distribuiti nei quali modelli, agenti AI, applicazioni e dati devono interagire continuamente.
I workload legati all’intelligenza artificiale enterprise accedono infatti a sistemi legacy, piattaforme SaaS, repository documentali e basi dati eterogenee, aumentando sensibilmente la complessità operativa delle infrastrutture.

Assumono così un peso crescente l’automazione operativa, la gestione dei cluster, l’osservabilità dei workload, il bilanciamento dinamico delle risorse e la resilienza complessiva delle piattaforme distribuite.

Anche il networking sta tornando rapidamente al centro della discussione infrastrutturale.
Per anni i data center sono stati progettati soprattutto per gestire traffico in ingresso e in uscita. Con l’Agentic AI, invece, cresce enormemente il volume di comunicazioni interne tra modelli, agenti software, piattaforme dati, GPU, applicazioni e sistemi distribuiti. Gli agenti interrogano basi dati, attivano workflow, scambiano informazioni tra loro e interagiscono continuamente con servizi differenti. È un tipo di traffico molto più intenso, dinamico e continuo rispetto a quello generato dalle applicazioni tradizionali.

Ma la vera trasformazione riguarda probabilmente il rapporto tra AI e dati.
Come abbiamo già accennato, nella prima fase della GenAI l’attenzione si è concentrata soprattutto sui modelli. Con l’AI agentica emerge invece un altro tema: un agente è utile soltanto se riesce a muoversi rapidamente dentro l’ecosistema informativo dell’azienda.

Questo significa recuperare documenti, interrogare piattaforme gestionali, accedere a repository distribuiti, correlare informazioni provenienti da ambienti differenti e farlo in tempo reale. La qualità dell’infrastruttura dati diventa quindi parte integrante delle prestazioni dell’intelligenza artificiale stessa.

Ed è qui che torna centrale anche il tema della cosiddetta “data gravity”.
Più gli agenti AI devono lavorare vicino ai dati, più aumenta la necessità di ripensare la distribuzione tra cloud, edge e data center. Non conta soltanto dove si trova la capacità computazionale: conta dove risiedono le informazioni, quanto velocemente possono essere recuperate e quanto efficacemente possono essere governate.

L’autonomia crescente degli agenti introduce poi un ulteriore livello di complessità.
Quando i sistemi AI iniziano a eseguire attività operative, attivare processi o accedere direttamente ai dati aziendali, il tema non riguarda più soltanto le performance. Diventano centrali la capacità di osservare ciò che accade dentro l’infrastruttura, comprendere come gli agenti prendono decisioni, controllare i workflow e mantenere governance su ambienti molto più dinamici rispetto al passato.

Perché più gli agenti diventano autonomi, distribuiti e integrati nei processi aziendali, più aumentano le esigenze di orchestrazione, resilienza, controllo operativo e gestione dei dati.

Dall’AI generativa alle piattaforme operative

È dentro questa trasformazione che anche il mercato infrastrutturale sta iniziando a riposizionarsi. L’attenzione si sta spostando infatti dalle applicazioni alle piattaforme necessarie per sostenerle operativamente all’interno di ambienti enterprise complessi.

Non sorprende quindi che diversi operatori del settore stiano concentrando l’attenzione su orchestrazione dei workload AI, gestione hybrid multicloud, cloud-native operations e infrastrutture pensate per sostenere sistemi agentici distribuiti. Tra questi Nutanix, che negli ultimi mesi ha rafforzato il focus su ambienti AI enterprise caratterizzati da forte integrazione tra virtualizzazione, Kubernetes, gestione dei dati e automazione infrastrutturale.

È un orientamento che riflette una trasformazione più ampia del mercato.
Con l’Agentic AI, infatti, il tema non riguarda più soltanto l’adozione di modelli generativi, ma la capacità di far lavorare sistemi autonomi dentro architetture operative reali, distribuite e governabili.

È proprio attorno a questi temi che ruoterà anche .NEXT on Tour Roma, l’evento organizzato da Nutanix il prossimo 17 giugno nella capitale. Al centro della giornata ci saranno hybrid cloud, orchestrazione dei workload, gestione del dato, resilienza infrastrutturale e piattaforme cloud-native: elementi che stanno progressivamente convergendo verso una nuova generazione di infrastrutture AI enterprise, progettate per sostenere workload distribuiti, sistemi autonomi e ambienti operativi sempre più dinamici.

Con l’Agentic AI il focus torna sull’infrastruttura ultima modifica: 2026-04-29T13:30:01+02:00 da Miti Della Mura

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui