Software Defined Data Center cos’è e come funziona? La domanda è comune a milioni di manager e imprese di tutto il mondo. Il motivo? Semplice, conviene. Conviene come conviene la rivoluzione che trasforma server, storage e persino la Rete in servizi da pagare come, quando e se serve. Un Data Center virtuale, un Data Center come servizio flessibile, scalabile, perfettamente contemporaneo rispetto alla maturazione del cloud computing, della sharing economy e delle esperienze di utilizzo che, a tutti i livelli, stanno soppiantando gli acquisti “secchi” di beni e prodotti.

Una rivoluzione, un nuovo modo di intendere, costruire, e fornire innovazione digitale alle imprese su cui da tempo, non a caso, è al lavoro da tempo una eccellenza innovativa italiana come Sinthera grazie al supporto strategico di una multinazionale come NVIDIA e di un distributore a valore come TD SYNNEX Italia.

Prima di capire come e in che direzione si sta muovendo  però, vale la pena di rispettare le consegne e di provare a rispondere alla domanda di cui sopra.

Software Defined Data Center cos’è e come funziona

Un SDDC vocabolario alla mano, è una struttura di archiviazione dei dati in cui tutti gli elementi dell’infrastruttura – rete, storage, CPU e sicurezza – sono virtualizzati e forniti come servizio. La distribuzione, il funzionamento, il provisioning e la configurazione sono astratti dall’hardware. Tali attività vengono implementate tramite software intelligence.
Un Software Defined Data Center è considerato oggi il più concreto disegno del Data Center del futuro ma attualmente, si tratta più di un concetto che di una pratica comunemente implementata, anche se ha visto l’adozione incrementale da parte dei fornitori di servizi cloud e dei fornitori di data center come servizio.

Si parla moltissimo di Iperconvergenza come base del Software Defined Data Center, proprio perchè l’iperconvergenza si ottiene quando server, storage e software di virtualizzazione convergono in un unico oggetto governato da un unico programma che funge da controller di gestione.

Componenti di un Data Center del futuro

La virtualizzazione è fondamentale per il Software Defined Data Center. Esistono tre principali blocchi SDDC, Software Defined Data Center:

– La virtualizzazione della rete combina le risorse di rete suddividendo la larghezza di banda disponibile in canali indipendenti che possono essere assegnati, o riassegnati, a un determinato server o dispositivo in tempo reale.
– La virtualizzazione dello storage raggruppa l’archiviazione fisica da più dispositivi di archiviazione di rete in quello che sembra essere un singolo dispositivo di archiviazione gestito da una console centrale.
– La virtualizzazione del server maschera le risorse del server, inclusi il numero e l’identità dei singoli server fisici, processori e sistemi operativi (SO), dagli utenti del server. L’intenzione è di impedire agli utenti di gestire complicati dettagli delle risorse del server. Aumenta anche la condivisione e l’utilizzo delle risorse, pur mantenendo la possibilità di espandere la capacità in un secondo momento.

Vantaggi del Software Defined Data Center

Un Software Defined Data Center è un modo per configurare e eseguire il provisioning dinamico di applicazioni, infrastrutture e risorse IT. Il design consente di gestire il data center come sistema unificato o insieme aggregato di domini. Un fattore chiave è la separazione dei piani di controllo e dei piani dati.

Un SDDC fornisce a un’organizzazione un proprio cloud privato per un migliore controllo dei dati ospitati. Non solo, i Software Defined Data Center sfruttano l’agilità, l’elasticità e la scalabilità del cloud computing. Il vantaggio principale consiste nell’automazione di tutte le funzioni tramite software intelligente, in particolare le attività ad alta manualità relative al provisioning e alla gestione operativa.

Ciò consente un elevato grado di flessibilità all’interno di un data center tradizionale. Le risorse vengono raggruppate e fornite come un cloud privato o ibrido. I carichi di lavoro operano indipendentemente dall’infrastruttura IT fisica.

Sia la gestione dell’infrastruttura che la gestione del carico di lavoro sono controllate a livello di programmazione. Il risultato è la riduzione dei costi generali e di gestione.

SDDC il caso Sinthera e NVIDIA

Nel cuore di una simile rivoluzione, come anticipato, vale ora la pena di guardare, analizzare e raccontare i casi concreti di chi la sta già vivendo da protagonista. I casi come quelli che uniscono la strada di un system integrator di eccellenza, Sinthera, e una multinazionale che  da tempo si è specializzata proprio nel costruire il “motore” del nuovo data center, come NVIDIA.

«La quantità sempre crescente di elaborazione dati richiesta dai moderni carichi di lavoro – racconta Raul Arisi, Chief Marketing Officer at Sinthera – WeAreProject – sta mettendo le imprese davanti alla necessità urgente di fare evolvere la propria infrastruttura di rete per tenere il passo… NVIDIA è un brand che ha il merito di rendere reale un’infrastruttura in grado di supportare qualsiasi carico di lavoro moderno e requisito di bassa latenza, abilitando un’architettura punto-punto e un utilizzo di un routing basato su hardware.

Con questa forza a sua disposizione le imprese possono dunque entrare in una nuova era di calcolo accelerato, massimizzando gli investimenti in Software-Defined DataCenter con cluster distribuiti. Ed è proprio in questa direzione che da tempo stiamo supportando numerose imprese del territori, ovvero creare un’infrastruttura in grado di supportare tutti i carichi di lavoro moderni e i requisiti di bassa latenza».

Più nel dettaglio Arisi cita il caso di una realtà, una importante azienda italiana con un’esigenza di storage distribuito ed iperconvergente, oltre che di database con capacità di scalabilità orizzontale che non compromettesse le prestazioni o l’elevata disponibilità. «L’elevata velocità effettiva, la bassa latenza e le capacità di commutazione di rete attiva si erano resi fondamentali per distribuire in maniera ottimizzata server e storage in cluster – racconta Arisi -. Inoltre, le tante applicazioni presenti, come Microsoft SQL Server, richiedevano connettività 10/25GbE a molti client. Non solo, parliamo di Connettività 40/100GbE a server selezionati, sistemi di storage o per uplink di rete, tutti con bassa latenza».

In questo scenario, NVIDIA SN2010, basato sul processore NVIDIA , è stata la soluzione migliore con un mix di porte 10/25 GbE e 40/100 GbE, tutte progettate per zero perdita di pacchetti.

Per supportare la virtualizzazione e il cloud privato, SN2010 ha poi introdotto il supporto hardware per più protocolli di tunneling che consentono una maggiore raggiungibilità e scalabilità per i data center di oggi. «Il progetto – conclude Arisi – è stato completa con la capacità di incapsulamento di tunneling NVGRE e VXLAN nel livello di network del data center che ha aumentato la flessibilità per terminare un tunnel di overlay nella rete o sull’endpoint del server».

Software Defined Data Center cos’è, come funziona e perché il networking è la chiave ultima modifica: 2023-04-20T11:04:00+02:00 da Marco Lorusso

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui