Gestione e controllo del data center: status quo o self-healing?

Andrea Faeti, Service Sales Director. Emerson Network Power, Italia
Andrea Faeti, Service Sales Director. Emerson Network Power, Italia

Al giorno d’oggi si registra una pressione crescente sul data center affinché raggiunga nuovi livelli di efficienza, senza compromettere la disponibilità. Le piattaforme di gestione avranno un ruolo chiave per ottenere questo risultato, e mi aspetto che nel 2025 saranno fattibili data center “self-healing” e auto-ottimizzati.
Se definiamo il self-healing come la capacità di adattamento ai guasti senza compromettere la disponibilità delle applicazioni, allora potremmo dire che le capacità di self-healing esistono già oggi.
Grazie alla virtualizzazione, molte aziende hanno la possibilità e la capacità di spostare i carichi all’interno del data center senza influire sulla disponibilità. Manca, tuttavia, la visibilità attraverso i diversi apparati, in modo da comprendere l’impatto di eventuali cambiamenti e potervi adattare sistemi di supporto adeguati.
Questo è il motivo per cui il pannello di gestione unico promesso dalla gestione dell’infrastruttura del data center (DCIM) è così fondamentale per il futuro.
La sfida tecnica principale è che il data center è come una Torre di Babele – ogni apparato comunica in un linguaggio diverso.
Fino a poco tempo fa non c’è mai stato un modo per tradurre i dati provenienti, ad esempio, dal sistema di alimentazione, in modo da renderli compatibili con quelli provenienti dai server. Di conseguenza, i manager hanno sempre operato a compartimenti stagni.
Questa sfida è stata affrontata da una nuova generazione di dispositivi per i data center, che consolidano i dati tra i vari apparati e li traducono nel modo necessario per essere utilizzati dal sistema di gestione. In aggiunta, alcune iniziative multi-vendor come Redfish stanno creando protocolli comuni di comunicazione, che ridurranno la necessità di traduzione.
I dati non sono i soli a dover essere unificati, ma bisogna fare lo stesso anche per i team di gestione, che rappresentano una sfida di aggregazione e traduzione potenzialmente maggiore. I dipartimenti dovrebbero essere riorganizzati secondo un criterio olistico, per realizzare un vero potenziale tecnologico.
Una volta fatto ciò, l’azienda sarà pronta per affrontare anche l’aspetto della auto-ottimizzazione, che richiede lo sviluppo di sofisticati algoritmi di ottimizzazione, attualmente non ancora esistenti. Si tratta dunque di una sfida complessa, che verrà affrontata all’interno di un contesto di un più ampio impegno nell’utilizzare i dati per ottenere un vantaggio competitivo. Non credo che il settore dei data center sia in ritardo nell’impiego dei dati per ottimizzare le operazioni.
Rispondere a queste sfide e raggiungere l’auto-ottimizzazione ci offrirà la possibilità di:

  • mantenere condizioni ottimali nell’intero data center in qualsiasi momento, abbattendo i costi operativi;
  • rispondere ad eventuali guasti in maniera trasparente per gli utenti, aumentando il nostro valore per il business;
  • massimizzare l’impiego di risorse, riducendo il costo del capitale.

Posso solo dire che non vedo l’ora che tutto questo accada.