Data center e requisiti di archiviazione

L’attuale “stile di vita digitale” si basa sui dati: l’enorme quantità generata e prodotta dall’uomo e dalle macchine ha fatto crescere l’esigenza della loro disponibilità e conservazione per un periodo di tempo indefinito nei data center. I requisiti di archiviazione sono in continua espansione e tuttavia, le moderne soluzioni di archiviazione – secondo Toshiba Electronics Europe GmbH – non devono necessariamente essere complesse.
In passato, le aree di archiviazione erano suddivise in offline, nearline e online, includendo soluzioni di backup e a nastro, dischi rigidi ad alta capacità e le più veloci opzioni di unità di archiviazione esistenti. Oggi un approccio che privilegia gli hard disk non è più efficace, poiché i data center richiedono una visione più ampia delle soluzioni di archiviazione. I sistemi cloud rendono irrilevante la pianificazione dello storage in termini di dischi rigidi e gigabyte. Le sfide vengono invece affrontate in termini di sistemi, array, rack o unità di misura simili che fanno passare in secondo piano le nostre misure tradizionali di prestazioni e capacità.
Ad esempio, se un’azienda introduce un nuovo servizio, che include app e interfacce multiple, i requisiti possono essere molto alti. Che si tratti di Netflix, dell’app DB Navigator o di un’intera piattaforma digitale come Facebook, è necessario valutare aspetti come tipo di dati, capacità di archiviazione, formati di accesso, disponibilità e scalabilità. Proprio per questo non è possibile soddisfare i requisiti di archiviazione “solamente” attraverso una soluzione basata su hard disk, SSD o “architetture” di storage utilizzate nel passato poiché ogni caso necessita della propria soluzione.
Il confronto tra unità SSD e hard disk sembra dipendere dall’utilizzo, poiché le unità SSD sono generalmente veloci ed efficienti, mentre gli hard disk possono memorizzare molti più dati ad un costo inferiore. Tuttavia, quando si parla a livello di array o si arriva a considerare interi cluster in un data center, le cose cambiano.
Le grandi implementazioni sono casi tipici in cui tecnologie diverse vengono utilizzate per raggiungere un obiettivo comune. In base ai requisiti delle applicazioni di un’azienda e all’approccio di archiviazione specifico, un livello particolare di performance può essere raggiunto impiegando una quantità definita di SSD o di sistemi, ma anche da una probabilmente maggiore quantità di hard disk. La scelta finale di una tecnologia rispetto a un’altra dipende molto anche da altri elementi per esempio quelli di tipo economico. Con lo stesso investimento si può acquistare un piccolo numero di sistemi SSD ad alte prestazioni, un numero maggiore di sistemi ibridi basati su una combinazione di SSD e hard disk, o anche un sistema basato solo su hard disk e tutte queste soluzioni potrebbero raggiungere gli obiettivi prefissati. Per fare una valutazione ponderata è anche importante tenere in considerazione il Total Cost of Ownership (TCO), così come i costi di esercizio, e i requisiti di potenza.
Anche piccole modifiche alla configurazione pianificata, come l’availability dei dischi e le variazioni di prezzo delle unità, causano cambiamenti che vanno tenuti presenti anche all’interno di un approccio basato sul budget. In questi casi un confronto con i metodi di project management diventa utile soprattutto quando le esigenze o il campo di applicazione cambiano rapidamente. Per questo serve un approccio “agile” con frequenti review e l’inclusione di molte prospettive, competenze e partecipazione di team interdisciplinari. Lo stesso vale per le soluzioni di “archiviazione pianificata”. Le esigenze individuali richiedono soluzioni personalizzate che non includono necessariamente una singola tecnologia: una pianificazione “agile” è ideale per le soluzioni di archiviazione nei data center, dove spesso si combinano esigenze diverse.
I dischi rigidi continueranno ad essere la colonna portante di molte soluzioni di archiviazione. Ci sono notevoli vantaggi economici quando si utilizzano hard disk ad alta capacità di archiviazione dove non sono richieste prestazioni di altissimo livello. Inoltre, l’esperienza decennale di lavoro con questa tecnologia, la capacità di pianificare a lungo termine, insieme alla disponibilità di soluzioni di aggiornamento per le implementazioni esistenti, garantiscono che gli hard disk giocheranno un ruolo importante nelle soluzioni di archiviazione negli anni a venire.
Per le applicazioni in tempo reale, le unità SSD sono senza dubbio la scelta migliore. Tuttavia, in tutti gli altri casi non è possibile dare indicazioni in generale. Gli hard disk moderni, come la serie MG di Toshiba per ambienti aziendali, restano l’ideale in molti casi e situazioni poiché, man mano che il numero di unità in un sistema, o addirittura il numero di sistemi, cresce, i criteri e le metriche variano e cambiano. L’uso di hard disk spesso diventa di nuovo una scelta potenziale.
Le soluzioni della serie MG di Toshiba, con il sistema SAS o SATA, da 7.200 giri/min offrono un’ampia gamma di capacità da 1 TB (MG04) a 16 TB (MG08) per ambienti aziendali e restano l’ideale in molti casi e situazioni poiché, man mano che il numero di unità in un sistema, o addirittura il numero di sistemi, cresce, i criteri e le metriche variano e cambiano. I modelli MG07 e MG08 si basano su un design e una tecnologia collaudata, sono riempiti ad elio e hanno una garanzia di cinque anni e un volume di dati fino a 550 TB/anno.
Questi modelli sono classificati come unità nearline, cioè sono adatti per memorizzare tutti i dati che non hanno bisogno di essere modificati o a cui non bisogna accedere in modo permanente. In pratica, questo è il caso della maggior parte dei dati. Tutto ciò diventa tangibile nel caso delle applicazioni dei “social media”: le informazioni sul profilo sono accessibili per un breve periodo di tempo, dopodiché vengono archiviate nuovamente in una memoria a lungo termine, pur rimanendo rapidamente accessibili.
Proprio per questo i dischi rigidi delle serie MG07 o MG08, grazie ai sensori interni e all’elevata integrità dei dati, sono in grado di gestire in modo affidabile, rapido ed economico i crescenti volumi di dati odierni.

La nuova rivoluzione IT? Abbattere il modello delle licenze

Donato Ceccomancini, Country Sales Manager Italy, Infinidat
Il mondo IT vive di rivoluzioni, è noto. Ogni tecnologia, ogni approccio, ogni innovazione mira non solo a modernizzare lo status esistente, ma a metterne in discussione le sue stesse basi, promettendo – e in qualche caso mantenendo – vantaggi ben più che significativi. Che si parli di hardware o di software non fa differenza, c’è sempre un approccio potenzialmente disruptive che promette di rivoluzionare lo status quo, cambiando di fatto i paradigmi finora utilizzati.
Nel caso dello storage, la rivoluzione prende il nome di storage-defined. Ovvero, nella capacità di spostare la “intelligenza” dall’hardware – le cui innovazioni sono per natura più rigide, e quindi meno frequenti – al software che lo gestisce. Algoritmi avanzati, sviluppati facendo tesoro dei nuovi paradigmi AI e machine learning, consentono di sfruttare al meglio l’hardware sottostante – qualsiasi hardware – permettendo una gestione dei dati realmente “di nuova generazione”, in grado di abbinare prestazioni, flessibilità e affidabilità. In questo modo, le organizzazioni che combattono costantemente con la necessità di salvare, gestire e proteggere dati sempre crescenti in modo ottimale, possono raggiungere questo obiettivo senza doversi legare a una determinata tipologia hardware.
Se la tecnologia si evolve in modo così importante a supporto delle esigenze di business delle aziende clienti, possiamo dire lo stesso dei modelli con cui viene consumata? Stiamo vivendo il passaggio dal concetto di acquisto a quello di consumo, sulla spinta della crescente diffusione del modello di cloud computing. Che si tratti di apparati hardware o di licenze software, ormai per le aziende risulta naturale – oltre che più pratico – legare i costi al determinato utilizzo di una piattaforma, evitando così l’obbligo di immobilizzare capitale in partenza, con tutte le difficoltà – economiche e di gestione – che questo può comportare.
C’è sicuramente spazio per migliorare anche in questo ambito però, adottando lo stesso approccio che ha permesso di rivoluzionare lo storage dal punto di vista tecnologico. La maggior parte delle organizzazioni sa che avrà bisogno di nuovo storage per il proprio business, ma tipicamente non sa né quanto né quando. E allora, la possibilità di legare del tutto l’investimento alle concrete necessità di business, con tutta la flessibilità di un approccio “on demand” può rappresentare un vantaggio non indifferente. Soprattutto quando si va del tutto oltre il concetto di licenza – per utente, per macchina, per utilizzo software, non fa differenza…
La vera rivoluzione in questo ambito è rendere ogni innovazione immediatamente disponibile al cliente, nella sua forma più ampia: tutte le funzionalità, tutte le capacità, tutti i possibili utenti… E parallelamente, tenere traccia di quello che il cliente utilizza e di quando inizia a farlo fisicamente. Su base regolare, seguendo quello che è il modello tradizionale delle utility, il cliente paga per quello che ha utilizzato, senza dover richiedere o attivare licenze ulteriori, senza alcun tipo di provisioning e senza alcuna limitazione che non sia quella della capacità fisica delle macchine che ha a disposizione.
Questo approccio consente di superare del tutto il concetto stesso di licenza, mettendo il cliente nella condizione ideale, quella di poter usare ciò che serve veramente, e non quello che ha comprato. Se il business cresce rapidamente, si avrà la libertà di sostenerlo nel modo più efficace, grazie a un’infrastruttura che cresce nel modo più lineare possibile. Se invece la crescita risultasse inferiore alle aspettative, non ci sarebbe comunque nessun problema di sovrautilizzo delle risorse a disposizione, che anzi, possono anche essere ridotte in caso di necessità. È chiaro poi che, avendo a disposizione tutte le funzionalità accessibili semplicemente tramite un clic, l’utente sarà invogliato a provarle, comprendendo man mano meglio quali di queste possono essere più significative per il proprio business.
Dalla licenza, in sostanza, si passa al consumo, eliminando anche le ultime barriere e avendo a disposizione tutta la libertà di poter seguire l’andamento del business. Un modello di consumo di questo tipo non solo offre al cliente un livello di flessibilità mai visto prima, ma dà anche al vendor la possibilità di entrare ancor di più nei meccanismi del cliente, andando a creare una vera comunione di interessi, che giustifica ancor di più il termine di partnership.
Eliminando di fatto il concetto stesso di licenza, si abbattono le ultime barriere che dividono vendor e clienti, uniti nella realtà per il raggiungimento dei medesimi obiettivi.

Veritas Technologies acquisisce APTARE

Veritas Technologies annuncia di aver acquisito APTARE, società software privata con sede a Campbell, in California. APTARE è leader globale nelle soluzioni analitiche per ambienti cloud ibridi ed è la principale piattaforma di analisi IT aperta ed estensibile del settore. La tecnologia di APTARE consentirà a Veritas di offrire ai clienti una piattaforma di analisi avanzata che fornisce insight e report attraverso i diversi ambienti di protezione dei dati, infrastrutture virtuali e storage. Consentirà ai clienti di: Ottenere visibilità sull’intera infrastruttura, on-premise e su qualsiasi cloud, per prendere decisioni più consapevoli. Avere una piattaforma di reporting comune, dal tape to disk al cloud, essenziale in un ambiente multi-cloud. Anticipare meglio le esigenze e prevedere i risultati, come l’ottimizzazione dell’infrastruttura, la riduzione dei costi e il rispetto dei requisiti di conformità e SLA. L’aggiunta delle soluzioni di IT Analytics di APTARE al portfolio di prodotti Veritas rafforza anche l’integrazione dei prodotti dell’azienda con i principali provider tecnologici e cloud tra cui VMware, AWS, Microsoft Azure, OpenStack e ServiceNow.

Il data center aziendale del futuro

Il data center aziendale del futuro sarà sempre più un’infrastruttura agile, distribuita e automatizzata, in grado di fornire un’esperienza cloud e di erogare servizi al business dove e quando richiesti. E tra il core e l’edge, nello scenario previsto da IDC, andrà diffondendosi uno strato intermedio.
Il data center sta attraversando una fase di profonda trasformazione generata da una parte dal crescente appetito aziendale per le nuove applicazioni che, disegnate in modo diverso rispetto al passato, richiedono un cambiamento sostanziale nella gestione dell’infrastruttura, dall’altra dalla necessità di continuare a supportare e modernizzare il mondo legacy.
A livello di data center interni, questa trasformazione andrà a invertire uno dei trend più evidenti degli ultimi anni: quello della concentrazione in grandi strutture. Il consolidamento dei data center è una best practice IT di lunga tradizione: crescendo organicamente o per acquisizioni, la proliferazione dei data center ha sempre rappresentato una sfida per le aziende, portandole nel corso di un ciclo standard compreso tra i quattro e i sette anni a realizzare nuove e più grandi facility vicine alla sede principale e a chiudere o consolidare le location più piccole e lontane.
La trasformazione digitale sta capovolgendo questa tendenza. L’enorme quantità di dati generati da più fronti sta creando grandi repository di informazioni che saranno per lo più fatti risiedere in mega data center cloud gestiti da fornitori IaaS e SaaS o in strutture più piccole posizionate più favorevolmente, a livello geografico, in termini di latenza e risposta di servizio. Ciò renderà sempre meno importante la costruzione di grandi data center aziendali.
Già nel corso del 2019, IDC prevede che il 25% delle aziende abbandonerà il consolidamento di grandi data center a favore della modernizzazione di data center di più piccole dimensioni posizionati più strategicamente. Questa previsione fa il paio con una seconda, che IDC proietta al 2020, che afferma che l’esigenza di conservare e gestire il volume crescente di dati generati all’edge porterà il 40% delle aziende a istituire e servirsi di uno strato intermedio di “data vault”.
L’enorme flusso di dati che nei prossimi anni sommergerà le aziende dovrà essere immagazzinato e reso accessibile per essere analizzato, e niente di ciò è probabile che avvenga vicino agli attuali data center aziendali, sostiene IDC. Per gestire questa proliferazione di dati, molte organizzazioni adotteranno una strategia di data vaulting che permetterà loro di consolidare i dati in siti sicuri intermedi, spesso gestiti da colocator, senza bisogno di costruire nuove facility. In questi siti – presso i quali si potrà accedere a consumo a “pacchetti” di spazio, connettività, capacità di storage e sicurezza – le aziende potranno avviare processi di pulizia e gestione dei dati immagazzinati, servendosi dell’aiuto dei colocator per gestire la rete dei vari data vault e lo spostamento dei dati tra i data vault, i data center interni e i cloud data center.
Questa progressiva granularizzazione porterà a una terza fase: l’aumento dell’impiego di tecnologie di intelligenza artificiale e machine learning per ottimizzare la gestione infrastrutturale della rete di data center, data vault e siti edge. Entro il 2022, IDC prevede che il 50% degli asset IT dei data center aziendali potrà operare autonomamente grazie a tecnologie AI. A livello centrale, AI e ML porteranno a una maggiore automazione delle operazioni per aumentare la resilienza e ottimizzare le prestazioni. Questa tendenza sarà ancor più evidente all’edge, ove il presidio umano risulterà più limitato, se non addirittura assente.
La trasformazione del data center sarà al centro dell’IDC Datacenter of the Future Conference 2019 che si terrà a Milano il 27 marzo prossimo all’Hotel Melià. Alla presenza degli analisti IDC, dei maggiori esperti del settore e di aziende italiane che porteranno la loro diretta esperienza, i partecipanti potranno comprendere la portata dei cambiamenti in atto, i possibili impatti sulle scelte IT infrastrutturali attuali e le direzioni da prendere per affrontare il futuro.

Il Data Center Cisco è dove sono i tuoi dati

L’innovazione applicativa è il “cuore pulsante” dell’economia digitale. Una nuova era delle applicazioni sta ridefinendo il concetto di data center e ciò che devono essere in grado di supportare. Perché oggi, il data center non è più un luogo fisso, ma si trova ovunque i dati vengono creati, elaborati e utilizzati. Ecco perché Cisco ha ideato e presentato una nuova architettura che estende il data center a tutti i luoghi in cui i dati risiedono e in cui vengono distribuite le applicazioni.
Per dare concretezza a questa visione del “data center anywhere”, Cisco presenta una serie di innovazioni di rete, iperconvergenza, sicurezza e automazione, che includono:
L’espansione di ACI nel cloud con gli ambienti AWS e Microsoft Azure
L’estensione di HyperFlex nelle filiali e nelle postazioni remote per potenziare le applicazioni nell’edge
Ampliamenti a CloudCenter per permettere ai clienti di gestire il ciclo di vita delle applicazioni attraverso diversi ambienti cloud.
Una modalità completamente nuova per i clienti di acquistare e gestire la tecnologia lungo l’intera architettura data center, attraverso un unico Enterprise Agreement.

Cisco sta portando avanti la sua nuova visione di data center in tre modi:
· ACI disponibile in AWS e Azure: ACI (Application Centric Infrastructure) è la soluzione intent-based networking di Cisco per il data center. Offre semplicità operativa, agilità applicativa e protezione nel data center – il tutto distribuito con un approccio aperto che si integra con tutti gli hypervisor e i framework container su cui le applicazioni vengono implementate. Grazie ad ACI Anywhere, ACI viene esteso a qualsiasi workload, qualsiasi postazione, qualsiasi cloud. Virtual ACI supporta già cloud bare metal e postazioni edge remote. E oggi, grazie alle nuove funzionalità Cloud ACI, Cisco estende l’automazione, la gestione e la sicurezza ad AWS e Microsoft Azure integrandosi perfettamente con gli ambienti Infrastructure as a Service (IaaS). Leggi il blog.
· HyperFlex per le filiali: implementare un’infrastruttura iperconvergente in più siti in modo da fornire elaborazione distribuita su scala globale, può essere un’attività molto complessa. HyperFlex con Cisco Intersight oggi permette ai clienti di estendere l’elaborazione e lo storage del proprio data center core all’edge delle operations. E lo fa con una scalabilità flessibile e la semplicità d’uso di una gestione dei sistemi potenziata dal cloud. HyperFlex oggi fornisce prestazioni applicative di classe data center per portare innovazione digitale nelle filiali e nelle postazioni remote, permettendo attività di analytics e servizi intelligenti nell’edge enterprise. Leggi il blog.
· CloudCenter Suite: la complessità operativa e i crescenti costi di gestione delle applicazioni attraverso cloud pubblici e privati rappresentano una sfida per i team IT. Il nuovo CloudCenter Suite offre gestione dell’intero ciclo di vita dell’applicazione, una maggiore automazione dei workflow e un’ottimizzazione e governance dei costi. Infine, la nuova suite è molto più semplice da utilizzare e implementare, con diverse fasce di prezzo e nuove offerte SaaS. Leggi il blog.

Cisco sta semplificando, come mai prima d’ora, l’acquisto della tecnologia dei data center grazie al nuovo Cisco Enterprise Agreement. I clienti possono ora usufruire di un unico contratto di licenza standardizzato di tre o cinque anni per sette suite, tra cui ACI, HyperFlex, Intersight e Tetration. Cisco EA offre ai clienti la possibilità di scegliere tra modelli di implementazione e portabilità della licenza attraverso implementazioni fisiche, virtuali o cloud. Consente ai clienti di avere accesso a ciò di cui hanno bisogno, quando e dove ne hanno bisogno, disponibile presso il partner di canale preferito. Leggi il blog.

Cisco sta estendendo ACI a livello applicativo e al campus. Oggi, ACI si integra con AppDynamics per correlare le prestazioni delle applicazioni con lo stato di salute della rete. Si integra inoltre con Cisco DNA Center e Identity Services Engine per fornire policy basate sull’identità end-to-end e controllo degli accessi tra utenti o dispositivi del campus e applicazioni o dati, ovunque. Queste integrazioni sono l’ultimo passo del percorso di Cisco per creare la prima architettura multi-dominio del settore. L’obiettivo è quello di reinventare l’infrastruttura aziendale come sistema unificato che permette di “sprigionare” l’innovazione, semplificando la complessità dell’IT moderno. Leggi il blog.