Le previsioni 2017 di George Teixeira, DataCore

George Teixeira DataCore
George Teixeir, Presidente e CEO DataCore
Lo storage si è trasformato: è un’infrastruttura server + software-defined!

Siamo nel mezzo di un‘inevitabile e crescente tendenza in cui sono i server a definire che cos’è lo storage. Seguendo questo trend, DataCore ha utilizzato le tecnologie software per l’I/O parallelo per potenziare i server multi-core pre-configurati e arrivare ai sistemi di storage migliori del mondo in termini di prestazioni, bassa latenza e rapporto prezzo-prestazioni. I tradizionali sistemi di storage non sono più in grado di tenere il passo e sono in declino. Il risultato è che vengono sempre più sostituiti con server economici e soluzioni infrastrutturali software-defined, che possono sfruttare la loro potenza per risolvere il problema della crescente quantità di dati da memorizzare. La funzione di storage e i servizi dati a essa associati sono ora gestiti dal software e stanno diventando semplicemente un altro “carico di lavoro applicativo” che gira su queste convenienti piattaforme server. E questa ondata di sistemi di storage flessibili basati su server sta già facendo registrare nel settore un impatto devastante.

Commercializzati come sistemi SAN server, SAN virtuali, web-scale, scale-out o iper-convergenti, sono un insieme di server standard pre-configurati, schede flash e unità disco. È però il software che definisce veramente il loro valore. Lo storage è diventato un gioco di server. Il software di elaborazione parallela e la capacità di sfruttare la tecnologia multi-core dei server è il principale elemento capace di modificare le regole del gioco. Unito all’infrastruttura software-defined, porterà a una rivoluzione della produttività e confermerà ulteriormente i “server come il nuovo storage”. Per maggiori informazioni consultate il seguente report: http://wikibon.com/server-san-readies-for-enterprise-and-cloud-domination/

Che cosa c’è oltre la flash?

Ricordate quando la flash era considerata la grande novità? Ora è realtà. Quale sarà quindi il prossimo passo? Come faremo a essere più veloci e a fare di più con meno risorse? La risposta è ovvia: se la flash oggi è una realtà e le prestazioni e la produttività sono ancora un problema per molte applicazioni enterprise, specialmente quando si parla di database, allora bisogna parallelizzare l’elaborazione dell’I/O. Perché? Questa tecnica moltiplica ciò che può essere ottenuto facendo lavorare in parallelo molti motori di calcolo per gestire e rimuovere i colli di bottiglia e per innalzare i ritardi delle code nello stack, avvicinandoli alle applicazioni, evitando il più possibile la gestione dell’I/O a livello di dispositivo. Prestazioni e tempi di risposta vanno così ben oltre quello che è possibile ottenere con le sole ottimizzazioni a livello di dispositivo offerte da flash/SSD. La potenza di “molti” supera di gran lunga ciò che solo “uno” può fare: l’unione di flash e I/O parallelo consente agli utenti di far funzionare le applicazioni più velocemente, completare maggiori quantità di lavoro e aprire le applicazioni ad altre tipologie d‘impiego prima impossibili da concretizzare.

Il software-defined storage rivoluzionerà il settore dello storage: le 5 previsioni di George Teixeira

George Teixeira DataCore
George Teixeir, Presidente e CEO DataCore
Nel 2015 la filosofia del “software-defined everything” e del software-defined storage continuerà a evolvere, spinta dai vantaggi in termini di produttività che è in grado di offrire ai clienti. Il cambiamento avrà un impatto maggiore sui fornitori di sistemi per lo storage tradizionali, dato che il software-defined storage promette di rendere una commodity i sottostanti dispositivi per la memorizzazione dei dati. Il risultato sarà quello di portare le funzionalità e i servizi di storage a livelli ancora più elevati di produttività, invece di tenere le aziende bloccate su specifici sistemi. Le vere piattaforme di software-defined storage consentiranno a questi dispositivi di ‘fare di più con minori risorse’, incrementandone l’utilizzo e lavorando su piattaforme diverse a livello infrastrutturale. Alla fine, gli straordinari benefici economici, la migliore produttività e la necessità di una maggiore agilità nel rispondere a future esigenze spingeranno il software-defined storage fino a renderlo nel 2015 una soluzione di adozione comune.

#1: nel 2015 il software-defined storage conquisterà il mercato.

#2: nel 2015 i server diventeranno un elemento sempre più importante nella strategia di sostituzione delle batterie di storage tradizionali. I server saranno un alleato del software-defined storage, continuando ad alimentare la nuova categoria dei ‘server di storage’ e le SAN virtuali iper-convergenti. L’ultima generazione di server è potente e riuscirà a supportare quantità di storage sempre maggiori. Soluzioni di software-defined storage come il software Virtual SAN di DataCore sono state pensate per eliminare i problemi e la complessità tipici delle reti di storage tradizionali, proponendo al contempo un percorso di crescita. Il software Virtual SAN sta maturando rapidamente e questo spingerà ulteriormente la trasformazione dei server in potenti sistemi di storage capaci di guardare al futuro trasformandosi in vere e proprie SAN virtuali di livello enterprise (al proposito si veda l’intervento “Dell PowerEdge Servers Make Great Software-Defined Storage Solutions” pubblicato sul 4Enterprise Blog di Dell).

#3: nel 2015 dischi e flash “faranno squadra” e gli stack software copriranno entrambi i mondi. L’anno che si è da poco concluso ha visto continuare la tendenza a impiegare flash ovunque, con i dispositivi basati su questa tecnologia che si sono velocemente spostati dal semplice utilizzo nei server all’impiego a tutto campo. Inizialmente questo ha spinto molte nuove aziende a proporre storage di questo tipo, ma poi si è andati verso un elevato livello di consolidamento, come dimostrano l’acquisizione di Fusion-io da parte di SanDisk e la scomparsa di numerose startup. Con la flash che si è confermata come tecnologia chiave, ma che è sempre più diventata anch’essa una commodity, il mercato non è più in grado di sostenere tutte le aziende che si sono affacciate su questo mercato. Per questo assisteremo a un ulteriore consolidamento.

Il nuovo anno ci mostrerà poi come le tecnologie flash possano essere utilizzate in modo più pratico, migliorando la modalità con cui lavoreranno insieme alle esistenti tecnologie basate su disco. La flash è una soluzione eccellente per carichi di lavoro specifici che richiedono velocità di lettura elevate, come quelli dei database, ma non è conveniente per tutti i carichi di lavoro, e al momento costituisce solo una frazione molto piccola del parco di storage installato. Sul lato opposto sono posizionati gli economici dischi SATA, che continuano la loro avanzata e che utilizzano nuove tecnologie come quella basata sull’elio per supportare capienze sempre maggiori, fino a 10 TB per unità. Il loro limite rimane però la lentezza. Carichi di lavoro transazionali che ricorrono a frequenti operazioni di scrittura hanno poi esigenze ancora diverse (per saperne di più si veda l’intervento “A New Breakthrough Random Write Accelerator”, in cui si parla dell’impatto del sistema DataCore di accelerazione della scrittura su dischi e tecnologia flash). I produttori vorrebbero farci credere che i clienti sposteranno lo storage al 100% su flash, ma un cambiamento di questo genere non è sostenibile a livello di costi, soprattutto considerando l’ampiezza della base installata.

Nel 2015 avremo bisogno di software intelligente con uno stack di funzionalità in grado di ottimizzare i compromessi tra costi e prestazioni e di spostare i carichi di lavoro sulle risorse più adatte, siano esse dischi tradizionali o tecnologie flash. Un software-defined storage realizzato correttamente può aiutare a unificare il nuovo mondo flash con quello esistente e in continua evoluzione dei dischi. Entrambi hanno un futuro.

#4: nel 2015 le soluzioni di cloud ibrido e quelle di disaster recovery basato su cloud saranno sempre più pratiche da implementare. Le aziende stanno ancora cercando di immaginare il modo migliore per sfruttare il cloud computing. Sempre di più le grandi imprese si trovano a gestire sia storage installato localmente sia storage cloud remoto (cloud ibrido). Nel 2015 questo diventerà un tema sempre più importante, con i clienti che si fanno sempre più furbi nel capire quali carichi di lavoro possono essere gestiti nella cloud e quali no. Lo storage installato localmente viene solitamente sfruttato per gestire i dati “attivi”, come quelli dei database e quelli delle attività orientate alle transazioni. La cloud, invece, continua a essere tipicamente utilizzata per il backup, l’archiviazione e il disaster recovery e non per i carchi di lavoro in produzione, soprattutto a causa della velocità dei collegamenti Internet. Ora stanno però emergendo soluzioni come quella composta da DataCore e Microsoft StorSimple, che permette di spostare in modo trasparente i dati (residenti su qualunque sistema di storage) dai dispositivi locali a una cloud come Microsoft Azure. Questo alimenterà la tendenza più rilevante, che vede le imprese sempre più orientate verso soluzioni che mischiano soluzioni on-premise e nella cloud. In più, anche se le operazioni di disaster recovery dalla cloud rimangono complicate, sono in arrivo nuovi strumenti di integrazione e procedure più automatizzate che renderanno più pratiche queste soluzioni.

#5: nel 2015 la gestione delle risorse interne attraverso un modello cloud diventerà una tendenza sempre più rilevante. Le grandi imprese vogliono emulare la produttività che riescono a raggiungere i fornitori cloud. Per farlo, però, hanno bisogno di sposare un modello di Quality-of-Service (QoS) che comprenda una serie completa di servizi per i dati virtuali. Per esempio, con le sempre crescenti esigenze di storage, le imprese devono essere in grado di gestire, regolare e creare una separazione delle risorse capace di riflettere gli schemi di utilizzo dei diversi dipartimenti. Un esempio tipico è quello del settore finanziario, che ha bisogno di livelli di prestazioni diversi da quelli che bastano all’elaborazione di testi. Le impostazioni del Quality-of-Service sono indispensabili per garantire che i carichi di lavoro con priorità elevata che devono accedere alle risorse di storage possano rispettare i loro Service Level Agreements (SLA) con prestazioni di I/O prevedibili (si veda al proposito l’intervento dedicato alle funzionalità di Quality-of-Service di DataCore). Questi controlli QoS permettono alle organizzazioni IT di gestire in modo efficiente le loro infrastrutture di storage condiviso. Le risorse di storage possono essere separate in modo logico, monitorate e regolate su base dipartimentale.
Il software-defined storage deve continuare a evolvere per rispondere a queste esigenze. E’ necessario creare servizi per i dati virtuali che offrano servizi di storage slegati dai dispositivi hardware e che siano in grado di regolare in modo più automatizzato le modalità con cui vengono sfruttate le risorse dell’infrastruttura

Previsioni (top 5) per il 2013 da DataCore

Le app di primo livello saranno sempre più virtuali e le prestazioni critiche
Gli sforzi per virtualizzare sempre di più il data center continueranno e vedremo una tendenza ancora più marcata a spostare le applicazioni di primo livello (ERP, database, sistemi di posta, OLTP e così via) su piattaforme di virtualizzazione. Le ragioni principali sono la convenienza economica e una maggiore produttività.
Gli ostacoli principali alla virtualizzazione delle app di primo livello sono però in gran parte legati allo storage.
Lo spostamento dei carichi di lavoro che fanno un uso intensivo dello storage su macchine virtuali (VM) può avere un enorme impatto su prestazioni e disponibilità. Lo storage deve essere di conseguenza sovradimensionato e reso disponibile in maggiore quantità. Inoltre, mano a mano che le aziende si consolidano sulle piattaforme virtuali si trovano a dover spendere di più per raggiungere elevati livelli di ridondanza, assicurando continuità operativa ed evitando fermi macchina, oltre a cercare di superare i colli di bottiglia che affliggono le prestazioni.
I costi elevati e le complessità causati dal sovradimensionamento annullano buona parte dei benefici. Per questo, le aziende e dipartimenti IT sono alla ricerca di un approccio più intelligente e più conveniente (per esempio software intelligente), rendendosi conto che la tradizionale tattica di “utilizzare più hardware per risolvere il problema” non è più praticabile.

Lo storage non è solo dischi fissi e le tecnologie flash SSD saranno usate ovunque
Un’altra grande tendenza legata alla virtualizzazione delle applicazioni di primo livello è il proliferare delle tecnologie SSD basate su memoria flash. La ragione è semplice: i dischi fissi sono dispositivi con meccanismi rotanti che non sono veloci come quelli basati su tecnologia di memoria elettronica ad alta velocità.
La memoria flash esiste da diversi anni, anche se fino a qualche tempo fa era troppo costosa per essere adottata in modo massiccio. Pur restando più cara della tecnologia utilizzata nei dischi fissi con supporto rotante, il suo utilizzo nei tablet e nei telefoni cellulari sta portando a un abbassamento dei prezzi. Tuttavia, la tecnologia flash è soggetta a deterioramento, e l’utilizzo di applicazioni che richiedono un numero elevato di cicli di scrittura può avere un impatto sulla sua durata nel tempo.
Nonostante ciò, i dispositivi flash sono una parte inevitabile del nostro futuro e devono essere integrati nella nostra filosofia architetturale. La convenienza economica ci sta già spingendo verso un mondo che richiede livelli diversi di storage basato su memorie veloci o su meno costosi, ma più lenti, dischi fissi. Questo, a sua volta, incrementa la richiesta di software di auto-tiering in grado di operare su tutta l’azienda per ottimizzare le prestazioni e raggiungere il migliore compromesso sui costi, posizionando e spostando i dati sul livello più conveniente che sia in grado di offrire prestazioni accettabili. Continue reading “Previsioni (top 5) per il 2013 da DataCore”