Il software-defined storage rivoluzionerà il settore dello storage: le 5 previsioni di George Teixeira

George Teixeira DataCore
George Teixeir, Presidente e CEO DataCore
Nel 2015 la filosofia del “software-defined everything” e del software-defined storage continuerà a evolvere, spinta dai vantaggi in termini di produttività che è in grado di offrire ai clienti. Il cambiamento avrà un impatto maggiore sui fornitori di sistemi per lo storage tradizionali, dato che il software-defined storage promette di rendere una commodity i sottostanti dispositivi per la memorizzazione dei dati. Il risultato sarà quello di portare le funzionalità e i servizi di storage a livelli ancora più elevati di produttività, invece di tenere le aziende bloccate su specifici sistemi. Le vere piattaforme di software-defined storage consentiranno a questi dispositivi di ‘fare di più con minori risorse’, incrementandone l’utilizzo e lavorando su piattaforme diverse a livello infrastrutturale. Alla fine, gli straordinari benefici economici, la migliore produttività e la necessità di una maggiore agilità nel rispondere a future esigenze spingeranno il software-defined storage fino a renderlo nel 2015 una soluzione di adozione comune.

#1: nel 2015 il software-defined storage conquisterà il mercato.

#2: nel 2015 i server diventeranno un elemento sempre più importante nella strategia di sostituzione delle batterie di storage tradizionali. I server saranno un alleato del software-defined storage, continuando ad alimentare la nuova categoria dei ‘server di storage’ e le SAN virtuali iper-convergenti. L’ultima generazione di server è potente e riuscirà a supportare quantità di storage sempre maggiori. Soluzioni di software-defined storage come il software Virtual SAN di DataCore sono state pensate per eliminare i problemi e la complessità tipici delle reti di storage tradizionali, proponendo al contempo un percorso di crescita. Il software Virtual SAN sta maturando rapidamente e questo spingerà ulteriormente la trasformazione dei server in potenti sistemi di storage capaci di guardare al futuro trasformandosi in vere e proprie SAN virtuali di livello enterprise (al proposito si veda l’intervento “Dell PowerEdge Servers Make Great Software-Defined Storage Solutions” pubblicato sul 4Enterprise Blog di Dell).

#3: nel 2015 dischi e flash “faranno squadra” e gli stack software copriranno entrambi i mondi. L’anno che si è da poco concluso ha visto continuare la tendenza a impiegare flash ovunque, con i dispositivi basati su questa tecnologia che si sono velocemente spostati dal semplice utilizzo nei server all’impiego a tutto campo. Inizialmente questo ha spinto molte nuove aziende a proporre storage di questo tipo, ma poi si è andati verso un elevato livello di consolidamento, come dimostrano l’acquisizione di Fusion-io da parte di SanDisk e la scomparsa di numerose startup. Con la flash che si è confermata come tecnologia chiave, ma che è sempre più diventata anch’essa una commodity, il mercato non è più in grado di sostenere tutte le aziende che si sono affacciate su questo mercato. Per questo assisteremo a un ulteriore consolidamento.

Il nuovo anno ci mostrerà poi come le tecnologie flash possano essere utilizzate in modo più pratico, migliorando la modalità con cui lavoreranno insieme alle esistenti tecnologie basate su disco. La flash è una soluzione eccellente per carichi di lavoro specifici che richiedono velocità di lettura elevate, come quelli dei database, ma non è conveniente per tutti i carichi di lavoro, e al momento costituisce solo una frazione molto piccola del parco di storage installato. Sul lato opposto sono posizionati gli economici dischi SATA, che continuano la loro avanzata e che utilizzano nuove tecnologie come quella basata sull’elio per supportare capienze sempre maggiori, fino a 10 TB per unità. Il loro limite rimane però la lentezza. Carichi di lavoro transazionali che ricorrono a frequenti operazioni di scrittura hanno poi esigenze ancora diverse (per saperne di più si veda l’intervento “A New Breakthrough Random Write Accelerator”, in cui si parla dell’impatto del sistema DataCore di accelerazione della scrittura su dischi e tecnologia flash). I produttori vorrebbero farci credere che i clienti sposteranno lo storage al 100% su flash, ma un cambiamento di questo genere non è sostenibile a livello di costi, soprattutto considerando l’ampiezza della base installata.

Nel 2015 avremo bisogno di software intelligente con uno stack di funzionalità in grado di ottimizzare i compromessi tra costi e prestazioni e di spostare i carichi di lavoro sulle risorse più adatte, siano esse dischi tradizionali o tecnologie flash. Un software-defined storage realizzato correttamente può aiutare a unificare il nuovo mondo flash con quello esistente e in continua evoluzione dei dischi. Entrambi hanno un futuro.

#4: nel 2015 le soluzioni di cloud ibrido e quelle di disaster recovery basato su cloud saranno sempre più pratiche da implementare. Le aziende stanno ancora cercando di immaginare il modo migliore per sfruttare il cloud computing. Sempre di più le grandi imprese si trovano a gestire sia storage installato localmente sia storage cloud remoto (cloud ibrido). Nel 2015 questo diventerà un tema sempre più importante, con i clienti che si fanno sempre più furbi nel capire quali carichi di lavoro possono essere gestiti nella cloud e quali no. Lo storage installato localmente viene solitamente sfruttato per gestire i dati “attivi”, come quelli dei database e quelli delle attività orientate alle transazioni. La cloud, invece, continua a essere tipicamente utilizzata per il backup, l’archiviazione e il disaster recovery e non per i carchi di lavoro in produzione, soprattutto a causa della velocità dei collegamenti Internet. Ora stanno però emergendo soluzioni come quella composta da DataCore e Microsoft StorSimple, che permette di spostare in modo trasparente i dati (residenti su qualunque sistema di storage) dai dispositivi locali a una cloud come Microsoft Azure. Questo alimenterà la tendenza più rilevante, che vede le imprese sempre più orientate verso soluzioni che mischiano soluzioni on-premise e nella cloud. In più, anche se le operazioni di disaster recovery dalla cloud rimangono complicate, sono in arrivo nuovi strumenti di integrazione e procedure più automatizzate che renderanno più pratiche queste soluzioni.

#5: nel 2015 la gestione delle risorse interne attraverso un modello cloud diventerà una tendenza sempre più rilevante. Le grandi imprese vogliono emulare la produttività che riescono a raggiungere i fornitori cloud. Per farlo, però, hanno bisogno di sposare un modello di Quality-of-Service (QoS) che comprenda una serie completa di servizi per i dati virtuali. Per esempio, con le sempre crescenti esigenze di storage, le imprese devono essere in grado di gestire, regolare e creare una separazione delle risorse capace di riflettere gli schemi di utilizzo dei diversi dipartimenti. Un esempio tipico è quello del settore finanziario, che ha bisogno di livelli di prestazioni diversi da quelli che bastano all’elaborazione di testi. Le impostazioni del Quality-of-Service sono indispensabili per garantire che i carichi di lavoro con priorità elevata che devono accedere alle risorse di storage possano rispettare i loro Service Level Agreements (SLA) con prestazioni di I/O prevedibili (si veda al proposito l’intervento dedicato alle funzionalità di Quality-of-Service di DataCore). Questi controlli QoS permettono alle organizzazioni IT di gestire in modo efficiente le loro infrastrutture di storage condiviso. Le risorse di storage possono essere separate in modo logico, monitorate e regolate su base dipartimentale.
Il software-defined storage deve continuare a evolvere per rispondere a queste esigenze. E’ necessario creare servizi per i dati virtuali che offrano servizi di storage slegati dai dispositivi hardware e che siano in grado di regolare in modo più automatizzato le modalità con cui vengono sfruttate le risorse dell’infrastruttura

Tutte le variabili da considerare quando si prende in esame lo storage

Daniel Mauerhofer, Head of Public Relations, EMEA & India, WD
Daniel Mauerhofer, Head of Public Relations, EMEA & India, WD
Per chi si trova a pensare allo storage per la propria casa o piccola realtà aziendale, la discussione del momento è la scelta tra l’opzione locale o quella cloud. In entrambi i casi le proposte da parte di numerosi vendor differenti non mancano, ma gli elementi davvero critici da considerare sono quelli relativi al funzionamento di queste soluzioni, sull’impatto che hanno sul resto dell’infrastruttura e su cosa comportano per chi fisicamente le deve utilizzare, in casa o in azienda.
Vista la crescente diffusione di dispositivi di network attached storage (NAS) in Europa, consideriamo questa opzione come storage locale. Qui, si ha la flessibilità di poter scegliere la capacità desiderata, il livello di prestazioni e di ridondanza necessarie, ed anche la possibilità di accedere remotamente ai dati tramite l’opzione personal cloud offerta da dispositivi NAS, come il WD My Cloud EX4.
Con un NAS, trasferire grandi quantità di dati al dispositivo sulla rete locale, o quando gli utenti sono in mobilità, è molto veloce: a questi dati si può poi accedere tramite app via mobile o desktop, grazie all’opzione personal cloud. In generale, i servizi di personal cloud offerti dai dispositivi NAS non hanno costi aggiuntivi e sono indipendenti dalla piattaforma, per cui è possibile accedere ai dati da laptop Windows o Mac, come da dispositivi portatili iOS, Android o Windows Phone. E, visto che il NAS tipicamente viene collocato a casa o in ufficio, c’è il valore aggiunto di non perdere mai il controllo dei propri dati.
Dato che la gran parte dei dispositivi NAS sono ottimizzati dal punto di vista energetico e ci sono dischi come i WD Red pensati appositamente per operare in modo efficiente 24/7, il consumo di energia mensile rimane tendenzialmente sotto controllo. E, poiché i data vengono archiviati localmente sul NAS, la connessione Internet non subirà una massiccia richiesta di upload/download, ad aggiungersi all’utilizzo esistente web ed e-mail.
A livello di costi, l’acquisto di un My Cloud EX4 e di quattro hard drive WD Red da 3TB comporta un costo iniziale, unico, inferiore ai 1.000 dollari. Utilizzando questo sistema in modalità RAID 10, con la possibilità di avere sia striping (per migliori prestazioni) che mirroring (ridondanza) dei dati, si ha la possibilità di accedere a 6TB di capacità utile. E c’è anche la flessibilità di poter accrescere la capacità del proprio storage all’occorrenza, semplicemente acquistando dischi di capienza superiore o aggiungendo un disco USB al NAS nel caso di necessità immediata.
Se invece si prende in considerazione il cloud, tipicamente si acquista una determinata quantità di spazio storage da un fornitore, e successivamente si caricano i propri contenuti in una repository centrale. Una volta fatto questo, sarà possibile accedere a questi dati da location e dispositivi differenti. E’ anche possibile espandere lo spazio a propria disposizione, anche se possono esserci restrizioni imposte dal provider, motivo per cui è buona norma dare un’occhiata a tutte le condizioni di servizio prima di firmare e, se possibile, scegliere un piano di pagamenti mensile e non annuale, per avere una flessibilità superiore.
In molti casi, ci sono offerte prefissate in base alla capacità (Google Drive offre 15GB, 100GB, 1TB, 10TB, 20TB e 30TB, ad esempio), ed il costo può incrementare in modo significativo man mano che si esplorano le capienze superiori. Ad esempio, Google Drive offre 1TB di storage per 9,99 dollari al mese, ma una capacità di 10TB costa 99,99 dollari al mese. Nel corso di un anno, affidarsi a Google Drive per uno storage di 10TB costerà circa 1.200 dollari – ed è da tener presente che si tratta di un costo ricorrente, nel corso di 3 anni il costo del solo storage sarà attorno ai 3.600 dollari.
Sull’impatto che il cloud storage ha sull’infrastruttura esistente, va fatta una considerazione: dato che lo storage si trova in remoto, è necessario caricare tutti i dati nel cloud da zero. Se questa è una classica attività di drag and drop, può essere molto dispendiosa in termini di tempo a seconda della velocità della connessione Internet disponibile. La gran parte delle connessioni domestiche e aziendali offrono velocità di upload decisamente inferiori rispetto a quelle di download, ed anche considerando una connessione con velocità di 10Mbit/sec in upload, quindi superiore alla media, trasferire un file da 100MB richiederà comunque almeno 40 secondi – più grande sarà il file, più lungo sarà il caricamento.
Va anche considerato che eventuali modifiche ai dati consistono essenzialmente in un’attività di download/upload e che, anche se questo processo può essere invisibile all’utente, andrà a consumare ulteriore ampiezza di banda sulla connessione Internet esistente, e questo potrebbe rallentare i servizi di navigazione ed e-mail. Per poter usare il cloud storage in modo ottimale, può essere necessario investire in una connessone Internet ad alta velocità e, a seconda del volume di dati con cui si lavora, può essere consigliabile anche la scelta di un servizio senza restrizioni sulle quantità di dati che si possono caricare o scaricare. E, visto che una continua attività di upload e download dei dati può mettere alla prova anche la più veloce connessione Internet, può essere necessaria la definizione ed implementazione di policy, secondo cui ad esempio i file di grandi dimensioni vengono caricati di notte o comunque fuori dall’orario lavorativo.
Considerando tutti i requisiti sopra indicati, ed a seconda del service provider con cui si lavora, mantenere una connessione ad alta velocità ed un servizio di cloud storage può rivelarsi una scelta estremamente costosa, anche nel breve periodo. Per questo motivo è consigliabile considerare sempre tutte le variabili e prestare la dovuta attenzione al costo totale di possesso, prima di scegliere la soluzione ideale per la propria casa o piccolo ufficio.

HybridDesk Station (HD Station) 2.0

QNAP annuncia l’aggiornamento della HybridDesk Station (HD Station) 2.0 con una nuova interfaccia utente stile “tablet”, maggiore sicurezza e nuove applicazioni come DeaDBeeF e Firefox. Con l’esclusiva tecnologia QvPC di QNAP, i Turbo NAS possono essere utilizzati come dei PC per utilizzare più applicazioni contemporaneamente sulla HD Station, collegando semplicemente il NAS ad un monitor via HDMI con tastiera e mouse USB.

La nuova interfaccia della HD Station 2.0 offre agli utenti una rapida panoramica delle applicazioni disponibili potendo così scegliere agevolmente quella di proprio interesse. Gli utenti possono inoltre personalizzare il desktop della HD Station grazie ai 4 sfondi inclusi. Per migliorare inoltre la sicurezza, gli amministratori di rete possono abilitare l’autenticazione degli utenti in modo che soltanto gli utenti autorizzati possano accedere ai dati contenuti nei Turbo NAS attraverso il monitor HDMI.

Sono state inoltre aggiunte ulteriori applicazioni alla HD Station 2.0 come DeaDBeeF, un lettore multimediale con supporto per la stragrande maggioranza dei formati disponibili sul mercato e che usa pochissime risorse di sistema ed include anche un equalizzatore.
Seguono a ruota Mozilla Firefox, browser che non ha bisogno di presentazioni, dotato ora di accelerazione hardware per una riproduzione più fluida dei video, il nuovo XBMC con il lettore multimediale in HD che si integra perfettamente con la gestione multimediale del sistema operativo QTS e Clementine, un lettore multimediale che supporta varie piattaforme di musica online.

Con la crescente domanda di applicazioni virtualizzate (cosiddetto “Software-defined everything”) negli ambienti IT odierni QNAP è stata la prima ad offrire l’esclusiva tecnologia QvPC che fonde diverse tecnologie tra cui l’integrazione di macchine virtuali (VM), transcodifica multimediale, uscita HDMI, integrazione cloud, interconnessione alla tecnologia NAS e molto altro. QvPC permette agli utenti di utilizzare un Turbo NAS come se fosse un PC collegato ad un monitor HDMI ed utilizzare la HD Station con più applicazioni su diversi desktop: QVM Desk, Defense Desk e Local Display Desk, rendendo così i Turbo NAS delle soluzioni NAS all-in-one con un ottimo rapporto prezzo/prestazioni.