L’adozione aziendale di storage AFA (All-Flash Array) è in forte crescita

Affinché la trasformazione digitale possa portare innovazione e agilità al business, la sua esecuzione deve poggiare su una contestuale e necessaria evoluzione dell’infrastruttura IT aziendale. L’enorme mole di dati da gestire e analizzare nell’era digitale impone, per esempio, un importante ripensamento dello storage, per evitare che esso diventi il collo di bottiglia dell’intera infrastruttura informativa, vanificando gli sforzi di trasformazione.

Per soddisfare le esigenze di incremento di velocità e di riduzione della latenza per processare terabyte o petabyte di dati (entro il 2025 verranno generati complessivamente dati per un volume di 180 zettabyte, evidenzia IDC), le aziende stanno sempre più rivolgendo la loro attenzione (e spesa) verso sistemi di storage con tecnologia flash, soprattutto le soluzioni AFA (All-Flash Array).

Inizialmente sviluppata per memorie volatili ad altissime prestazioni, la tecnologia flash è evoluta negli anni fino a diventare un dispositivo storage di primo livello in grado di offrire non solo bassissima latenza, ma anche efficienza nei costi, grande affidabilità e flessibilità, adattandosi quindi a contesti d’applicazione aziendali e soprattutto a workload di nuova generazione, caratterizzati da una grande variabilità nella richiesta di risorse.

Una recente indagine condotta da IDC a livello mondiale su un campione di oltre 700 aziende di medie e grandi dimensioni ha evidenziato come principali criteri per l’adozione di soluzioni AFA proprio l’alta affidabilità (56% dei rispondenti), le performance in termini di latenza, throughput e banda (40%), la scalabilità (31%) e la consistenza delle prestazioni, ovvero la capacità di adattarsi alla variabilità dei workload in termini di I/O (30%), quest’ultimo un fattore estremamente importante in termini di differenziazione dai tradizionali sistemi di storage a disco.

Alla luce di tutto ciò, IDC prevede che il mercato AFA crescerà con un tasso annuale composto (CAGR) del 24,9% al 2020, sfiorando in quell’anno i 9 miliardi di dollari di valore. Si tratta del tasso di crescita più alto tra le varie voci che compongono il mercato dello storage enterprise, sottolinea IDC. Globalmente, questo crescerà con un CAGR del 2,8%, subendo l’andamento negativo di sistemi

più tradizionali come gli storage array basati su HDD, che al 2020 faranno registrare un CAGR pari a -13,1%. IDC si aspetta che entro il 2020 oltre il 70% della spesa in storage primario sarà appannaggio dei sistemi AFA.

Lo storage flash gioca inoltre un ruolo molto importante anche per la diffusione in azienda delle soluzioni convergenti e iperconvergenti, in grado di concentrare in un unico sistema le tre componenti infrastrutturali di un data center (server, storage e networking), evitando il rischio di creare ulteriori silos e semplificandone la gestione. Per i sistemi iperconvergenti, IDC stima un CAGR al 2020 pari addirittura al 59,7%. Nell’ottica del percorso evolutivo delle infrastrutture IT aziendali, i sistemi convergenti e iperconvergenti facilitano la creazione e gestione di ambienti cloud rispondendo a esigenze di agilità, governance e controllo dei costi.

Il tema dell’evoluzione dell’infrastruttura IT e del ruolo dello storage flash e dei sistemi convergenti e iperconvergenti sarà trattato all’interno di un doppio evento organizzato da Dell EMC in collaborazione con IDC dal titolo “Accelera la trasformazione per migliorare il tuo business”.

Il doppio evento si terrà a Milano il 4 luglio e a Villafranca di Verona il 6 luglio e vedrà la partecipazione – come partner di Dell EMC – anche di Microsoft nella prima tappa e di Intel e VMware nella seconda tappa. Chairman del doppio evento sarà Sergio Patano, senior research and consulting manager di IDC Italia.

Con Big Data serve lo storage next-gen

Nel corso del 2016, i progetti aziendali relativi ai Big Data hanno alimentato la richiesta di architetture di storage più scalabili, agili e on-demand. IDC ha evidenziato nel corso dell’anno appena concluso un ricorso sempre maggiore da parte dei dipartimenti IT aziendali a tecnologie emergenti quali il software-defined storage, i sistemi flash e le infrastrutture cloud ibride.

Questo trend si inserisce nel quadro più generale della progressiva evoluzione dell’IT aziendale dettata dall’inevitabile processo di trasformazione digitale del business. Da un punto di vista prettamente tecnologico, le soluzioni applicative e infrastrutturali legate alla Terza Piattaforma stanno consentendo alle aziende di puntare a quell’obiettivo fondamentale di agilità richiesto per competere nella nuova data economy.

I Big Data stanno pertanto influenzando molte delle decisioni d’acquisto di tecnologia da parte delle aziende, in particolar modo quelle in ambito storage. Quando il dato viene creato, catturato o archiviato, deve essere analizzato o analizzabile entro il suo ciclo di vita. Per questo motivo la piattaforma di storage assume fondamentale importanza.

IDC evidenzia come a livello mondiale la spesa aziendale in storage per progetti Big Data sia destinata a crescere con un tasso annuale medio del 22,4% fino al 2020. In particolare, questa spesa andrà a superare i 20 miliardi di dollari nel 2020. In termini di capacità consegnata, tutto questo si tradurrà in un CAGR al 2020 pari quasi al 29%, fino a superare i 92 exabyte nel 2020.

Un approccio software-defined allo storage consente alle aziende di ridurre la complessità ed eliminare i silos degli ambienti di storage, rendendo l’intera infrastruttura più agile e quindi più veloce nel rispondere alle richieste del business. Più i data set diventano grandi, e più il software-defined diventa economicamente conveniente.

Incremento di velocità e riduzione della latenza sono poi raggiungibili con sistemi storage flash, che grazie alle elevate prestazioni e a un TCO sempre più accessibile vedono crescere la loro penetrazione all’interno dei data center aziendali rispetto ai sistemi tradizionali (HDD), soprattutto per quanto riguarda le applicazioni business critical.

In questo contesto evolutivo, con dati in forte crescita e risorse di storage che devono giostrarsi tra capacità e costi di archiviazione, diventa ancor più importante creare un ambiente che sia flessibile e scalabile. Con il cloud ibrido le aziende possono raggiungere tale obiettivo, facendo migrare i dati tra ambienti di cloud privato e pubblico, valorizzando l’infrastruttura esistente e cogliendo le potenzialità in termini di elasticità ed economicità delle offerte on-premise.

IBM in collaborazione con IDC organizza un evento durante il quale, con live-demo e casi studio, mostrerà come ciascuno di questi tre elementi risulti fondamentale per realizzare un’infrastruttura di storage business-ready, ponendo anche l’accento su un quarto aspetto, la sicurezza. Intitolato Navigare sicuri in un oceano di dati, l’evento si svolgerà a Milano il 23 marzo e guiderà i presenti in sala attraverso scenari di business reali che offriranno l’opportunità di valutare i vantaggi esponenziali di un’implementazione congiunta di tali soluzioni.

Storage aziendale, le qualità vincenti del SDS (software-defined storage)

Il software-defined storage (SDS) sta emergendo nel panorama delle architetture di storage come un abilitatore strategico per la trasformazione dei data center in chiave più flessibile, aperta ed economicamente più efficiente. Una recente indagine condotta da IDC a livello europeo rivela in effetti che un numero crescente di organizzazioni IT aziendali sta optando per soluzioni SDS per gestire volumi di dati (strutturati e non) sempre più grandi e soprattutto per supportare workload sempre più complessi, dinamici ed eterogenei.

Nel periodo 2015-2019, IDC stima un tasso medio annuale di crescita per il mercato mondiale SDS pari al 21% in valore e addirittura al 45% in capacità. Nel 2015, il giro d’affari del mercato mondiale è stato di 4,5 miliardi di dollari, con una capacità rilasciata di 5,6 EB.

Il software-defined storage fondamentalmente cambia il modo in cui le piattaforme di storage vengono create e rilasciate dai fornitori così come anche il modo in cui vengono acquistate e consumate dagli utenti. IDC definisce SDS un sistema (hardware più software) in grado di fornire un set completo di servizi di storage mediante uno stack software autonomo (commerciale od open source) che gira su (ma non è vincolato a) piattaforme hardware (storage server-based) costruite utilizzando componenti industry-standard.

Quali sono i vantaggi dell’SDS? Secondo IDC, in primis una semplificazione della gestione dello storage aziendale. Essendo tutte le principali funzionalità di storage fornite direttamente dallo stack software, ne deriva una maggiore efficienza in termini di gestione ed elaborazione dei dati. Inoltre, il fatto che questo stack software risulti disaccoppiato dall’hardware sottostante, sta portando sempre più aziende a preferire l’SDS per evitare i vincoli del vendor lock-in. Da sottolineare, a tal proposito, una tendenza sempre più marcata da parte delle aziende all’adozione di componenti software open source.

Il 34% delle aziende europee, rivela IDC, indica nella possibilità di scalare lo storage in maniera economicamente più efficiente il primo driver per l’adozione di architetture SDS. La roadmap di IDC prevede del resto che proprio l’evoluzione del data center verso il cloud ibrido sia realizzabile attraverso un approccio software-defined, che vada a disaccoppiare la componente fisica dalle sue capacità, considerandolo come un unico pool di risorse da cui attingere in base alle necessità del business e quindi in grado di assecondare l’altalenarsi dei carichi di lavoro.

Come l’SDS, e in particolare la sua versione open source, permette di realizzare ambienti operativi altamente scalabili nei modelli di delivery service-oriented quali il cloud ibrido sarà oggetto di un evento organizzato da Fujitsu, Intel e Red Hat in collaborazione con IDC il prossimo 1 febbraio a Roma.

Intitolato Define Your Strategy, Open Your Infrastructure, l’evento fornirà proprio l’occasione per trovare risposte a quesiti quali:
• Come ridurre il TCO degli ambienti storage attraverso un approccio software-defined?
• Open source e sicurezza, due facce della stessa medaglia?
• La digital transformation si fonda anche e soprattutto sull’open source. Quali opportunità?

All’evento parteciperanno gli analisti di IDC e gli esperti di Fujitsu, Intel e Red Hat, oltre a un’azienda in qualità di case study.

Hybrid Cloud: entro il 2020 verranno generati complessivamente dati per un volume superiore ai 44 zettabyte

Per restare competitive in un’economia sempre più digitale, le aziende sono oggi chiamate a prendere decisioni informate nel minor tempo possibile, praticamente istantaneamente. E’ infatti di estrema importanza per le imprese potersi adattare agilmente alle richieste di nuovi servizi e prodotti, così da alimentare continuamente il proprio business. E l’elemento essenziale per estrarre informazioni e conoscenza in poco tempo è il grande utilizzo di dati – strutturati e non.

Secondo le ultime previsioni di IDC, entro il 2020 verranno generati complessivamente dati per un volume superiore ai 44 zettabyte, di cui l’80% circa in formato non strutturato. A fronte di tale volume, la gestione, conservazione nonché analisi dei dati sarà oggetto di sensibili investimenti da parte delle aziende di tutto il mondo. Tecnologie big data, cognitive, storage e cloud giocheranno un ruolo di primo piano, diventando componenti essenziali per le infrastrutture IT della data-driven economy.

In questo contesto, IDC sta osservando uno spostamento delle aziende verso nuove architetture di storage e modelli di erogazione, in rottura con il passato e a favore di una maggiore agilità, flessibilità, scalabilità e facilità di gestione. Riconoscendo questo cambiamento, anche i principali fornitori di storage hanno avviato una trasformazione del proprio portafoglio d’offerta, mettendo al centro di tutto il concetto dell’hybrid cloud.

Oggi scale-out storage, software-defined storage e cloud-based storage sono i principali esempi di una moderna proposizione infrastrutturale di storage. Il cloud-based storage offre alle aziende un approccio “pay as you go” che piace molto ai CFO perché evita enormi investimenti tecnologici iniziali e che viene incontro alle esigenze dei CIO in termini di agilità, flessibilità e scalabilità. Sempre più aziende stanno integrando il public cloud storage nelle loro strategie di storage, e molte offerte di public cloud storage sono ora basate sulle nuove tecnologie object-based, in grado secondo IDC di bilanciare scalabilità, flessibilità, gestione e costi, non solo a livello hardware ma anche in termini di volumi di file e dati (specie non strutturati).

A testimoniare questa tendenza, il mercato dello storage object-based crescerà a un ritmo superiore a quello generale dell’enterprise storage, evidenzia IDC. A livello mondiale, la spesa in object-based storage farà segnare un CAGR 2014-2019 dell’11,6%, mentre l’enterprise storage si fermerà nello stesso periodo di tempo allo 0,4%. Nel 2018, prevede IDC, il mercato object-based storage sfiorerà i 20 miliardi di dollari in valore.

Hybrid cloud e object-based storage saranno alcuni dei temi trattati da IBM in collaborazione con IDC durante l’executive roundtable Make your storage clever and safe, che si terrà in doppia edizione a Milano e Roma il 4 e 6 ottobre 2016.

Speaker principale e chairman dell’evento sarà Sergio Patano, research & consulting manager di IDC Italia.
Patano, insieme a esperti di IBM, fotograferà durante le due tappe dell’evento il trend in atto nel settore e il suo impatto sull’evoluzione futura dei sistemi di storage delle aziende italiane.