Cloud Replication ibrida sull’Azure Marketplace

La soluzione software DataCore Cloud Replication è ora disponibile sull’Azure Marketplace di Microsoft per supportare le attività di disaster recovery dei suoi clienti. Chi utilizza installazioni locali del Software-Defined Storage SANsymphony™ e di Hyper-converged Virtual SAN può utilizzare la cloud Microsoft Azure come sito di replica aggiuntiva per proteggere i sistemi a elevata disponibilità.

Per esempio, cluster “allargati” locali divisi tra due siti di un’area metropolitana possono essere replicati anche in una terza copia su Azure per evitare perdite di dati nel caso di un disastro regionale di grandi proporzioni. In questa configurazione di cloud ibrida, i dati critici vengono replicati continuamente in modo asincrono.

Inoltre, i clienti che dispongono di un mix di marchi e modelli di storage possono utilizzare il Software-Defined Storage di DataCore a livello locale per consolidare e unificare la replica dei dati presenti in tutti gli asset di storage sulla cloud Azure, invece di doversi confrontare con la complessità e il costo legati all’implementazione di soluzioni frammentate di altri vendor.

L’attuale rapida crescita dei dati, la diversità dei dispositivi di storage e la grande varietà di norme sulla conformità alle quali le organizzazioni devono attenersi richiedono che tutti i dati e le applicazioni essenziali siano disponibili su un sito remoto sempre accessibile ovunque ci si trovi, per garantire che l’operatività aziendale possa essere ripristinata in caso di evento o disastro imprevedibile. Le imprese stanno sempre più ricorrendo alla cloud per evitare le difficoltà di mettere in piedi e mantenere un sito remoto per questo unico scopo.

La disponibilità di DataCore Cloud Replication sul Marketplace Azure rende più semplice per le imprese trarre vantaggio della scalabilità, agilità e convenienza della cloud Azure per implementare velocemente un sito sicuro di replica remota, beneficiando al contempo di una gestione unificata dello storage tra l’infrastruttura locale e la cloud Azure.

Questa offerta offre la flessibilità di scegliere dove rispristinare i dati critici in caso di catastrofe. In alcuni casi è preferibile farlo nel sito locale originale, mentre in altri l’IT può decidere che è meglio far girare alcuni dei carichi di lavoro direttamente sulla cloud Azure.

State of Software-Defined Storage, Hyperconverged and Cloud Storage: la sesta indagine DataCore

DataCore ha annunciato i risultati della sua sesta indagine annuale, pensata per analizzare l’impatto delle grandi installazioni di storage guidato dal software realizzate nel mondo. Dal sondaggio emergono le aspettative positive, le delusioni e le esperienze di 426 professionisti IT che stanno utilizzando o valutando il software-defined storage e lo storage iper-convergente o cloud per vincere le sfide critiche nello storage dei dati. I risultati contengono sorprendenti intuizioni maturate in industrie dei più disparati settori e con una vasta gamma di carichi di lavoro.

L’indagine ha esaminato i livelli di spesa in tecnologia, compresi il software-defined storage, la tecnologia flash, lo storage iper-convergente, lo storage in cloud privata e lo storage OpenStack. Il software-defined storage si è posizionato al primo posto nella spesa 2017, con il 16% degli intervistati che ha affermato che rappresenta tra l’11 e il 25 per cento del budget allocato per lo storage e con il 13% che dichiara una quota superiore (il valore più elevato tra tutte le categorie prese in esame). Un po’ a sorpresa, i risultati mostrano che per tecnologie di cui molto si parla, come lo storage OpenStack, nel 2017 sono stati previsti fondi limitati, con il 70% degli intervistati che ha risposto “non applicabile”.

Il report rivela anche quali sono i motivi che portano all’implementazione del software-defined storage. I principali sono:
· per semplificare la gestione di modelli di storage diversi: 55%;
· per rendere l’infrastruttura a prova di futuro: 53%;
· per evitare gli obblighi imposti dai produttori di storage: 52%;
· per allungare la vita utile degli asset di storage esistenti: 47%.

Solo il 6% degli intervistati ha affermato di non prendere in considerazione il passaggio al software-defined storage.

A una delle domande più interessanti – “Quale delusione o falsa partenza avete riscontrato nella vostra infrastruttura di storage?” – le prime tre risposte sono state queste:
lo storage cloud non ha ridotto i costi: 31%;
la gestione dello storage a oggetti è difficile: 29%;
la flash non ha aumentato la velocità delle applicazioni: 16%.

Degno di nota è anche il fatto che i due principali ambienti nei quali gli intervistati ritengono di dover affrontare le sfide più difficili in termini di prestazioni sono i database e le applicazioni enterprise (ERP, CRM e così via). L’esigenza di database e analisi dei dati più veloci sta alla base delle tecnologie che ottimizzano le prestazioni e che sono in grado di dare risposte in tempo reale. Tutto questo è critico per raccogliere le indispensabili informazioni aziendali e per abilitare tecnologie come l’Internet of Thing. Per questo, molti ritengono che le attuali tecnologie progettate per accelerare le prestazioni e diminuire la latenza portino con sé anche significativi disservizi applicativi, maggiore complessità e costi più elevati.

Tra le altre evidenze emerse dalla sesta edizione dell’indagine annuale di DataCore ci sono:
Un’occhiata allo stato attuale dell’infrastruttura iper-convergente, compresi numeri più bassi del previsto in termini di installazioni. La maggioranza degli intervistati ha dichiarato di non considerare per nulla l’iper-convergenza (33%) o di averla presa seriamente in considerazione ma di non averla ancora adottata (34%); il 20% ha detto di averla implementata con pochi nodi; il 7% di essere in fase di adozione avanzata; e solo il 6% dichiara di averla scelta come standard.
Nonostante la tecnologia flash sia ormai ampiamente diffusa, solo un piccolo numero di intervistati sostiene di impiegarla per grandi capienze di storage. Circa il 60 per cento degli interpellati afferma di avere assegnato alla flash tra il 10% e il 20% della capienza totale.
Guardando alle applicazioni ritenute pronte per un’infrastruttura cloud ibrida, le principali tipologie di applicazioni che gli utenti desiderano spostare su un’infrastruttura cloud pubblica o ibrida sono quelle enterprise (per esempio SalesForce) per il 33%; quelle per le analisi dei dati per il 22%; e i database per il 21%.
Il report completo, che contiene altre informazioni su software-defined storage, storage iper-convergente, storage cloud e tecnologie correlate, è disponibile all’indirizzo http://info.datacore.com/sixth-annual-market-survey.

SANsymphony Software-Defined Storage e DataCore Hyper-converged Virtual SAN certificati VMware vSphere Metro Storage Cluster

DataCore ha annunciato che i suoi prodotti SANsymphony™ Software-Defined Storage e DataCore™ Hyper-converged Virtual SAN sono stati verificati come configurazioni compatibili con VMware vSphere Metro Storage Cluster. Una configurazione VMware vSphere Metro Storage Cluster (vMSC) è una soluzione certificata vSphere che unisce la replica con il clustering basato su batterie di storage. Queste configurazioni, definite comunemente come cluster di storage “allungati” o cluster di storage metropolitani, sono tipicamente adottate in ambienti dove evitare disaster recovery e downtime è requisito indispensabile.

La migliore strategia per garantire uptime senza interruzioni comincia con l’esecuzione del mirroring di copie identiche dei dati tra due luoghi diversi, idealmente a una certa distanza l’uno dall’altro. La semplice divisione in cluster dei server non è sufficiente a offrire adeguata protezione, in particolare se le batterie di storage condiviso su cui si basano sono vulnerabili in caso di problema che coinvolga l’intero sito. L’architettura vMSC permette ai sottosistemi di “allungare” lo storage e la rete fino a coprire due siti.

Una soluzione ancora migliore incorpora i cluster a elevata disponibilità di vSphere con i prodotti SANsymphony Software-Defined Storage o DataCore Hyper-converged Virtual SAN. SANsymphony è particolarmente adatto quando i server vSphere dipendono da una SAN esterna e i cluster vi accedono via iSCSI o Fibre Channel. Quando invece si sfrutta una configurazione iper-convergente mantenendo lo storage fisico all’interno dei server, DataCore Hyper-converged Virtual SAN è la soluzione ideale.

CeBIT 2017: DataCore mostra le innovazioni nel Software-defined Storage e le nuove appliance iper-convergenti

Al CeBIT 2017 (dal 20 al 24 marzo) DataCore Software ha per la prima volta realizzato un proprio stand per presentare i principali sviluppi dei suoi Hyper-converged Virtual SAN™, SANsymphony™ Software-Defined Storage e Parallel I/O Processing Software. La novità principale dell’evento di quest’anno è la cooperazione strategica tra DataCore e Lenovo, nata con l’obiettivo di semplificare e ampliare la diffusione sul mercato di queste tecnologie. Le due società hanno creato congiuntamente nuove soluzioni di Software-defined Storage che uniscono le rispettive offerte in appliance completamente integrate. Il tutto si è tradotto nella linea Lenovo Storage DX8200D Powered by DataCore™, presentata la scorsa settimana.

Questa appliance di Software-defined Storage (SDS) pronta all’uso sfrutta la robusta piattaforma server di Lenovo e il software SANsymphony™ di DataCore Software per la virtualizzazione avanzata dello storage e per l’ottimizzazione dell’I/O parallelo multi-core. Lenovo offrirà la DX8200D come appliance pre-integrata, promettendo così un’enorme semplificazione dell’installazione e la riduzione delle spese di gestione, mettendo a disposizione al contempo un unico punto di supporto. L’appliance SDS dotata dei servizi avanzati di Software-defined Storage di livello enterprise e di funzionalità di elaborazione parallela permette di implementare rapidamente nei data center una soluzione chiavi in mano in grado di sfruttare al meglio le batterie SAN esistenti. In più, può ottimizzare infrastrutture di storage eterogenee, permettendone la scalabilità in base alle esigenze e semplificando la sostituzione delle batterie di storage più vecchie. Attraverso l’interfaccia centralizzata DataCore, la DX8200D offre protezione, replica, deduplica e compressione dei dati, oltre a numerose altre funzionalità di storage enterprise a un prezzo molto più basso delle batterie SAN tradizionali.

In più, DataCore proporrà degli aggiornamenti all’interno dei nuovi Product Service Pack (PSP), ulteriori sviluppi del software di elaborazione parallela basati sull’esclusiva tecnologia Adaptive Parallel I/O di DataCore e un portfolio prodotti allargato con l’introduzione di nuovi nodi di storage “bulk”. Questo nuovo modello di licenze è stato specificamente pensato per una conveniente protezione e archiviazione a lungo termine dei dati utilizzati raramente e sarà disponibile tramite i partner di canale a una frazione dei costi software delle soluzioni per ambienti di produzione.

Per fissare un appuntamento con i rappresentanti DataCore presso il Padiglione 2, Stand A44, potete contattare Michael Baumann, KPR Global, mbaumann@kprglobal.com, M. + 49-151-58728448.

DataCore, la Data Infrastructure Software company, è l’azienda leader nel Software-Defined Storage e nel Software per l’I/O Parallelo Adattativo, in grado di sfruttare le potenti e convenienti piattaforme server moderne attraverso l’I/O parallelo per risolvere il più importante problema dello storage: i colli di bottiglia nelle fasi di I/O. In questo modo è possibile offrire prestazioni senza precedenti, efficienze nell’iper-consolidamento e risparmi sui costi. Le soluzioni complete e flessibili per la virtualizzazione dello storage e per la SAN virtuale iper-convergente liberano gli utenti dalle fatiche della gestione manuale dello storage offrendogli una vera indipendenza dai fornitori di soluzioni di storage, che non sono in grado di offrire un’architettura agnostica rispetto all’hardware. Le piattaforme di Software-Defined Storage e di I/O parallelo di DataCore rivoluzionano l’infrastruttura dati e si propongono come pietra angolare dei data center software-defined di nuova generazione, offrendo maggiori valore, prestazioni, disponibilità e semplicità.
www.datacore.com

Le previsioni 2017 di George Teixeira, DataCore

George Teixeira DataCore
George Teixeir, Presidente e CEO DataCore
Lo storage si è trasformato: è un’infrastruttura server + software-defined!

Siamo nel mezzo di un‘inevitabile e crescente tendenza in cui sono i server a definire che cos’è lo storage. Seguendo questo trend, DataCore ha utilizzato le tecnologie software per l’I/O parallelo per potenziare i server multi-core pre-configurati e arrivare ai sistemi di storage migliori del mondo in termini di prestazioni, bassa latenza e rapporto prezzo-prestazioni. I tradizionali sistemi di storage non sono più in grado di tenere il passo e sono in declino. Il risultato è che vengono sempre più sostituiti con server economici e soluzioni infrastrutturali software-defined, che possono sfruttare la loro potenza per risolvere il problema della crescente quantità di dati da memorizzare. La funzione di storage e i servizi dati a essa associati sono ora gestiti dal software e stanno diventando semplicemente un altro “carico di lavoro applicativo” che gira su queste convenienti piattaforme server. E questa ondata di sistemi di storage flessibili basati su server sta già facendo registrare nel settore un impatto devastante.

Commercializzati come sistemi SAN server, SAN virtuali, web-scale, scale-out o iper-convergenti, sono un insieme di server standard pre-configurati, schede flash e unità disco. È però il software che definisce veramente il loro valore. Lo storage è diventato un gioco di server. Il software di elaborazione parallela e la capacità di sfruttare la tecnologia multi-core dei server è il principale elemento capace di modificare le regole del gioco. Unito all’infrastruttura software-defined, porterà a una rivoluzione della produttività e confermerà ulteriormente i “server come il nuovo storage”. Per maggiori informazioni consultate il seguente report: http://wikibon.com/server-san-readies-for-enterprise-and-cloud-domination/

Che cosa c’è oltre la flash?

Ricordate quando la flash era considerata la grande novità? Ora è realtà. Quale sarà quindi il prossimo passo? Come faremo a essere più veloci e a fare di più con meno risorse? La risposta è ovvia: se la flash oggi è una realtà e le prestazioni e la produttività sono ancora un problema per molte applicazioni enterprise, specialmente quando si parla di database, allora bisogna parallelizzare l’elaborazione dell’I/O. Perché? Questa tecnica moltiplica ciò che può essere ottenuto facendo lavorare in parallelo molti motori di calcolo per gestire e rimuovere i colli di bottiglia e per innalzare i ritardi delle code nello stack, avvicinandoli alle applicazioni, evitando il più possibile la gestione dell’I/O a livello di dispositivo. Prestazioni e tempi di risposta vanno così ben oltre quello che è possibile ottenere con le sole ottimizzazioni a livello di dispositivo offerte da flash/SSD. La potenza di “molti” supera di gran lunga ciò che solo “uno” può fare: l’unione di flash e I/O parallelo consente agli utenti di far funzionare le applicazioni più velocemente, completare maggiori quantità di lavoro e aprire le applicazioni ad altre tipologie d‘impiego prima impossibili da concretizzare.