ScaleProtect e IntelliSnap offrono alle aziende data protection più estesa

Commvault ha annunciato che la propria tecnologia di snapshot IntelliSnap è stata testata e certificata per operare con i sistemi iperconvergenti Cisco HyperFlex, per proteggere workload applicativi, file system e macchine virtuali (VM), senza necessità di strumenti di terze parti, offrendo così ai clienti controllo, semplificazione e opzioni architetturali flessibili che consentano loro di raggiungere gli obiettivi di business, oggi e in futuro.

ScaleProtect™ with Cisco UCS® estende molte funzionalità della piattaforma Cisco HyperFlex con opzioni di backup and recovery. Forte del più esteso ecosistema di public cloud provider integrati, ScaleProtect with Cisco UCS sottolinea il ruolo di Cisco HyperFlex come piattaforma realmente multi-cloud. Grazie al suo collaudato support ad applicazioni enterprise come SAP HANA – per cui Commvault è certificata – ScaleProtect with Cisco UCS consente ai clienti di operare applicazioni mission-critical su Cisco HyperFlex con la tranquillità di avere sempre un backup disponibile dei dati e delle applicazioni. L’abbinamento tra ScaleProtect with Cisco UCS e Cisco HyperFlex crea una soluzione scale-out e software-defined in grado di offrire backup and recovery di livello enterprise per una protezione end-to-ednd del data center Intent-based.

I trend di storage per il 2019

In un’epoca in cui la quantità di dati sta subendo una vertiginosa crescita, Toshiba Electronics Europe GmbH fa il punto sulle soluzioni di archiviazione e traccia i trend per il 2019, focalizzandosi sull’importanza di progettare unità sempre più capienti e in grado di soddisfare le esigenze di utenti singoli e aziende.

Grazie al lavoro di ingegneri e programmatori, le soluzioni di archiviazione stanno diventando sempre più capienti ed efficienti, ma per quanto le nuove tecnologie permettano di vincere sempre nuove sfide di progettazione, si deve sempre far fronte all’aumento di dati generati dagli utenti e dalle macchine. Inoltre, bisogna considerare il fatto che questa massa di dati viene, a sua volta, sottoposta a backup nei data center e in cloud e tutto ciò non fa altro che moltiplicare lo spazio di memoria necessario all’archiviazione. Anche le auto, sempre più smart o addirittura a guida autonoma comportano nuovi dati da archiviare, così come gli oggetti connessi e le fabbriche 4.0.

“La domanda che bisogna porsi è se sia sufficiente creare ulteriore spazio per le esigenze del prossimo decennio o se si dovrà contemplare un approccio più analitico nell’archiviazione al fine di determinare a monte quali siano i dati veramente importanti da conservare”, ha commentato Rainer W. Kaese, Senior Manager Business Development Storage Products di Toshiba Electronics Europe.

HDD vs SSD in un mondo di dati in aumento

La quantità di dati che gli utenti immagazzinano continua a crescere senza sosta e più velocemente del previsto. Ci si aspettava che, aumentando la percentuale di dati memorizzati su flash e SSD, si sarebbe verificata una diminuzione della quantità di dati memorizzati su hard disk e nastri magnetici. Eppure, oggi, tutte e tre le tecnologie continuano a crescere data la quantità di materiale da memorizzare. Nel 2019 si può presumere che il 90% della capacità, per applicazioni tipiche di cloud computing, sarà realizzata con hard disk e in alcune eventualità con nastro magnetico e che solo il 10% verrà implementato con SSD. Però, dal momento che gli SSD Enterprise costano fino a dieci volte di più degli HDD per unità di capacità, l’investimento finanziario sarà bilanciato con circa il 50% speso per gli HDD e lo stesso investito in SSD. Questi sistemi di storage coprono l’intera gamma di applicazioni, dalle appliance “all-flash”, ai modelli ibridi con flash per cache o dati a cui si accede più frequentemente (“hot data”) e HDD per dati meno utilizzati, fino ai server di archiviazione basati solo su hard disk.

HDD all’elio per offrire 20TB di storage

I principali produttori di storage stanno commercializzando modelli di HDD riempiti con elio e capacità di 16TB. Nei prossimi anni si prevede un aumento della capacità di circa 2TB all’anno, il che significa che entro l’inizio del prossimo decennio dovrebbero essere disponibili HDD da 20TB. È probabile che queste unità vengano ottimizzate per offrire un’elevata capacità ad un prezzo inferiore, ma non sono previsti miglioramenti di rilievo per altri parametri tecnici. Fa però eccezione il consumo di energia, ridotto grazie all’uso dell’elio negli HDD. Mentre gli HDD da 3.5″, con velocità di rotazione 7200rpm riempiti ad aria consumavano, sotto carico, 11W di potenza in maniera relativamente costante e indipendentemente dalla capacità, il consumo energetico degli HDD riempiti ad elio si aggira intorno ai 6-7W. Questo è possibile grazie al minor attrito che offre l’elio; un gas più leggero dell’aria. Pertanto, l’introduzione di hard disk ad elio sta contribuendo a far fronte alla sfida della riduzione del consumo di energia nei data center. Ogni Watt di potenza risparmiato comporta meno energia richiesta da un data center e meno calore dissipato, rendendo così più economico anche il raffreddamento. La riduzione della temperatura garantisce alle soluzioni riempite ad elio una maggiore affidabilità rispetto a quelle ad aria, anche se utilizzate a funzionamento continuo, tutto ciò si traduce in un minor numero di malfunzionamenti e una maggiore durata del prodotto. Inoltre, sono in corso studi per aumentare ulteriormente la densità di archiviazione, con tecnologie come la registrazione magnetica assistita da microonde (MAMR) da integrare nelle testine di scrittura del disco rigido.

Intelligenza Artificiale, Deep Learning e Blockchain

Le nuove applicazioni dei PC, come l’Intelligenza Artificiale (AI), il Deep Learning e la Blockchain hanno aumentato in maniera evidente le esigenze di prestazioni di elaborazione. Si prevede che queste tecnologie possano generare molti più dati e richiedano l’accesso a soluzioni di archiviazione, ma al momento non è chiaro, con precisione, quale impatto avranno sui requisiti di archiviazione, poiché non si sa ancora abbastanza sulle applicazioni e su come verranno implementate. Certo è che queste tecnologie aumenteranno ancora di più la quantità di dati da memorizzare.

Certificazione Docker per NetBackup

Veritas Technologies annuncia che NetBackup 8.1.2 ha ricevuto la certificazione per la protezione dei carichi di lavoro basati su container Docker. I clienti di Veritas saranno in grado di proteggere i propri dati containerizzati e altri workload tradizionali o moderni come SAP Hana, Hadoop o MongoDB, in ambienti multi-cloud, virtuali e fisici.

La “containerizzazione” dei moderni carichi di lavoro sta diventando la norma per le organizzazioni di tutto il mondo, come modo efficiente per sviluppare e implementare le applicazioni. Gartner prevede che “entro il 2020, oltre il 50% delle organizzazioni globali avrà in produzione applicazioni containerizzate, ad oggi meno del 20%”. Questa rapida implementazione sta portando a interrogativi sull’integrità dei dati, in quanto un numero crescente di nuove applicazioni containerizzate sono progettate per creare e modificare i dati permanenti. Questa evoluzione sottolinea la necessità di processi di backup e recovery maturi che proteggano i dati e le applicazioni containerizzati ovunque essi risiedano.

Nelle architetture applicative basate su container, alcuni container sono progettati per creare o modificare dati permanenti. In questo caso, la protezione dei dati sarebbe critica, ma consente anche altri scenari in cui i dati possono essere esclusi in modo sicuro dai processi di backup.

Come soluzione certificata di backup e il recovery di container Docker, Veritas offre tre diversi modi per proteggere i container con NetBackup, per consentire la massima flessibilità. Veritas ha sviluppato un client NetBackup containerizzato che può essere implementato come container e utilizzato per proteggere i dati persistenti delle applicazioni in questo ambiente dinamico. La certificazione della piattaforma Docker Enterprise garantisce una facile implementazione per il cliente attraverso un supporto cooperativo di Docker e di Veritas per gli ambienti di produzione.

I clienti di Veritas possono anche proteggere il proprio ambiente fisico e le moderne implementazioni in ambiente virtuale e multi-cloud, con prestazioni scalabili tipiche degli ambienti enterprise, dato che l’ultimo NetBackup 8.1.2 supporta Docker e altri carichi di lavoro di nuova generazione come Hadoop, Nutanix, MySQL, PostgreSQL, MariaDB, SQLite, HBase e MongoDB.

Le operazioni di backup e restore in queste architetture complesse ed eterogenee vengono gestite attraverso un’interfaccia utente molto più semplice e intuitiva che consente ai dipendenti autorizzati di proteggere e monitorare facilmente i propri dati e le proprie applicazioni, ovunque essi risiedano.

Intelligent Storage nel portafoglio HPE

Hewlett Packard Enterprise (HPE) ha annunciato ulteriori innovazioni nelle proprie soluzioni storage intelligenti per aiutare i clienti a concretizzare le potenzialità dei dati, trasformare insight pratici in nuovi flussi di ricavi e ottenere un impatto positivo sulle aziende. HPE ha introdotto:
·      Innovazioni nella propria piattaforma AIOps (Artificial Intelligence for Operations), HPE InfoSight;
·      L’espansione di HPE Cloud Volumes, un servizio storage multicloud, a Regno Unito e Irlanda;
·      HPE Memory-Driven Flash, una nuova classe di storage enterprise realizzata con tecnologie Storage Class Memory (SCM) e Non-Volatile Memory express (NVMe);
·      Il rafforzamento della partnership con Cohesity sui workload secondari per aiutare i clienti ad accelerare il percorso verso il cloud ibrido.

Per migliorare l’impatto di business, le aziende hanno bisogno di infrastrutture semplici da gestire così da potersi concentrare sul modo migliore per ricavare il massimo dai propri dati. I clienti esigono una mobilità trasparente dei dati tra ambienti on-premises e cloud allo scopo di velocizzare i cicli di sviluppo e proteggere i dati stessi. Infine, hanno bisogno di un’esperienza storage allineata alle proprie necessità economiche per mezzo di modelli a consumo e flessibilità dal punto di vista finanziario. HPE permette ai clienti di mettere a frutto i loro dati e trasformare le aziende attraverso soluzioni storage intelligenti che si adattano e si auto-ottimizzano in tempo reale, che spostano trasparentemente i dati dove occorre, e che ottimizzano i dati secondo il modello economico appropriato.

HPE InfoSight ricorre all’intelligenza artificiale per eliminare l’onere di gestire l’infrastruttura prevedendo e prevenendo i problemi oltre a fornire una base per gestire i dati secondo il relativo contesto. HPE InfoSight può ridurre i costi operativi fin del 79% facendo in modo che l’infrastruttura si gestisca da sola e che l’IT si ottimizzi autonomamente.

HPE InfoSight si espande oggi in direzione della gestione dei workload aggiungendo le seguenti funzionalità di intelligenza basate su machine learning per ridurre i rischi e il lavoro manuale nella pianificazione di nuovi workloads:
·      Le raccomandazioni cross-stack per HPE Nimble Storage estendono il motore di raccomandazioni di HPE InfoSight anche al layer di virtualizzazione. HPE InfoSight va ora oltre i tool analitici predittivi elementari offerti da altri vendor per fornire invece indicazioni basate su AI attraverso tutto lo stack infrastrutturale allo scopo di ottimizzare al meglio gli ambienti dei clienti e la collocazione dei loro dati.
·      Un planner di risorse basato su AI che aiuta a ottimizzare l’assegnazione dei workload sulle risorse disponibili eliminando incertezze e rischi di problemi durante il deployment di nuovi workload.
·      Performance insights di HPE 3PAR riduce il tempo trascorso a risolvere problemi avvalendosi del machine learning per autodiagnosticare i colli di bottiglia prestazionali. Questa funzionalità, prevista in fornitura on-premises, estende HPE InfoSight anche ai siti privi di accesso al cloud.

Con un numero crescente di applicazioni che vengono sviluppate per il cloud, le aziende hanno bisogno di spostare i dati in modo ottimale attraverso i loro ambienti cloud ibridi. HPE Cloud Volumes, attualmente disponibile per HPE Nimble Storage, mette a disposizione un servizio storage di livello enterprise con mobilità ibrida e multi-cloud. HPE Cloud Volumes espande oggi le proprie capacità di servizio e la presenza globale con:
·      L’espansione nel Regno Unito e in Irlanda nel 2019, per servire i clienti britannici ed europei che hanno bisogno di accesso ai dati su cloud locale.
·      Supporto delle principali piattaforme container come Docker e Kubernetes per velocizzare le attività DevOps nonché i test e lo sviluppo di app native su cloud e workload per cloud ibridi.
·      Completamento della certificazione SoC 2 Type 1 per i clienti con severi controlli di compliance e conformità HIPAA per i clienti del settore sanitario.

HPE Memory-Driven Flash è una nuova classe di storage che si avvale delle tecnologie SCM e NVMe per accelerare le performance applicative di HPE 3PAR e HPE Nimble Storage. HPE Memory-Driven Flash riduce la latenza fino a due volte tanto ed è fino al 50% più veloce degli array all-flash con unità SSD NVMe. L’intelligenza implementata all’interno di HPE 3PAR e HPE Nimble Storage ottimizza la tecnologia SCM per consentire l’elaborazione in tempo reale dei workload misti e delle applicazioni sensibili alla latenza – come AI e machine learning o le transazioni ad alta velocità – su vasta scala. HPE 3PAR è la prima piattaforma storage enterprise disponibile con SCM e NVMe. HPE Memory-Driven Flash segna un passaggio architetturale verso le architetture memory-driven che contraddistingueranno la prossima generazione di innovazioni.

HPE Memory-Driven Flash sarà disponibile da dicembre 2018 per HPE 3PAR sotto forma di semplice aggiornamento trasparente, ed è previsto nel 2019 per HPE Nimble Storage.

Lo storage più intelligente del mondo si compone di un portafoglio di prodotti storage ottimizzati in base al workflow che agiscono da destinazione ultima per ogni tipologia di dato. I nuovi prodotti e le nuove funzionalità riguardano:
·      Peer Persistence per HPE Nimble Storage, che fornisce in modo semplice alle aziende la disponibilità always-on attraverso la replica sincrona multi-sito con failover automatico. La funzione è disponibile gratuitamente su HPE Nimble Storage.
·      Il rafforzamento della partnership con Cohesity combina l’efficienza e la scalabilità su scala web del software Cohesity con le infrastrutture e i servizi HPE per big data e infrastrutture storage. Il nuovo accordo di rivendita, che ha ora qualificato i server HPE Apollo e HPE DL 380, permette ai clienti di consolidare i backup e i dati secondari su cloud ibrido.
·      La disponibilità della piattaforma HPE Apollo 4200 Gen10, particolarmente adatta per l’analisi di big data, il software-defined storage di tipo scale-out e altri workload imperniati sullo storage.

HPE gestisce attualmente per conto dei propri clienti 500 PB di dati sotto forma di servizio con HPE GreenLake Flex Capacity fornendo ai clienti scalabilità e semplificazione delle operazioni IT secondo un modello pay-per-use on-premises. HPE ha esteso ora HPE GreenLake per il backup includendo Veeam Software nell’ambito del modello a consumo, semplificando ulteriormente l’aspetto economico della protezione dei dati.