Come gli snapshot consentono di migliorare il backup

I punti di vista su snapshot e backup sono diversi. Alcuni sostengono che gli snapshot non possano avere da soli il ruolo del backup, e abbiano bisogno di integrarsi con il backup per assicurare il ripristino. Molte aziende hanno capito di aver bisogno di snapshot per risolvere le sfide di backup e ripristino dei dati critici, ma senza dotarsi di uno strumento di integrazione degli snapshot all’interno del ciclo di vita dei dati, si finisce per creare nuovi problemi invece di risolverli. In realtà, gli snapshot possono davvero migliorare il backup.

Riservare i server di produzione alla produzione effettiva
Gli snapshot apportano numerosi benefici. Sono in grado di eliminare i carichi di backup dai sistemi di produzione. Si effettuano in pochi secondi, in modo che le applicazioni di produzione principali non debbano sopportare per ore carichi di lavoro significativi. Carichi che possono essere trasferiti su un server proxy separato, che esegue il backup per conto della produzione. È possibile consolidare i backup di più server di produzione attraverso lo stesso proxy per incrementare l’efficienza.

Anche l’offload del backup crea nuove sfide  
È più semplice dirlo che farlo. Utilizzare strumenti separati per snapshot e backup conduce a una possibile disconnessione nell’ambiente di backup che porta con sé gravi implicazioni per la gestione e il ripristino. Se i backup avvengono sul server proxy, lo strumento di backup è a conoscenza solo di quello che succede sul proxy. Il server proxy, e quindi il tool di backup, non sono al corrente di quanto fanno i server di produzione, che conservano file importanti, e nemmeno di database o applicazioni che potrebbero esservi in esecuzione.
Perché questo è importante? Bisogna tenere in considerazione queste differenze. L’ambiente di produzione cambia e cresce, ed è quindi necessario mantenere aggiornati snapshot e backup. Quando si devono ripristinare i dati, si presentano alcune sfide aggiuntive. In primo luogo, bisogna sapere esattamente quali file recuperare per ogni database. È necessaria inoltre la presenza di un amministratore di database che lo ripristini e lo riporti in un determinato punto nel tempo, perché non è possibile utilizzare la funzionalità acquistata nel tool di backup.
Inoltre, per essere certi di effettuare il restore dei file corretti nella posizione giusta, serve conoscere esattamente l’origine di provenienza dei dati, tenendo in considerazione che il tool di backup non ha informazioni sulla produzione. Il monitoraggio diventerà quindi fondamentale all’interno della strategia di ripristino.
È un processo molto rapido. Ogni database, disco, VM, file system, server, sistemi storage e proxy che viene aggiunto allo snap rende la lista più lunga e la ricerca più difficile. Inoltre, è importante ricordare che bisogna aggiornare il monitoraggio dei dati ogni volta che l’ambiente cambia. In caso di ripristino su larga scala, sbloccare tutte le relazioni per realizzare il ripristino potrebbe aggiungere ore al tempo di inattività generale.
Un altro elemento che spesso si considera solo all’ultimo momento è la visibilità, specialmente quando si parla di soluzioni scripted. Lo strumento di backup fornisce report e alert per avvisare quando la situazione non sta funzionando in modo adeguato, ma è altrettanto importante che avvisi quando tutto funziona correttamente. La soluzione di gestione degli snapshot deve fare lo stesso.
Si tratta di problematiche dovute al mancato collegamento tra gli strumenti, indipendentemente dalla buona qualità di snapshot e backup. E sono problematiche che vanno affrontate.

Uno strumento unico per gestire snapshot e backup
Quando lo strumento di backup gestisce anche gli snapshot, tutta questa complessità svanisce. Il tool registra tutte le informazioni proxy, gestisce gli elementi di integrazione – OS, hypervisor, database – per assicurare il ripristino e consentire di recuperare un database sotto forma di database, anche in uno specifico momento nel tempo, senza necessità di un amministratore di database. È possibile standardizzare un processo di recovery per snapshot e backup e ottenere la visibilità operativa necessaria senza duplicare report o dover apprendere nuove capacità.
È importante notare che anche se il tool di backup gestisce gli snapshot, potrebbe comunque avere problemi nel backup se la soluzione non supporta tutte le applicazioni o lo storage. Bisognerà utilizzare script e processi manuali per risolvere ogni gap, con tutti i problemi descritti in precedenza.

Lo scripting non è la risposta
Si tratta di una situazione che ho vissuto in prima persona. Quando lavoravo come ingegnere IT, avevamo un’applicazione che doveva effettuare backup coordinati e coerenti su una coppia di server. I dati erano troppi e troppo complessi per poter eseguire i backup in produzione e restare nei tempi previsti. Avremmo avuto bisogno di snapshot, ma a quei tempi non esistevano soluzioni di gestione degli snapshot per il nostro storage. Ho dovuto fare lo script.
La soluzione scripted lavorava molto come ho descritto. Il backup degli snapshot avveniva attraverso un server proxy, senza consapevolezza dei database SQL o dei server di origine. Il ripristino è sempre stato un grosso problema, perché oltre a controllare le relazioni per essere certi che stessero recuperando i dati, l’amministratore doveva ripristinare il database e i file su entrambi i server nello stesso momento nel tempo.
Abbiamo dovuto lavorare con questo processo per molti anni, ed è stato complicato. Dovevamo aggiornare spesso i file di configurazione quando il team applicativo aggiungeva dischi e in più occasioni qualcuno dimenticava un aggiornamento e interrompeva il backup. Senza considerare migrazioni di server e storage che richiedevano modifiche di configurazione ancora più grandi e fasi di test impegnative. Cambiando soluzioni di backup, abbiamo dovuto rielaborare completamente il processo.
A causa della complessità, abbiamo sempre utilizzato la soluzione solo su due di queste coppie di server, e anche se l’ambiente era contenuto nelle dimensioni, il tempo necessario per la manutenzione e la risoluzione dei problemi del processo era tanto. Onestamente, non ce ne saremmo nemmeno preoccupati se non avessimo potuto trovare le finestre di backup in altro modo.
Se avessi potuto realizzare questo processo con una soluzione performante, non avrei dovuto scrivere script, né gestire file di configurazione, né avere conoscenza SQL e componenti da monitorare. La reportistica e gli alert avrebbero incluso backup e snapshot. Il ripristino sarebbe stato semplice e le migrazioni storage sarebbe state virtualmente un non-evento.
In breve, gli snapshot sarebbero stati così integrati con il backup da non accorgersi neanche della loro presenza, oltre a non appesantire ulteriormente l’ambiente di produzione. E questo livello di integrazione rappresenta il modo in cui gli snapshot migliorano il backup. In questa era di singole soluzioni “abbastanza efficaci”, è facile trascurare i costi nascosti e le sfide che da essi derivano, fino al momento in cui non ci si trova ad affrontarli, di solito nella peggiore occasione possibile.

di Roy Child, product specialist di Commvault

Shared Accelerated Storage per ogni carico di lavoro: FlashArray//X di Pure Storage

Pure Storage ha esteso la linea di prodotto FlashArray in grado ora di supportare all-NVMe Shared Accelerated Storage per ogni carico di lavoro. La nuova famiglia FlashArray//X rende tutto più veloce, database, ambienti virtualizzati o container, iniziative test/dev e web-scale, senza costi aggiuntivi rispetto a FlashArray//M, in base alla capacità effettiva.

La nuova famiglia all-NVMe FlashArray//X comprende cinque configurazioni, da NVMe-ready //X10 per applicazioni di piccole dimensioni fino ad all-NVMe //X90, il FlashArray più denso e veloce di Pure. FlashArray//X rappresenta una nuova generazione di soluzioni Shared Accelerated Storage, una generazione basata su NVMe e NVMe-oF, in grado di unire SAN e DAS in un’unica architettura data-centrica, consolidata, condivisa e più efficiente.

Con una capacità effettiva fino a 3PB in sole 6U, il //X90 offre una bassa latenza fino a 250 µs e un miglioramento delle prestazioni che arriva ad essere 2 volte superiore rispetto all’AFA (All-Flash Array//M). Una versione aggiornata del born-for-flash Purity Operating Environment, versione 5.1 è disponibile come aggiornamento non disruptive per tutti i clienti FlashArray//M e FlashArray//X, e offre una data reduction migliorata fino al 20%, riducendo ulteriormente la quantità di storage che i clienti devono acquistare e gestire.

L’evoluzione verso architetture applicative che necessitano un’alta scalabilità ha portato a cambiamenti significativi nei requisiti relativi allo storage. Le aziende che oggi adottano un modello IT cloud si trovano spesso a dover gestire una miriade di tipologie di storage: SAN per applicazioni classiche e DAS per applicazioni di modern analytics e web-scale.

Un’architettura basata sulla centralità del dato (data-centric architecture) consente una maggiore flessibilità della componente di computing e abilita la connettività verso un pool di Shared Accelerated Storage rapido, affidabile e denso, tramite una rete veloce. Disaccoppia storage e calcolo, consentendo di scalare e innovare in modo indipendente, ma mantenendo prestazioni ed efficienza. Lo Shared Accelerated Storage rende l’intera infrastruttura notevolmente più veloce, consolida i carichi di lavoro e permette una condivisione dei dati flessibile e agile tra le applicazioni moderne; un design davvero ottimizzato per i dati.

FlashArray//X, come tutti i FlashArray precedenti, è basato sull’architettura Evergreen™ Storage, che garantisce la protezione degli investimenti dei clienti con aggiornamenti continui e senza interruzioni, nessun tempo di downtime e nessuna migrazione dei dati. Ciò significa che i clienti FlashArray esistenti possono eseguire l’aggiornamento senza interruzioni a FlashArray//X e sperimentare oggi lo Shared Accelerated Storage all-NVMe. Gli annunci odierni includono la famiglia ampliata FlashArray//X, una transizione flessibile e senza interruzioni a tutti i dispositivi NVMe flash e NVMe-oF e un software più intelligente ed efficiente.

La nuova famiglia FlashArray//X comprende:
• //X90: Il più denso, veloce array: capacità effettiva di 3 PB in 6U, fino a 2 volte più veloce del FlashArray//M e un costo minore array per GB.
• //X70 e //X50: 100% array NVMe in grado di scalare fino a 1.3 PB e 650TB rispettivamente di storage effettivo.
• //X20 e //X10: Array NVMe-ready entry-level per bisogni più limitati. L’impostazione predefinita è con SATA flash, ma sono forniti con controller che supportano i moduli DirectFlash NVMe.

Pure1 Management:
• Purity 5.1, l’ultima versione del nostro sistema operativo di storage completamente parallelizzato, presenta miglioramenti significativi nell’algoritmo di compressione, offrendo un miglioramento ulteriore fino al 20% nell’efficienza complessiva di riduzione dei dati, in particolare per i workload delle applicazioni che già beneficiano delle funzionalità di compressione e deduplica. Questo aggiornamento software senza interruzioni sarà disponibile per tutti i clienti FlashArray//M e FlashArray//X.
• La nuova funzione Pure1® VM Analytics consente di ottenere una visibilità completa sugli ambienti VMware vSphere. Grazie all’integrazione nativa con vCenter, eventuali criticità diprestazione possono essere facilmente visualizzati da VM → Server → Datastore → Network → Volume → Array.
• Il Pure1 Workload Planner è stato potenziato dal motore Meta AI, supporta i clienti ad ottimizzare i propri ambienti comprendendo meglio l’impatto delle modifiche del carico di lavoro e consente inoltre ai clienti FlashArray di esplorare facilmente gli scenari di aggiornamento dell’hardware.
• La Pure1 Global Dashboard è stata ampliata, consentendo la visibilità di tutti gli array FlashArray e FlashBlade™ a livello globale, disponibili sia sul portale SaaS Pure1 che sull’app Pure1 Mobile. La visibilità globale su salute, riduzione dei dati, avvisi e eventuali necessità di supporto è ora sempre a portata di mano.

L’infrastruttura completa, AI-Ready per tutte le aziende: AIRI Mini di Pure Storage

Pure Storage annuncia la seconda Infrastruttura AI-Ready, AIRI™ Mini, powered by NVIDIA. AIRI nasce dalla sinergia tra Pure Storage e NVIDIA, per consentire ai data architect, ai data scientist e ai business leader di estendere le capacità di NVIDIA DGX-1. Con AIRI Mini, le aziende di qualsiasi dimensione e budget possono implementare una soluzione semplice, e al contempo potente, per trarre un vantaggio competitivo attraverso l’uso dell’intelligenza artificiale, ad un prezzo accessibile per qualsiasi società in qualsiasi mercato.

L’Intelligenza Artificiale rappresenta un’opportunità per accelerare le operations, fornire una migliore esperienza all’utente e incrementare le performance attraverso iniziative data-centriche.

La soluzione è ingegnerizzata in maniera completamente integrata, lato software e hardware, da Pure Storage e NVIDIA. AIRI Mini fornisce un’architettura semplice e potente che offre un’infrastruttura data-centrica fondamentale per abbracciare tutte le potenzialità dell’AI.

AIRI Mini è basata su FlashBlade di Pure Storage, la prima piattaforma storage creata per l’AI e i modern analytics, configurati con 7x 17TB blade e su 2 server NVIDIA DGX-1, in grado di supportare fino a 2 petaFLOP di performance Deep Learning. Questi sistemi sono interconnessi con switch da 100GbE, che supportano GPUDirect RDMA per le migliori performance di training distribuite. AIRI è dotato inoltre di GPU Cloud Deep Learning Stack di NVIDIA e di AIRI Scaling Toolkit di Pure Storage, consentendo così ai data scientist di avviare iniziative nel campo dell’Intelligenza Artificiale non più in settimane o mesi, ma in ore.

Pure ha inoltre annunciato la disponibilità di AIRI e AIRI Mini con gli switch di Cisco Nexus9000 100Gb Ethernet. Le migliaia di clienti comuni di Pure Storage e Cisco trarranno vantaggio da queste nuove soluzioni per avviare nuove iniziative di AI.

AIRI e AIRI Mini sono le prime infrastrutture convergenti create per l’AI, in grado di consentire ai data architect e ai data scientist di fornire un time-to-insight scalabile. Ogni azienda genera e archivia un’enorme mole di dati e, ora più che mai, gli innovatori hanno bisogno di ottenere insight da queste informazioni, per rendere il loro business più efficace e competitivo.

UnternehmerTUM è uno dei più grandi centri di innovazione e imprenditorialità in Europa, che sostiene le start-up ed i rispettivi fondatori, dall’idea iniziale fino all’IPO. L’organizzazione no profit tedesca ha collaborato con alcuni dei principali attori del settore pubblico, dell’industria e della tecnologia per l’iniziativa appliedAI, supportata da Pure Storage FlashBlade e NVIDIA DGX-1.

Scott Strubel vice president of worldwide channels di Commvault

Commvault ha nominato Scott Strubel vice president of worldwide channels, con la responsabilità di guidare l’ecosistema globale di reseller e distributori dell’azienda. In questo ruolo, Strubel sarà impegnato nella creazione di programmi innovativi che aiutino i partner di canale a differenziare l’offerta di soluzioni Commvault sul mercato e a garantire valore ai loro clienti, supportando allo stesso tempo la crescita dell’azienda.



Grazie alla sua esperienza nella guida delle vendite e delle relazioni con i partner in aziende del mondo IT, Strubel è la persona più preparata per assumere questo ruolo. Di recente, è stato vice president of the Americas Partner Organization di NetApp, con la responsabilità delle vendite sul canale indiretto, delle attività con i partner e delle operazioni di inside sales e demand generation dell’organizzazione Americas Virtual Sales. In precedenza, ha creato e gestito il field operativo per il software di gestione enterprise di NetApp. Strubel ha ricoperto anche ruoli dirigenziali nelle vendite e nel canale in HP, partecipando al lancio di HP Software.
La nomina di Strubel segue gli ultimi recenti ingressi di Owen Taraniuk in qualità di Head of Worldwide Partnerships and Market Development e di Andy Vandeveld come Vice President Worldwide Alliances, parallele alle nuove e consolidate partnership con alcune aziende leader nel mondo cloud e tecnologico quali AWS, Microsoft, Hitachi, Ltd, HPE e Infinidat.

Gestione del dato nelle aziende italiane: Roadmap to Intelligent Enterprise

Le imprese si trovano oggi a competere non soltanto nei processi di trasformazione materiale di beni e servizi, ma anche nella capacità di impiegare il dato come fattore produttivo attraverso un proprio autonomo processo di trasformazione.



Per cogliere le nuove sfide dei mercati occorre una cultura aziendale che sia centrata sul dato: l’abilità di impiegare strumenti analitici avanzati, di visualizzare e interpretare relazioni implicite fra dati eterogenei, e di indirizzare tali competenze a un supporto immediato e costante dei processi decisionali richiede un balzo oltre i tradizionali paradigmi di analisi, introducendo nuove soluzioni, nuovi processi e nuove figure professionali. L’impresa che intende affrontare la sfida della trasformazione digitale deve necessariamente evolvere a una dimensione del tutto nuova.
I sistemi di business intelligence e business analytics esistono da decenni. Tuttavia, queste soluzioni non sempre hanno prodotto un reale supporto decisionale, limitandosi a rilasciare informazioni senza fornire indicazioni. E’ quindi necessario spostare la focalizzazione dai big data, dagli analytics o dal machine learning alle decisioni, così da sfruttare le informazioni per un vantaggio competitivo che non si esaurisca nell’immediato. Entro il 2021, prevede IDC, una grande impresa su quattro avrà creato un processo di interpretazione del dato basato su un’ampia articolazione di figure professionali specifiche e indipendenti, per sfruttare nel miglior modo possibile il fattore produttivo e decisionale del nuovo millennio, l’informazione.
Ma, allo stato attuale, come si posizionano le aziende, soprattutto in Italia, in questo percorso di gestione del dato come fattore competitivo? Una ricerca di IDC condotta su un campione di 172 imprese italiane di classe enterprise ha individuato quattro stadi di avanzamento.
Quasi la metà del campione (il 43%) si trova al primo stadio: aziende che devono ancora concludere la fase di razionalizzazione dei propri sistemi e della propria strategia digitale, e che dunque ancora non riescono a trarre un vantaggio competitivo concreto dai dati.
Al secondo stadio appartiene il 25% delle grandi aziende italiane: qui il dato viene considerato come uno strumento indispensabile per progredire nei processi di automazione industriale, ovvero rappresenta un valore soltanto se consente di automatizzare meglio i processi.
I due stadi più avanzati vedono presente solo un terzo delle grandi organizzazioni italiane. Nel terzo stadio risiede il 23% del campione analizzato da IDC: si tratta di imprese che impiegano i dati per consolidare un vantaggio immediato nei confronti dei concorrenti senza procedere necessariamente attraverso l’automazione, ma migliorando l’efficacia dei processi di pianificazione e controllo.
Infine, allo stadio più avanzato, ovvero il quarto, appartiene il 9% delle grandi aziende italiane: realtà che IDC colloca in una fase profonda di trasformazione, capaci di gestire i dati non solo per automatizzare i processi o migliorare la pianificazione e il controllo, ma per competere sul
terreno dell’innovazione a lungo termine.
Roadmap to Intelligent Enterprise: le nuove strategie per competere nell’economia della conoscenza è il titolo di un nuovo evento che MicroStrategy in collaborazione con IDC organizza a Milano il prossimo 30 maggio. Durante l’incontro, gli analisti di IDC e gli esperti di MicroStrategy
illustreranno le nuove tendenze nell’ambito degli analytics e condivideranno le loro esperienze su temi quali il data-driven decision making e l’intelligence process workflow, per spiegare alla platea di CIO e innovation manager cosa stiano concretamente facendo le grandi imprese in Italia e in Europa per affrontare la sfida della trasformazione in Intelligent Enterprise.