Pure Service Orchestrator: lo Storage-as-a-Service basato su Container

Pure Storage annuncia la disponibilità di Pure Service Orchestrator, che fornisce Storage-as-a-Service basato su Container agli sviluppatori e operatori IT, supportandoli nell’implementazione di applicazioni di microservizi basate su container. Pure Service Orchestrator offre ai clienti uno storage autonomo e senza complicazioni in grado di gestire un’architettura data centrica con un’agilità simile a quella del cloud pubblico, supportata da velocità all-flash e affidabilità di livello Enterprise.

Con Pure Service Orchestrator, le aziende possono utilizzare ambienti container dinamici impiegando lo storage-as-a-service per applicazioni persistenti e containerizzate su infrastrutture di Shared Accelerated Storage. Ciò consente ai clienti di promuovere l’innovazione, e un time-to-market più rapido.

Pure Service Orchestrator consente un’integrazione con Docker, Kubernetes e non solo, per fornire un supporto storage persistente per gli ambienti containerizzati attraverso il plug-in di volume Docker e Kubernetes FlexDriver. Inoltre, Pure Service Orchestrator vanta un approccio di provisioning dello storage scalabile, intelligente ed automatizzato al fine di fornire un’esperienza del tutto simile al cloud, a cui gli sviluppatori sono abituati.

Si adatta elasticamente a più sistemi di storage e supporta ambienti containerizzati altamente fluidi che possono espandersi rapidamente a migliaia di contenitori.

Pure Service Orchestrator risolve questo problema, scala elasticamente lo storage su FlashArray, FlashBlade™ o su un mix di entrambi i sistemi, supporta file e blocchi e offre la flessibilità necessaria per avere configurazioni diverse per ogni sistema di storage che fa parte del servizio. Grazie alla facilità di espansione tramite un singolo comando, i clienti possono iniziare con uno storage di piccole dimensioni e scalarlo rapidamente, e senza soluzione di continuità, man mano che crescono le esigenze dei loro ambienti containerizzati.

Pure Service Orchestrator funziona come una torre di controllo della virtualizzazione che consente agli ambienti containerizzati di passare dal consumo di storage-as-a-device a quello di storage-as-a-service.

I benefici includono:
· Provisioning intelligente: fornisce lo storage ai container on-demand in base a criteri di policy e prende decisioni ottimali per il provisioning valutando le prestazioni, la capacità e lo stato di salute dei sistemi di storage. A differenza di altre soluzioni, che richiedono parametri di configurazione complessi, la distribuzione dello storage ai containers con Pure Service Orchestrator è impeccabile. I clienti possono limitarsi semplicemente a specificare la dimensione della capacità desiderata.
· Scalabilità elastica: scalabilità su più sistemi con un mix di file e blocchi in un unico servizio. I clienti possono ora sostenere fino a decine di migliaia di applicazioni che coprono l’intero parco di FlashArray e FlashBlade array. L’aggiunta di nuovi array di storage all’infrastruttura di shared storage esistente è semplice. Grazie alla facilità di espansione, tramite un singolo comando, i clienti possono iniziare con uno storage di piccole dimensioni e scalarlo rapidamente, e senza soluzione di continuità, man mano che crescono le esigenze dei loro ambienti containerizzati.
· Recovery trasparente: Auto-riparazione per supportare servizi affidabili. La ri-provisioning automatica aiuta a proteggere i clienti da problemi quali guasti ai nodi e limiti delle prestazioni dell’array.

Matthieu Brignone Head of EMEA Channel and Alliances e il Partner Program di Pure Storage

Pure Storage ha annunciato la nomina di Matthieu Brignone a Head of EMEA Channel and Alliances. Matthieu sarà responsabile della promozione vendite, dell’accelerazione della crescita e dell’aumento della redditività per i partner. Prima di Pure Storage Matthieu era in Commvault, mentre in precedenza, è stato Direttore Vendite Canali EMEA e Country Manager Francia presso HP ESP (Enterprise Security Products) ed ha ricoperto ruoli di vendita e gestione in Quest Software, WASATIS, Cisco, Trend Micro e Novell.

Pure Storage presenta il nuovo Partner Program. Il programma si è evoluto per tenere il passo con la significativa crescita dell’azienda: offre pertanto ai partner nuovi strumenti di formazione, certificazione, supporto e incentivi. Presentato al Global Partner Forum durante la conferenza Pure//Accelerate 2018, il programma, con tutti i suoi vantaggi, entrerà in vigore a partire dal 1° agosto 2018.

Il modello di business di Pure Storage è sempre stato incentrato al 100% sul canale. A testimonianza di questo impegno, l’azienda ha effettuato investimenti strategici negli strumenti e nelle risorse necessari a realizzare un programma che risulti attrattivo e di effettivo supporto per i partner. Sono previsti premi per i partner più attivi e che meglio affiancano Pure nella strategia di mercato. Di seguito, le principali novità del programma:
· Nuovi livelli: il nuovo programma prevede due livelli e consente ai partner di qualsiasi dimensione di raggiungere quello successivo. A partire dall’entry level Preferred, è possibile raggiungere il livello superiore Elite. Accessibile esclusivamente su invito, quest’ultimo è riservato ai partner che generano e concludono iniziative di successo grazie alle proprie competenze di business, di vendita, tecniche, di marketing e, in generale, allo sviluppo di nuovi servizi. I partner Elite devono soddisfare inoltre un numero minimo di clienti raggiunti. La notifica del loro status verrà inviata ai partner ad agosto 2018 e le valutazioni avranno ricorrenza annuale.
· Empowerment: un aspetto importante del nuovo programma riguarda la standardizzazione degli sconti e del listino prezzi applicabili dai partner, il che consentirà loro di muoversi in autonomia con i clienti. Verranno inoltre messi a loro disposizione strumenti avanzati per la formulazione di proposte e quotazioni per le soluzioni Pure Storage.
· Training: Pure Storage offrirà una maggiore specializzazione tecnica a tutti i partner, a completamento dei programmi di training già disponibili. A San Francisco hanno debuttato inoltre il cosiddetto “Pure Storage Foundation Exam” e l’esame per diventare FlashArray Architect. Il programma di formazione sarà ulteriormente aggiornato ed ampliato nel corso dell’anno.

Come gli snapshot consentono di migliorare il backup

Roy Child, product specialist di Commvault

I punti di vista su snapshot e backup sono diversi. Alcuni sostengono che gli snapshot non possano avere da soli il ruolo del backup, e abbiano bisogno di integrarsi con il backup per assicurare il ripristino. Molte aziende hanno capito di aver bisogno di snapshot per risolvere le sfide di backup e ripristino dei dati critici, ma senza dotarsi di uno strumento di integrazione degli snapshot all’interno del ciclo di vita dei dati, si finisce per creare nuovi problemi invece di risolverli. In realtà, gli snapshot possono davvero migliorare il backup.

Riservare i server di produzione alla produzione effettiva
Gli snapshot apportano numerosi benefici. Sono in grado di eliminare i carichi di backup dai sistemi di produzione. Si effettuano in pochi secondi, in modo che le applicazioni di produzione principali non debbano sopportare per ore carichi di lavoro significativi. Carichi che possono essere trasferiti su un server proxy separato, che esegue il backup per conto della produzione. È possibile consolidare i backup di più server di produzione attraverso lo stesso proxy per incrementare l’efficienza.

Anche l’offload del backup crea nuove sfide  
È più semplice dirlo che farlo. Utilizzare strumenti separati per snapshot e backup conduce a una possibile disconnessione nell’ambiente di backup che porta con sé gravi implicazioni per la gestione e il ripristino. Se i backup avvengono sul server proxy, lo strumento di backup è a conoscenza solo di quello che succede sul proxy. Il server proxy, e quindi il tool di backup, non sono al corrente di quanto fanno i server di produzione, che conservano file importanti, e nemmeno di database o applicazioni che potrebbero esservi in esecuzione.
Perché questo è importante? Bisogna tenere in considerazione queste differenze. L’ambiente di produzione cambia e cresce, ed è quindi necessario mantenere aggiornati snapshot e backup. Quando si devono ripristinare i dati, si presentano alcune sfide aggiuntive. In primo luogo, bisogna sapere esattamente quali file recuperare per ogni database. È necessaria inoltre la presenza di un amministratore di database che lo ripristini e lo riporti in un determinato punto nel tempo, perché non è possibile utilizzare la funzionalità acquistata nel tool di backup.
Inoltre, per essere certi di effettuare il restore dei file corretti nella posizione giusta, serve conoscere esattamente l’origine di provenienza dei dati, tenendo in considerazione che il tool di backup non ha informazioni sulla produzione. Il monitoraggio diventerà quindi fondamentale all’interno della strategia di ripristino.
È un processo molto rapido. Ogni database, disco, VM, file system, server, sistemi storage e proxy che viene aggiunto allo snap rende la lista più lunga e la ricerca più difficile. Inoltre, è importante ricordare che bisogna aggiornare il monitoraggio dei dati ogni volta che l’ambiente cambia. In caso di ripristino su larga scala, sbloccare tutte le relazioni per realizzare il ripristino potrebbe aggiungere ore al tempo di inattività generale.
Un altro elemento che spesso si considera solo all’ultimo momento è la visibilità, specialmente quando si parla di soluzioni scripted. Lo strumento di backup fornisce report e alert per avvisare quando la situazione non sta funzionando in modo adeguato, ma è altrettanto importante che avvisi quando tutto funziona correttamente. La soluzione di gestione degli snapshot deve fare lo stesso.
Si tratta di problematiche dovute al mancato collegamento tra gli strumenti, indipendentemente dalla buona qualità di snapshot e backup. E sono problematiche che vanno affrontate.

Uno strumento unico per gestire snapshot e backup
Quando lo strumento di backup gestisce anche gli snapshot, tutta questa complessità svanisce. Il tool registra tutte le informazioni proxy, gestisce gli elementi di integrazione – OS, hypervisor, database – per assicurare il ripristino e consentire di recuperare un database sotto forma di database, anche in uno specifico momento nel tempo, senza necessità di un amministratore di database. È possibile standardizzare un processo di recovery per snapshot e backup e ottenere la visibilità operativa necessaria senza duplicare report o dover apprendere nuove capacità.
È importante notare che anche se il tool di backup gestisce gli snapshot, potrebbe comunque avere problemi nel backup se la soluzione non supporta tutte le applicazioni o lo storage. Bisognerà utilizzare script e processi manuali per risolvere ogni gap, con tutti i problemi descritti in precedenza.

Lo scripting non è la risposta
Si tratta di una situazione che ho vissuto in prima persona. Quando lavoravo come ingegnere IT, avevamo un’applicazione che doveva effettuare backup coordinati e coerenti su una coppia di server. I dati erano troppi e troppo complessi per poter eseguire i backup in produzione e restare nei tempi previsti. Avremmo avuto bisogno di snapshot, ma a quei tempi non esistevano soluzioni di gestione degli snapshot per il nostro storage. Ho dovuto fare lo script.
La soluzione scripted lavorava molto come ho descritto. Il backup degli snapshot avveniva attraverso un server proxy, senza consapevolezza dei database SQL o dei server di origine. Il ripristino è sempre stato un grosso problema, perché oltre a controllare le relazioni per essere certi che stessero recuperando i dati, l’amministratore doveva ripristinare il database e i file su entrambi i server nello stesso momento nel tempo.
Abbiamo dovuto lavorare con questo processo per molti anni, ed è stato complicato. Dovevamo aggiornare spesso i file di configurazione quando il team applicativo aggiungeva dischi e in più occasioni qualcuno dimenticava un aggiornamento e interrompeva il backup. Senza considerare migrazioni di server e storage che richiedevano modifiche di configurazione ancora più grandi e fasi di test impegnative. Cambiando soluzioni di backup, abbiamo dovuto rielaborare completamente il processo.
A causa della complessità, abbiamo sempre utilizzato la soluzione solo su due di queste coppie di server, e anche se l’ambiente era contenuto nelle dimensioni, il tempo necessario per la manutenzione e la risoluzione dei problemi del processo era tanto. Onestamente, non ce ne saremmo nemmeno preoccupati se non avessimo potuto trovare le finestre di backup in altro modo.
Se avessi potuto realizzare questo processo con una soluzione performante, non avrei dovuto scrivere script, né gestire file di configurazione, né avere conoscenza SQL e componenti da monitorare. La reportistica e gli alert avrebbero incluso backup e snapshot. Il ripristino sarebbe stato semplice e le migrazioni storage sarebbe state virtualmente un non-evento.
In breve, gli snapshot sarebbero stati così integrati con il backup da non accorgersi neanche della loro presenza, oltre a non appesantire ulteriormente l’ambiente di produzione. E questo livello di integrazione rappresenta il modo in cui gli snapshot migliorano il backup. In questa era di singole soluzioni “abbastanza efficaci”, è facile trascurare i costi nascosti e le sfide che da essi derivano, fino al momento in cui non ci si trova ad affrontarli, di solito nella peggiore occasione possibile.

L’infrastruttura completa, AI-Ready per tutte le aziende: AIRI Mini di Pure Storage

Pure Storage annuncia la seconda Infrastruttura AI-Ready, AIRI™ Mini, powered by NVIDIA. AIRI nasce dalla sinergia tra Pure Storage e NVIDIA, per consentire ai data architect, ai data scientist e ai business leader di estendere le capacità di NVIDIA DGX-1. Con AIRI Mini, le aziende di qualsiasi dimensione e budget possono implementare una soluzione semplice, e al contempo potente, per trarre un vantaggio competitivo attraverso l’uso dell’intelligenza artificiale, ad un prezzo accessibile per qualsiasi società in qualsiasi mercato.

L’Intelligenza Artificiale rappresenta un’opportunità per accelerare le operations, fornire una migliore esperienza all’utente e incrementare le performance attraverso iniziative data-centriche.

La soluzione è ingegnerizzata in maniera completamente integrata, lato software e hardware, da Pure Storage e NVIDIA. AIRI Mini fornisce un’architettura semplice e potente che offre un’infrastruttura data-centrica fondamentale per abbracciare tutte le potenzialità dell’AI.

AIRI Mini è basata su FlashBlade di Pure Storage, la prima piattaforma storage creata per l’AI e i modern analytics, configurati con 7x 17TB blade e su 2 server NVIDIA DGX-1, in grado di supportare fino a 2 petaFLOP di performance Deep Learning. Questi sistemi sono interconnessi con switch da 100GbE, che supportano GPUDirect RDMA per le migliori performance di training distribuite. AIRI è dotato inoltre di GPU Cloud Deep Learning Stack di NVIDIA e di AIRI Scaling Toolkit di Pure Storage, consentendo così ai data scientist di avviare iniziative nel campo dell’Intelligenza Artificiale non più in settimane o mesi, ma in ore.

Pure ha inoltre annunciato la disponibilità di AIRI e AIRI Mini con gli switch di Cisco Nexus9000 100Gb Ethernet. Le migliaia di clienti comuni di Pure Storage e Cisco trarranno vantaggio da queste nuove soluzioni per avviare nuove iniziative di AI.

AIRI e AIRI Mini sono le prime infrastrutture convergenti create per l’AI, in grado di consentire ai data architect e ai data scientist di fornire un time-to-insight scalabile. Ogni azienda genera e archivia un’enorme mole di dati e, ora più che mai, gli innovatori hanno bisogno di ottenere insight da queste informazioni, per rendere il loro business più efficace e competitivo.

UnternehmerTUM è uno dei più grandi centri di innovazione e imprenditorialità in Europa, che sostiene le start-up ed i rispettivi fondatori, dall’idea iniziale fino all’IPO. L’organizzazione no profit tedesca ha collaborato con alcuni dei principali attori del settore pubblico, dell’industria e della tecnologia per l’iniziativa appliedAI, supportata da Pure Storage FlashBlade e NVIDIA DGX-1.

Gestione del dato nelle aziende italiane: Roadmap to Intelligent Enterprise

Le imprese si trovano oggi a competere non soltanto nei processi di trasformazione materiale di beni e servizi, ma anche nella capacità di impiegare il dato come fattore produttivo attraverso un proprio autonomo processo di trasformazione.



Per cogliere le nuove sfide dei mercati occorre una cultura aziendale che sia centrata sul dato: l’abilità di impiegare strumenti analitici avanzati, di visualizzare e interpretare relazioni implicite fra dati eterogenei, e di indirizzare tali competenze a un supporto immediato e costante dei processi decisionali richiede un balzo oltre i tradizionali paradigmi di analisi, introducendo nuove soluzioni, nuovi processi e nuove figure professionali. L’impresa che intende affrontare la sfida della trasformazione digitale deve necessariamente evolvere a una dimensione del tutto nuova.
I sistemi di business intelligence e business analytics esistono da decenni. Tuttavia, queste soluzioni non sempre hanno prodotto un reale supporto decisionale, limitandosi a rilasciare informazioni senza fornire indicazioni. E’ quindi necessario spostare la focalizzazione dai big data, dagli analytics o dal machine learning alle decisioni, così da sfruttare le informazioni per un vantaggio competitivo che non si esaurisca nell’immediato. Entro il 2021, prevede IDC, una grande impresa su quattro avrà creato un processo di interpretazione del dato basato su un’ampia articolazione di figure professionali specifiche e indipendenti, per sfruttare nel miglior modo possibile il fattore produttivo e decisionale del nuovo millennio, l’informazione.
Ma, allo stato attuale, come si posizionano le aziende, soprattutto in Italia, in questo percorso di gestione del dato come fattore competitivo? Una ricerca di IDC condotta su un campione di 172 imprese italiane di classe enterprise ha individuato quattro stadi di avanzamento.
Quasi la metà del campione (il 43%) si trova al primo stadio: aziende che devono ancora concludere la fase di razionalizzazione dei propri sistemi e della propria strategia digitale, e che dunque ancora non riescono a trarre un vantaggio competitivo concreto dai dati.
Al secondo stadio appartiene il 25% delle grandi aziende italiane: qui il dato viene considerato come uno strumento indispensabile per progredire nei processi di automazione industriale, ovvero rappresenta un valore soltanto se consente di automatizzare meglio i processi.
I due stadi più avanzati vedono presente solo un terzo delle grandi organizzazioni italiane. Nel terzo stadio risiede il 23% del campione analizzato da IDC: si tratta di imprese che impiegano i dati per consolidare un vantaggio immediato nei confronti dei concorrenti senza procedere necessariamente attraverso l’automazione, ma migliorando l’efficacia dei processi di pianificazione e controllo.
Infine, allo stadio più avanzato, ovvero il quarto, appartiene il 9% delle grandi aziende italiane: realtà che IDC colloca in una fase profonda di trasformazione, capaci di gestire i dati non solo per automatizzare i processi o migliorare la pianificazione e il controllo, ma per competere sul
terreno dell’innovazione a lungo termine.
Roadmap to Intelligent Enterprise: le nuove strategie per competere nell’economia della conoscenza è il titolo di un nuovo evento che MicroStrategy in collaborazione con IDC organizza a Milano il prossimo 30 maggio. Durante l’incontro, gli analisti di IDC e gli esperti di MicroStrategy
illustreranno le nuove tendenze nell’ambito degli analytics e condivideranno le loro esperienze su temi quali il data-driven decision making e l’intelligence process workflow, per spiegare alla platea di CIO e innovation manager cosa stiano concretamente facendo le grandi imprese in Italia e in Europa per affrontare la sfida della trasformazione in Intelligent Enterprise.