Tecnologie software-defined, iperconvergenza, automazione e sicurezza i quattro pilastri per la trasformazione digitale delle infrastrutture IT aziendali

La trasformazione digitale sta evidenziando i limiti di molte infrastrutture IT aziendali, mettendo sotto pressione CIO e IT manager. L’affermarsi del paradigma della Terza Piattaforma e il rapido emergere di tecnologie innovative come l’Internet of Things e l’Intelligenza Artificiale richiedono infatti un nuovo data center, in grado di supportare i processi digitali rispondendo nel contempo a elevati requisiti di sicurezza e governance. IDC sottolinea come le organizzazioni IT debbano oggi trovare il giusto percorso per ridurre i costi operativi, liberare le risorse e aumentare la spinta verso l’innovazione e il supporto al business, così da permettere alla propria azienda di restare competitiva sui mercati. La strada più percorribile, e finora percorsa, è quella di un processo di modernizzazione del data center che porti all’hybrid IT prima e al multicloud in prospettiva.
Questa evidenza è stata al centro di un roadshow organizzato da IDC e VMware che tra i mesi di aprile e maggio ha toccato sette diverse città italiane, coinvolgendo in ogni tappa anche un partner locale: Bologna (AD Consulting), Torino (Var Group), Firenze (In20), Padova (Dedagroup), Bari (ITM), Napoli (R1) e Ancona (Gruppo Filippetti).

Intitolato “Modernize Data Center: gli step per un’infrastruttura intelligente”, l’evento ha dato l’opportunità ad oltre 200 tra CIO e IT manager italiani di confrontarsi su punti quali le infrastrutture software-defined, l’iperconvergenza, l’automazione e la sicurezza, ovvero quei pilastri oggi fondamentali per realizzare un vero ambiente IT ibrido in grado di valorizzare gli asset on-premise e le applicazioni legacy sfruttando però le nuove opportunità offerte dal cloud e dalle tecnologie digitali.
L’adozione di tecnologie software-defined infrastructure e software-defined networking nei data center consente oggi alle aziende di astrarre ulteriormente il layer infrastrutturale, rendendo possibili livelli di agilità ed efficienza superiori e permettendo di utilizzare sistemi iperconvergenti standard.
Nel corso del roadshow è emersa l’importanza del cloud nel percorso di trasformazione aziendale, con sfumature differenti tra cloud privato e pubblico. Mentre infatti il private cloud viene considerato importante dalle imprese italiane per ridurre i costi operativi e per migliorare la qualità e l’efficienza dei servizi offerti al business, l’adozione del public cloud viene vista come essenziale per l’innovazione digitale, il time to market e la crescita in nuovi mercati.
Sul cloud restano infatti alcune criticità da risolvere, tipiche del tessuto industriale italiano. E’ emerso, in diverse tappe del roadshow, il tema della difficoltà di affidarsi interamente al cloud a causa della carenza di banda in alcune aree. Anche qui la tecnologia software-defined può fornire una soluzione, nella forma di tecnologie software-defined WAN in grado di aggregare e orchestrare più collegamenti per instradare i dati sul cloud.
Infine, è stata ancora una volta confermata la massima importanza data dalle aziende italiane alla sicurezza: per più del 50% delle imprese italiane è la prima voce di intervento e di miglioramento.

Matthieu Brignone Head of EMEA Channel and Alliances e il Partner Program di Pure Storage

Pure Storage ha annunciato la nomina di Matthieu Brignone a Head of EMEA Channel and Alliances. Matthieu sarà responsabile della promozione vendite, dell’accelerazione della crescita e dell’aumento della redditività per i partner. Prima di Pure Storage Matthieu era in Commvault, mentre in precedenza, è stato Direttore Vendite Canali EMEA e Country Manager Francia presso HP ESP (Enterprise Security Products) ed ha ricoperto ruoli di vendita e gestione in Quest Software, WASATIS, Cisco, Trend Micro e Novell.

Pure Storage presenta il nuovo Partner Program. Il programma si è evoluto per tenere il passo con la significativa crescita dell’azienda: offre pertanto ai partner nuovi strumenti di formazione, certificazione, supporto e incentivi. Presentato al Global Partner Forum durante la conferenza Pure//Accelerate 2018, il programma, con tutti i suoi vantaggi, entrerà in vigore a partire dal 1° agosto 2018.

Il modello di business di Pure Storage è sempre stato incentrato al 100% sul canale. A testimonianza di questo impegno, l’azienda ha effettuato investimenti strategici negli strumenti e nelle risorse necessari a realizzare un programma che risulti attrattivo e di effettivo supporto per i partner. Sono previsti premi per i partner più attivi e che meglio affiancano Pure nella strategia di mercato. Di seguito, le principali novità del programma:
· Nuovi livelli: il nuovo programma prevede due livelli e consente ai partner di qualsiasi dimensione di raggiungere quello successivo. A partire dall’entry level Preferred, è possibile raggiungere il livello superiore Elite. Accessibile esclusivamente su invito, quest’ultimo è riservato ai partner che generano e concludono iniziative di successo grazie alle proprie competenze di business, di vendita, tecniche, di marketing e, in generale, allo sviluppo di nuovi servizi. I partner Elite devono soddisfare inoltre un numero minimo di clienti raggiunti. La notifica del loro status verrà inviata ai partner ad agosto 2018 e le valutazioni avranno ricorrenza annuale.
· Empowerment: un aspetto importante del nuovo programma riguarda la standardizzazione degli sconti e del listino prezzi applicabili dai partner, il che consentirà loro di muoversi in autonomia con i clienti. Verranno inoltre messi a loro disposizione strumenti avanzati per la formulazione di proposte e quotazioni per le soluzioni Pure Storage.
· Training: Pure Storage offrirà una maggiore specializzazione tecnica a tutti i partner, a completamento dei programmi di training già disponibili. A San Francisco hanno debuttato inoltre il cosiddetto “Pure Storage Foundation Exam” e l’esame per diventare FlashArray Architect. Il programma di formazione sarà ulteriormente aggiornato ed ampliato nel corso dell’anno.

Come gli snapshot consentono di migliorare il backup

Roy Child, product specialist di Commvault

I punti di vista su snapshot e backup sono diversi. Alcuni sostengono che gli snapshot non possano avere da soli il ruolo del backup, e abbiano bisogno di integrarsi con il backup per assicurare il ripristino. Molte aziende hanno capito di aver bisogno di snapshot per risolvere le sfide di backup e ripristino dei dati critici, ma senza dotarsi di uno strumento di integrazione degli snapshot all’interno del ciclo di vita dei dati, si finisce per creare nuovi problemi invece di risolverli. In realtà, gli snapshot possono davvero migliorare il backup.

Riservare i server di produzione alla produzione effettiva
Gli snapshot apportano numerosi benefici. Sono in grado di eliminare i carichi di backup dai sistemi di produzione. Si effettuano in pochi secondi, in modo che le applicazioni di produzione principali non debbano sopportare per ore carichi di lavoro significativi. Carichi che possono essere trasferiti su un server proxy separato, che esegue il backup per conto della produzione. È possibile consolidare i backup di più server di produzione attraverso lo stesso proxy per incrementare l’efficienza.

Anche l’offload del backup crea nuove sfide  
È più semplice dirlo che farlo. Utilizzare strumenti separati per snapshot e backup conduce a una possibile disconnessione nell’ambiente di backup che porta con sé gravi implicazioni per la gestione e il ripristino. Se i backup avvengono sul server proxy, lo strumento di backup è a conoscenza solo di quello che succede sul proxy. Il server proxy, e quindi il tool di backup, non sono al corrente di quanto fanno i server di produzione, che conservano file importanti, e nemmeno di database o applicazioni che potrebbero esservi in esecuzione.
Perché questo è importante? Bisogna tenere in considerazione queste differenze. L’ambiente di produzione cambia e cresce, ed è quindi necessario mantenere aggiornati snapshot e backup. Quando si devono ripristinare i dati, si presentano alcune sfide aggiuntive. In primo luogo, bisogna sapere esattamente quali file recuperare per ogni database. È necessaria inoltre la presenza di un amministratore di database che lo ripristini e lo riporti in un determinato punto nel tempo, perché non è possibile utilizzare la funzionalità acquistata nel tool di backup.
Inoltre, per essere certi di effettuare il restore dei file corretti nella posizione giusta, serve conoscere esattamente l’origine di provenienza dei dati, tenendo in considerazione che il tool di backup non ha informazioni sulla produzione. Il monitoraggio diventerà quindi fondamentale all’interno della strategia di ripristino.
È un processo molto rapido. Ogni database, disco, VM, file system, server, sistemi storage e proxy che viene aggiunto allo snap rende la lista più lunga e la ricerca più difficile. Inoltre, è importante ricordare che bisogna aggiornare il monitoraggio dei dati ogni volta che l’ambiente cambia. In caso di ripristino su larga scala, sbloccare tutte le relazioni per realizzare il ripristino potrebbe aggiungere ore al tempo di inattività generale.
Un altro elemento che spesso si considera solo all’ultimo momento è la visibilità, specialmente quando si parla di soluzioni scripted. Lo strumento di backup fornisce report e alert per avvisare quando la situazione non sta funzionando in modo adeguato, ma è altrettanto importante che avvisi quando tutto funziona correttamente. La soluzione di gestione degli snapshot deve fare lo stesso.
Si tratta di problematiche dovute al mancato collegamento tra gli strumenti, indipendentemente dalla buona qualità di snapshot e backup. E sono problematiche che vanno affrontate.

Uno strumento unico per gestire snapshot e backup
Quando lo strumento di backup gestisce anche gli snapshot, tutta questa complessità svanisce. Il tool registra tutte le informazioni proxy, gestisce gli elementi di integrazione – OS, hypervisor, database – per assicurare il ripristino e consentire di recuperare un database sotto forma di database, anche in uno specifico momento nel tempo, senza necessità di un amministratore di database. È possibile standardizzare un processo di recovery per snapshot e backup e ottenere la visibilità operativa necessaria senza duplicare report o dover apprendere nuove capacità.
È importante notare che anche se il tool di backup gestisce gli snapshot, potrebbe comunque avere problemi nel backup se la soluzione non supporta tutte le applicazioni o lo storage. Bisognerà utilizzare script e processi manuali per risolvere ogni gap, con tutti i problemi descritti in precedenza.

Lo scripting non è la risposta
Si tratta di una situazione che ho vissuto in prima persona. Quando lavoravo come ingegnere IT, avevamo un’applicazione che doveva effettuare backup coordinati e coerenti su una coppia di server. I dati erano troppi e troppo complessi per poter eseguire i backup in produzione e restare nei tempi previsti. Avremmo avuto bisogno di snapshot, ma a quei tempi non esistevano soluzioni di gestione degli snapshot per il nostro storage. Ho dovuto fare lo script.
La soluzione scripted lavorava molto come ho descritto. Il backup degli snapshot avveniva attraverso un server proxy, senza consapevolezza dei database SQL o dei server di origine. Il ripristino è sempre stato un grosso problema, perché oltre a controllare le relazioni per essere certi che stessero recuperando i dati, l’amministratore doveva ripristinare il database e i file su entrambi i server nello stesso momento nel tempo.
Abbiamo dovuto lavorare con questo processo per molti anni, ed è stato complicato. Dovevamo aggiornare spesso i file di configurazione quando il team applicativo aggiungeva dischi e in più occasioni qualcuno dimenticava un aggiornamento e interrompeva il backup. Senza considerare migrazioni di server e storage che richiedevano modifiche di configurazione ancora più grandi e fasi di test impegnative. Cambiando soluzioni di backup, abbiamo dovuto rielaborare completamente il processo.
A causa della complessità, abbiamo sempre utilizzato la soluzione solo su due di queste coppie di server, e anche se l’ambiente era contenuto nelle dimensioni, il tempo necessario per la manutenzione e la risoluzione dei problemi del processo era tanto. Onestamente, non ce ne saremmo nemmeno preoccupati se non avessimo potuto trovare le finestre di backup in altro modo.
Se avessi potuto realizzare questo processo con una soluzione performante, non avrei dovuto scrivere script, né gestire file di configurazione, né avere conoscenza SQL e componenti da monitorare. La reportistica e gli alert avrebbero incluso backup e snapshot. Il ripristino sarebbe stato semplice e le migrazioni storage sarebbe state virtualmente un non-evento.
In breve, gli snapshot sarebbero stati così integrati con il backup da non accorgersi neanche della loro presenza, oltre a non appesantire ulteriormente l’ambiente di produzione. E questo livello di integrazione rappresenta il modo in cui gli snapshot migliorano il backup. In questa era di singole soluzioni “abbastanza efficaci”, è facile trascurare i costi nascosti e le sfide che da essi derivano, fino al momento in cui non ci si trova ad affrontarli, di solito nella peggiore occasione possibile.

Shared Accelerated Storage per ogni carico di lavoro: FlashArray//X di Pure Storage

Pure Storage ha esteso la linea di prodotto FlashArray in grado ora di supportare all-NVMe Shared Accelerated Storage per ogni carico di lavoro. La nuova famiglia FlashArray//X rende tutto più veloce, database, ambienti virtualizzati o container, iniziative test/dev e web-scale, senza costi aggiuntivi rispetto a FlashArray//M, in base alla capacità effettiva.

La nuova famiglia all-NVMe FlashArray//X comprende cinque configurazioni, da NVMe-ready //X10 per applicazioni di piccole dimensioni fino ad all-NVMe //X90, il FlashArray più denso e veloce di Pure. FlashArray//X rappresenta una nuova generazione di soluzioni Shared Accelerated Storage, una generazione basata su NVMe e NVMe-oF, in grado di unire SAN e DAS in un’unica architettura data-centrica, consolidata, condivisa e più efficiente.

Con una capacità effettiva fino a 3PB in sole 6U, il //X90 offre una bassa latenza fino a 250 µs e un miglioramento delle prestazioni che arriva ad essere 2 volte superiore rispetto all’AFA (All-Flash Array//M). Una versione aggiornata del born-for-flash Purity Operating Environment, versione 5.1 è disponibile come aggiornamento non disruptive per tutti i clienti FlashArray//M e FlashArray//X, e offre una data reduction migliorata fino al 20%, riducendo ulteriormente la quantità di storage che i clienti devono acquistare e gestire.

L’evoluzione verso architetture applicative che necessitano un’alta scalabilità ha portato a cambiamenti significativi nei requisiti relativi allo storage. Le aziende che oggi adottano un modello IT cloud si trovano spesso a dover gestire una miriade di tipologie di storage: SAN per applicazioni classiche e DAS per applicazioni di modern analytics e web-scale.

Un’architettura basata sulla centralità del dato (data-centric architecture) consente una maggiore flessibilità della componente di computing e abilita la connettività verso un pool di Shared Accelerated Storage rapido, affidabile e denso, tramite una rete veloce. Disaccoppia storage e calcolo, consentendo di scalare e innovare in modo indipendente, ma mantenendo prestazioni ed efficienza. Lo Shared Accelerated Storage rende l’intera infrastruttura notevolmente più veloce, consolida i carichi di lavoro e permette una condivisione dei dati flessibile e agile tra le applicazioni moderne; un design davvero ottimizzato per i dati.

FlashArray//X, come tutti i FlashArray precedenti, è basato sull’architettura Evergreen™ Storage, che garantisce la protezione degli investimenti dei clienti con aggiornamenti continui e senza interruzioni, nessun tempo di downtime e nessuna migrazione dei dati. Ciò significa che i clienti FlashArray esistenti possono eseguire l’aggiornamento senza interruzioni a FlashArray//X e sperimentare oggi lo Shared Accelerated Storage all-NVMe. Gli annunci odierni includono la famiglia ampliata FlashArray//X, una transizione flessibile e senza interruzioni a tutti i dispositivi NVMe flash e NVMe-oF e un software più intelligente ed efficiente.

La nuova famiglia FlashArray//X comprende:
• //X90: Il più denso, veloce array: capacità effettiva di 3 PB in 6U, fino a 2 volte più veloce del FlashArray//M e un costo minore array per GB.
• //X70 e //X50: 100% array NVMe in grado di scalare fino a 1.3 PB e 650TB rispettivamente di storage effettivo.
• //X20 e //X10: Array NVMe-ready entry-level per bisogni più limitati. L’impostazione predefinita è con SATA flash, ma sono forniti con controller che supportano i moduli DirectFlash NVMe.

Pure1 Management:
• Purity 5.1, l’ultima versione del nostro sistema operativo di storage completamente parallelizzato, presenta miglioramenti significativi nell’algoritmo di compressione, offrendo un miglioramento ulteriore fino al 20% nell’efficienza complessiva di riduzione dei dati, in particolare per i workload delle applicazioni che già beneficiano delle funzionalità di compressione e deduplica. Questo aggiornamento software senza interruzioni sarà disponibile per tutti i clienti FlashArray//M e FlashArray//X.
• La nuova funzione Pure1® VM Analytics consente di ottenere una visibilità completa sugli ambienti VMware vSphere. Grazie all’integrazione nativa con vCenter, eventuali criticità diprestazione possono essere facilmente visualizzati da VM → Server → Datastore → Network → Volume → Array.
• Il Pure1 Workload Planner è stato potenziato dal motore Meta AI, supporta i clienti ad ottimizzare i propri ambienti comprendendo meglio l’impatto delle modifiche del carico di lavoro e consente inoltre ai clienti FlashArray di esplorare facilmente gli scenari di aggiornamento dell’hardware.
• La Pure1 Global Dashboard è stata ampliata, consentendo la visibilità di tutti gli array FlashArray e FlashBlade™ a livello globale, disponibili sia sul portale SaaS Pure1 che sull’app Pure1 Mobile. La visibilità globale su salute, riduzione dei dati, avvisi e eventuali necessità di supporto è ora sempre a portata di mano.

L’infrastruttura completa, AI-Ready per tutte le aziende: AIRI Mini di Pure Storage

Pure Storage annuncia la seconda Infrastruttura AI-Ready, AIRI™ Mini, powered by NVIDIA. AIRI nasce dalla sinergia tra Pure Storage e NVIDIA, per consentire ai data architect, ai data scientist e ai business leader di estendere le capacità di NVIDIA DGX-1. Con AIRI Mini, le aziende di qualsiasi dimensione e budget possono implementare una soluzione semplice, e al contempo potente, per trarre un vantaggio competitivo attraverso l’uso dell’intelligenza artificiale, ad un prezzo accessibile per qualsiasi società in qualsiasi mercato.

L’Intelligenza Artificiale rappresenta un’opportunità per accelerare le operations, fornire una migliore esperienza all’utente e incrementare le performance attraverso iniziative data-centriche.

La soluzione è ingegnerizzata in maniera completamente integrata, lato software e hardware, da Pure Storage e NVIDIA. AIRI Mini fornisce un’architettura semplice e potente che offre un’infrastruttura data-centrica fondamentale per abbracciare tutte le potenzialità dell’AI.

AIRI Mini è basata su FlashBlade di Pure Storage, la prima piattaforma storage creata per l’AI e i modern analytics, configurati con 7x 17TB blade e su 2 server NVIDIA DGX-1, in grado di supportare fino a 2 petaFLOP di performance Deep Learning. Questi sistemi sono interconnessi con switch da 100GbE, che supportano GPUDirect RDMA per le migliori performance di training distribuite. AIRI è dotato inoltre di GPU Cloud Deep Learning Stack di NVIDIA e di AIRI Scaling Toolkit di Pure Storage, consentendo così ai data scientist di avviare iniziative nel campo dell’Intelligenza Artificiale non più in settimane o mesi, ma in ore.

Pure ha inoltre annunciato la disponibilità di AIRI e AIRI Mini con gli switch di Cisco Nexus9000 100Gb Ethernet. Le migliaia di clienti comuni di Pure Storage e Cisco trarranno vantaggio da queste nuove soluzioni per avviare nuove iniziative di AI.

AIRI e AIRI Mini sono le prime infrastrutture convergenti create per l’AI, in grado di consentire ai data architect e ai data scientist di fornire un time-to-insight scalabile. Ogni azienda genera e archivia un’enorme mole di dati e, ora più che mai, gli innovatori hanno bisogno di ottenere insight da queste informazioni, per rendere il loro business più efficace e competitivo.

UnternehmerTUM è uno dei più grandi centri di innovazione e imprenditorialità in Europa, che sostiene le start-up ed i rispettivi fondatori, dall’idea iniziale fino all’IPO. L’organizzazione no profit tedesca ha collaborato con alcuni dei principali attori del settore pubblico, dell’industria e della tecnologia per l’iniziativa appliedAI, supportata da Pure Storage FlashBlade e NVIDIA DGX-1.