L’infrastruttura completa, AI-Ready per tutte le aziende: AIRI Mini di Pure Storage

Pure Storage annuncia la seconda Infrastruttura AI-Ready, AIRI™ Mini, powered by NVIDIA. AIRI nasce dalla sinergia tra Pure Storage e NVIDIA, per consentire ai data architect, ai data scientist e ai business leader di estendere le capacità di NVIDIA DGX-1. Con AIRI Mini, le aziende di qualsiasi dimensione e budget possono implementare una soluzione semplice, e al contempo potente, per trarre un vantaggio competitivo attraverso l’uso dell’intelligenza artificiale, ad un prezzo accessibile per qualsiasi società in qualsiasi mercato.

L’Intelligenza Artificiale rappresenta un’opportunità per accelerare le operations, fornire una migliore esperienza all’utente e incrementare le performance attraverso iniziative data-centriche.

La soluzione è ingegnerizzata in maniera completamente integrata, lato software e hardware, da Pure Storage e NVIDIA. AIRI Mini fornisce un’architettura semplice e potente che offre un’infrastruttura data-centrica fondamentale per abbracciare tutte le potenzialità dell’AI.

AIRI Mini è basata su FlashBlade di Pure Storage, la prima piattaforma storage creata per l’AI e i modern analytics, configurati con 7x 17TB blade e su 2 server NVIDIA DGX-1, in grado di supportare fino a 2 petaFLOP di performance Deep Learning. Questi sistemi sono interconnessi con switch da 100GbE, che supportano GPUDirect RDMA per le migliori performance di training distribuite. AIRI è dotato inoltre di GPU Cloud Deep Learning Stack di NVIDIA e di AIRI Scaling Toolkit di Pure Storage, consentendo così ai data scientist di avviare iniziative nel campo dell’Intelligenza Artificiale non più in settimane o mesi, ma in ore.

Pure ha inoltre annunciato la disponibilità di AIRI e AIRI Mini con gli switch di Cisco Nexus9000 100Gb Ethernet. Le migliaia di clienti comuni di Pure Storage e Cisco trarranno vantaggio da queste nuove soluzioni per avviare nuove iniziative di AI.

AIRI e AIRI Mini sono le prime infrastrutture convergenti create per l’AI, in grado di consentire ai data architect e ai data scientist di fornire un time-to-insight scalabile. Ogni azienda genera e archivia un’enorme mole di dati e, ora più che mai, gli innovatori hanno bisogno di ottenere insight da queste informazioni, per rendere il loro business più efficace e competitivo.

UnternehmerTUM è uno dei più grandi centri di innovazione e imprenditorialità in Europa, che sostiene le start-up ed i rispettivi fondatori, dall’idea iniziale fino all’IPO. L’organizzazione no profit tedesca ha collaborato con alcuni dei principali attori del settore pubblico, dell’industria e della tecnologia per l’iniziativa appliedAI, supportata da Pure Storage FlashBlade e NVIDIA DGX-1.

Gestione del dato nelle aziende italiane: Roadmap to Intelligent Enterprise

Le imprese si trovano oggi a competere non soltanto nei processi di trasformazione materiale di beni e servizi, ma anche nella capacità di impiegare il dato come fattore produttivo attraverso un proprio autonomo processo di trasformazione.



Per cogliere le nuove sfide dei mercati occorre una cultura aziendale che sia centrata sul dato: l’abilità di impiegare strumenti analitici avanzati, di visualizzare e interpretare relazioni implicite fra dati eterogenei, e di indirizzare tali competenze a un supporto immediato e costante dei processi decisionali richiede un balzo oltre i tradizionali paradigmi di analisi, introducendo nuove soluzioni, nuovi processi e nuove figure professionali. L’impresa che intende affrontare la sfida della trasformazione digitale deve necessariamente evolvere a una dimensione del tutto nuova.
I sistemi di business intelligence e business analytics esistono da decenni. Tuttavia, queste soluzioni non sempre hanno prodotto un reale supporto decisionale, limitandosi a rilasciare informazioni senza fornire indicazioni. E’ quindi necessario spostare la focalizzazione dai big data, dagli analytics o dal machine learning alle decisioni, così da sfruttare le informazioni per un vantaggio competitivo che non si esaurisca nell’immediato. Entro il 2021, prevede IDC, una grande impresa su quattro avrà creato un processo di interpretazione del dato basato su un’ampia articolazione di figure professionali specifiche e indipendenti, per sfruttare nel miglior modo possibile il fattore produttivo e decisionale del nuovo millennio, l’informazione.
Ma, allo stato attuale, come si posizionano le aziende, soprattutto in Italia, in questo percorso di gestione del dato come fattore competitivo? Una ricerca di IDC condotta su un campione di 172 imprese italiane di classe enterprise ha individuato quattro stadi di avanzamento.
Quasi la metà del campione (il 43%) si trova al primo stadio: aziende che devono ancora concludere la fase di razionalizzazione dei propri sistemi e della propria strategia digitale, e che dunque ancora non riescono a trarre un vantaggio competitivo concreto dai dati.
Al secondo stadio appartiene il 25% delle grandi aziende italiane: qui il dato viene considerato come uno strumento indispensabile per progredire nei processi di automazione industriale, ovvero rappresenta un valore soltanto se consente di automatizzare meglio i processi.
I due stadi più avanzati vedono presente solo un terzo delle grandi organizzazioni italiane. Nel terzo stadio risiede il 23% del campione analizzato da IDC: si tratta di imprese che impiegano i dati per consolidare un vantaggio immediato nei confronti dei concorrenti senza procedere necessariamente attraverso l’automazione, ma migliorando l’efficacia dei processi di pianificazione e controllo.
Infine, allo stadio più avanzato, ovvero il quarto, appartiene il 9% delle grandi aziende italiane: realtà che IDC colloca in una fase profonda di trasformazione, capaci di gestire i dati non solo per automatizzare i processi o migliorare la pianificazione e il controllo, ma per competere sul
terreno dell’innovazione a lungo termine.
Roadmap to Intelligent Enterprise: le nuove strategie per competere nell’economia della conoscenza è il titolo di un nuovo evento che MicroStrategy in collaborazione con IDC organizza a Milano il prossimo 30 maggio. Durante l’incontro, gli analisti di IDC e gli esperti di MicroStrategy
illustreranno le nuove tendenze nell’ambito degli analytics e condivideranno le loro esperienze su temi quali il data-driven decision making e l’intelligence process workflow, per spiegare alla platea di CIO e innovation manager cosa stiano concretamente facendo le grandi imprese in Italia e in Europa per affrontare la sfida della trasformazione in Intelligent Enterprise.

Acronis Motorsport, un canale di informazione online dedicato alla tecnologia nell’automobilismo

Acronis ha annunciato anche il lancio del portale Acronis Motorsport, un canale di informazione online dedicato alla tecnologia nell’automobilismo. Alain Prost, quattro volte campione del mondo di Formula 1 e comproprietario del team Renault e.dams, ha accettato di contribuire al portale in qualità di consulente e di guest editor.



Per gli appassionati di Formula 1 e Formula E, il portale Acronis Motorsport esplorerà “da dentro” il modo in cui le varie scuderie usano i dati, progettano le auto da corsa e sfruttano le tecnologie per eccellere sul piano tecnico e sportivo. Il portale si distingue dagli altri media che si occupano di automobilismo perché si concentra sugli aspetti tecnologici di questo sport.

Prost collaborerà fornendo indicazioni e opinioni in qualità di esperto su tutti gli argomenti legati all’automobilismo e alle corse. “L’aspetto tecnico delle gare automobilistiche mi ha sempre affascinato. Quando gareggiavo, passavo molto tempo insieme ai miei tecnici. Ho sempre pensato che per essere un grande pilota non basta conoscere l’arte di guidare un’auto da corsa, bisogna anche essere esperti di tecnologia”, commenta lo stesso Prost.

Acronis e Williams Martini Racing F1

Acronis annuncia la partnership tecnologica con la scuderia di Formula 1 Williams Martini Racing. L’accordo prevede, fra l’altro, la fornitura di soluzioni di protezione dati innovative che comprendono backup, ripristino di emergenza, software-defined storage, sincronizzazione e condivisione di file.



La Formula 1 è tra gli sport più tecnologicamente avanzati al mondo. In occasione di ogni gran premio, le scuderie di Formula 1 acquisiscono centinaia di gigabyte di dati telemetrici e negli stabilimenti delle case produttrici si generano terabyte di dati tecnici e di test. L’analisi dei dati alimenta l’innovazione e lo sviluppo tecnologico, e la capacità di interpretarli e di prendere decisioni informate è spesso l’elemento che fa la differenza tra una scuderia e l’altra. I dati sono quindi la risorsa più preziosa nella gara a chi taglia per primo il traguardo.

L’esperienza Acronis nella protezione dati aiuterà il team Williams a gestire volumi crescenti di dati, senza compromettere aspetti irrinunciabili nella Formula 1 come la sicurezza e la flessibilità.

I dati e il loro valore per il business: previsioni in 5 punti

Tra le principali sfide che i leader aziendali si troveranno ad affrontare nel 2018 si porrà il tema dei dati e del loro valore per il business. Questa nuova fonte di ricchezza verrà regolamentata proprio durante il prossimo anno, quando i controlli sulla correttezza del patrimonio informativo saranno equiparati ai controlli finanziari e assumeranno un impatto importante anche in termini di reputazione delle aziende.
Disporre di un’infrastruttura storage e di un approccio alla trasformazione digitale adeguati è vitale per le aziende, anche per cogliere i vantaggi delle tecnologie di Machine Learning e di Intelligenza Artificiale che i soggetti imprenditoriali più avanzati stanno già adottando.



Mauro Bonfanti, Regional Director Italy, Pure Storage

Una gestione più efficiente dei processi aziendali e il controllo dei dati saranno centrali nel 2018, e sia l’IT sia la cultura all’interno delle aziende sono chiamati ad evolvere per supportare questo processo.
L’implementazione del GDPR, ormai imminente nell’area UE, impone che le aziende riescano a gestire e proteggere i dati personali e sappiano dove questi risiedono, dimostrando di avere il controllo totale su di essi.
Rispondere in maniera efficace a quanto previsto dalla normativa, o affrontare incidenti di sicurezza è pressoché impossibile se i sistemi IT richiedono giorni per effettuare Backup, indicizzazione e ripristino dei dati. Per arrivare a controllare e proteggere efficacemente il patrimonio di dati, con ogni probabilità assisteremo a investimenti cospicui nel corso del 2018, soprattutto in network più veloci e in funzioni di data discovery e indicizzazione. Si punterà inoltre sui tool e sulle piattaforme per migliorare la visibilità e le performance dei sistemi.
La regolamentazione GDPR si applicherà a qualunque sistema, dai nastri di backup alle attuali tecnologie cloud, fino ai supporti più datati, e magari dimenticati da tempo in qualche magazzino. Questo significa che la tecnologia da sola non basta. E’ fondamentale comprendere che la protezione dei dati in azienda riguarda tutte le funzioni, e che dovranno essere messi in atto cambiamenti culturali e di processo per soddisfare e mantenere l’aderenza al GDPR. È importante che vi sia una forte leadership del management, accompagnata dagli strumenti più adeguati a gestire il cambiamento. L’infrastruttura informatica è senz’altro di supporto, e dev’essere integrata in un approccio olistico, a partire dall’architettura dei dati fino ad arrivare al back office e al personale che si interfaccia con il cliente.

Controllo del cloud – vinceranno le architetture ibride
La domanda non è più se usare o meno le tecnologie cloud, ma come impiegare al meglio un deployment multi-cloud: molti manager optano ora per le architetture ibride che fondono i vantaggi di un costo certo con le performance dei sistemi on-premise e la potenza del cloud.
I requisiti sempre più stringenti del controllo dei dati tenderanno ad incrementare ulteriormente l’appeal dei modelli ibridi, secondo una logica che potrà solo accelerare, mentre le aziende tentano di trovare un compromesso tra le esigenze dell’Information Technology e i TCO delle piattaforme cloud pubbliche, piuttosto che di quelle on-premise.
Il cambio di paradigma dalla virtualizzazione alle soluzioni native del cloud e dei container è collegato a una maggiore attenzione, da qui ai prossimi anni, verso la perfetta comunicazione tra cloud pubblico e cloud privato e alla migrazione dei dati. Le tecnologie capaci di integrare potenza e sicurezza in architetture multi-tenant, nell’ottica di questa nuova mobilità del dato, conquisteranno la leadership di mercato e si imporranno all’attenzione. Spostare e allocare i dati sarà un requisito essenziale del cloud, visto che le aziende considerano la collocazione dei dati sia da una prospettiva di business che di tipo legislativo. Trasferire il patrimonio informativo a centri ubicati in ogni regione diventerà un’operazione sempre più comune, specialmente attraverso il collegamento tra sistemi storage ad alta capacità e sistemi di elaborazione in locale, per applicazioni mission-critical o di particolare importanza.

Estrarre valore dall’Intelligenza Artificiale e dal Machine Learning
Le problematiche legate all’archiviazione e alla delivery dei dati necessari per istruire i sistemi di Intelligenza Artificiale (AI) e Machine Learning (ML) sono state risolte da tecnologie avanzate come Pure FlashBlade e NVIDIA DGX-1. La sfida quindi per i CTO nel 2018 sarà quella di capire cosa è fattibile adesso, e cosa può produrre i maggiori benefici per il business.
Pure ha già incorporato con successo tecniche di Machine Learning sia nel proprio sviluppo software che nell’ecosistema di supporto e può confermare il valore di questo approccio per i team di sviluppo interno così come per i clienti. Che tratti di guida automatica, sviluppo software, tecnologie mediche o cyber-security, qualsiasi azienda è oggi in grado di addestrare i propri sistemi informatici ad apprendere e ad applicare eccezioni e regole.
Nel 2018 mi aspetto di vedere tecnologie ML applicate nei vari contesti industriali, per migliorare le mansioni e al contempo la qualità dei task. La robotica è uno tra i settori più interessanti per le applicazioni di Intelligenza Artificiale.
Dalle analisi di Forrester emerge che il 70% delle aziende prevede di implementare qualche forma di intelligenza artificiale nel corso del prossimo anno. Io credo tuttavia che i vantaggi legati all’utilizzo di ML emergeranno ancor più velocemente. L’automazione basata su questi sistemi ha già dimostrato il suo valore, ad esempio in termini di risparmio di tempo nella normale amministrazione dell’infrastruttura IT.
L’Internet of Things e il Machine Learning per l’analisi dei dati producono informazioni preziose che possono essere utilizzate per risolvere le criticità prima ancora che queste impattino il business. Abbiamo clienti che paragonano l’automazione abilitata dai nostri sistemi con la presenza di un ingegnere delle infrastrutture operativo 24/7. Ciò significa davvero liberare risorse per estrarre il massimo valore per l’azienda.

Il dialogo sullo storage dovrebbe diventare dialogo sui dati
Dal punto di vista sia tecnologico e di go to market il problema di garantire elevate performance e uno storage semplice, scalabile e robusto è già stato risolto. Il 2018 segnerà un punto di svolta e le tecnologie di automazione e orchestrazione astrarranno le operazioni in una chiamata ad API REST da Ansible, Chef, Puppet, Kubernetes, etc.
Attualmente gli sviluppatori hanno accesso ai file e agli oggetti storage di cui hanno bisogno, su una piattaforma scalabile con performance garantite e aggiornamenti continui della tecnologia sottostante. In questo modo non ci si deve più preoccupare della provenienza dei dati o delle modalità di delivery. Il data management viene enormemente semplificato, aprendo nuovi scenari ai data scientist e agli altri specialisti dell’IT, che possono ora concentrarsi sui dati stessi e sul miglioramento dei processi invece di occuparsi dell’infrastruttura.

La spesa IT nel 2018
Pure Storage si sta preparando a diventare un’azienda dal fatturato annuale di 1 miliardo di dollari. Ci sono molti segnali incoraggianti nel mercato che confermano opportunità significative in questo senso.
Lo studio di analisti IDC ha previsto che il 34% delle aziende europee aumenterà la spesa destinata allo storage on premise agevolando così la strada verso la compliance al GDPR. Ciò è anche in linea con la tendenza che osserviamo del cloud ibrido pubblico/on-premise a dominare la pianificazione IT.
Guardando a tutte le voci di spesa legate allo storage, spinte dal GDPR nell’ Europa occidentale, IDC prevede 2,4 miliardi di dollari di investimento nel 2017, 3,37 miliardi di dollari nel 2018, con livelli di circa 2,5 miliardi di dollari all’anno che saranno mantenuti fino al 2021. L’intero ecosistema dei dati dovrebbe quindi registrare un’accelerazione negli investimenti.
In diversi settori si inizierà ad estrarre valore dai dati in maniera consistente, utilizzando ML e AI, applicazioni che la nostra piattaforma FlashBlade è particolarmente adatta a supportare. La tecnologia DGX-1 di Nvidia si trova al cuore degli ambienti più sofisticati di analytics e deep learning. Grazie alla nostra solida partnership con Nvidia a livello globale e ai recenti accordi siglati con PNY Technologies, il distributore a livello europeo di Nvidia, contiamo di poter aiutare molti clienti a ridurre i loro cicli di analisi e i tempi necessari ad implementare progetti innovativi.