Tecnologie software-defined, iperconvergenza, automazione e sicurezza i quattro pilastri per la trasformazione digitale delle infrastrutture IT aziendali

La trasformazione digitale sta evidenziando i limiti di molte infrastrutture IT aziendali, mettendo sotto pressione CIO e IT manager. L’affermarsi del paradigma della Terza Piattaforma e il rapido emergere di tecnologie innovative come l’Internet of Things e l’Intelligenza Artificiale richiedono infatti un nuovo data center, in grado di supportare i processi digitali rispondendo nel contempo a elevati requisiti di sicurezza e governance. IDC sottolinea come le organizzazioni IT debbano oggi trovare il giusto percorso per ridurre i costi operativi, liberare le risorse e aumentare la spinta verso l’innovazione e il supporto al business, così da permettere alla propria azienda di restare competitiva sui mercati. La strada più percorribile, e finora percorsa, è quella di un processo di modernizzazione del data center che porti all’hybrid IT prima e al multicloud in prospettiva.
Questa evidenza è stata al centro di un roadshow organizzato da IDC e VMware che tra i mesi di aprile e maggio ha toccato sette diverse città italiane, coinvolgendo in ogni tappa anche un partner locale: Bologna (AD Consulting), Torino (Var Group), Firenze (In20), Padova (Dedagroup), Bari (ITM), Napoli (R1) e Ancona (Gruppo Filippetti).

Intitolato “Modernize Data Center: gli step per un’infrastruttura intelligente”, l’evento ha dato l’opportunità ad oltre 200 tra CIO e IT manager italiani di confrontarsi su punti quali le infrastrutture software-defined, l’iperconvergenza, l’automazione e la sicurezza, ovvero quei pilastri oggi fondamentali per realizzare un vero ambiente IT ibrido in grado di valorizzare gli asset on-premise e le applicazioni legacy sfruttando però le nuove opportunità offerte dal cloud e dalle tecnologie digitali.
L’adozione di tecnologie software-defined infrastructure e software-defined networking nei data center consente oggi alle aziende di astrarre ulteriormente il layer infrastrutturale, rendendo possibili livelli di agilità ed efficienza superiori e permettendo di utilizzare sistemi iperconvergenti standard.
Nel corso del roadshow è emersa l’importanza del cloud nel percorso di trasformazione aziendale, con sfumature differenti tra cloud privato e pubblico. Mentre infatti il private cloud viene considerato importante dalle imprese italiane per ridurre i costi operativi e per migliorare la qualità e l’efficienza dei servizi offerti al business, l’adozione del public cloud viene vista come essenziale per l’innovazione digitale, il time to market e la crescita in nuovi mercati.
Sul cloud restano infatti alcune criticità da risolvere, tipiche del tessuto industriale italiano. E’ emerso, in diverse tappe del roadshow, il tema della difficoltà di affidarsi interamente al cloud a causa della carenza di banda in alcune aree. Anche qui la tecnologia software-defined può fornire una soluzione, nella forma di tecnologie software-defined WAN in grado di aggregare e orchestrare più collegamenti per instradare i dati sul cloud.
Infine, è stata ancora una volta confermata la massima importanza data dalle aziende italiane alla sicurezza: per più del 50% delle imprese italiane è la prima voce di intervento e di miglioramento.

Gestione del dato nelle aziende italiane: Roadmap to Intelligent Enterprise

Le imprese si trovano oggi a competere non soltanto nei processi di trasformazione materiale di beni e servizi, ma anche nella capacità di impiegare il dato come fattore produttivo attraverso un proprio autonomo processo di trasformazione.



Per cogliere le nuove sfide dei mercati occorre una cultura aziendale che sia centrata sul dato: l’abilità di impiegare strumenti analitici avanzati, di visualizzare e interpretare relazioni implicite fra dati eterogenei, e di indirizzare tali competenze a un supporto immediato e costante dei processi decisionali richiede un balzo oltre i tradizionali paradigmi di analisi, introducendo nuove soluzioni, nuovi processi e nuove figure professionali. L’impresa che intende affrontare la sfida della trasformazione digitale deve necessariamente evolvere a una dimensione del tutto nuova.
I sistemi di business intelligence e business analytics esistono da decenni. Tuttavia, queste soluzioni non sempre hanno prodotto un reale supporto decisionale, limitandosi a rilasciare informazioni senza fornire indicazioni. E’ quindi necessario spostare la focalizzazione dai big data, dagli analytics o dal machine learning alle decisioni, così da sfruttare le informazioni per un vantaggio competitivo che non si esaurisca nell’immediato. Entro il 2021, prevede IDC, una grande impresa su quattro avrà creato un processo di interpretazione del dato basato su un’ampia articolazione di figure professionali specifiche e indipendenti, per sfruttare nel miglior modo possibile il fattore produttivo e decisionale del nuovo millennio, l’informazione.
Ma, allo stato attuale, come si posizionano le aziende, soprattutto in Italia, in questo percorso di gestione del dato come fattore competitivo? Una ricerca di IDC condotta su un campione di 172 imprese italiane di classe enterprise ha individuato quattro stadi di avanzamento.
Quasi la metà del campione (il 43%) si trova al primo stadio: aziende che devono ancora concludere la fase di razionalizzazione dei propri sistemi e della propria strategia digitale, e che dunque ancora non riescono a trarre un vantaggio competitivo concreto dai dati.
Al secondo stadio appartiene il 25% delle grandi aziende italiane: qui il dato viene considerato come uno strumento indispensabile per progredire nei processi di automazione industriale, ovvero rappresenta un valore soltanto se consente di automatizzare meglio i processi.
I due stadi più avanzati vedono presente solo un terzo delle grandi organizzazioni italiane. Nel terzo stadio risiede il 23% del campione analizzato da IDC: si tratta di imprese che impiegano i dati per consolidare un vantaggio immediato nei confronti dei concorrenti senza procedere necessariamente attraverso l’automazione, ma migliorando l’efficacia dei processi di pianificazione e controllo.
Infine, allo stadio più avanzato, ovvero il quarto, appartiene il 9% delle grandi aziende italiane: realtà che IDC colloca in una fase profonda di trasformazione, capaci di gestire i dati non solo per automatizzare i processi o migliorare la pianificazione e il controllo, ma per competere sul
terreno dell’innovazione a lungo termine.
Roadmap to Intelligent Enterprise: le nuove strategie per competere nell’economia della conoscenza è il titolo di un nuovo evento che MicroStrategy in collaborazione con IDC organizza a Milano il prossimo 30 maggio. Durante l’incontro, gli analisti di IDC e gli esperti di MicroStrategy
illustreranno le nuove tendenze nell’ambito degli analytics e condivideranno le loro esperienze su temi quali il data-driven decision making e l’intelligence process workflow, per spiegare alla platea di CIO e innovation manager cosa stiano concretamente facendo le grandi imprese in Italia e in Europa per affrontare la sfida della trasformazione in Intelligent Enterprise.

Dal core all’edge, lo spazio digitale rimodella il data center

Trasformarsi digitalmente significa per gran parte delle aziende interagire con i clienti in modo più innovativo e immersivo, sfruttando la capacità di raccogliere, elaborare e analizzare i dati direttamente in prossimità di grandi concentrazioni di persone o cose – quello che in gergo viene definito l’edge. L’edge, per estensione, è anche una risorsa IT remota, una sorta di micro data center dotato di particolari accorgimenti in materia di sicurezza
e resilienza, e soprattutto quasi completamente automatizzato non risultando il più delle volte presidiato da personale umano.
L’edge computing sta ponendo nuove sfide alle imprese. Entro il 2021, prevede IDC, i settori più rivolti ai consumatori investiranno maggiormente in innovazione e upgrade delle infrastrutture edge rispetto a quelle core, vale a dire i tradizionali data center aziendali, che saranno comunque lo stesso fortemente impattati da questo fenomeno.
Com’è facile immaginare, molta della spesa si focalizzerà su tecnologie intelligenti in grado di portare più automazione possibile nei collegamenti tra data center core ed edge, non fosse altro che per sopperire alla mancanza di presidio umano nei siti edge. Quindi, piattaforme in grado di monitorare in tempo reale lo stato dell’infrastruttura – dalle componenti di alimentazione e raffreddamento fino ai sistemi IT e di comunicazione – e soluzioni capaci di analizzare e prevenire richieste e picchi di elaborazione così da migliorare l’efficienza operativa e di business.
Ovviamente, supportare iniziative di digital transformation implica anche rendere i propri data center in grado di erogare servizi IT con la massima rapidità e agilità, nonché garantire quel livello di resilienza tale da evitare disservizi. Proprio per questo motivo, IDC prevede che il 55% delle grandi aziende sarà costretto nei prossimi tre anni a modernizzare i propri asset data center.

Internet of Things, supply chain digitali, convergenza IT-OT, digital signage, autonomous transportation e robotica sono tutti esempi che introducono o accentuano il bisogno di nuovi ambienti edge in un panorama IT già diversificato, dall’on-premise al cloud.

E proprio per spiegare come questa esigenza di “prossimità digitale” andrà a trasformare le strategie data center – interessando il core, l’edge e il cloud – Schneider Electric in collaborazione con IDC incontrerà le aziende italiane in due appuntamenti che si terranno il 24 maggio a Castel San Pietro Terme (Bologna) e il 31 maggio a Torino.
Il roadshow, intitolato Local Edge: strategie e regole per la nuova era di gestione delle risorse IT, vedrà gli analisti di IDC insieme a ospiti ed esperti di Schneider Electric illustrare come applicare il modello edge e “smarter data center” ai nuovi processi digitali, valutando le ricadute sugli aspetti architetturali e infrastrutturali. Saranno anche presentate best practice e introdotti i nuovi KPI per i processi di analisi, visibilità e controllo.

L’adozione aziendale di storage AFA (All-Flash Array) è in forte crescita

Affinché la trasformazione digitale possa portare innovazione e agilità al business, la sua esecuzione deve poggiare su una contestuale e necessaria evoluzione dell’infrastruttura IT aziendale. L’enorme mole di dati da gestire e analizzare nell’era digitale impone, per esempio, un importante ripensamento dello storage, per evitare che esso diventi il collo di bottiglia dell’intera infrastruttura informativa, vanificando gli sforzi di trasformazione.

Per soddisfare le esigenze di incremento di velocità e di riduzione della latenza per processare terabyte o petabyte di dati (entro il 2025 verranno generati complessivamente dati per un volume di 180 zettabyte, evidenzia IDC), le aziende stanno sempre più rivolgendo la loro attenzione (e spesa) verso sistemi di storage con tecnologia flash, soprattutto le soluzioni AFA (All-Flash Array).

Inizialmente sviluppata per memorie volatili ad altissime prestazioni, la tecnologia flash è evoluta negli anni fino a diventare un dispositivo storage di primo livello in grado di offrire non solo bassissima latenza, ma anche efficienza nei costi, grande affidabilità e flessibilità, adattandosi quindi a contesti d’applicazione aziendali e soprattutto a workload di nuova generazione, caratterizzati da una grande variabilità nella richiesta di risorse.

Una recente indagine condotta da IDC a livello mondiale su un campione di oltre 700 aziende di medie e grandi dimensioni ha evidenziato come principali criteri per l’adozione di soluzioni AFA proprio l’alta affidabilità (56% dei rispondenti), le performance in termini di latenza, throughput e banda (40%), la scalabilità (31%) e la consistenza delle prestazioni, ovvero la capacità di adattarsi alla variabilità dei workload in termini di I/O (30%), quest’ultimo un fattore estremamente importante in termini di differenziazione dai tradizionali sistemi di storage a disco.

Alla luce di tutto ciò, IDC prevede che il mercato AFA crescerà con un tasso annuale composto (CAGR) del 24,9% al 2020, sfiorando in quell’anno i 9 miliardi di dollari di valore. Si tratta del tasso di crescita più alto tra le varie voci che compongono il mercato dello storage enterprise, sottolinea IDC. Globalmente, questo crescerà con un CAGR del 2,8%, subendo l’andamento negativo di sistemi

più tradizionali come gli storage array basati su HDD, che al 2020 faranno registrare un CAGR pari a -13,1%. IDC si aspetta che entro il 2020 oltre il 70% della spesa in storage primario sarà appannaggio dei sistemi AFA.

Lo storage flash gioca inoltre un ruolo molto importante anche per la diffusione in azienda delle soluzioni convergenti e iperconvergenti, in grado di concentrare in un unico sistema le tre componenti infrastrutturali di un data center (server, storage e networking), evitando il rischio di creare ulteriori silos e semplificandone la gestione. Per i sistemi iperconvergenti, IDC stima un CAGR al 2020 pari addirittura al 59,7%. Nell’ottica del percorso evolutivo delle infrastrutture IT aziendali, i sistemi convergenti e iperconvergenti facilitano la creazione e gestione di ambienti cloud rispondendo a esigenze di agilità, governance e controllo dei costi.

Il tema dell’evoluzione dell’infrastruttura IT e del ruolo dello storage flash e dei sistemi convergenti e iperconvergenti sarà trattato all’interno di un doppio evento organizzato da Dell EMC in collaborazione con IDC dal titolo “Accelera la trasformazione per migliorare il tuo business”.

Il doppio evento si terrà a Milano il 4 luglio e a Villafranca di Verona il 6 luglio e vedrà la partecipazione – come partner di Dell EMC – anche di Microsoft nella prima tappa e di Intel e VMware nella seconda tappa. Chairman del doppio evento sarà Sergio Patano, senior research and consulting manager di IDC Italia.

Con Big Data serve lo storage next-gen

Nel corso del 2016, i progetti aziendali relativi ai Big Data hanno alimentato la richiesta di architetture di storage più scalabili, agili e on-demand. IDC ha evidenziato nel corso dell’anno appena concluso un ricorso sempre maggiore da parte dei dipartimenti IT aziendali a tecnologie emergenti quali il software-defined storage, i sistemi flash e le infrastrutture cloud ibride.

Questo trend si inserisce nel quadro più generale della progressiva evoluzione dell’IT aziendale dettata dall’inevitabile processo di trasformazione digitale del business. Da un punto di vista prettamente tecnologico, le soluzioni applicative e infrastrutturali legate alla Terza Piattaforma stanno consentendo alle aziende di puntare a quell’obiettivo fondamentale di agilità richiesto per competere nella nuova data economy.

I Big Data stanno pertanto influenzando molte delle decisioni d’acquisto di tecnologia da parte delle aziende, in particolar modo quelle in ambito storage. Quando il dato viene creato, catturato o archiviato, deve essere analizzato o analizzabile entro il suo ciclo di vita. Per questo motivo la piattaforma di storage assume fondamentale importanza.

IDC evidenzia come a livello mondiale la spesa aziendale in storage per progetti Big Data sia destinata a crescere con un tasso annuale medio del 22,4% fino al 2020. In particolare, questa spesa andrà a superare i 20 miliardi di dollari nel 2020. In termini di capacità consegnata, tutto questo si tradurrà in un CAGR al 2020 pari quasi al 29%, fino a superare i 92 exabyte nel 2020.

Un approccio software-defined allo storage consente alle aziende di ridurre la complessità ed eliminare i silos degli ambienti di storage, rendendo l’intera infrastruttura più agile e quindi più veloce nel rispondere alle richieste del business. Più i data set diventano grandi, e più il software-defined diventa economicamente conveniente.

Incremento di velocità e riduzione della latenza sono poi raggiungibili con sistemi storage flash, che grazie alle elevate prestazioni e a un TCO sempre più accessibile vedono crescere la loro penetrazione all’interno dei data center aziendali rispetto ai sistemi tradizionali (HDD), soprattutto per quanto riguarda le applicazioni business critical.

In questo contesto evolutivo, con dati in forte crescita e risorse di storage che devono giostrarsi tra capacità e costi di archiviazione, diventa ancor più importante creare un ambiente che sia flessibile e scalabile. Con il cloud ibrido le aziende possono raggiungere tale obiettivo, facendo migrare i dati tra ambienti di cloud privato e pubblico, valorizzando l’infrastruttura esistente e cogliendo le potenzialità in termini di elasticità ed economicità delle offerte on-premise.

IBM in collaborazione con IDC organizza un evento durante il quale, con live-demo e casi studio, mostrerà come ciascuno di questi tre elementi risulti fondamentale per realizzare un’infrastruttura di storage business-ready, ponendo anche l’accento su un quarto aspetto, la sicurezza. Intitolato Navigare sicuri in un oceano di dati, l’evento si svolgerà a Milano il 23 marzo e guiderà i presenti in sala attraverso scenari di business reali che offriranno l’opportunità di valutare i vantaggi esponenziali di un’implementazione congiunta di tali soluzioni.