Tecnologie software-defined, iperconvergenza, automazione e sicurezza i quattro pilastri per la trasformazione digitale delle infrastrutture IT aziendali

La trasformazione digitale sta evidenziando i limiti di molte infrastrutture IT aziendali, mettendo sotto pressione CIO e IT manager. L’affermarsi del paradigma della Terza Piattaforma e il rapido emergere di tecnologie innovative come l’Internet of Things e l’Intelligenza Artificiale richiedono infatti un nuovo data center, in grado di supportare i processi digitali rispondendo nel contempo a elevati requisiti di sicurezza e governance. IDC sottolinea come le organizzazioni IT debbano oggi trovare il giusto percorso per ridurre i costi operativi, liberare le risorse e aumentare la spinta verso l’innovazione e il supporto al business, così da permettere alla propria azienda di restare competitiva sui mercati. La strada più percorribile, e finora percorsa, è quella di un processo di modernizzazione del data center che porti all’hybrid IT prima e al multicloud in prospettiva.
Questa evidenza è stata al centro di un roadshow organizzato da IDC e VMware che tra i mesi di aprile e maggio ha toccato sette diverse città italiane, coinvolgendo in ogni tappa anche un partner locale: Bologna (AD Consulting), Torino (Var Group), Firenze (In20), Padova (Dedagroup), Bari (ITM), Napoli (R1) e Ancona (Gruppo Filippetti).

Intitolato “Modernize Data Center: gli step per un’infrastruttura intelligente”, l’evento ha dato l’opportunità ad oltre 200 tra CIO e IT manager italiani di confrontarsi su punti quali le infrastrutture software-defined, l’iperconvergenza, l’automazione e la sicurezza, ovvero quei pilastri oggi fondamentali per realizzare un vero ambiente IT ibrido in grado di valorizzare gli asset on-premise e le applicazioni legacy sfruttando però le nuove opportunità offerte dal cloud e dalle tecnologie digitali.
L’adozione di tecnologie software-defined infrastructure e software-defined networking nei data center consente oggi alle aziende di astrarre ulteriormente il layer infrastrutturale, rendendo possibili livelli di agilità ed efficienza superiori e permettendo di utilizzare sistemi iperconvergenti standard.
Nel corso del roadshow è emersa l’importanza del cloud nel percorso di trasformazione aziendale, con sfumature differenti tra cloud privato e pubblico. Mentre infatti il private cloud viene considerato importante dalle imprese italiane per ridurre i costi operativi e per migliorare la qualità e l’efficienza dei servizi offerti al business, l’adozione del public cloud viene vista come essenziale per l’innovazione digitale, il time to market e la crescita in nuovi mercati.
Sul cloud restano infatti alcune criticità da risolvere, tipiche del tessuto industriale italiano. E’ emerso, in diverse tappe del roadshow, il tema della difficoltà di affidarsi interamente al cloud a causa della carenza di banda in alcune aree. Anche qui la tecnologia software-defined può fornire una soluzione, nella forma di tecnologie software-defined WAN in grado di aggregare e orchestrare più collegamenti per instradare i dati sul cloud.
Infine, è stata ancora una volta confermata la massima importanza data dalle aziende italiane alla sicurezza: per più del 50% delle imprese italiane è la prima voce di intervento e di miglioramento.

Gestione del dato nelle aziende italiane: Roadmap to Intelligent Enterprise

Le imprese si trovano oggi a competere non soltanto nei processi di trasformazione materiale di beni e servizi, ma anche nella capacità di impiegare il dato come fattore produttivo attraverso un proprio autonomo processo di trasformazione.



Per cogliere le nuove sfide dei mercati occorre una cultura aziendale che sia centrata sul dato: l’abilità di impiegare strumenti analitici avanzati, di visualizzare e interpretare relazioni implicite fra dati eterogenei, e di indirizzare tali competenze a un supporto immediato e costante dei processi decisionali richiede un balzo oltre i tradizionali paradigmi di analisi, introducendo nuove soluzioni, nuovi processi e nuove figure professionali. L’impresa che intende affrontare la sfida della trasformazione digitale deve necessariamente evolvere a una dimensione del tutto nuova.
I sistemi di business intelligence e business analytics esistono da decenni. Tuttavia, queste soluzioni non sempre hanno prodotto un reale supporto decisionale, limitandosi a rilasciare informazioni senza fornire indicazioni. E’ quindi necessario spostare la focalizzazione dai big data, dagli analytics o dal machine learning alle decisioni, così da sfruttare le informazioni per un vantaggio competitivo che non si esaurisca nell’immediato. Entro il 2021, prevede IDC, una grande impresa su quattro avrà creato un processo di interpretazione del dato basato su un’ampia articolazione di figure professionali specifiche e indipendenti, per sfruttare nel miglior modo possibile il fattore produttivo e decisionale del nuovo millennio, l’informazione.
Ma, allo stato attuale, come si posizionano le aziende, soprattutto in Italia, in questo percorso di gestione del dato come fattore competitivo? Una ricerca di IDC condotta su un campione di 172 imprese italiane di classe enterprise ha individuato quattro stadi di avanzamento.
Quasi la metà del campione (il 43%) si trova al primo stadio: aziende che devono ancora concludere la fase di razionalizzazione dei propri sistemi e della propria strategia digitale, e che dunque ancora non riescono a trarre un vantaggio competitivo concreto dai dati.
Al secondo stadio appartiene il 25% delle grandi aziende italiane: qui il dato viene considerato come uno strumento indispensabile per progredire nei processi di automazione industriale, ovvero rappresenta un valore soltanto se consente di automatizzare meglio i processi.
I due stadi più avanzati vedono presente solo un terzo delle grandi organizzazioni italiane. Nel terzo stadio risiede il 23% del campione analizzato da IDC: si tratta di imprese che impiegano i dati per consolidare un vantaggio immediato nei confronti dei concorrenti senza procedere necessariamente attraverso l’automazione, ma migliorando l’efficacia dei processi di pianificazione e controllo.
Infine, allo stadio più avanzato, ovvero il quarto, appartiene il 9% delle grandi aziende italiane: realtà che IDC colloca in una fase profonda di trasformazione, capaci di gestire i dati non solo per automatizzare i processi o migliorare la pianificazione e il controllo, ma per competere sul
terreno dell’innovazione a lungo termine.
Roadmap to Intelligent Enterprise: le nuove strategie per competere nell’economia della conoscenza è il titolo di un nuovo evento che MicroStrategy in collaborazione con IDC organizza a Milano il prossimo 30 maggio. Durante l’incontro, gli analisti di IDC e gli esperti di MicroStrategy
illustreranno le nuove tendenze nell’ambito degli analytics e condivideranno le loro esperienze su temi quali il data-driven decision making e l’intelligence process workflow, per spiegare alla platea di CIO e innovation manager cosa stiano concretamente facendo le grandi imprese in Italia e in Europa per affrontare la sfida della trasformazione in Intelligent Enterprise.

Dal core all’edge, lo spazio digitale rimodella il data center

Trasformarsi digitalmente significa per gran parte delle aziende interagire con i clienti in modo più innovativo e immersivo, sfruttando la capacità di raccogliere, elaborare e analizzare i dati direttamente in prossimità di grandi concentrazioni di persone o cose – quello che in gergo viene definito l’edge. L’edge, per estensione, è anche una risorsa IT remota, una sorta di micro data center dotato di particolari accorgimenti in materia di sicurezza
e resilienza, e soprattutto quasi completamente automatizzato non risultando il più delle volte presidiato da personale umano.
L’edge computing sta ponendo nuove sfide alle imprese. Entro il 2021, prevede IDC, i settori più rivolti ai consumatori investiranno maggiormente in innovazione e upgrade delle infrastrutture edge rispetto a quelle core, vale a dire i tradizionali data center aziendali, che saranno comunque lo stesso fortemente impattati da questo fenomeno.
Com’è facile immaginare, molta della spesa si focalizzerà su tecnologie intelligenti in grado di portare più automazione possibile nei collegamenti tra data center core ed edge, non fosse altro che per sopperire alla mancanza di presidio umano nei siti edge. Quindi, piattaforme in grado di monitorare in tempo reale lo stato dell’infrastruttura – dalle componenti di alimentazione e raffreddamento fino ai sistemi IT e di comunicazione – e soluzioni capaci di analizzare e prevenire richieste e picchi di elaborazione così da migliorare l’efficienza operativa e di business.
Ovviamente, supportare iniziative di digital transformation implica anche rendere i propri data center in grado di erogare servizi IT con la massima rapidità e agilità, nonché garantire quel livello di resilienza tale da evitare disservizi. Proprio per questo motivo, IDC prevede che il 55% delle grandi aziende sarà costretto nei prossimi tre anni a modernizzare i propri asset data center.

Internet of Things, supply chain digitali, convergenza IT-OT, digital signage, autonomous transportation e robotica sono tutti esempi che introducono o accentuano il bisogno di nuovi ambienti edge in un panorama IT già diversificato, dall’on-premise al cloud.

E proprio per spiegare come questa esigenza di “prossimità digitale” andrà a trasformare le strategie data center – interessando il core, l’edge e il cloud – Schneider Electric in collaborazione con IDC incontrerà le aziende italiane in due appuntamenti che si terranno il 24 maggio a Castel San Pietro Terme (Bologna) e il 31 maggio a Torino.
Il roadshow, intitolato Local Edge: strategie e regole per la nuova era di gestione delle risorse IT, vedrà gli analisti di IDC insieme a ospiti ed esperti di Schneider Electric illustrare come applicare il modello edge e “smarter data center” ai nuovi processi digitali, valutando le ricadute sugli aspetti architetturali e infrastrutturali. Saranno anche presentate best practice e introdotti i nuovi KPI per i processi di analisi, visibilità e controllo.

Con Big Data serve lo storage next-gen

Nel corso del 2016, i progetti aziendali relativi ai Big Data hanno alimentato la richiesta di architetture di storage più scalabili, agili e on-demand. IDC ha evidenziato nel corso dell’anno appena concluso un ricorso sempre maggiore da parte dei dipartimenti IT aziendali a tecnologie emergenti quali il software-defined storage, i sistemi flash e le infrastrutture cloud ibride.

Questo trend si inserisce nel quadro più generale della progressiva evoluzione dell’IT aziendale dettata dall’inevitabile processo di trasformazione digitale del business. Da un punto di vista prettamente tecnologico, le soluzioni applicative e infrastrutturali legate alla Terza Piattaforma stanno consentendo alle aziende di puntare a quell’obiettivo fondamentale di agilità richiesto per competere nella nuova data economy.

I Big Data stanno pertanto influenzando molte delle decisioni d’acquisto di tecnologia da parte delle aziende, in particolar modo quelle in ambito storage. Quando il dato viene creato, catturato o archiviato, deve essere analizzato o analizzabile entro il suo ciclo di vita. Per questo motivo la piattaforma di storage assume fondamentale importanza.

IDC evidenzia come a livello mondiale la spesa aziendale in storage per progetti Big Data sia destinata a crescere con un tasso annuale medio del 22,4% fino al 2020. In particolare, questa spesa andrà a superare i 20 miliardi di dollari nel 2020. In termini di capacità consegnata, tutto questo si tradurrà in un CAGR al 2020 pari quasi al 29%, fino a superare i 92 exabyte nel 2020.

Un approccio software-defined allo storage consente alle aziende di ridurre la complessità ed eliminare i silos degli ambienti di storage, rendendo l’intera infrastruttura più agile e quindi più veloce nel rispondere alle richieste del business. Più i data set diventano grandi, e più il software-defined diventa economicamente conveniente.

Incremento di velocità e riduzione della latenza sono poi raggiungibili con sistemi storage flash, che grazie alle elevate prestazioni e a un TCO sempre più accessibile vedono crescere la loro penetrazione all’interno dei data center aziendali rispetto ai sistemi tradizionali (HDD), soprattutto per quanto riguarda le applicazioni business critical.

In questo contesto evolutivo, con dati in forte crescita e risorse di storage che devono giostrarsi tra capacità e costi di archiviazione, diventa ancor più importante creare un ambiente che sia flessibile e scalabile. Con il cloud ibrido le aziende possono raggiungere tale obiettivo, facendo migrare i dati tra ambienti di cloud privato e pubblico, valorizzando l’infrastruttura esistente e cogliendo le potenzialità in termini di elasticità ed economicità delle offerte on-premise.

IBM in collaborazione con IDC organizza un evento durante il quale, con live-demo e casi studio, mostrerà come ciascuno di questi tre elementi risulti fondamentale per realizzare un’infrastruttura di storage business-ready, ponendo anche l’accento su un quarto aspetto, la sicurezza. Intitolato Navigare sicuri in un oceano di dati, l’evento si svolgerà a Milano il 23 marzo e guiderà i presenti in sala attraverso scenari di business reali che offriranno l’opportunità di valutare i vantaggi esponenziali di un’implementazione congiunta di tali soluzioni.

Storage aziendale, le qualità vincenti del SDS (software-defined storage)

Il software-defined storage (SDS) sta emergendo nel panorama delle architetture di storage come un abilitatore strategico per la trasformazione dei data center in chiave più flessibile, aperta ed economicamente più efficiente. Una recente indagine condotta da IDC a livello europeo rivela in effetti che un numero crescente di organizzazioni IT aziendali sta optando per soluzioni SDS per gestire volumi di dati (strutturati e non) sempre più grandi e soprattutto per supportare workload sempre più complessi, dinamici ed eterogenei.

Nel periodo 2015-2019, IDC stima un tasso medio annuale di crescita per il mercato mondiale SDS pari al 21% in valore e addirittura al 45% in capacità. Nel 2015, il giro d’affari del mercato mondiale è stato di 4,5 miliardi di dollari, con una capacità rilasciata di 5,6 EB.

Il software-defined storage fondamentalmente cambia il modo in cui le piattaforme di storage vengono create e rilasciate dai fornitori così come anche il modo in cui vengono acquistate e consumate dagli utenti. IDC definisce SDS un sistema (hardware più software) in grado di fornire un set completo di servizi di storage mediante uno stack software autonomo (commerciale od open source) che gira su (ma non è vincolato a) piattaforme hardware (storage server-based) costruite utilizzando componenti industry-standard.

Quali sono i vantaggi dell’SDS? Secondo IDC, in primis una semplificazione della gestione dello storage aziendale. Essendo tutte le principali funzionalità di storage fornite direttamente dallo stack software, ne deriva una maggiore efficienza in termini di gestione ed elaborazione dei dati. Inoltre, il fatto che questo stack software risulti disaccoppiato dall’hardware sottostante, sta portando sempre più aziende a preferire l’SDS per evitare i vincoli del vendor lock-in. Da sottolineare, a tal proposito, una tendenza sempre più marcata da parte delle aziende all’adozione di componenti software open source.

Il 34% delle aziende europee, rivela IDC, indica nella possibilità di scalare lo storage in maniera economicamente più efficiente il primo driver per l’adozione di architetture SDS. La roadmap di IDC prevede del resto che proprio l’evoluzione del data center verso il cloud ibrido sia realizzabile attraverso un approccio software-defined, che vada a disaccoppiare la componente fisica dalle sue capacità, considerandolo come un unico pool di risorse da cui attingere in base alle necessità del business e quindi in grado di assecondare l’altalenarsi dei carichi di lavoro.

Come l’SDS, e in particolare la sua versione open source, permette di realizzare ambienti operativi altamente scalabili nei modelli di delivery service-oriented quali il cloud ibrido sarà oggetto di un evento organizzato da Fujitsu, Intel e Red Hat in collaborazione con IDC il prossimo 1 febbraio a Roma.

Intitolato Define Your Strategy, Open Your Infrastructure, l’evento fornirà proprio l’occasione per trovare risposte a quesiti quali:
• Come ridurre il TCO degli ambienti storage attraverso un approccio software-defined?
• Open source e sicurezza, due facce della stessa medaglia?
• La digital transformation si fonda anche e soprattutto sull’open source. Quali opportunità?

All’evento parteciperanno gli analisti di IDC e gli esperti di Fujitsu, Intel e Red Hat, oltre a un’azienda in qualità di case study.