Il data center aziendale del futuro

Il data center aziendale del futuro sarà sempre più un’infrastruttura agile, distribuita e automatizzata, in grado di fornire un’esperienza cloud e di erogare servizi al business dove e quando richiesti. E tra il core e l’edge, nello scenario previsto da IDC, andrà diffondendosi uno strato intermedio.
Il data center sta attraversando una fase di profonda trasformazione generata da una parte dal crescente appetito aziendale per le nuove applicazioni che, disegnate in modo diverso rispetto al passato, richiedono un cambiamento sostanziale nella gestione dell’infrastruttura, dall’altra dalla necessità di continuare a supportare e modernizzare il mondo legacy.
A livello di data center interni, questa trasformazione andrà a invertire uno dei trend più evidenti degli ultimi anni: quello della concentrazione in grandi strutture. Il consolidamento dei data center è una best practice IT di lunga tradizione: crescendo organicamente o per acquisizioni, la proliferazione dei data center ha sempre rappresentato una sfida per le aziende, portandole nel corso di un ciclo standard compreso tra i quattro e i sette anni a realizzare nuove e più grandi facility vicine alla sede principale e a chiudere o consolidare le location più piccole e lontane.
La trasformazione digitale sta capovolgendo questa tendenza. L’enorme quantità di dati generati da più fronti sta creando grandi repository di informazioni che saranno per lo più fatti risiedere in mega data center cloud gestiti da fornitori IaaS e SaaS o in strutture più piccole posizionate più favorevolmente, a livello geografico, in termini di latenza e risposta di servizio. Ciò renderà sempre meno importante la costruzione di grandi data center aziendali.
Già nel corso del 2019, IDC prevede che il 25% delle aziende abbandonerà il consolidamento di grandi data center a favore della modernizzazione di data center di più piccole dimensioni posizionati più strategicamente. Questa previsione fa il paio con una seconda, che IDC proietta al 2020, che afferma che l’esigenza di conservare e gestire il volume crescente di dati generati all’edge porterà il 40% delle aziende a istituire e servirsi di uno strato intermedio di “data vault”.
L’enorme flusso di dati che nei prossimi anni sommergerà le aziende dovrà essere immagazzinato e reso accessibile per essere analizzato, e niente di ciò è probabile che avvenga vicino agli attuali data center aziendali, sostiene IDC. Per gestire questa proliferazione di dati, molte organizzazioni adotteranno una strategia di data vaulting che permetterà loro di consolidare i dati in siti sicuri intermedi, spesso gestiti da colocator, senza bisogno di costruire nuove facility. In questi siti – presso i quali si potrà accedere a consumo a “pacchetti” di spazio, connettività, capacità di storage e sicurezza – le aziende potranno avviare processi di pulizia e gestione dei dati immagazzinati, servendosi dell’aiuto dei colocator per gestire la rete dei vari data vault e lo spostamento dei dati tra i data vault, i data center interni e i cloud data center.
Questa progressiva granularizzazione porterà a una terza fase: l’aumento dell’impiego di tecnologie di intelligenza artificiale e machine learning per ottimizzare la gestione infrastrutturale della rete di data center, data vault e siti edge. Entro il 2022, IDC prevede che il 50% degli asset IT dei data center aziendali potrà operare autonomamente grazie a tecnologie AI. A livello centrale, AI e ML porteranno a una maggiore automazione delle operazioni per aumentare la resilienza e ottimizzare le prestazioni. Questa tendenza sarà ancor più evidente all’edge, ove il presidio umano risulterà più limitato, se non addirittura assente.
La trasformazione del data center sarà al centro dell’IDC Datacenter of the Future Conference 2019 che si terrà a Milano il 27 marzo prossimo all’Hotel Melià. Alla presenza degli analisti IDC, dei maggiori esperti del settore e di aziende italiane che porteranno la loro diretta esperienza, i partecipanti potranno comprendere la portata dei cambiamenti in atto, i possibili impatti sulle scelte IT infrastrutturali attuali e le direzioni da prendere per affrontare il futuro.

Tecnologie software-defined, iperconvergenza, automazione e sicurezza i quattro pilastri per la trasformazione digitale delle infrastrutture IT aziendali

La trasformazione digitale sta evidenziando i limiti di molte infrastrutture IT aziendali, mettendo sotto pressione CIO e IT manager. L’affermarsi del paradigma della Terza Piattaforma e il rapido emergere di tecnologie innovative come l’Internet of Things e l’Intelligenza Artificiale richiedono infatti un nuovo data center, in grado di supportare i processi digitali rispondendo nel contempo a elevati requisiti di sicurezza e governance. IDC sottolinea come le organizzazioni IT debbano oggi trovare il giusto percorso per ridurre i costi operativi, liberare le risorse e aumentare la spinta verso l’innovazione e il supporto al business, così da permettere alla propria azienda di restare competitiva sui mercati. La strada più percorribile, e finora percorsa, è quella di un processo di modernizzazione del data center che porti all’hybrid IT prima e al multicloud in prospettiva.
Questa evidenza è stata al centro di un roadshow organizzato da IDC e VMware che tra i mesi di aprile e maggio ha toccato sette diverse città italiane, coinvolgendo in ogni tappa anche un partner locale: Bologna (AD Consulting), Torino (Var Group), Firenze (In20), Padova (Dedagroup), Bari (ITM), Napoli (R1) e Ancona (Gruppo Filippetti).

Intitolato “Modernize Data Center: gli step per un’infrastruttura intelligente”, l’evento ha dato l’opportunità ad oltre 200 tra CIO e IT manager italiani di confrontarsi su punti quali le infrastrutture software-defined, l’iperconvergenza, l’automazione e la sicurezza, ovvero quei pilastri oggi fondamentali per realizzare un vero ambiente IT ibrido in grado di valorizzare gli asset on-premise e le applicazioni legacy sfruttando però le nuove opportunità offerte dal cloud e dalle tecnologie digitali.
L’adozione di tecnologie software-defined infrastructure e software-defined networking nei data center consente oggi alle aziende di astrarre ulteriormente il layer infrastrutturale, rendendo possibili livelli di agilità ed efficienza superiori e permettendo di utilizzare sistemi iperconvergenti standard.
Nel corso del roadshow è emersa l’importanza del cloud nel percorso di trasformazione aziendale, con sfumature differenti tra cloud privato e pubblico. Mentre infatti il private cloud viene considerato importante dalle imprese italiane per ridurre i costi operativi e per migliorare la qualità e l’efficienza dei servizi offerti al business, l’adozione del public cloud viene vista come essenziale per l’innovazione digitale, il time to market e la crescita in nuovi mercati.
Sul cloud restano infatti alcune criticità da risolvere, tipiche del tessuto industriale italiano. E’ emerso, in diverse tappe del roadshow, il tema della difficoltà di affidarsi interamente al cloud a causa della carenza di banda in alcune aree. Anche qui la tecnologia software-defined può fornire una soluzione, nella forma di tecnologie software-defined WAN in grado di aggregare e orchestrare più collegamenti per instradare i dati sul cloud.
Infine, è stata ancora una volta confermata la massima importanza data dalle aziende italiane alla sicurezza: per più del 50% delle imprese italiane è la prima voce di intervento e di miglioramento.

Gestione del dato nelle aziende italiane: Roadmap to Intelligent Enterprise

Le imprese si trovano oggi a competere non soltanto nei processi di trasformazione materiale di beni e servizi, ma anche nella capacità di impiegare il dato come fattore produttivo attraverso un proprio autonomo processo di trasformazione.



Per cogliere le nuove sfide dei mercati occorre una cultura aziendale che sia centrata sul dato: l’abilità di impiegare strumenti analitici avanzati, di visualizzare e interpretare relazioni implicite fra dati eterogenei, e di indirizzare tali competenze a un supporto immediato e costante dei processi decisionali richiede un balzo oltre i tradizionali paradigmi di analisi, introducendo nuove soluzioni, nuovi processi e nuove figure professionali. L’impresa che intende affrontare la sfida della trasformazione digitale deve necessariamente evolvere a una dimensione del tutto nuova.
I sistemi di business intelligence e business analytics esistono da decenni. Tuttavia, queste soluzioni non sempre hanno prodotto un reale supporto decisionale, limitandosi a rilasciare informazioni senza fornire indicazioni. E’ quindi necessario spostare la focalizzazione dai big data, dagli analytics o dal machine learning alle decisioni, così da sfruttare le informazioni per un vantaggio competitivo che non si esaurisca nell’immediato. Entro il 2021, prevede IDC, una grande impresa su quattro avrà creato un processo di interpretazione del dato basato su un’ampia articolazione di figure professionali specifiche e indipendenti, per sfruttare nel miglior modo possibile il fattore produttivo e decisionale del nuovo millennio, l’informazione.
Ma, allo stato attuale, come si posizionano le aziende, soprattutto in Italia, in questo percorso di gestione del dato come fattore competitivo? Una ricerca di IDC condotta su un campione di 172 imprese italiane di classe enterprise ha individuato quattro stadi di avanzamento.
Quasi la metà del campione (il 43%) si trova al primo stadio: aziende che devono ancora concludere la fase di razionalizzazione dei propri sistemi e della propria strategia digitale, e che dunque ancora non riescono a trarre un vantaggio competitivo concreto dai dati.
Al secondo stadio appartiene il 25% delle grandi aziende italiane: qui il dato viene considerato come uno strumento indispensabile per progredire nei processi di automazione industriale, ovvero rappresenta un valore soltanto se consente di automatizzare meglio i processi.
I due stadi più avanzati vedono presente solo un terzo delle grandi organizzazioni italiane. Nel terzo stadio risiede il 23% del campione analizzato da IDC: si tratta di imprese che impiegano i dati per consolidare un vantaggio immediato nei confronti dei concorrenti senza procedere necessariamente attraverso l’automazione, ma migliorando l’efficacia dei processi di pianificazione e controllo.
Infine, allo stadio più avanzato, ovvero il quarto, appartiene il 9% delle grandi aziende italiane: realtà che IDC colloca in una fase profonda di trasformazione, capaci di gestire i dati non solo per automatizzare i processi o migliorare la pianificazione e il controllo, ma per competere sul
terreno dell’innovazione a lungo termine.
Roadmap to Intelligent Enterprise: le nuove strategie per competere nell’economia della conoscenza è il titolo di un nuovo evento che MicroStrategy in collaborazione con IDC organizza a Milano il prossimo 30 maggio. Durante l’incontro, gli analisti di IDC e gli esperti di MicroStrategy
illustreranno le nuove tendenze nell’ambito degli analytics e condivideranno le loro esperienze su temi quali il data-driven decision making e l’intelligence process workflow, per spiegare alla platea di CIO e innovation manager cosa stiano concretamente facendo le grandi imprese in Italia e in Europa per affrontare la sfida della trasformazione in Intelligent Enterprise.

Dal core all’edge, lo spazio digitale rimodella il data center

Trasformarsi digitalmente significa per gran parte delle aziende interagire con i clienti in modo più innovativo e immersivo, sfruttando la capacità di raccogliere, elaborare e analizzare i dati direttamente in prossimità di grandi concentrazioni di persone o cose – quello che in gergo viene definito l’edge. L’edge, per estensione, è anche una risorsa IT remota, una sorta di micro data center dotato di particolari accorgimenti in materia di sicurezza
e resilienza, e soprattutto quasi completamente automatizzato non risultando il più delle volte presidiato da personale umano.
L’edge computing sta ponendo nuove sfide alle imprese. Entro il 2021, prevede IDC, i settori più rivolti ai consumatori investiranno maggiormente in innovazione e upgrade delle infrastrutture edge rispetto a quelle core, vale a dire i tradizionali data center aziendali, che saranno comunque lo stesso fortemente impattati da questo fenomeno.
Com’è facile immaginare, molta della spesa si focalizzerà su tecnologie intelligenti in grado di portare più automazione possibile nei collegamenti tra data center core ed edge, non fosse altro che per sopperire alla mancanza di presidio umano nei siti edge. Quindi, piattaforme in grado di monitorare in tempo reale lo stato dell’infrastruttura – dalle componenti di alimentazione e raffreddamento fino ai sistemi IT e di comunicazione – e soluzioni capaci di analizzare e prevenire richieste e picchi di elaborazione così da migliorare l’efficienza operativa e di business.
Ovviamente, supportare iniziative di digital transformation implica anche rendere i propri data center in grado di erogare servizi IT con la massima rapidità e agilità, nonché garantire quel livello di resilienza tale da evitare disservizi. Proprio per questo motivo, IDC prevede che il 55% delle grandi aziende sarà costretto nei prossimi tre anni a modernizzare i propri asset data center.

Internet of Things, supply chain digitali, convergenza IT-OT, digital signage, autonomous transportation e robotica sono tutti esempi che introducono o accentuano il bisogno di nuovi ambienti edge in un panorama IT già diversificato, dall’on-premise al cloud.

E proprio per spiegare come questa esigenza di “prossimità digitale” andrà a trasformare le strategie data center – interessando il core, l’edge e il cloud – Schneider Electric in collaborazione con IDC incontrerà le aziende italiane in due appuntamenti che si terranno il 24 maggio a Castel San Pietro Terme (Bologna) e il 31 maggio a Torino.
Il roadshow, intitolato Local Edge: strategie e regole per la nuova era di gestione delle risorse IT, vedrà gli analisti di IDC insieme a ospiti ed esperti di Schneider Electric illustrare come applicare il modello edge e “smarter data center” ai nuovi processi digitali, valutando le ricadute sugli aspetti architetturali e infrastrutturali. Saranno anche presentate best practice e introdotti i nuovi KPI per i processi di analisi, visibilità e controllo.

Con Big Data serve lo storage next-gen

Nel corso del 2016, i progetti aziendali relativi ai Big Data hanno alimentato la richiesta di architetture di storage più scalabili, agili e on-demand. IDC ha evidenziato nel corso dell’anno appena concluso un ricorso sempre maggiore da parte dei dipartimenti IT aziendali a tecnologie emergenti quali il software-defined storage, i sistemi flash e le infrastrutture cloud ibride.

Questo trend si inserisce nel quadro più generale della progressiva evoluzione dell’IT aziendale dettata dall’inevitabile processo di trasformazione digitale del business. Da un punto di vista prettamente tecnologico, le soluzioni applicative e infrastrutturali legate alla Terza Piattaforma stanno consentendo alle aziende di puntare a quell’obiettivo fondamentale di agilità richiesto per competere nella nuova data economy.

I Big Data stanno pertanto influenzando molte delle decisioni d’acquisto di tecnologia da parte delle aziende, in particolar modo quelle in ambito storage. Quando il dato viene creato, catturato o archiviato, deve essere analizzato o analizzabile entro il suo ciclo di vita. Per questo motivo la piattaforma di storage assume fondamentale importanza.

IDC evidenzia come a livello mondiale la spesa aziendale in storage per progetti Big Data sia destinata a crescere con un tasso annuale medio del 22,4% fino al 2020. In particolare, questa spesa andrà a superare i 20 miliardi di dollari nel 2020. In termini di capacità consegnata, tutto questo si tradurrà in un CAGR al 2020 pari quasi al 29%, fino a superare i 92 exabyte nel 2020.

Un approccio software-defined allo storage consente alle aziende di ridurre la complessità ed eliminare i silos degli ambienti di storage, rendendo l’intera infrastruttura più agile e quindi più veloce nel rispondere alle richieste del business. Più i data set diventano grandi, e più il software-defined diventa economicamente conveniente.

Incremento di velocità e riduzione della latenza sono poi raggiungibili con sistemi storage flash, che grazie alle elevate prestazioni e a un TCO sempre più accessibile vedono crescere la loro penetrazione all’interno dei data center aziendali rispetto ai sistemi tradizionali (HDD), soprattutto per quanto riguarda le applicazioni business critical.

In questo contesto evolutivo, con dati in forte crescita e risorse di storage che devono giostrarsi tra capacità e costi di archiviazione, diventa ancor più importante creare un ambiente che sia flessibile e scalabile. Con il cloud ibrido le aziende possono raggiungere tale obiettivo, facendo migrare i dati tra ambienti di cloud privato e pubblico, valorizzando l’infrastruttura esistente e cogliendo le potenzialità in termini di elasticità ed economicità delle offerte on-premise.

IBM in collaborazione con IDC organizza un evento durante il quale, con live-demo e casi studio, mostrerà come ciascuno di questi tre elementi risulti fondamentale per realizzare un’infrastruttura di storage business-ready, ponendo anche l’accento su un quarto aspetto, la sicurezza. Intitolato Navigare sicuri in un oceano di dati, l’evento si svolgerà a Milano il 23 marzo e guiderà i presenti in sala attraverso scenari di business reali che offriranno l’opportunità di valutare i vantaggi esponenziali di un’implementazione congiunta di tali soluzioni.