Gestione del dato nelle aziende italiane: Roadmap to Intelligent Enterprise

Le imprese si trovano oggi a competere non soltanto nei processi di trasformazione materiale di beni e servizi, ma anche nella capacità di impiegare il dato come fattore produttivo attraverso un proprio autonomo processo di trasformazione.



Per cogliere le nuove sfide dei mercati occorre una cultura aziendale che sia centrata sul dato: l’abilità di impiegare strumenti analitici avanzati, di visualizzare e interpretare relazioni implicite fra dati eterogenei, e di indirizzare tali competenze a un supporto immediato e costante dei processi decisionali richiede un balzo oltre i tradizionali paradigmi di analisi, introducendo nuove soluzioni, nuovi processi e nuove figure professionali. L’impresa che intende affrontare la sfida della trasformazione digitale deve necessariamente evolvere a una dimensione del tutto nuova.
I sistemi di business intelligence e business analytics esistono da decenni. Tuttavia, queste soluzioni non sempre hanno prodotto un reale supporto decisionale, limitandosi a rilasciare informazioni senza fornire indicazioni. E’ quindi necessario spostare la focalizzazione dai big data, dagli analytics o dal machine learning alle decisioni, così da sfruttare le informazioni per un vantaggio competitivo che non si esaurisca nell’immediato. Entro il 2021, prevede IDC, una grande impresa su quattro avrà creato un processo di interpretazione del dato basato su un’ampia articolazione di figure professionali specifiche e indipendenti, per sfruttare nel miglior modo possibile il fattore produttivo e decisionale del nuovo millennio, l’informazione.
Ma, allo stato attuale, come si posizionano le aziende, soprattutto in Italia, in questo percorso di gestione del dato come fattore competitivo? Una ricerca di IDC condotta su un campione di 172 imprese italiane di classe enterprise ha individuato quattro stadi di avanzamento.
Quasi la metà del campione (il 43%) si trova al primo stadio: aziende che devono ancora concludere la fase di razionalizzazione dei propri sistemi e della propria strategia digitale, e che dunque ancora non riescono a trarre un vantaggio competitivo concreto dai dati.
Al secondo stadio appartiene il 25% delle grandi aziende italiane: qui il dato viene considerato come uno strumento indispensabile per progredire nei processi di automazione industriale, ovvero rappresenta un valore soltanto se consente di automatizzare meglio i processi.
I due stadi più avanzati vedono presente solo un terzo delle grandi organizzazioni italiane. Nel terzo stadio risiede il 23% del campione analizzato da IDC: si tratta di imprese che impiegano i dati per consolidare un vantaggio immediato nei confronti dei concorrenti senza procedere necessariamente attraverso l’automazione, ma migliorando l’efficacia dei processi di pianificazione e controllo.
Infine, allo stadio più avanzato, ovvero il quarto, appartiene il 9% delle grandi aziende italiane: realtà che IDC colloca in una fase profonda di trasformazione, capaci di gestire i dati non solo per automatizzare i processi o migliorare la pianificazione e il controllo, ma per competere sul
terreno dell’innovazione a lungo termine.
Roadmap to Intelligent Enterprise: le nuove strategie per competere nell’economia della conoscenza è il titolo di un nuovo evento che MicroStrategy in collaborazione con IDC organizza a Milano il prossimo 30 maggio. Durante l’incontro, gli analisti di IDC e gli esperti di MicroStrategy
illustreranno le nuove tendenze nell’ambito degli analytics e condivideranno le loro esperienze su temi quali il data-driven decision making e l’intelligence process workflow, per spiegare alla platea di CIO e innovation manager cosa stiano concretamente facendo le grandi imprese in Italia e in Europa per affrontare la sfida della trasformazione in Intelligent Enterprise.

Dal core all’edge, lo spazio digitale rimodella il data center

Trasformarsi digitalmente significa per gran parte delle aziende interagire con i clienti in modo più innovativo e immersivo, sfruttando la capacità di raccogliere, elaborare e analizzare i dati direttamente in prossimità di grandi concentrazioni di persone o cose – quello che in gergo viene definito l’edge. L’edge, per estensione, è anche una risorsa IT remota, una sorta di micro data center dotato di particolari accorgimenti in materia di sicurezza
e resilienza, e soprattutto quasi completamente automatizzato non risultando il più delle volte presidiato da personale umano.
L’edge computing sta ponendo nuove sfide alle imprese. Entro il 2021, prevede IDC, i settori più rivolti ai consumatori investiranno maggiormente in innovazione e upgrade delle infrastrutture edge rispetto a quelle core, vale a dire i tradizionali data center aziendali, che saranno comunque lo stesso fortemente impattati da questo fenomeno.
Com’è facile immaginare, molta della spesa si focalizzerà su tecnologie intelligenti in grado di portare più automazione possibile nei collegamenti tra data center core ed edge, non fosse altro che per sopperire alla mancanza di presidio umano nei siti edge. Quindi, piattaforme in grado di monitorare in tempo reale lo stato dell’infrastruttura – dalle componenti di alimentazione e raffreddamento fino ai sistemi IT e di comunicazione – e soluzioni capaci di analizzare e prevenire richieste e picchi di elaborazione così da migliorare l’efficienza operativa e di business.
Ovviamente, supportare iniziative di digital transformation implica anche rendere i propri data center in grado di erogare servizi IT con la massima rapidità e agilità, nonché garantire quel livello di resilienza tale da evitare disservizi. Proprio per questo motivo, IDC prevede che il 55% delle grandi aziende sarà costretto nei prossimi tre anni a modernizzare i propri asset data center.

Internet of Things, supply chain digitali, convergenza IT-OT, digital signage, autonomous transportation e robotica sono tutti esempi che introducono o accentuano il bisogno di nuovi ambienti edge in un panorama IT già diversificato, dall’on-premise al cloud.

E proprio per spiegare come questa esigenza di “prossimità digitale” andrà a trasformare le strategie data center – interessando il core, l’edge e il cloud – Schneider Electric in collaborazione con IDC incontrerà le aziende italiane in due appuntamenti che si terranno il 24 maggio a Castel San Pietro Terme (Bologna) e il 31 maggio a Torino.
Il roadshow, intitolato Local Edge: strategie e regole per la nuova era di gestione delle risorse IT, vedrà gli analisti di IDC insieme a ospiti ed esperti di Schneider Electric illustrare come applicare il modello edge e “smarter data center” ai nuovi processi digitali, valutando le ricadute sugli aspetti architetturali e infrastrutturali. Saranno anche presentate best practice e introdotti i nuovi KPI per i processi di analisi, visibilità e controllo.

Con Big Data serve lo storage next-gen

Nel corso del 2016, i progetti aziendali relativi ai Big Data hanno alimentato la richiesta di architetture di storage più scalabili, agili e on-demand. IDC ha evidenziato nel corso dell’anno appena concluso un ricorso sempre maggiore da parte dei dipartimenti IT aziendali a tecnologie emergenti quali il software-defined storage, i sistemi flash e le infrastrutture cloud ibride.

Questo trend si inserisce nel quadro più generale della progressiva evoluzione dell’IT aziendale dettata dall’inevitabile processo di trasformazione digitale del business. Da un punto di vista prettamente tecnologico, le soluzioni applicative e infrastrutturali legate alla Terza Piattaforma stanno consentendo alle aziende di puntare a quell’obiettivo fondamentale di agilità richiesto per competere nella nuova data economy.

I Big Data stanno pertanto influenzando molte delle decisioni d’acquisto di tecnologia da parte delle aziende, in particolar modo quelle in ambito storage. Quando il dato viene creato, catturato o archiviato, deve essere analizzato o analizzabile entro il suo ciclo di vita. Per questo motivo la piattaforma di storage assume fondamentale importanza.

IDC evidenzia come a livello mondiale la spesa aziendale in storage per progetti Big Data sia destinata a crescere con un tasso annuale medio del 22,4% fino al 2020. In particolare, questa spesa andrà a superare i 20 miliardi di dollari nel 2020. In termini di capacità consegnata, tutto questo si tradurrà in un CAGR al 2020 pari quasi al 29%, fino a superare i 92 exabyte nel 2020.

Un approccio software-defined allo storage consente alle aziende di ridurre la complessità ed eliminare i silos degli ambienti di storage, rendendo l’intera infrastruttura più agile e quindi più veloce nel rispondere alle richieste del business. Più i data set diventano grandi, e più il software-defined diventa economicamente conveniente.

Incremento di velocità e riduzione della latenza sono poi raggiungibili con sistemi storage flash, che grazie alle elevate prestazioni e a un TCO sempre più accessibile vedono crescere la loro penetrazione all’interno dei data center aziendali rispetto ai sistemi tradizionali (HDD), soprattutto per quanto riguarda le applicazioni business critical.

In questo contesto evolutivo, con dati in forte crescita e risorse di storage che devono giostrarsi tra capacità e costi di archiviazione, diventa ancor più importante creare un ambiente che sia flessibile e scalabile. Con il cloud ibrido le aziende possono raggiungere tale obiettivo, facendo migrare i dati tra ambienti di cloud privato e pubblico, valorizzando l’infrastruttura esistente e cogliendo le potenzialità in termini di elasticità ed economicità delle offerte on-premise.

IBM in collaborazione con IDC organizza un evento durante il quale, con live-demo e casi studio, mostrerà come ciascuno di questi tre elementi risulti fondamentale per realizzare un’infrastruttura di storage business-ready, ponendo anche l’accento su un quarto aspetto, la sicurezza. Intitolato Navigare sicuri in un oceano di dati, l’evento si svolgerà a Milano il 23 marzo e guiderà i presenti in sala attraverso scenari di business reali che offriranno l’opportunità di valutare i vantaggi esponenziali di un’implementazione congiunta di tali soluzioni.

Storage aziendale, le qualità vincenti del SDS (software-defined storage)

Il software-defined storage (SDS) sta emergendo nel panorama delle architetture di storage come un abilitatore strategico per la trasformazione dei data center in chiave più flessibile, aperta ed economicamente più efficiente. Una recente indagine condotta da IDC a livello europeo rivela in effetti che un numero crescente di organizzazioni IT aziendali sta optando per soluzioni SDS per gestire volumi di dati (strutturati e non) sempre più grandi e soprattutto per supportare workload sempre più complessi, dinamici ed eterogenei.

Nel periodo 2015-2019, IDC stima un tasso medio annuale di crescita per il mercato mondiale SDS pari al 21% in valore e addirittura al 45% in capacità. Nel 2015, il giro d’affari del mercato mondiale è stato di 4,5 miliardi di dollari, con una capacità rilasciata di 5,6 EB.

Il software-defined storage fondamentalmente cambia il modo in cui le piattaforme di storage vengono create e rilasciate dai fornitori così come anche il modo in cui vengono acquistate e consumate dagli utenti. IDC definisce SDS un sistema (hardware più software) in grado di fornire un set completo di servizi di storage mediante uno stack software autonomo (commerciale od open source) che gira su (ma non è vincolato a) piattaforme hardware (storage server-based) costruite utilizzando componenti industry-standard.

Quali sono i vantaggi dell’SDS? Secondo IDC, in primis una semplificazione della gestione dello storage aziendale. Essendo tutte le principali funzionalità di storage fornite direttamente dallo stack software, ne deriva una maggiore efficienza in termini di gestione ed elaborazione dei dati. Inoltre, il fatto che questo stack software risulti disaccoppiato dall’hardware sottostante, sta portando sempre più aziende a preferire l’SDS per evitare i vincoli del vendor lock-in. Da sottolineare, a tal proposito, una tendenza sempre più marcata da parte delle aziende all’adozione di componenti software open source.

Il 34% delle aziende europee, rivela IDC, indica nella possibilità di scalare lo storage in maniera economicamente più efficiente il primo driver per l’adozione di architetture SDS. La roadmap di IDC prevede del resto che proprio l’evoluzione del data center verso il cloud ibrido sia realizzabile attraverso un approccio software-defined, che vada a disaccoppiare la componente fisica dalle sue capacità, considerandolo come un unico pool di risorse da cui attingere in base alle necessità del business e quindi in grado di assecondare l’altalenarsi dei carichi di lavoro.

Come l’SDS, e in particolare la sua versione open source, permette di realizzare ambienti operativi altamente scalabili nei modelli di delivery service-oriented quali il cloud ibrido sarà oggetto di un evento organizzato da Fujitsu, Intel e Red Hat in collaborazione con IDC il prossimo 1 febbraio a Roma.

Intitolato Define Your Strategy, Open Your Infrastructure, l’evento fornirà proprio l’occasione per trovare risposte a quesiti quali:
• Come ridurre il TCO degli ambienti storage attraverso un approccio software-defined?
• Open source e sicurezza, due facce della stessa medaglia?
• La digital transformation si fonda anche e soprattutto sull’open source. Quali opportunità?

All’evento parteciperanno gli analisti di IDC e gli esperti di Fujitsu, Intel e Red Hat, oltre a un’azienda in qualità di case study.

Big Data in Europa, accelerazione nel 2014 #IDCBigDataBO13

Se negli Stati Uniti i Big Data hanno ormai assunto i contorni di un vero e proprio mercato mainstream, in Europa la loro diffusione tra le aziende è finora avvenuta a ritmi molto più blandi. A rallentare fino a questo momento l’adozione di progetti Big Data tra le organizzazioni europee hanno concorso soprattutto tre fattori: il volume dei set di dati gestiti dalle aziende in Europa, in genere più limitato; le strette regolamentazioni del mercato del lavoro europeo, che ha reso più difficile l’impiego di nuove figure professionali in un’area che necessita di competenze altamente qualificate; infine il clima economico, che ha rallentato gli investimenti in nuove aree e tecnologie.
Tuttavia, anche in Europa sta ora partendo con più forza un’ondata di consapevolezza circa le opportunità e i benefici derivanti dall’adozione di strategie mirate ai Big Data: sbloccando gli asset informativi e il valore dei Big Data, la funzione IT può migliorare i livelli di ottimizzazione (customer engagement, supply chain, pricing), di controllo (compliance, sicurezza, risk management) e soprattutto accelerare l’innovazione dei processi aziendali (prodotti e servizi, ma anche infrastruttura di business). Continue reading “Big Data in Europa, accelerazione nel 2014 #IDCBigDataBO13”