I cinque trend del data center nel 2019

Alle porte del 2019, la rete edge continua a essere l’epicentro dell’innovazione nel data center. L’attenzione si concentra su un potenziamento dell’intelligenza volto a semplificare i processi operativi, a supportare la gestione e l’assistenza remote e a colmare una sempre più marcata mancanza di competenze. Questa rivisitazione dell’edge figura tra i trend del data center per il 2019 che sono stati identificati dai maggiori esperti di Vertiv nel mondo.

1. Semplificazione dell’edge: Una rete edge più intelligente, più semplice e autosufficiente va di pari passo con i trend del settore e dei consumatori, ad esempio l’Internet delle cose (IoT) e l’imminente lancio delle reti 5G, contribuendo ad avvicinare l’utente finale a tecnologie di computing potenti e a bassa latenza.
Per molte aziende, l’edge è diventato l’elemento più mission critical del proprio ecosistema digitale. Sistemi intelligenti per la gestione dell’infrastruttura con funzionalità di machine learning utilizzati in combinazione con l’analisi basata sul cloud stanno infatti trasformando radicalmente la nostra concezione di edge computing e servizi edge. Si otterrà così una rete edge più solida ed efficiente con funzionalità di visibilità e riparazione automatica avanzate e con un minor coinvolgimento manuale.
2. Rivoluzione sulla formazione dei dipendenti: Collaboratori in età avanzata prossima al pensionamento e programmi di formazione in ritardo rispetto all’evoluzione del data center e dell’edge stanno creando difficoltà a livello di competenze per i data center di tutto il pianeta. Nel 2019, quindi, verranno adottate misure per ovviare al problema. In primo luogo, le aziende inizieranno a modificare i processi di assunzione del personale destinato al data center, abbandonando i programmi di formazione tradizionali per preferire training più agili e specifici per il singolo job, con particolare attenzione per l’edge. Si prevede inoltre ulteriore formazione svolta internamente. In secondo luogo, le imprese implementeranno sistemi intelligenti e di machine learning per semplificare i processi operativi, salvaguardare le conoscenze istituzionali e supportare servizi di assistenza e manutenzione più predittivi ed efficienti.
3. Sistemi UPS più intelligenti ed efficienti: Le nuove batterie apriranno opportunità per l’adozione su vasta scala di sistemi UPS capaci di interazioni più accurate con la rete. Nel breve periodo, questa tendenza si tradurrà in funzioni di gestione dei carichi e livellamento dei picchi. Le aziende finiranno poi per utilizzare parte dell’energia immagazzinata nei propri sistemi UPS per aiutare la società di fornitura dei servizi a ottimizzare la rete elettrica. L’immagazzinaggio statico di tutta questa energia è considerato da tempo un tema con notevoli potenziali in termini di generazione di ricavi. Ci stiamo avvicinando alle applicazioni mainstream.
4. Obiettivo normalizzazione: Anche nell’era del design modulare e prefabbricato, il data center rimane decisamente troppo complesso per prevedere la completa standardizzazione delle infrastrutture. Si registra, tuttavia, un interesse su due fronti: standardizzazione dei componenti delle apparecchiature e normalizzazione del data center. La seconda si manifesta nell’uso di architetture e tipologie di apparecchiature standard (seppur con differenze a seconda dell’area geografica) al fine di garantire la semplicità nella gestione dei sistemi e il controllo dei costi. In entrambi i casi, l’obiettivo è ridurre i costi delle infrastrutture, accelerare i tempi di implementazione ed erogazione dei servizi, semplificando anche le modalità di assistenza e manutenzione.
5. Processori ad alta potenza e sistemi di raffreddamento avanzati: Man mano che aumenta il tasso di utilizzo dei processori per supportare applicazioni avanzate quali il riconoscimento facciale o l’analisi avanzata dei dati, i processori ad alta potenza richiedono approcci innovativi al thermal management. Il raffreddamento liquido diretto sul chip (con il processore o altri componenti parzialmente o totalmente immersi in un liquido per la dissipazione del calore) sta diventando una valida opportunità. Sebbene nella maggior parte dei casi questo metodo venga adottato per carichi di lavoro High Performance Computing (HPC), i vantaggi offerti (tra cui migliori prestazioni dei server, maggiore efficacia ad alte densità e costi di raffreddamento inferiori) giustificano un’attenta analisi. Un’altra area di innovazione nel comparto del thermal management è il raffreddamento estremo senz’acqua, un’alternativa sempre più diffusa rispetto al tradizionale utilizzo di acqua fredda.

Veritas e Pure Storage migliorano la gestione dei dati

Veritas Technologies in collaborazione con Pure Storage annuncia una nuova collaborazione a livello globale per aiutare i clienti comuni a modernizzare la protezione dati e a massimizzarne il loro valore per ottenere un vantaggio competitivo.

La collaborazione consentirà alle organizzazioni di consolidare con confidenza i moderni carichi di lavoro sull’esclusiva architettura data hub di Pure Storage, powered by Pure Storage FlashBlade. Grazie all’integrazione di NetBackup, la tecnologia di punta di Veritas, i dati aziendali possono essere condivisi, protetti e utilizzati per ottenere un valore senza precedenti.

A causa della rapida crescita e la frammentazione dei dati, le imprese di qualsiasi dimensione faticano a gestire, proteggere e ottenere informazioni dai dati. L’intelligenza moderna richiede una tecnologia che non solo memorizzi i dati, ma che sia anche in grado di generare insights dai dati, così ricchi di informazioni dall’essere naturalmente predittivi. Oggi, Veritas e Pure Storage offrono protezione dati e recupero rapido per i moderni carichi di lavoro, alimentando al contempo l’analisi dei dati e migliorando il machine learning.

Basato su FlashBlade, il data hub di Pure Storage centralizza i dati per facilitare un approccio unificato degli analytics, del backup, dei data lake e dei cluster di intelligenza artificiale (AI) per ottenere livelli di insights fino ad ora impensabili. Veritas NetBackup è in grado di proteggere un’intera architettura data hub basata su FlashBlade e può anche sfruttarla come target di backup, con rapidi ripristini quando necessario. Inoltre, Veritas NetBackup, insieme a Veritas CloudPoint, è stato integrato con Pure Storage FlashArray™, consentendo la gestione completa degli snapshot tramite la console di NetBackup. Il consolidamento delle tecnologie tra le due aziende consente di sfruttare l’AI e il machine learning su set di dati più grandi e diversificati, fornendo una business intelligence migliore che può portare a una più rapida innovazione.

Veritas e Pure Storage aiutano le aziende multi-cloud a ottenere più agilità e velocità, grazie alla protezione integrata basata su snapshot per le soluzioni di storage scale-out flash. Grazie all’integrazione di Veritas NetBackup e CloudPoint, le organizzazioni possono raggiungere RTO – Recovery Time Objective – più aggressivi e avere una protezione altamente performante dei dati su storage flash. Ciò consente ai clienti di soddisfare i rigorosi obblighi in termini di RTO e RPO – Recovery Point Objective – nel settore finanziario, nella sanità e in altri settori verticali in cui la normativa impone il recupero e la resilienza dei dati.

I benefici aggiuntivi della partnership includono:
• Maggiore agilità e velocità grazie alla protezione integrata basata su snapshot per architetture di storage flash, grazie all’integrazione di Veritas NetBackup e Veritas CloudPoint.
• RPO e RTO ottimizzati anche per le applicazioni più critiche e altamente transazionali dall’architettura parallela Pure Storage.
• Miglioramento del recupero dati con copie point-in-time consistenti e più affidabili grazie a Veritas NetBackup e all’integrazione tra Veritas CloudPoint e Pure Storage.
• Backup più veloce ed elevate prestazioni grazie all’integrazione tra Veritas NetBackup e Veritas CloudPoint senza lunghe finestre per gli snapshot e time-out delle applicazioni.

Data center green per un internet sostenibile

Russell Poole, Managing Director, United Kingdom, Equinix

L’esplosione globale dei dati è dovuta in gran parte all’Internet of Things (IoT), ai pagamenti digitali e all’aumento del numero di scambi di dati – tendenze destinate a crescere con l’avvento del digitale. Questa crescita straordinaria può significare enormi progressi per l’economia digitale, ma comporta un aumento significativo della domanda di energia e pone una nuova sfida per gli operatori dei data center, che cercano di ridurre al minimo la loro impronta di carbonio.
L’Indice di Interconnessione Globale di Equinix, giunto alla sua seconda edizione, prevede che le interconnessioni dirette tra imprese supereranno l’internet pubblico entro il 2020. Si prevede che gli scambi di dati privati tra le aziende cresceranno quasi 2 volte più velocemente del traffico IP globale nello stesso arco di tempo, e di quasi 6 volte il volume di dati, che porta così a un drastico aumento del traffico di dati che si sposta privatamente tra le aziende entro i confini dei data center.
Questa crescita esponenziale sarà alimentata principalmente da combustibili non rinnovabili. Di conseguenza, è necessario per l’industria, ricercare un modo più green di operare e assumersi la responsabilità condivisa di ridurre l’impatto ambientale. Ma quali misure stanno adottando i fornitori di data center per raggiungere questi pressanti obiettivi di sostenibilità?

Il grande e forte impegno da parte delle aziende leader mondiali di data center per la produzione di energia rinnovabile sta spingendo la diffusione delle fonti di produzione di energia rinnovabile a un ritmo più rapido rispetto ai combustibili fossili tradizionali in molte regioni del mondo. L’impegno a fornire energia da fonti alternative e a basse emissioni di carbonio garantisce che il progresso digitale si disaccoppi dalla carbonizzazione della nostra economia, proteggendo il nostro pianeta man mano che il progresso continua ad accelerare.
In qualità di leader di mercato in questo settore, Equinix comprende che le proprie azioni abbiano un impatto sul mondo che lo circonda, motivo per cui l’efficienza energetica è stata parte fondamentale del processo di progettazione negli ultimi 20 anni.
Nel 2015, Equinix è stato il primo fornitore di data center a impegnarsi pubblicamente per raggiungere l’obiettivo a lungo termine di utilizzare energia pulita e rinnovabile per alimentare la propria impronta globale di data center – attualmente composta da 200 strutture in 52 mercati. Questo impegno è stato definito da Greenpeace nel suo rapporto Clicking Clean come “un gigantesco passo avanti per la costruzione di un internet alimentato da fonti rinnovabili”. In soli due anni abbiamo raggiunto il 77% del nostro obiettivo in materia di energie rinnovabili, grazie a cospicui investimenti in progetti che coinvolgono l’eolico e altre tecnologie rinnovabili.
Tutti i data center Equinix utilizzano componenti ad alta efficienza energetica e i nuovi edifici sono costruiti secondo gli standard più elevati, utilizzando materiali che completano i nostri obiettivi di sostenibilità a lungo termine. Queste tecniche di progettazione ecologica hanno avuto un impatto estremamente positivo sulla nostra impronta ambientale.

Applicare le innovazioni in materia di sostenibilità da zero quando si costruiscono dei data center è diventata una pratica standard in Equinix, e ne stiamo già raccogliendo i frutti. Il nostro data center di punta LD6 a Slough è stato il primo nel Regno Unito a ricevere l’ambito gold rating LEED (Leadership in Energy and Environmental Design) – una pietra miliare nel nostro viaggio verso la creazione di un internet sostenibile.
Poiché il data center LD6 di Equinix è stato costruito da zero, c’è stata una significativa libertà sia nella progettazione che nello sviluppo – consentendoci di utilizzare tecniche avanzate che danno priorità alla sostenibilità sia dal punto di vista operativo che ambientale.
Le ecologiche e pionieristiche scelte costruttive e progettuali di LD6 sono state da allora utilizzate come best practice in molte nuove costruzioni in altri mercati globali. Ciò include il raffreddamento evaporativo indiretto, scambiatori di calore indiretti, unità di raccolta dell’acqua piovana e di trattamento dell’aria, nonché una tubazione per una fonte d’acqua sotterranea. Questi metodi non solo migliorano la sostenibilità operativa del data center, ma riducono anche la dipendenza dell’edificio dalle reti di energia locale.
L’applicazione di queste tecnologie specializzate comporta che, per quasi l’85% dell’anno, LD6 viene raffreddato esclusivamente con aria naturale. Utilizza inoltre il 100% di elettricità rinnovabile, da fonti miste, attraverso un programma green di pubblica utilità e vanta una valutazione di Power Usage Effectiveness (PUE) – che misura quanto del consumo energetico di un data center continua ad alimentare le apparecchiature informatiche rispetto a quanto è destinato ad altro, come l’illuminazione e il raffreddamento – pari a 1,2 volte. Questa cifra è nettamente inferiore alla media del settore.

Come si può immaginare, l’adeguamento dei data center esistenti e lo sviluppo di nuove tecnologie avanzate per renderli più sostenibili pone una serie di sfide completamente nuove. L’esperienza nella progettazione consiste nel sapere come implementare le soluzioni nel modo più efficace entro i limiti dell’infrastruttura e della struttura disponibile.
Il nostro data center AM3 di Amsterdam, inaugurato nel 2012, è un esempio di come le misure sostenibili possano essere implementate in un nuovo data center per renderlo a prova di futuro. AM3 è dotato di dry cooler ibridi ad alta efficienza, per un utilizzo ottimale del free cooling, per la maggior parte del tempo all’anno.
AM3 utilizza anche un sistema di accumulo di energia termica Aquifier che attinge l’acqua da un pozzo freddo a 170 metri di profondità e raffredda l’impianto quando la temperatura ambiente raggiunge i 64 gradi Fahrenheit. L’acqua sotterranea, riscaldata dall’impianto, viene poi iniettata in pozzi caldi e immagazzinata per metà stagione. Il calore generato dal data center viene utilizzato per riscaldare l’edificio dove risiedono gli uffici Equinix, accanto ad AM3 durante l’inverno. L’energia termica nel pozzo di acqua calda situato nel terreno di AM3 viene utilizzata per riscaldare diversi edifici vicini all’Università di Amsterdam. Attualmente, stiamo studiando l’utilizzo del calore in eccesso di AM3 per riscaldare migliaia di case nell’area residenziale ‘Middenmeer’, vicino al Science Park.
Oltre a questo, abbiamo anche implementato un “tetto green” che non solo rende l’edificio più gradevole dal punto di vista estetico, ma aiuta a raffrescarsi e riduce il deflusso dell’acqua piovana, che altrimenti potrebbe inquinare le sorgenti d’acqua nelle vicinanze.
L’implementazione di tecnologie all’avanguardia come questa ha un costo. Dal 2011, Equinix ha investito oltre 100 milioni di dollari in aggiornamenti dell’efficienza energetica, ammodernamenti e miglioramenti in tutto il suo portfolio di data center. Questo importante investimento ha portato Equinix a raggiungere il 77% di utilizzo di energia rinnovabile in tutto il mondo e l’89% di energia rinnovabile in Europa, anche se il footprint di Equinix è in rapida espansione. Mettiamo, inoltre, a disposizione del pubblico tutti i nostri dati sul consumo energetico e ci impegniamo con partner ambientali innovativi, piattaforme premiate e organizzazioni di sostegno, per mostrare il modo migliore di progettare i data center al settore.
I progressi compiuti per rendere l’industria più sostenibile hanno richiesto investimenti, un design attento e molto lavoro. Ma questo è stato reso più facile dall’impegno alla collaborazione che stiamo assistendo in tutto il settore. Molti dei nostri clienti condividono il nostro obiettivo di operare al 100% con energia pulita e rinnovabile a livello globale, e i leader del settore stanno prendendo molto seriamente la questione. In Equinix, condividiamo continuamente consigli e best practice con i nostri partner in diversi settori industriali su come raggiungere gli obiettivi di sostenibilità.
Non c’è dubbio che occorre fare di più prima che l’industria diventi completamente neutrale dal punto di vista delle emissioni di carbonio, ma siamo molto ottimisti per il futuro. Con la costruzione di impianti che affrontano le pressanti questioni di oggi, preparandoci al tempo stesso alle esigenze del futuro, ci stiamo muovendo costantemente verso la sostenibilità a lungo termine e il successo del nostro settore.

Toshiba S300 pensato per offrire “sicurezza”

In occasione dell’European Cyber Security Month, Toshiba Electronics Europe GmbH (TEE) pone l’attenzione sulla sicurezza dei sistemi di videosorveglianza e su come la scelta dei giusti hard disk sia di fondamentale importanza.

In un mondo sempre più attento alla sicurezza, la ricerca di sistemi di videosorveglianza a livello professionale sta crescendo rapidamente e in questo panorama le soluzioni di archiviazione affidabili e con ampie capacità hanno un ruolo fondamentale: garantire la sicurezza e l’affidabilità dei dati acquisiti. La serie di hard disk interni S300 da 3,5” di Toshiba Electronics Europe GmbH (TEE) rappresenta una risposta concreta in grado di gestire la grande quantità di dati provenienti da sistemi con più telecamere di sicurezza connesse simultaneamente.

I sistemi di sorveglianza funzionano 24 ore su 24, 7 giorni su 7, 365 giorni all’anno, insieme ai sistemi di storage ad essi collegati e per questo lo spazio di archiviazione è un requisito fondamentale per l’utilizzo insieme all’affidabilità perchè senza una memoria affidabile, alcuni o tutti i dati registrati potrebbero andare persi. Secondo le stime della società di ricerche IHS Markit i dati generati dai sistemi di videosorveglianza, nel 2014 ammontavano a circa 566 petabyte di dati al giorno, mentre nel 2018, quindi quasi quattro anni più tardi, sono quadruplicati arrivando ad oltre 2.000 petabyte generati ogni giorno. Questo dimostra l’aumento e la diffusione dei sistemi di sorveglianza in questi anni.

Mentre il malfunzionamento di una singola telecamera in un sistema può non essere un problema perchè le aree chiave possono essere coperte da più di una telecamera come backup, un errore del sistema di archiviazione può essere molto più grave. Ci può essere un costo diretto (una sanzione da un’autorità o anche la perdita della licenza per operare) per dati persi o un costo indiretto in quanto la perdita di dati ostacola l’attività aziendale.

Le unità della gamma S300 (da 4, 6, 8 e 10 TB), caratterizzate da elevata velocità e capacità, sono ideali per videoregistratori digitali di sorveglianza (sDVR), videoregistratori in reti di sorveglianza (sNVR), sDVR ibridi (analogici e IP) e array di archiviazione RAID per la sorveglianza. Progettate per garantire registrazione e archiviazione in sicurezza dei dati, supportano fino a 64 telecamere e alloggiamenti drive 8+, con velocità di rotazione fino a 7.200 rpm e trasferimento dati a 248 MB/s adatti anche ad ambienti difficili, temperature fino a 70° e operatività 24 ore su 24, 7 giorni su 7 con un carico di lavoro fino a 180 TB all’anno. Il buffer da 256 MB e l’alta velocità di trasferimento soddisfano le esigenze di gestione dei dati di sorveglianza provenienti dagli stream ad alta risoluzione delle videocamere e include anche sensori RV integrati che aiutano a ridurre le vibrazioni in piattaforme multi HDD.

Affidabilità è anche risolvere il problema del consumo di energia e del surriscaldamento a cui la continua operatività degli hard disk porta, poiché le temperature elevate sono spesso collegate ad una ridotta vita operativa, per questo mantenere la matrice fredda è una sfida fondamentale per i progettisti di storage.

Gli HDD di sorveglianza hanno in genere un intervallo di temperatura di funzionamento più ampio (0 ° C-70 ° C) rispetto ai dischi aziendali (5 ° C-55 ° C) per il fatto che, mentre le unità di classe enterprise sono distribuite in centri dati climatizzati, le unità di sorveglianza si trovano in altre aree dell’edificio che potrebbero non essere altrettanto bene o adeguatamente raffreddate.

L’intelligenza artificiale può semplificare la protezione dei dati

Edwin Passarella, Technical Services Manager, Commvault Italia
Edwin Passarella, Technical Services Manager, Commvault Italia
Intelligenza Artificiale e Machine learning: è raro ormai non vedere citate queste tecnologie in articoli o pubblicità. A volte può essere una trovata promozionale, spesso invece le ragioni sono valide, ad esempio, la promessa di automazione per semplificare le nostre vite attraverso lo svolgimento di attività regolari, ed in grado di adattarsi ai cambiamenti per raggiungere gli obiettivi prefissati.
L’idea del machine learning in sé può evocare immagini di un futuro distopico che ricorda il film Terminator, con una trama che narra di esseri umani che perdono il controllo delle macchine da loro create. Nel mondo reale, il vero potere di tecnologie come questa si realizza quando otteniamo il controllo e possiamo stabilire le attività che desideriamo, in qualità di amministratori di sistema e utenti aziendali. Non soccombere alla loro volontà, perché Intelligenza Artificiale e Machine Learning sono in grado di apprendere e imparare ad adattarsi. In molti conosceranno il proverbio cinese “Dai un pesce a un uomo e lo nutrirai per un giorno. Insegna a un uomo a pescare e lo nutrirai per tutta la vita.”
Allo stesso modo stiamo istruendo le macchine a realizzare operazioni su base regolare, definendo le nostre esigenze di business principali, RPO e RTO da applicare ai differenti dati, migliorando la prontezza di ripristino dell’intero ambiente.
È importante scegliere soluzioni in grado di apprendere e di adattarsi ai cambiamenti tramite la definizione di obiettivi, l’identificazione di anomalie e la semplificazione della governance e dei requisiti di conservazione dei dati.
Abbiamo appena iniziato a capire come queste tecnologie possono facilitare diversi aspetti della nostra vita. Alcune aziende inventeranno nomi bizzarri per definire i loro tentativi di automazione. Riteniamo intelligenza artificiale e machine learning essenziali e molto attesi negli odierni ambienti di dati in rapida crescita e apporteranno un nuovo livello di fiducia nei modelli di protezione dei dati, garantendo una migliore visibilità delle operazioni quotidiane e delle anomalie impreviste in modo tale da rendere le attività più semplici.