Data center green per un internet sostenibile

Russell Poole, Managing Director, United Kingdom, Equinix

L’esplosione globale dei dati è dovuta in gran parte all’Internet of Things (IoT), ai pagamenti digitali e all’aumento del numero di scambi di dati – tendenze destinate a crescere con l’avvento del digitale. Questa crescita straordinaria può significare enormi progressi per l’economia digitale, ma comporta un aumento significativo della domanda di energia e pone una nuova sfida per gli operatori dei data center, che cercano di ridurre al minimo la loro impronta di carbonio.
L’Indice di Interconnessione Globale di Equinix, giunto alla sua seconda edizione, prevede che le interconnessioni dirette tra imprese supereranno l’internet pubblico entro il 2020. Si prevede che gli scambi di dati privati tra le aziende cresceranno quasi 2 volte più velocemente del traffico IP globale nello stesso arco di tempo, e di quasi 6 volte il volume di dati, che porta così a un drastico aumento del traffico di dati che si sposta privatamente tra le aziende entro i confini dei data center.
Questa crescita esponenziale sarà alimentata principalmente da combustibili non rinnovabili. Di conseguenza, è necessario per l’industria, ricercare un modo più green di operare e assumersi la responsabilità condivisa di ridurre l’impatto ambientale. Ma quali misure stanno adottando i fornitori di data center per raggiungere questi pressanti obiettivi di sostenibilità?

Il grande e forte impegno da parte delle aziende leader mondiali di data center per la produzione di energia rinnovabile sta spingendo la diffusione delle fonti di produzione di energia rinnovabile a un ritmo più rapido rispetto ai combustibili fossili tradizionali in molte regioni del mondo. L’impegno a fornire energia da fonti alternative e a basse emissioni di carbonio garantisce che il progresso digitale si disaccoppi dalla carbonizzazione della nostra economia, proteggendo il nostro pianeta man mano che il progresso continua ad accelerare.
In qualità di leader di mercato in questo settore, Equinix comprende che le proprie azioni abbiano un impatto sul mondo che lo circonda, motivo per cui l’efficienza energetica è stata parte fondamentale del processo di progettazione negli ultimi 20 anni.
Nel 2015, Equinix è stato il primo fornitore di data center a impegnarsi pubblicamente per raggiungere l’obiettivo a lungo termine di utilizzare energia pulita e rinnovabile per alimentare la propria impronta globale di data center – attualmente composta da 200 strutture in 52 mercati. Questo impegno è stato definito da Greenpeace nel suo rapporto Clicking Clean come “un gigantesco passo avanti per la costruzione di un internet alimentato da fonti rinnovabili”. In soli due anni abbiamo raggiunto il 77% del nostro obiettivo in materia di energie rinnovabili, grazie a cospicui investimenti in progetti che coinvolgono l’eolico e altre tecnologie rinnovabili.
Tutti i data center Equinix utilizzano componenti ad alta efficienza energetica e i nuovi edifici sono costruiti secondo gli standard più elevati, utilizzando materiali che completano i nostri obiettivi di sostenibilità a lungo termine. Queste tecniche di progettazione ecologica hanno avuto un impatto estremamente positivo sulla nostra impronta ambientale.

Applicare le innovazioni in materia di sostenibilità da zero quando si costruiscono dei data center è diventata una pratica standard in Equinix, e ne stiamo già raccogliendo i frutti. Il nostro data center di punta LD6 a Slough è stato il primo nel Regno Unito a ricevere l’ambito gold rating LEED (Leadership in Energy and Environmental Design) – una pietra miliare nel nostro viaggio verso la creazione di un internet sostenibile.
Poiché il data center LD6 di Equinix è stato costruito da zero, c’è stata una significativa libertà sia nella progettazione che nello sviluppo – consentendoci di utilizzare tecniche avanzate che danno priorità alla sostenibilità sia dal punto di vista operativo che ambientale.
Le ecologiche e pionieristiche scelte costruttive e progettuali di LD6 sono state da allora utilizzate come best practice in molte nuove costruzioni in altri mercati globali. Ciò include il raffreddamento evaporativo indiretto, scambiatori di calore indiretti, unità di raccolta dell’acqua piovana e di trattamento dell’aria, nonché una tubazione per una fonte d’acqua sotterranea. Questi metodi non solo migliorano la sostenibilità operativa del data center, ma riducono anche la dipendenza dell’edificio dalle reti di energia locale.
L’applicazione di queste tecnologie specializzate comporta che, per quasi l’85% dell’anno, LD6 viene raffreddato esclusivamente con aria naturale. Utilizza inoltre il 100% di elettricità rinnovabile, da fonti miste, attraverso un programma green di pubblica utilità e vanta una valutazione di Power Usage Effectiveness (PUE) – che misura quanto del consumo energetico di un data center continua ad alimentare le apparecchiature informatiche rispetto a quanto è destinato ad altro, come l’illuminazione e il raffreddamento – pari a 1,2 volte. Questa cifra è nettamente inferiore alla media del settore.

Come si può immaginare, l’adeguamento dei data center esistenti e lo sviluppo di nuove tecnologie avanzate per renderli più sostenibili pone una serie di sfide completamente nuove. L’esperienza nella progettazione consiste nel sapere come implementare le soluzioni nel modo più efficace entro i limiti dell’infrastruttura e della struttura disponibile.
Il nostro data center AM3 di Amsterdam, inaugurato nel 2012, è un esempio di come le misure sostenibili possano essere implementate in un nuovo data center per renderlo a prova di futuro. AM3 è dotato di dry cooler ibridi ad alta efficienza, per un utilizzo ottimale del free cooling, per la maggior parte del tempo all’anno.
AM3 utilizza anche un sistema di accumulo di energia termica Aquifier che attinge l’acqua da un pozzo freddo a 170 metri di profondità e raffredda l’impianto quando la temperatura ambiente raggiunge i 64 gradi Fahrenheit. L’acqua sotterranea, riscaldata dall’impianto, viene poi iniettata in pozzi caldi e immagazzinata per metà stagione. Il calore generato dal data center viene utilizzato per riscaldare l’edificio dove risiedono gli uffici Equinix, accanto ad AM3 durante l’inverno. L’energia termica nel pozzo di acqua calda situato nel terreno di AM3 viene utilizzata per riscaldare diversi edifici vicini all’Università di Amsterdam. Attualmente, stiamo studiando l’utilizzo del calore in eccesso di AM3 per riscaldare migliaia di case nell’area residenziale ‘Middenmeer’, vicino al Science Park.
Oltre a questo, abbiamo anche implementato un “tetto green” che non solo rende l’edificio più gradevole dal punto di vista estetico, ma aiuta a raffrescarsi e riduce il deflusso dell’acqua piovana, che altrimenti potrebbe inquinare le sorgenti d’acqua nelle vicinanze.
L’implementazione di tecnologie all’avanguardia come questa ha un costo. Dal 2011, Equinix ha investito oltre 100 milioni di dollari in aggiornamenti dell’efficienza energetica, ammodernamenti e miglioramenti in tutto il suo portfolio di data center. Questo importante investimento ha portato Equinix a raggiungere il 77% di utilizzo di energia rinnovabile in tutto il mondo e l’89% di energia rinnovabile in Europa, anche se il footprint di Equinix è in rapida espansione. Mettiamo, inoltre, a disposizione del pubblico tutti i nostri dati sul consumo energetico e ci impegniamo con partner ambientali innovativi, piattaforme premiate e organizzazioni di sostegno, per mostrare il modo migliore di progettare i data center al settore.
I progressi compiuti per rendere l’industria più sostenibile hanno richiesto investimenti, un design attento e molto lavoro. Ma questo è stato reso più facile dall’impegno alla collaborazione che stiamo assistendo in tutto il settore. Molti dei nostri clienti condividono il nostro obiettivo di operare al 100% con energia pulita e rinnovabile a livello globale, e i leader del settore stanno prendendo molto seriamente la questione. In Equinix, condividiamo continuamente consigli e best practice con i nostri partner in diversi settori industriali su come raggiungere gli obiettivi di sostenibilità.
Non c’è dubbio che occorre fare di più prima che l’industria diventi completamente neutrale dal punto di vista delle emissioni di carbonio, ma siamo molto ottimisti per il futuro. Con la costruzione di impianti che affrontano le pressanti questioni di oggi, preparandoci al tempo stesso alle esigenze del futuro, ci stiamo muovendo costantemente verso la sostenibilità a lungo termine e il successo del nostro settore.

Toshiba S300 pensato per offrire “sicurezza”

In occasione dell’European Cyber Security Month, Toshiba Electronics Europe GmbH (TEE) pone l’attenzione sulla sicurezza dei sistemi di videosorveglianza e su come la scelta dei giusti hard disk sia di fondamentale importanza.

In un mondo sempre più attento alla sicurezza, la ricerca di sistemi di videosorveglianza a livello professionale sta crescendo rapidamente e in questo panorama le soluzioni di archiviazione affidabili e con ampie capacità hanno un ruolo fondamentale: garantire la sicurezza e l’affidabilità dei dati acquisiti. La serie di hard disk interni S300 da 3,5” di Toshiba Electronics Europe GmbH (TEE) rappresenta una risposta concreta in grado di gestire la grande quantità di dati provenienti da sistemi con più telecamere di sicurezza connesse simultaneamente.

I sistemi di sorveglianza funzionano 24 ore su 24, 7 giorni su 7, 365 giorni all’anno, insieme ai sistemi di storage ad essi collegati e per questo lo spazio di archiviazione è un requisito fondamentale per l’utilizzo insieme all’affidabilità perchè senza una memoria affidabile, alcuni o tutti i dati registrati potrebbero andare persi. Secondo le stime della società di ricerche IHS Markit i dati generati dai sistemi di videosorveglianza, nel 2014 ammontavano a circa 566 petabyte di dati al giorno, mentre nel 2018, quindi quasi quattro anni più tardi, sono quadruplicati arrivando ad oltre 2.000 petabyte generati ogni giorno. Questo dimostra l’aumento e la diffusione dei sistemi di sorveglianza in questi anni.

Mentre il malfunzionamento di una singola telecamera in un sistema può non essere un problema perchè le aree chiave possono essere coperte da più di una telecamera come backup, un errore del sistema di archiviazione può essere molto più grave. Ci può essere un costo diretto (una sanzione da un’autorità o anche la perdita della licenza per operare) per dati persi o un costo indiretto in quanto la perdita di dati ostacola l’attività aziendale.

Le unità della gamma S300 (da 4, 6, 8 e 10 TB), caratterizzate da elevata velocità e capacità, sono ideali per videoregistratori digitali di sorveglianza (sDVR), videoregistratori in reti di sorveglianza (sNVR), sDVR ibridi (analogici e IP) e array di archiviazione RAID per la sorveglianza. Progettate per garantire registrazione e archiviazione in sicurezza dei dati, supportano fino a 64 telecamere e alloggiamenti drive 8+, con velocità di rotazione fino a 7.200 rpm e trasferimento dati a 248 MB/s adatti anche ad ambienti difficili, temperature fino a 70° e operatività 24 ore su 24, 7 giorni su 7 con un carico di lavoro fino a 180 TB all’anno. Il buffer da 256 MB e l’alta velocità di trasferimento soddisfano le esigenze di gestione dei dati di sorveglianza provenienti dagli stream ad alta risoluzione delle videocamere e include anche sensori RV integrati che aiutano a ridurre le vibrazioni in piattaforme multi HDD.

Affidabilità è anche risolvere il problema del consumo di energia e del surriscaldamento a cui la continua operatività degli hard disk porta, poiché le temperature elevate sono spesso collegate ad una ridotta vita operativa, per questo mantenere la matrice fredda è una sfida fondamentale per i progettisti di storage.

Gli HDD di sorveglianza hanno in genere un intervallo di temperatura di funzionamento più ampio (0 ° C-70 ° C) rispetto ai dischi aziendali (5 ° C-55 ° C) per il fatto che, mentre le unità di classe enterprise sono distribuite in centri dati climatizzati, le unità di sorveglianza si trovano in altre aree dell’edificio che potrebbero non essere altrettanto bene o adeguatamente raffreddate.

L’intelligenza artificiale può semplificare la protezione dei dati

Edwin Passarella, Technical Services Manager, Commvault Italia
Edwin Passarella, Technical Services Manager, Commvault Italia
Intelligenza Artificiale e Machine learning: è raro ormai non vedere citate queste tecnologie in articoli o pubblicità. A volte può essere una trovata promozionale, spesso invece le ragioni sono valide, ad esempio, la promessa di automazione per semplificare le nostre vite attraverso lo svolgimento di attività regolari, ed in grado di adattarsi ai cambiamenti per raggiungere gli obiettivi prefissati.
L’idea del machine learning in sé può evocare immagini di un futuro distopico che ricorda il film Terminator, con una trama che narra di esseri umani che perdono il controllo delle macchine da loro create. Nel mondo reale, il vero potere di tecnologie come questa si realizza quando otteniamo il controllo e possiamo stabilire le attività che desideriamo, in qualità di amministratori di sistema e utenti aziendali. Non soccombere alla loro volontà, perché Intelligenza Artificiale e Machine Learning sono in grado di apprendere e imparare ad adattarsi. In molti conosceranno il proverbio cinese “Dai un pesce a un uomo e lo nutrirai per un giorno. Insegna a un uomo a pescare e lo nutrirai per tutta la vita.”
Allo stesso modo stiamo istruendo le macchine a realizzare operazioni su base regolare, definendo le nostre esigenze di business principali, RPO e RTO da applicare ai differenti dati, migliorando la prontezza di ripristino dell’intero ambiente.
È importante scegliere soluzioni in grado di apprendere e di adattarsi ai cambiamenti tramite la definizione di obiettivi, l’identificazione di anomalie e la semplificazione della governance e dei requisiti di conservazione dei dati.
Abbiamo appena iniziato a capire come queste tecnologie possono facilitare diversi aspetti della nostra vita. Alcune aziende inventeranno nomi bizzarri per definire i loro tentativi di automazione. Riteniamo intelligenza artificiale e machine learning essenziali e molto attesi negli odierni ambienti di dati in rapida crescita e apporteranno un nuovo livello di fiducia nei modelli di protezione dei dati, garantendo una migliore visibilità delle operazioni quotidiane e delle anomalie impreviste in modo tale da rendere le attività più semplici.

La crittografia, alla base della sicurezza, è troppo costosa? L’approccio software-defined

Eran Brown, CTO EMEA, Infinidat
Eran Brown, CTO EMEA, Infinidat

End-to-end encryption (E2EE): la soluzione a tutto?
La crittografia dei dati può avvenire su più livelli nel datacenter, dall’interno dell’array storage fino alle stesse applicazioni.
La strategia classica è stata finora quella di cifrare i dati a livello dello storage, poiché gli array storage possono crittografare i dati istantaneamente senza nessun degrado di prestazione. Questo dà ai CIO un senso di tranquillità, con la convinzione di aver assolto al problema della crittografia e che i dati siano realmente al sicuro. Sfortunatamente, non è questo il caso, perché la superficie di attacco per le aziende è ben più estesa rispetto ad un attacco diretto sui dati nello storage, dal momento che questo livello non può proteggere i dati “in attraversamento”.
La cifratura deve essere implementata ad un livello più elevato dello stack, per proteggere le informazioni ovunque si trovino, compreso il momento del loro transito in rete, per essere immune rispetto ai data breach e alle loro conseguenze (vedi il GDPR, articolo 34, paragrafo 3). I CIO che non adottano questo standard avanzato, saranno chiamati a rispondere di questa scelta nel caso di una violazione dei dati a loro affidati?

Il conflitto con lo storage moderno
Se implementare la crittografia a livello applicativo è una necessità sempre più stringente per contrastare le minacce alla sicurezza, può portare con sé problemi molto significativi rispetto al moderno data storage. Oltre a ciò, l’uso comune di Array all-Flash (AFA) all’interno dei datacenter, da molti accolto come una scelta orientata al futuro, va in conflitto diretto con la possibilità di implementare una E2EE dove più sarebbe necessaria. La crittografia end-to-end neutralizza di fatto la capacità delle infrastrutture AFA di ridurre i costi, impedendo alle aziende di ottenere una migliore efficienza economica nel momento in cui proteggono i dati dei loro clienti.
Se il rapporto di riduzione dei dati in un’azienda passa da 4:1 a 1:1 a seguito dell’adozione della crittografia, ad esempio, il costo già elevato dei supporti all-Flash viene ulteriormente moltiplicato, per quattro – un aumento che un’azienda non può certo sopportare.
In diretta contrapposizione rispetto alle infrastrutture “media-defined” AFA, vi sono soluzioni storage che adottano un approccio innovativo software-defined, e che consentono di raggiungere il livello di sicurezza dei dati richiesto dalle normative attualmente in vigore, anche a fronte dell’evoluzione futura delle minacce cyber – e senza mettere a rischio il bilancio economico complessivo delle aziende

Data Hub: l’architettura data-centrica di Pure Storage

Pure Storage presenta data hub, la propria visione per rinnovare l’architettura storage per i workload non strutturati e data-intensive. Progettata partendo da Pure Storage FlashBlade™, data hub è disegnata per essere un’architettura data-centrica, che consenta alle aziende di utilizzare efficacemente i dati.

Per innovare e sopravvivere in un contesto sempre più data-driven, le aziende devono progettare infrastrutture che in primo luogo tengano conto dei dati e consentano un accesso completo ed in tempo reale a questi ultimi. Le soluzioni oggi più diffuse sono state progettate per i dischi e hanno storicamente contribuito a creare silos di dati. Un’architettura data hub è invece progettata per fornire, condividere e unificare i dati, offrendo la possibilità di accedere ad un valore senza precedenti.

Oggi le aziende si affidano a quattro tipologie di soluzioni di analytics in silos: data warehouse, data lake, streaming analytics e cluster di AI. Un data hub integra le caratteristiche più importanti di queste quattro tipologie di silos e le unifica in una singola piattaforma. Un data hub deve avere quattro caratteristiche principali:
Throughput elevato sia per object storage che per archiviazione di file. I dispositivi di backup e data warehouse richiedono un throughput elevato per workload comuni e basati su file, e per applicazioni cloud-native e object-based.
Architettura scale-out. La caratteristica primaria del data lake è la sua architettura scale-out nativa, che consente di scalare senza limiti i lavori batch, in quanto è il software, non l’utente, a gestire la resilienza e le prestazioni.
Prestazioni multidimensionali. I dati non sono prevedibili e possono arrivare a qualsiasi velocità, pertanto le aziende necessitano di una piattaforma in grado di processare qualsiasi tipo di dato e con qualsiasi modello di accesso.
Elaborazione in parallelo. Nell’industria informatica c’è stato un profondo cambiamento dalle tecnologie seriali alle tecnologie parallele, costruite per imitare il cervello umano, e lo storage deve omologarsi.