Categories
Eaton

UPS Eaton 5P con batteria al litio in versione rack

Eaton ha presentato il nuovo gruppo di continuità (UPS) 5P con batteria al litio in versione rack disponibile per il mercato italiano. Partendo dalle prestazioni uniche in termini di affidabilità dell’UPS Eaton 5P il nuovo 5P con batteria al litio rappresenta una soluzione integrata affidabile con caratteristiche di sicurezza di rete ottimizzate, durata della batteria prolungata e funzionalità di gestione da remoto. Tutte queste caratteristiche rendono il gruppo di continuità 5P al litio ideale per ambienti IT distribuiti ed edge computing.

Questa nuova versione dell’UPS 5P utilizza batterie agli ioni di litio per garantire prestazioni migliori rispetto alle batterie al piombo-acido e per ridurre la necessità di sostituire le batterie a metà ciclo, potendo contare su una aspettativa di vita utile fino a otto anni. Inoltre, le batterie al litio hanno anche una capacità di ricarica di tre volte più rapida, fattore che riduce la vulnerabilità e massimizza l’uptime in caso di interruzioni di corrente.

L’UPS Eaton 5P con batteria al litio comprende un sistema di gestione della batteria di bordo (BMS) per fornire informazioni aggiornate sulle prestazioni della batteria, sui cicli di carica e quelle derivanti dal monitoraggio attivo della temperatura per mantenere l’utente costantemente informato sul ciclo di vita della batteria dell’UPS. Inoltre, l’UPS offre una maggiore sicurezza di rete con Gigabit Network Card di Eaton, il primo dispositivo opzionale del settore conforme alle norme UL 2900-1 e IEC 62443-4-2, progettato per migliorare l’uptime e la cybersecurity.

Le caratteristiche aggiuntive dell’UPS Eaton 5P con batteria agli ioni comprendono:
• design user-friendly e leggero, con un peso inferiore del 20% rispetto a un UPS con batterie al piombo-acido;
• opzioni di montaggio versatili che consentono un’implementazione semplice;
• minor ingombro nel rack, solo 1U versatile con le opzioni di montaggio come la possibilità di fissaggio a parete;
• garanzia standard di 5 anni su UPS e batterie.

Categories
news Toshiba

CERN: i dati e 3 generazioni di dischi Toshiba

Il Large Hadron Collider (LHC) del CERN è all’avanguardia della ricerca fisica. I dati generati dalle sue fasi “Run 1” e “Run 2” sono già stati utilizzati per dimostrare l’esistenza di particelle atomiche finora mai identificate, e dunque ampliare la nostra conoscenza dell’universo e come questo si è formato. In particolare, nel 2012 i dati hanno permesso di confermare l’esistenza del bosone di Higgs.

I numeri del CERN sono sbalorditivi. A partire dalla dimensione del large hadron collider, un acceleratore di particelle circolare con un raggio di 4,3 km, alla velocità di collisione delle particelle: all’interno dei rilevatori dell’esperimento con il LHC si possono verificare fino a 1 miliardo di collisioni di particelle ogni secondo.

Ma è la quantità di dati che desta maggiore impressione, infatti le collisioni generano 1 petabyte (PB) di dati al secondo. Anche dopo aver filtrato i soli eventi interessanti, il CERN ha la necessità di immagazzinare ogni mese circa 10 PB di nuovi dati da analizzare.

Questi dati vengono immagazzinati nel centro elaborazione dati del CERN e sono condivisi con una rete di circa 170 centri elaborazione dati per la loro analisi, grazie alla Worldwide LHC Computing Grid (WLCG), la rete mondiale di calcolo per LHC. L’attuale centro archiviazione dati del CERN comprende buffer hard disk con 3200 JBOD che contengono 100.000 hard disk drive (HDD), per un totale di 350 PB.

Le fasi Run con il LHC sono destinate e continuare e ad ogni nuovo “Run” l’archivio dati cresce in modo significativo. Dopo i necessari upgrade, la fase Run 3 del CERN è prevista per il 2021.

Gli hard disk di Toshiba Electronics Europe GmbH vengono utilizzati dal CERN dal 2014 per gestire gli enormi volumi di dati, e tre generazioni di tecnologia hard drive Toshiba hanno finora soddisfatto le crescenti esigenze di capacità di storage del centro. Ma ciò può continuare se, come dichiara Eric Bonfillou, responsabile della divisione Facility Planning and Procurement presso il dipartimento IT del CERN: “Gli interventi di upgrade programmati per le macchine del LHC richiederanno un dimensionamento delle risorse di calcolo e archiviazione che va oltre quanto oggi la tecnologia è in grado di offrire”.

Cronologia di come il CERN ha incrementato la propria capacità di archiviazione dati con Toshiba
2014 – Il CERN acquista gli hard drive Toshiba
Dal 2014, il CERN utilizza gli hard drive di Toshiba. Al centro delle esigenze del CERN vi sono gli hard disk server con elevate prestazioni ed elevata affidabilità, ottimizzati per le massime capacità. Nel periodo 2013-14, il CERN avvia una fase di arresto programmato per prepararsi alla fase Run 2. Durante questo periodo, l’organizzazione procede all’upgrade dei suoi sistemi di archiviazione, aggiungendo array di JBOD 4U a 24 alloggiamenti dotati di hard drive MG03SCA400 Toshiba. Grazie a 4 TB di capacità per hard disk, ciascuno che gira a 7200 giri/minuto e riceve i dati attraverso un’interfaccia 6 GB/s, il CERN guadagna 96 TB per unità di espansione JBOD. Il tempo medio tra guasti (MTTF) degli hard disk è di 1,2 milioni di ore, che si traduce in un tasso di fallimento annualizzato (AFR) previsto dello 0,72%.
2015/2016 – Il CERN avvia la fase Run 2: crescono in modo esponenziale le esigenze di archiviazione dati
Con l’avvio della fase Run 2 nel 2015, cresce in modo esponenziale la richiesta di capacità di archiviazione dati. CERN aggiunge nuova capacità grazie al nuovo modello 6 TB SATA di Toshiba, il MG04ACA600E. Anche in questo caso installato in un JBOD front loader 4U 24 alloggiamenti, per una capacità totale che cresce a 144 TB per unità. Per questo modello il MTTF migliora e tocca 1,4 milioni di ore, per un AFR previsto dello 0,62%.
2018 – Toshiba Lancia il modello MG07 ad elio per portare la capacità a 14 TB per hard disk
Dopo il 2016, Toshiba accelera lo sviluppo e l’introduzione di nuovi modelli di hard disk enterprise ad alta capacità per soddisfare le esigenze di archiviazione dati su cloud in tutto il mondo, lanciando due nuove generazioni di HDD, MG05 e MG06. La serie MG06 è resa disponibile con capacità fino a 10 TB per drive. E, malgrado utilizzi sempre una struttura ad aria, Toshiba riesce ad incrementare il MTTF a 2,5 milioni di ore, con un tasso di fallimento dello 0,35%, ad oggi il più basso nel mercato degli hard disk ad aria. Nel caso della tecnologia di registrazione magnetica convenzionale (CMR) in un fattore di forma da 3,5”, gli HDD ad aria raggiungono un limite a 7 piatti (e dunque 10 TB) di capacità. E se in teoria è possibile incrementare la capacità utilizzando piatti più sottili, l’aria sarebbe un gas troppo pesante, con il risultato di un severo flattering. In alternativa è possibile utilizzare la tecnologia di registrazione magnetica a strati (SMR), che richiede però una speciale gestione per evitare seri problemi di prestazioni, ed è limitata dalla necessità di ricorrere a speciali file system creati su misura per le complessità della tecnologia. L’upgrade della capacità di archiviazione avviato dal CERN nel 2018 ha coinciso con il lancio della serie MG07 di Toshiba, che comprende i primi HDD server con capacità fino a 14 TB. Con l’acquisto della variante da 12 TB, il CERN ha raddoppiato la sua capacità per JBOD, portandola a 288 TB. La serie MG07 incrementa la capacità senza cambiare il fattore di forma utilizzando l’elio al posto dell’aria. Questo consente l’utilizzo di piatti più sottili senza il flattering associato, fino a nove per drive. Grazie al fatto di utilizzare la tecnologia CMR, gli hard disk MG07 possono far fronte a qualsiasi carico di lavoro senza il calo di prestazioni associato alla tecnologia SMR. Inoltre l’elio crea minore attrito dell’aria, riducendo in modo significativo l’energia richiesta per ruotare i piatti. Grazie alla precisa ottimizzazione dello spindle motor, la potenza di esercizio è stata ridotta di un terzo (da c. 11W a <7W) per il modello ad elio della serie MG07. Per la serie MG07 il valore MTTF è incrementato in modo significativo, toccando 2,5 milioni di ore.

Le esigenze di maggiore capacità legate alla fase Run 3
Nel 2019, il LHC è stato nuovamente fermato per procedere all’installazione di ulteriori aggiornamenti, prima di riavviarlo per la fase Run 3, prevista per il 2021. Con l’accelerazione dei dati generati, è previsto un significativo incremento della domanda di capacità storage. Il lancio pianificato da parte di Toshiba di drive basati su tecnologia CMR (registrazione magnetica convenzionale) e SMR (registrazione magnetica a strati) che utilizzano lo stesso fattore di forma da 3,5” consentirà al CERN di accedere ai drive 16 TB e 18 TB, aggiungendo dunque 432 TB di nuova capacità per JBOD. “I prodotti Toshiba sono idonei per lo storage su larga scala nei centri dati e la riuscita installazione e gestione di tre generazioni di HDD enterprise di Toshiba presso il CERN, in un ambiente IT molto complesso, costituisce un parametro di riferimento perfetto” precisa Larry Martinez-Palomo, General Manager della Business Unit HDD di Toshiba Electronics Europe. Quanto all’attività di sviluppo e ricerca nel periodo a lungo termine, Toshiba sta mettendo a punto una tecnologia di registrazione magnetica di prossima generazione che consentirà di incrementare ulteriormente le capacità di storage fino a superare 20 TB per HDD, sempre mantenendo il fattore di forma da 3,5”. Aggiunge Martinez-Palomo: “Siamo fiduciosi del fatto che la nostra tecnologia HDD di prossima generazione sarà di aiuto al CERN nel vincere le sfide future per quanto riguarda capacità di storage, budget d’investimenti, consumi energetici e affidabilità”.

Categories
WD

David Goeckeler CEO Western Digital

David Goeckeler, che succede a Steve Milligan, è stato nominato Chief Executive Officer e membro del Board of Directors di Western Digital.  

In precedenza, David Goeckeler ha ricoperto la carica di Executive Vice President e General Manager dell’area Networking e Security di Cisco – azienda in cui è rimasto per 19 anni – guidando un team a livello globale di 25.000 ingegneri.  

Matthew Massengill, Presidente del Board of Directors di Western Digital, ha accolto David Goeckeler definendolo come un leader trasformativo che, grazie alla sua formazione e vasta esperienza nel mondo della tecnologia, alla guida di importanti realtà a livello mondiale, sarà capace di portare innovazione alle strategie di business dell’azienda per proseguire la crescita e favorire l’ingresso in nuovi mercati.

Categories
WD

WD Gold NVMe SSD

WD Gold NVMe SSD

Western Digital supporta il passaggio da parte delle piccole e medie imprese (PMI) al protocollo di archiviazione NVMe™ e consente loro di migliorare significativamente le performance delle applicazioni, grazie all’introduzione di una nuova soluzione all’interno del suo portafoglio di unità NVMe SSD per i data center: la prima unità SSD della famiglia WD Gold™ di fascia enterprise con standard NVMe.
La società di consulenza e ricerche di mercato IDC prevede un aumento della distribuzione delle unità NVMe fino a coprire oltre il 79% del mercato entro il 2023 1 . Con i progressi nelle CPU multi-core e multi-thread, la tecnologia di archiviazione tradizionale impedisce oggi di raggiungere il massimo delle prestazioni nelle applicazioni.
Le nuove unità WD Gold NVMe SSD verranno distribuite all’inizio del secondo trimestre del 2020 e saranno disponibili con quattro capacità per i partner di canale e i consumatori finali. L’unità WD Gold NVMe SSD è progettata per diventare la fonte primaria di archiviazione nei server, grazie alla sua capacità di fornire tempi di risposta più rapidi, alle più elevate capacità di trasmissione e una maggiore scalabilità rispetto ai dispositivi SATA esistenti per le applicazioni enterprise. Le unità WD Gold NVMe SSD arricchiscono la gamma dei WD Gold HDD di recente annunciati fornendo un livello di archiviazione ad alte prestazioni per applicazioni e serie di dati che richiedono bassa latenza o elevata velocità effettiva.
Le nuove unità WD Gold NVMe SSD sono state progettate a partire dall’esperienza di Western Digital nei sistemi al silicio, dal suo supporto 3D TLC NAND SSD al suo firmware appositamente progettato e al suo controller integrato. I clienti possono contare sull’elevata affidabilità di queste soluzioni che garantisce tranquillità grazie alla protezione contro le interruzioni dell’alimentazione e del percorso dei dati e ad una garanzia limitata estesa di cinque anni. L’avvio e la cancellazione sicura forniscono ai clienti protezioni aggiuntive per la gestione dei dati. “In qualsiasi settore, il mondo sta subendo una trasformazione generata dalla disponibilità di dati. Una trasformazione e un’innovazione che riguarda diversi fronti IT e virtualmente ogni settore, grande e piccolo, ed è tutto generato dai dati”, ha dichiarato Phil Bullinger, general manager e senior vice president dei dispositivi per i Data Center di Western Digital. “Il passaggio allo standard NVMe è fondamentale per abilitare il potenziale delle prestazioni dei supporti di archiviazione ad alta velocità, nuove applicazioni, casi d’uso e carichi di lavoro. Integrando l’unità WD Gold NVMe SSD ai già esistenti WD Gold HDD ad alta capacità riusciamo ad offrire ai nostri partner di canale e clienti valide alternative per raggiungere un time-to-value più rapido sfruttando i dati.”
Le soluzioni di Western Digital per i data center rispondono ad una varietà di esigenze in uno scenario dove la tecnologia legata ai dati è in rapida e continua evoluzione. La sua ampia gamma di soluzioni per i data center include la famiglia di Ultrastar® HDD e SSD; WD Gold HDD e SSD; l’infrastruttura componibile aperta OpenFlex™ NVMe over Fabrics (NVMe-oF™); le piattaforme di storage Ultrastar JBOF/JBOD; le soluzioni NVMe-oF bridge solutions; e l’unità di estensione della memoria Ultrastar.

Categories
Rittal

Tendenze 2020 per i Data Center

Dalle stime di mercato dei ricercatori IDC, entro il 2025 uomini e macchine potrebbero generare 175 zettabyte di dati che, se memorizzati su DVD convenzionali formerebbero 23 pile di DVD, ciascuna in grado di coprire la distanza terra-luna. La crescita stimata al 27% del volume medio annuo dei dati significa anche un maggiore impatto sull’infrastruttura IT.
Poiché sono poche le aziende che possono permettersi di aumentare il proprio archivio dati di quasi un terzo all’anno, i responsabili IT si affidano sempre più spesso a servizi IT in cloud. Tuttavia, affidarsi a soluzioni cloud di terze parti significa perdere una parte del controllo sui propri dati aziendali. Per questo motivo, ad esempio, il regolamento US Cloud Act (Clarifying Lawful Overseas Use of Data) consente alle autorità statunitensi di acquisire i dati memorizzati nel cloud anche se la giurisdizione del luogo in cui i dati sono archiviati lo vieta.

Tendenza #1: Controllo dei dati
L’autodeterminazione informativa nel trattamento dei dati sta diventando sempre più un fattore di competitività per le aziende. Ciò vale per tutti i settori in cui la sicurezza dei dati è priorità assoluta e dove l’analisi degli stessi è decisiva per il successo aziendale, come nella sanità, mobility, finanza e industria manifatturiera. Le aziende si trovano a dover affrontare la questione di come elaborare i propri dati in modo sicuro ed efficiente: se modernizzando il proprio Data Center, investendo in infrastrutture all’avanguardia o utilizzando il cloud.
Nel 2020 è previsto l’avvio del grande progetto digitale europeo Gaia-X, nato su iniziativa del Ministero federale dell’economia e dell’energia (BMWi). Il progetto si pone l’obiettivo di creare un’infrastruttura cloud europea per la digitalizzazione e la messa in rete sicura dei dati, utilizzabile come base per l’implementazione di nuove applicazioni di intelligenza artificiale. In questo contesto, la Fraunhofer Gesellschaft ha realizzato l’iniziativa “International Data Spaces”, una sala dati virtuale dove le imprese possono condividere i dati in piena sicurezza e dove viene garantita la compatibilità delle loro soluzioni su piattaforme cloud consolidate (interoperabilità).
Ciò significa che piccoli Data Center, distribuiti geograficamente con cloud stack open-source, potrebbero essere in grado di creare una nuova classe di applicazioni industriali che eseguono la fase iniziale di analisi dei dati nel punto in cui gli stessi hanno origine e utilizzano il cloud per l’analisi a valle. Un esempio per questa soluzione è ONCITE, il Data Center “chiavi in mano” (plug-and-produce) per applicazioni Edge cloud industriali che memorizza ed elabora i dati direttamente dove sono generati, così che le aziende connesse mantengano il controllo dei propri dati lungo l’intera supply chain.

Tendenza #2: Recupero di calore e raffreddamento diretto della CPU
I Data Center rilasciano grandi quantità di energia nell’ambiente sotto forma di calore di scarto. Con l’aumentare della densità di potenza nei Data Center, aumenta anche la quantità di calore potenzialmente utilizzabile per altri scopi. Fino ad oggi, tuttavia, il reimpiego del calore di scarto è risultato troppo costoso, ad esempio perché i possibili utilizzatori raramente si trovano nelle immediate vicinanze del sito. Inoltre, il calore generato dai sistemi di raffreddamento ad aria per le Infrastrutture IT è disponibile a una temperatura prossima ai 40 gradi Celsius, temperatura decisamente troppo bassa per consentire il recupero e il reimpiego dell’energia termica in modo economicamente vantaggioso.
Soprattutto in ambito High Performance Computing (HPC), i rack IT generano elevati carichi termici, spesso superiori a 50 kW. Per questi sistemi il raffreddamento diretto ad acqua delle CPU è molto più efficiente del raffreddamento ad aria. Il cooling diretto rende disponibili temperature di ritorno dell’acqua di raffreddamento comprese tra 60 a 65 gradi che consentono, ad esempio, di produrre acqua calda sanitaria, utilizzare pompe di calore o alimentare una rete di teleriscaldamento. Tuttavia, i CIO devono essere consapevoli che, con il raffreddamento diretto ad acqua delle CPU, si può estrarre solo l’80% circa del calore totale generato da un rack IT. Il restante 20% dei rack deve essere raffreddato in modo diretto.

Tendenza #3: Integrazione di ambienti multicloud
Le aziende devono essere certe di poter eseguire le loro applicazioni in cloud su piattaforme utilizzate in qualsiasi paese. Per questo è necessaria una strategia di gestione multicloud. Dal punto di vista del management, si tratta di una decisione strategica basata sulla consapevolezza che la propria organizzazione si indirizzerà verso una completa digitalizzazione del business.
Un’eccellente User Experience può essere garantita, ad esempio, minimizzando i ritardi nella risposta da zone specifiche (“Availability Zone”). Ciò significa che le aziende devono scegliere, per i loro servizi, una o più zone in tutto il mondo in funzione delle loro esigenze di business. Il rispetto dei severi requisiti di protezione dei dati può essere garantito, ad esempio, da un fornitore locale specializzato nel mercato di riferimento. Una strategia multicloud aperta permette proprio questo: combinare la densità funzionale e la scalabilità degli hyperscaler con la sicurezza dei dati di provider locali e specializzati come Innovo Cloud. La trasformazione digitale consentirà lo sviluppo di applicazioni studiate per il mondo cloud. Grazie a questo, si riuscirà a garantire un’elevata automazione dei processi operativi e funzionali aziendali.