Hard disk della serie P300 Desktop PC da 3,5 pollici ora anche 4TB e 6TB

Toshiba Electronics Europe GmbH annuncia l’ampliamento della serie P300 Desktop PC Hard Drive da 3,5″ pollici con due nuovi modelli da 4TB e 6TB. In questi nuovi drive è stato raddoppiato il buffer, portandolo da 64MB a 128MB, inoltre sono più silenziosi e richiedono meno energia rispetto ad altri modelli della serie.
Grazie al Dual-Stage Actuator, le testine di lettura/scrittura delle unità sono protette in modo ottimale quando I dischi sono trasportati da soli o integrati in un PC. Questi hard disk sono inoltre dotati di un sensore d’urto interno che protegge i dati durante il funzionamento, rendendoli ideali per graphic designer e creativi che lavorano in movimento.
Ulteriori migliorie, come l’implementazione di tecniche innovative per ridurre al minimo il movimento della testina, permettono di aumentare le prestazioni dei drive nelle sequenze di accesso in lettura/scrittura. Questa ottimizzazione riduce al minimo il carico di lavoro meccanico, migliorando le prestazioni complessive così da soddisfare le esigenze delle desktop workstation e dei gamer.
P300 da 4TB è già disponibile sul mercato mentre la configurazione da 6TB sarà invece disponibile nel primo trimestre del 2020.

Archiviazione dei dati provenienti da sistemi di videosorveglianza

La videosorveglianza sta diventando sempre più smart ed efficace soprattutto come mezzo per combattere la criminalità, scoprire le cause degli incidenti e quindi prevenirli, e ancora, come prezioso aiuto nella risoluzione di gialli o fatti di cronaca. L’aumento e la diffusione delle telecamere ha portato ad una crescita della quantità di dati generati che devono essere inviati a dispositivi di archiviazione. Di conseguenza è importante pensare a soluzioni e supporti dedicati, sempre più performanti anche in base ad uno dei loro requisiti chiave: l’operatività 24/7. Proprio per questo i Surveillance Digital Video Recorder (sDVR) e i Surveillance Network Video Recorder (sNVR) devono essere costruiti per supportare l’enorme quantità di dati provenienti da fonti multiple e spesso a larghezze di banda elevate. Quando si tratta di archiviazione a lungo termine su server, i dati devono essere conservati per anni senza perdere fotogrammi e rimanere facilmente accessibili ai sistemi di gestione video, al fine di consentire un rapido accesso alle immagini per l’analisi. Il mantenimento e la gestione di queste soluzioni di archiviazione, che riguarda un’enorme mole di dati, destinate ad aumentare, richiede soluzioni molto specifiche e realizzate appositamente per le esigenze di sorveglianza. Ma quali sono queste esigenze e come funzionano le unità per la videosorveglianza?

La garanzia, di un disco, assicura il funzionamento per un certo numero di anni prima che l’unità debba essere sostituita per assicurare la sicurezza. Tuttavia, quest’ultima, offre solo un’indicazione sugli anni di vita sicura e affidabile dell’unità, in base ad una serie di fattori esterni da considerarsi all’interno di un certo range. Per questo motivo è importante comprendere questi fattori e controllarli per ottenere la misura più accurata dell’affidabilità in modo da garantirne una sicurezza a lungo termine.

Uno dei principali fattori in grado di compromettere la durata di un’unità è la temperatura di funzionamento. Al centro di un drive è posizionato un cuscinetto fluidodinamico responsabile della corretta rotazione dei piatti che memorizzano i dati. Dato che questo cuscinetto utilizza l’olio come fluido lubrificante, qualsiasi aumento prolungato della temperatura può causare una riduzione del fluido e, in ultima analisi, una perdita che a lungo termine aumenterebbe le possibilità di guasto del drive.

La temperatura di funzionamento è una delle caratteristiche che deve essere migliore nelle unità di sorveglianza rispetto alle unità Enterprise. I drive per la sorveglianza devono operare in un intervallo di temperatura compreso tra gli 0 e i 70 gradi Celsius, mentre un’unità Enterprise può operare ad una temperatura compresa tra i 5 e i 55 gradi Celsius. Se si decide di utlizzare dischi Enterprise è necessario spendere di più per il raffreddamento dell’ambiente in cui vengono posizionati. Anche se dotati di una garanzia o di un rated workload più interessante, la loro adozione potrebbe richiedere controlli ambientali aggiuntivi, soprattutto quando vengono utilizzati in contesti di videosorveglianza dove si produce più calore, facendo quindi risultare il tutto più costoso.

Il rated workload è un altro fattore da tenere in considerazione. Questo si riferisce all’usura che un’unità subisce inevitabilmente a causa del movimento. Il carico di lavoro che il drive ha, in termini di lettura e scrittura dei dati, influisce sulla sua usura e di conseguenza sul rated workload. Per le unità di sorveglianza il valore medio è fino a 180 TB/anno e anche se basso rispetto alle unità Enterprise (550 TB/anno), è notevolmente superiore ai 55 TB/anno definiti per le unità ad uso client.

L’archiviazione per i sistemi di sorveglianza è un sistema tipicamente 24/7 che richiede un lavoro costante da parte delle unità che memorizzano i dati video. Il valore che indica il numero di ore per le quali è stato concepito un drive è chiamato “operating duty”. Mentre un PC desktop o laptop ad uso domestico potrebbe essere dotato di HDD costruiti per ore di utilizzo quotidiano, la videosorveglianza “always-on” è molto più impegnativa, questo perché le unità per la videosorveglianza non vengono mai spente e devono funzionare in modo molto diverso dalle unità client.

Naturalmente, anche la migliore unità raggiungerà comunque il momento in cui si verificherà un guasto, ma prendendo grazie al Mean Time To Failure (MTTF) potrà essere previsto in maniera più precisa. Con questo valore statistico si fa riferimento al tempo medio di attesa fra i guasti. 1 MTTF sta per 1 milione di ore di funzionamento, il che si traduce in 114 anni. È però importante capire che non si fa riferimeno ad una singola unità, ma ad una “popolazione statistica” di HDD più ampia. Quindi, in un gruppo di un milione di unità, è possibile che una di esse fallisca ogni ora. Quindi per un cluster di 500 unità è previsto un errore ogni 2.000 ore o a circa 83 giorni.

In questo modo è possibile calcolare il tasso di errore annuo (AFR) utilizzando i dati del MTTF. Ciò rivelerebbe che un’istallazione di un milione di ore per unità (MTTF) con 500 unità potrebbe causare il guasto di cinque drive all’anno. Questi dati possono quindi essere utilizzati dagli operatori dei sistemi di videosorveglianza in modo da preventivare le sostituzioni delle unità al fine di garantirne una conservazione dei dati più sicura.

Il fattore più importante e da tenere in considerazione in fase di acquisto è il costo dell’investimento. Se da un lato, risparmiare denaro all’inizio optando per soluzioni più economiche potrebbe rivelarsi una scelte efficace, nel lungo termine, potrebbe il rivelarsi il contrario comportando addirittura costi più elevati attraverso le spese di manutenzione e assistenza.

Le unità di tipo Enterprise spesso non dispongono dei miglioramenti hardware e software per supportare il worlkload di scrittura-video, mentre le unità progettate per l’uso client non sono adatte al funzionamento 24/7. Invece i drive specifici per la sorveglianza, come gli HDD Toshiba S300 Surveillance o V300 Video Streaming HDD, sono in grado di soddisfare le specifiche tecniche idonee per il settore, tra cui un milione di ore di rating MTTF e sono garantiti per tre anni con un intervallo di temperatura operativa dai 0 ai 70 gradi Celsius. Offrono inoltre un buffer fino a 256 MB e controller del disco ottimizzati per consentire la scrittura contemporanea di 64 feed video HD. La tecnologia Dynamic Cache Technology contribuisce inoltre a migliorare le prestazioni in tempo reale delle unità in modo che nessun fotogramma venga perso, anche in situazioni di workload più pesanti, come la scrittura e la revisione dei video allo stesso tempo.

La memorizzazione dei dati del CERN

Il Large Hadron Collider (LHC) del CERN è all’avanguardia della ricerca fisica. I dati generati dalle sue fasi “Run 1” e “Run 2” sono già stati utilizzati per dimostrare l’esistenza di particelle atomiche finora mai identificate, e dunque ampliare la nostra conoscenza dell’universo e come questo si è formato. In particolare, nel 2012 i dati hanno permesso di confermare l’esistenza del bosone di Higgs.
I numeri del CERN sono sbalorditivi. A partire dalla dimensione del large hadron collider, un acceleratore di particelle circolare con un raggio di 4,3 km, alla velocità di collisione delle particelle: all’interno dei rilevatori dell’esperimento con il LHC si possono verificare fino a 1 miliardo di collisioni di particelle ogni secondo.
Ma è la quantità di dati che desta maggiore impressione, infatti le collisioni generano 1 petabyte (PB) di dati al secondo. Anche dopo aver filtrato i soli eventi interessanti, il CERN ha la necessità di immagazzinare ogni mese circa 10 PB di nuovi dati da analizzare.
Questi dati vengono immagazzinati nel centro elaborazione dati del CERN e sono condivisi con una rete di circa 170 centri elaborazione dati per la loro analisi, grazie alla Worldwide LHC Computing Grid (WLCG), la rete mondiale di calcolo per LHC. L’attuale centro archiviazione dati del CERN comprende buffer hard disk con 3200 JBOD che contengono 100.000 hard disk drive (HDD), per un totale di 350 PB.
Le fasi Run con il LHC sono destinate e continuare e ad ogni nuovo “Run” l’archivio dati cresce in modo significativo. Dopo i necessari upgrade, la fase Run 3 del CERN è prevista per il 2021.
Gli hard disk di Toshiba Electronics Europe GmbH vengono utilizzati dal CERN dal 2014 per gestire gli enormi volumi di dati, e tre generazioni di tecnologia hard drive Toshiba hanno finora soddisfatto le crescenti esigenze di capacità di storage del centro. Ma ciò può continuare se, come dichiara Eric Bonfillou, responsabile della divisione Facility Planning and Procurement presso il dipartimento IT del CERN: “Gli interventi di upgrade programmati per le macchine del LHC richiederanno un dimensionamento delle risorse di calcolo e archiviazione che va oltre quanto oggi la tecnologia è in grado di offrire”.

IFA 2019: le serie di hard disk N300 e X300 Toshiba con modelli da 16TB

In occasione di IFA, Toshiba Electronics Europe GmbH annuncia i nuovi hard disk da 16TB helium-sealed delle serie N300 NAS e X300 Performance Hard Drive. I modelli da 16TB offrono una capacità superiore del 14% rispetto ai modelli da 14TB e inoltre, raddoppiano la dimensione del buffer, passando da 256MiB a 512MiB.
Le serie N300 e X300 da 16TB, grazie al design a elio a 9 piatti, offrono maggiore densità di memorizzazione con un consumo di energia inferiore. La tecnologia a saldatura laser di Toshiba Group e la progettazione del case mantengono l’elio perfettamente sigillato nel drive da 3,5 pollici, standard del settore.
La serie N300 è ideale per applicazioni quali home office, NAS per piccole imprese e archiviazione su cloud privato, con un supporto fino a 8 alloggiamenti per unità drive. Progettata per il funzionamento 24/7, la serie N300 ha un workload fino a 180TB di dati l’anno, con velocità a 7200rpm e sensori integrati per compensare l’effetto delle vibrazioni di rotazione.
Progettata per PC e workstation desktop, la serie X300 offre velocità a 7200rpm e tecnologie di stabilizzazione delle unità per una maggiore affidabilità. Grazie alla tecnologia Dynamic Cache di Toshiba Group ottimizza l’allocazione della cache durante la lettura e la scrittura per garantire elevate prestazioni in tempo reale.

Data center e requisiti di archiviazione

L’attuale “stile di vita digitale” si basa sui dati: l’enorme quantità generata e prodotta dall’uomo e dalle macchine ha fatto crescere l’esigenza della loro disponibilità e conservazione per un periodo di tempo indefinito nei data center. I requisiti di archiviazione sono in continua espansione e tuttavia, le moderne soluzioni di archiviazione – secondo Toshiba Electronics Europe GmbH – non devono necessariamente essere complesse.
In passato, le aree di archiviazione erano suddivise in offline, nearline e online, includendo soluzioni di backup e a nastro, dischi rigidi ad alta capacità e le più veloci opzioni di unità di archiviazione esistenti. Oggi un approccio che privilegia gli hard disk non è più efficace, poiché i data center richiedono una visione più ampia delle soluzioni di archiviazione. I sistemi cloud rendono irrilevante la pianificazione dello storage in termini di dischi rigidi e gigabyte. Le sfide vengono invece affrontate in termini di sistemi, array, rack o unità di misura simili che fanno passare in secondo piano le nostre misure tradizionali di prestazioni e capacità.
Ad esempio, se un’azienda introduce un nuovo servizio, che include app e interfacce multiple, i requisiti possono essere molto alti. Che si tratti di Netflix, dell’app DB Navigator o di un’intera piattaforma digitale come Facebook, è necessario valutare aspetti come tipo di dati, capacità di archiviazione, formati di accesso, disponibilità e scalabilità. Proprio per questo non è possibile soddisfare i requisiti di archiviazione “solamente” attraverso una soluzione basata su hard disk, SSD o “architetture” di storage utilizzate nel passato poiché ogni caso necessita della propria soluzione.
Il confronto tra unità SSD e hard disk sembra dipendere dall’utilizzo, poiché le unità SSD sono generalmente veloci ed efficienti, mentre gli hard disk possono memorizzare molti più dati ad un costo inferiore. Tuttavia, quando si parla a livello di array o si arriva a considerare interi cluster in un data center, le cose cambiano.
Le grandi implementazioni sono casi tipici in cui tecnologie diverse vengono utilizzate per raggiungere un obiettivo comune. In base ai requisiti delle applicazioni di un’azienda e all’approccio di archiviazione specifico, un livello particolare di performance può essere raggiunto impiegando una quantità definita di SSD o di sistemi, ma anche da una probabilmente maggiore quantità di hard disk. La scelta finale di una tecnologia rispetto a un’altra dipende molto anche da altri elementi per esempio quelli di tipo economico. Con lo stesso investimento si può acquistare un piccolo numero di sistemi SSD ad alte prestazioni, un numero maggiore di sistemi ibridi basati su una combinazione di SSD e hard disk, o anche un sistema basato solo su hard disk e tutte queste soluzioni potrebbero raggiungere gli obiettivi prefissati. Per fare una valutazione ponderata è anche importante tenere in considerazione il Total Cost of Ownership (TCO), così come i costi di esercizio, e i requisiti di potenza.
Anche piccole modifiche alla configurazione pianificata, come l’availability dei dischi e le variazioni di prezzo delle unità, causano cambiamenti che vanno tenuti presenti anche all’interno di un approccio basato sul budget. In questi casi un confronto con i metodi di project management diventa utile soprattutto quando le esigenze o il campo di applicazione cambiano rapidamente. Per questo serve un approccio “agile” con frequenti review e l’inclusione di molte prospettive, competenze e partecipazione di team interdisciplinari. Lo stesso vale per le soluzioni di “archiviazione pianificata”. Le esigenze individuali richiedono soluzioni personalizzate che non includono necessariamente una singola tecnologia: una pianificazione “agile” è ideale per le soluzioni di archiviazione nei data center, dove spesso si combinano esigenze diverse.
I dischi rigidi continueranno ad essere la colonna portante di molte soluzioni di archiviazione. Ci sono notevoli vantaggi economici quando si utilizzano hard disk ad alta capacità di archiviazione dove non sono richieste prestazioni di altissimo livello. Inoltre, l’esperienza decennale di lavoro con questa tecnologia, la capacità di pianificare a lungo termine, insieme alla disponibilità di soluzioni di aggiornamento per le implementazioni esistenti, garantiscono che gli hard disk giocheranno un ruolo importante nelle soluzioni di archiviazione negli anni a venire.
Per le applicazioni in tempo reale, le unità SSD sono senza dubbio la scelta migliore. Tuttavia, in tutti gli altri casi non è possibile dare indicazioni in generale. Gli hard disk moderni, come la serie MG di Toshiba per ambienti aziendali, restano l’ideale in molti casi e situazioni poiché, man mano che il numero di unità in un sistema, o addirittura il numero di sistemi, cresce, i criteri e le metriche variano e cambiano. L’uso di hard disk spesso diventa di nuovo una scelta potenziale.
Le soluzioni della serie MG di Toshiba, con il sistema SAS o SATA, da 7.200 giri/min offrono un’ampia gamma di capacità da 1 TB (MG04) a 16 TB (MG08) per ambienti aziendali e restano l’ideale in molti casi e situazioni poiché, man mano che il numero di unità in un sistema, o addirittura il numero di sistemi, cresce, i criteri e le metriche variano e cambiano. I modelli MG07 e MG08 si basano su un design e una tecnologia collaudata, sono riempiti ad elio e hanno una garanzia di cinque anni e un volume di dati fino a 550 TB/anno.
Questi modelli sono classificati come unità nearline, cioè sono adatti per memorizzare tutti i dati che non hanno bisogno di essere modificati o a cui non bisogna accedere in modo permanente. In pratica, questo è il caso della maggior parte dei dati. Tutto ciò diventa tangibile nel caso delle applicazioni dei “social media”: le informazioni sul profilo sono accessibili per un breve periodo di tempo, dopodiché vengono archiviate nuovamente in una memoria a lungo termine, pur rimanendo rapidamente accessibili.
Proprio per questo i dischi rigidi delle serie MG07 o MG08, grazie ai sensori interni e all’elevata integrità dei dati, sono in grado di gestire in modo affidabile, rapido ed economico i crescenti volumi di dati odierni.