Crucial SSD P1 NVMe

Crucial, brand di Micron Technology, annuncia l’uscita dell’SSD Crucial® P1, un dispositivo di archiviazione per PC che sfrutta l’interfaccia PCIe® NVMe™ e l’avanzata tecnologia QLC di Micron per offrire velocità e capacità a costi inferiori. Si tratta di un’espansione della pluri-premiata gamma di SSD Crucial ad alte prestazioni, affidabili e convenienti.

L’SSD Crucial P1 offre prestazioni reali al top della sua categoria. I parametri PCMark® 8 mostrano che l’unità è in grado di offrire throughput in modalità mista fino a 565MB/s, con una valutazione composita di 5,084, che supera SSD simili nella stessa fascia di prezzo.3

Con velocità di lettura/scrittura sequenziali fino a 2.000/1.700 MB/s,4 il P1 offre prestazioni stabili grazie all’accelerazione di scrittura ibrida-dinamica, un’implementazione unica della cache SLC. L’unità offre un MTTF di 1,8 milioni di ore e una resistenza fino a 200 TB di byte totali scritti, con un consumo energetico pari a una media attiva di 100 mW.

Disponibile con capacità fino a 1 TB e supportato da una garanzia limitata di cinque anni, l’SSD Crucial P1 sfrutta la tecnologia Micron NAND con celle a quattro livelli (QLC). Memorizzando quattro bit in ogni cella NAND, la tecnologia NAND QLC riduce il divario di accessibilità tra i dischi rigidi e la memoria flash, consentendo maggiori velocità e capacità a un prezzo più conveniente.

È noioso il backup? Dipende…

Cristian Meloni, Country Manager Italia, Rubrik
Cristian Meloni, Country Manager Italia, Rubrik

Il backup è noioso? In molti effettivamente la ritengono un’attività decisamente poco stimolante e ripetitiva. Per molti altri il backup non è noioso, è addirittura il problema più grosso di tutto il data center! Il problema deriva soprattutto dalle limitate innovazioni. Le principali soluzioni infatti hanno avuto solo miglioramenti progressivi negli ultimi 20 anni, senza essere in grado di rispondere alle nuove richieste di data protection. A seguito dell’inarrestabile crescita dei dati, le finestre di backup sono diventate sempre più lunghe, mentre il ripristino appare sempre troppo lento per soddisfare i requisiti delle nuove iniziative digitali e le aspettative in costante evoluzione.
In realtà, oggi il backup si è rivelato uno dei settori più entusiasmanti perché sta attraversando una nuova trasformazione tecnologica che può ridurre drasticamente o addirittura eliminare queste preoccupazioni.
Le soluzioni di backup sono complesse da realizzare, in quanto il backup tende a essere messo in secondo piano durante la progettazione ingegneristica di applicazioni di prossima generazione. Le funzioni native di backup e recovery sono spesso limitate all’interno di un’applicazione e le aziende non vogliono avere a che fare con più prodotti di backup. Hanno bisogno di una soluzione centralizzata, che soddisfi tutta una serie di richieste non standardizzate che toccano diversi sistemi operativi, file system, applicazioni, workload e infrastrutture di produzione. Inoltre, ora che il Cloud pubblico è ampiamente adottato per snellire i carichi di lavoro del data center, il backup deve essere in grado di operare anche con differenti infrastrutture Cloud, ognuna con le proprie peculiarità. Per questo si ha molto rispetto per gli ingegneri che progettano e implementano soluzioni di backup. Sono davvero gli eroi silenziosi che consentono di proteggere e ripristinare applicazioni e dati critici.
Anche la gestione del backup non è semplice. I software tradizionali tendono a proporre tutte le opzioni e le possibilità di scelta, rendendo più difficile capire la situazione e prendere la decisione corretta. Spesso il backup richiede un costoso supporto da parte di servizi professionali e consulenti per l’implementazione, la configurazione e la gestione. Una schedulazione classica basata sui job di backup richiede infatti troppo tempo per essere gestita e non offre scalabilità. Come gli storage si sono automatizzati per mascherare la complessità sottostante di lun e gestione volumi, perché i software di backup non possono automatizzare le loro complesse operazioni?
È importante quindi garantire non solo la riduzione della complessità delle infrastrutture di backup sfruttando appliance semplici da installare, scalabili e self-healing, piuttosto che soluzioni software-defined. È necessario anche automatizzare l’intero processo di backup e recovery, rendendolo più snello, veloce e affidabile.
In questo modo, non solo il backup si rivelerà un’attività tutt’altro che noiosa o ripetitiva, ma potrà anche dare un supporto concreto alle attività di business, riducendo la necessità di risorse e velocizzando i processi.

Integrazione dei sistemi UPS modulari a INTELEC 2018

Socomec prenderà parte a INTELEC 2018 – International Telecommunications Energy Conference – con un intervento dedicato ad approfondire il tema dell’integrazione dei sistemi UPS modulari con tutte le componenti esterne necessarie al loro funzionamento. Il contributo è in agenda per mercoledì 10 Ottobre alle ore 14.00 nella sala Lisbona del Lingotto Conference Centre di Torino.

I sistemi UPS modulari sono caratterizzati da un livello di affidabilità molto
più elevato rispetto ai sistemi UPS monolitici. Entrambi però, per funzionare correttamente nell’impianto, hanno la necessità di essere collegati in modo opportuno con la rete di alimentazione, le batterie di riserva e le applicazioni, inoltre c’è da considerare le modalità di
interconnessione dei diversi armadi dello stesso sistema UPS. Le differenti soluzioni con cui si possono integrare tutte queste parti hanno una forte influenza sull’affidabilità complessiva del sistema di alimentazione.
L’intervento di Socomec intende analizzare l’affidabilità di un sistema UPS modulare proprio considerando la sua integrazione con tutte le parti esterne all’UPS, analizzando l’affidabilità di ciascuna delle diverse possibili architetture del sistema di alimentazione e delle diverse soluzioni di interconnessione. Lo scopo è di definire delle linee guida pratiche per
l’integrazione ottimale dell’UPS, in modo da assicurare anche per il sistema globale una elevata affidabilità.

La crittografia, alla base della sicurezza, è troppo costosa? L’approccio software-defined

Eran Brown, CTO EMEA, Infinidat
Eran Brown, CTO EMEA, Infinidat

End-to-end encryption (E2EE): la soluzione a tutto?
La crittografia dei dati può avvenire su più livelli nel datacenter, dall’interno dell’array storage fino alle stesse applicazioni.
La strategia classica è stata finora quella di cifrare i dati a livello dello storage, poiché gli array storage possono crittografare i dati istantaneamente senza nessun degrado di prestazione. Questo dà ai CIO un senso di tranquillità, con la convinzione di aver assolto al problema della crittografia e che i dati siano realmente al sicuro. Sfortunatamente, non è questo il caso, perché la superficie di attacco per le aziende è ben più estesa rispetto ad un attacco diretto sui dati nello storage, dal momento che questo livello non può proteggere i dati “in attraversamento”.
La cifratura deve essere implementata ad un livello più elevato dello stack, per proteggere le informazioni ovunque si trovino, compreso il momento del loro transito in rete, per essere immune rispetto ai data breach e alle loro conseguenze (vedi il GDPR, articolo 34, paragrafo 3). I CIO che non adottano questo standard avanzato, saranno chiamati a rispondere di questa scelta nel caso di una violazione dei dati a loro affidati?

Il conflitto con lo storage moderno
Se implementare la crittografia a livello applicativo è una necessità sempre più stringente per contrastare le minacce alla sicurezza, può portare con sé problemi molto significativi rispetto al moderno data storage. Oltre a ciò, l’uso comune di Array all-Flash (AFA) all’interno dei datacenter, da molti accolto come una scelta orientata al futuro, va in conflitto diretto con la possibilità di implementare una E2EE dove più sarebbe necessaria. La crittografia end-to-end neutralizza di fatto la capacità delle infrastrutture AFA di ridurre i costi, impedendo alle aziende di ottenere una migliore efficienza economica nel momento in cui proteggono i dati dei loro clienti.
Se il rapporto di riduzione dei dati in un’azienda passa da 4:1 a 1:1 a seguito dell’adozione della crittografia, ad esempio, il costo già elevato dei supporti all-Flash viene ulteriormente moltiplicato, per quattro – un aumento che un’azienda non può certo sopportare.
In diretta contrapposizione rispetto alle infrastrutture “media-defined” AFA, vi sono soluzioni storage che adottano un approccio innovativo software-defined, e che consentono di raggiungere il livello di sicurezza dei dati richiesto dalle normative attualmente in vigore, anche a fronte dell’evoluzione futura delle minacce cyber – e senza mettere a rischio il bilancio economico complessivo delle aziende

Data Hub: l’architettura data-centrica di Pure Storage

Pure Storage presenta data hub, la propria visione per rinnovare l’architettura storage per i workload non strutturati e data-intensive. Progettata partendo da Pure Storage FlashBlade™, data hub è disegnata per essere un’architettura data-centrica, che consenta alle aziende di utilizzare efficacemente i dati.

Per innovare e sopravvivere in un contesto sempre più data-driven, le aziende devono progettare infrastrutture che in primo luogo tengano conto dei dati e consentano un accesso completo ed in tempo reale a questi ultimi. Le soluzioni oggi più diffuse sono state progettate per i dischi e hanno storicamente contribuito a creare silos di dati. Un’architettura data hub è invece progettata per fornire, condividere e unificare i dati, offrendo la possibilità di accedere ad un valore senza precedenti.

Oggi le aziende si affidano a quattro tipologie di soluzioni di analytics in silos: data warehouse, data lake, streaming analytics e cluster di AI. Un data hub integra le caratteristiche più importanti di queste quattro tipologie di silos e le unifica in una singola piattaforma. Un data hub deve avere quattro caratteristiche principali:
Throughput elevato sia per object storage che per archiviazione di file. I dispositivi di backup e data warehouse richiedono un throughput elevato per workload comuni e basati su file, e per applicazioni cloud-native e object-based.
Architettura scale-out. La caratteristica primaria del data lake è la sua architettura scale-out nativa, che consente di scalare senza limiti i lavori batch, in quanto è il software, non l’utente, a gestire la resilienza e le prestazioni.
Prestazioni multidimensionali. I dati non sono prevedibili e possono arrivare a qualsiasi velocità, pertanto le aziende necessitano di una piattaforma in grado di processare qualsiasi tipo di dato e con qualsiasi modello di accesso.
Elaborazione in parallelo. Nell’industria informatica c’è stato un profondo cambiamento dalle tecnologie seriali alle tecnologie parallele, costruite per imitare il cervello umano, e lo storage deve omologarsi.