Crucial SSD P1 NVMe

Crucial, brand di Micron Technology, annuncia l’uscita dell’SSD Crucial® P1, un dispositivo di archiviazione per PC che sfrutta l’interfaccia PCIe® NVMe™ e l’avanzata tecnologia QLC di Micron per offrire velocità e capacità a costi inferiori. Si tratta di un’espansione della pluri-premiata gamma di SSD Crucial ad alte prestazioni, affidabili e convenienti.

L’SSD Crucial P1 offre prestazioni reali al top della sua categoria. I parametri PCMark® 8 mostrano che l’unità è in grado di offrire throughput in modalità mista fino a 565MB/s, con una valutazione composita di 5,084, che supera SSD simili nella stessa fascia di prezzo.3

Con velocità di lettura/scrittura sequenziali fino a 2.000/1.700 MB/s,4 il P1 offre prestazioni stabili grazie all’accelerazione di scrittura ibrida-dinamica, un’implementazione unica della cache SLC. L’unità offre un MTTF di 1,8 milioni di ore e una resistenza fino a 200 TB di byte totali scritti, con un consumo energetico pari a una media attiva di 100 mW.

Disponibile con capacità fino a 1 TB e supportato da una garanzia limitata di cinque anni, l’SSD Crucial P1 sfrutta la tecnologia Micron NAND con celle a quattro livelli (QLC). Memorizzando quattro bit in ogni cella NAND, la tecnologia NAND QLC riduce il divario di accessibilità tra i dischi rigidi e la memoria flash, consentendo maggiori velocità e capacità a un prezzo più conveniente.

È noioso il backup? Dipende…

Cristian Meloni, Country Manager Italia, Rubrik
Cristian Meloni, Country Manager Italia, Rubrik

Il backup è noioso? In molti effettivamente la ritengono un’attività decisamente poco stimolante e ripetitiva. Per molti altri il backup non è noioso, è addirittura il problema più grosso di tutto il data center! Il problema deriva soprattutto dalle limitate innovazioni. Le principali soluzioni infatti hanno avuto solo miglioramenti progressivi negli ultimi 20 anni, senza essere in grado di rispondere alle nuove richieste di data protection. A seguito dell’inarrestabile crescita dei dati, le finestre di backup sono diventate sempre più lunghe, mentre il ripristino appare sempre troppo lento per soddisfare i requisiti delle nuove iniziative digitali e le aspettative in costante evoluzione.
In realtà, oggi il backup si è rivelato uno dei settori più entusiasmanti perché sta attraversando una nuova trasformazione tecnologica che può ridurre drasticamente o addirittura eliminare queste preoccupazioni.
Le soluzioni di backup sono complesse da realizzare, in quanto il backup tende a essere messo in secondo piano durante la progettazione ingegneristica di applicazioni di prossima generazione. Le funzioni native di backup e recovery sono spesso limitate all’interno di un’applicazione e le aziende non vogliono avere a che fare con più prodotti di backup. Hanno bisogno di una soluzione centralizzata, che soddisfi tutta una serie di richieste non standardizzate che toccano diversi sistemi operativi, file system, applicazioni, workload e infrastrutture di produzione. Inoltre, ora che il Cloud pubblico è ampiamente adottato per snellire i carichi di lavoro del data center, il backup deve essere in grado di operare anche con differenti infrastrutture Cloud, ognuna con le proprie peculiarità. Per questo si ha molto rispetto per gli ingegneri che progettano e implementano soluzioni di backup. Sono davvero gli eroi silenziosi che consentono di proteggere e ripristinare applicazioni e dati critici.
Anche la gestione del backup non è semplice. I software tradizionali tendono a proporre tutte le opzioni e le possibilità di scelta, rendendo più difficile capire la situazione e prendere la decisione corretta. Spesso il backup richiede un costoso supporto da parte di servizi professionali e consulenti per l’implementazione, la configurazione e la gestione. Una schedulazione classica basata sui job di backup richiede infatti troppo tempo per essere gestita e non offre scalabilità. Come gli storage si sono automatizzati per mascherare la complessità sottostante di lun e gestione volumi, perché i software di backup non possono automatizzare le loro complesse operazioni?
È importante quindi garantire non solo la riduzione della complessità delle infrastrutture di backup sfruttando appliance semplici da installare, scalabili e self-healing, piuttosto che soluzioni software-defined. È necessario anche automatizzare l’intero processo di backup e recovery, rendendolo più snello, veloce e affidabile.
In questo modo, non solo il backup si rivelerà un’attività tutt’altro che noiosa o ripetitiva, ma potrà anche dare un supporto concreto alle attività di business, riducendo la necessità di risorse e velocizzando i processi.

Integrazione dei sistemi UPS modulari a INTELEC 2018

Socomec prenderà parte a INTELEC 2018 – International Telecommunications Energy Conference – con un intervento dedicato ad approfondire il tema dell’integrazione dei sistemi UPS modulari con tutte le componenti esterne necessarie al loro funzionamento. Il contributo è in agenda per mercoledì 10 Ottobre alle ore 14.00 nella sala Lisbona del Lingotto Conference Centre di Torino.

I sistemi UPS modulari sono caratterizzati da un livello di affidabilità molto
più elevato rispetto ai sistemi UPS monolitici. Entrambi però, per funzionare correttamente nell’impianto, hanno la necessità di essere collegati in modo opportuno con la rete di alimentazione, le batterie di riserva e le applicazioni, inoltre c’è da considerare le modalità di
interconnessione dei diversi armadi dello stesso sistema UPS. Le differenti soluzioni con cui si possono integrare tutte queste parti hanno una forte influenza sull’affidabilità complessiva del sistema di alimentazione.
L’intervento di Socomec intende analizzare l’affidabilità di un sistema UPS modulare proprio considerando la sua integrazione con tutte le parti esterne all’UPS, analizzando l’affidabilità di ciascuna delle diverse possibili architetture del sistema di alimentazione e delle diverse soluzioni di interconnessione. Lo scopo è di definire delle linee guida pratiche per
l’integrazione ottimale dell’UPS, in modo da assicurare anche per il sistema globale una elevata affidabilità.

Wenceslao Lada Vice President Worldwide Alliances di Commvault

Wenceslao Lada, Vice President Worldwide Alliances, CommvaultCommvault ha nominato Wenceslao Lada Vice President Worldwide Alliances.

Lada, grazie alla sua consolidata esperienza, entra in Commvault con la responsabilità di rafforzare le partnership esistenti e stringere nuove alleanze con cloud provider e aziende tecnologiche leader di settore. Inoltre, grazie alle sue competenze, Lada supporterà lo sviluppo di nuove opportunità di business e l’ampliamento del market share di Commvault e dei suoi partner globali.

Lada ha più di 20 anni di esperienza nello sviluppo e realizzazione di strategie di canale e OEM per aziende leader IT. Prima del suo ingresso in Commvault, è stato Vice President, Worldwide Global Customer Success Sales di Cisco e, in precedenza, Vice President and General Regional manager for Americas and EMEA di Hewlett-Packard.

Lada, che risponde a Taraniuk, sarà responsabile del nuovo team Worldwide Alliances, che unisce le divisioni attuali OEM e Alliances.

Un’unica piattaforma per il backup e recovery riducono il downtime del 55%

Vincenzo Costantino, Director, EMEA South Technical Services, Commvault
Vincenzo Costantino, Director, EMEA South Technical Services, Commvault

Secondo stime di Gartner il costo medio di un downtime parte da una base di 5.600 dollari al minuto. Nonostante questo, molte aziende non hanno ancora definito una strategia di “High Availability” (HA) o Alta Disponibilità.

Quali sono le principali cause di downtime?
I downtime non pianificati sono un rischio spesso aggravato da approcci multi-prodotto e multi-vendor che limitano l’agilità e la disponibilità all’interno dell’architettura di backup e recovery di un’azienda. Implementare un’unica piattaforma completa di gestione dei dati può contrastare il rischio di downtime causato proprio dall’uso di un numero eccessivo di prodotti.
Un’indagine di IDC realizzata nel 2018 ‘Quantifying the Business Value of Commvault Software: Worldwide Customer Survey Analysis’, indica che le aziende che utilizzano un’unica piattaforma per il backup e recovery hanno ridotto il downtime del 55%.
Una singola soluzione può inoltre incrementare la produttività IT e ridurre i costi annuali, garantendo operazioni di backup e recovery più affidabili e veloci. Queste capacità sono in grado di migliorare i risultati di business e di rispondendo alle diverse esigenze, allontanando il rischio di downtime non pianificati.

Come impostare una corretta strategia di High Availability?
Una strategia di HA dovrà tenere in considerazione l’esigenza crescente di protezione dei dati in ambienti IT multi-cloud e ibridi in rapida crescita che richiedono flessibilità e sicurezza per fornire agilità di business. Backup e protezione dei dati sono fondamentali per l’alta disponibilità, insieme alla flessibilità con funzionalità versatili come la deduplica in ambienti cloud e policy di licenza per infrastrutture virtuali.
I clienti aziendali hanno bisogno di flessibilità per garantire alta disponibilità e una riduzione dei rischi all’infrastruttura dati, con la necessità di adattabilità integrata e una vasta gamma di opzioni di cloud storage per soddisfare questi requisiti. Da aggiungere anche le normative di protezione dei dati (ad esempio GDPR) e di diritto all’oblio e funzionalità richieste per la protezione by design, la notifica di violazione entro 72 ore, principi di minimizzazione dei dati, trasferimento e portabilità delle informazioni.
I cyberattacchi stanno diventando una delle principali cause di downtime.

Come inserire la sicurezza informatica in una strategia di HA?
Quando un attacco cyber supera le difese di sicurezza, le tecnologie di rilevazione delle minacce che ogni azienda dovrebbe possedere indicheranno anomalie rispetto ai modelli di comportamento e operativi standard. Le aziende sono responsabili non solo dei propri dati, ma anche di quelli dei clienti e devono garantire processi appropriati di backup e di ripristino su richiesta. Per ottimizzare la sicurezza dei dati in una strategia di HA, le aziende dovrebbero considerare disaster recovery e business continuity, attività monitorate in modo completo che possono offrire anche crittografia dei dati archiviati e di quelli in transito.
Gli attacchi dei ransomware WannaCry, Petya e NotPetya hanno colpito più di 150 paesi nel 2017, le aziende possono adottare un approccio con singola piattaforma per realizzare il backup dei dati in modo semplice, automatico e sicuro, riducendo il rischio di perdita dei dati a seguito di violazioni e garantendo livelli elevati di disponibilità delle informazioni.

Qual è l’impatto del cloud sulla disponibilità delle applicazioni?
Quando si considera l’impatto del cloud sulla disponibilità, è necessario un approccio appropriato, soprattutto per quanto riguarda l’integrazione. L’unione di molteplici applicazioni e soluzioni di disaster recovery in silo spesso crea problemi e può ostacolare l’efficacia dell’intera infrastruttura di dati. Le aziende dovrebbero quindi scegliere una piattaforma che operi con differenti soluzioni cloud e agevoli e semplifichi la disponibilità dei dati nel cloud.
Soluzioni hyperscale e multi-cloud garantiscono benefici significativi nella capacità di adattare i sistemi alle condizioni in evoluzione e rendere i dati disponibili indipendentemente da variabili di tempo e luogo (anche virtuale).
La disponibilità può essere a rischio anche nel caso in cui un cloud service provider subisse interruzioni di attività o di connessione per un lungo periodo. La migrazione al cloud è un’opzione interessante per la sua relativa facilità e accessibilità, ma ci sono difficoltà potenziali da affrontare nel ripristino dei dati e nell’assicurarne la disponibilità.

I risultati della ricerca sottolineano che un terzo delle aziende non ha un sito di disaster recovery. Quali sono i rischi correlati all’High Availability?
Nonostante la consapevolezza dell’importanza dei dati aziendali, oltre il 60% delle imprese non ha implementato un piano di disaster recovery documentato in caso di eventi disastrosi, sia naturali che dolosi.
Tra le best practice da includere in un piano di disaster recovery: ripristino dei dati off-site in una location secondaria, collaborare con partner di fiducia o avere un tema dedicato al DR. È importante che le aziende aggiornino in modo costante il loro piano di DR e effettuino test regolari applicando differenti situazioni.
I piani di disaster recovery richiedono una forte collaborazione tra molte figure, che includono tutte le linee di business. Per una strategia di HA efficace, è fondamentale realizzare test e prove in modo continuo e adattare e far evolvere gli strumenti utilizzati.