La crittografia, alla base della sicurezza, è troppo costosa? L’approccio software-defined

Eran Brown, CTO EMEA, Infinidat
Eran Brown, CTO EMEA, Infinidat

End-to-end encryption (E2EE): la soluzione a tutto?
La crittografia dei dati può avvenire su più livelli nel datacenter, dall’interno dell’array storage fino alle stesse applicazioni.
La strategia classica è stata finora quella di cifrare i dati a livello dello storage, poiché gli array storage possono crittografare i dati istantaneamente senza nessun degrado di prestazione. Questo dà ai CIO un senso di tranquillità, con la convinzione di aver assolto al problema della crittografia e che i dati siano realmente al sicuro. Sfortunatamente, non è questo il caso, perché la superficie di attacco per le aziende è ben più estesa rispetto ad un attacco diretto sui dati nello storage, dal momento che questo livello non può proteggere i dati “in attraversamento”.
La cifratura deve essere implementata ad un livello più elevato dello stack, per proteggere le informazioni ovunque si trovino, compreso il momento del loro transito in rete, per essere immune rispetto ai data breach e alle loro conseguenze (vedi il GDPR, articolo 34, paragrafo 3). I CIO che non adottano questo standard avanzato, saranno chiamati a rispondere di questa scelta nel caso di una violazione dei dati a loro affidati?

Il conflitto con lo storage moderno
Se implementare la crittografia a livello applicativo è una necessità sempre più stringente per contrastare le minacce alla sicurezza, può portare con sé problemi molto significativi rispetto al moderno data storage. Oltre a ciò, l’uso comune di Array all-Flash (AFA) all’interno dei datacenter, da molti accolto come una scelta orientata al futuro, va in conflitto diretto con la possibilità di implementare una E2EE dove più sarebbe necessaria. La crittografia end-to-end neutralizza di fatto la capacità delle infrastrutture AFA di ridurre i costi, impedendo alle aziende di ottenere una migliore efficienza economica nel momento in cui proteggono i dati dei loro clienti.
Se il rapporto di riduzione dei dati in un’azienda passa da 4:1 a 1:1 a seguito dell’adozione della crittografia, ad esempio, il costo già elevato dei supporti all-Flash viene ulteriormente moltiplicato, per quattro – un aumento che un’azienda non può certo sopportare.
In diretta contrapposizione rispetto alle infrastrutture “media-defined” AFA, vi sono soluzioni storage che adottano un approccio innovativo software-defined, e che consentono di raggiungere il livello di sicurezza dei dati richiesto dalle normative attualmente in vigore, anche a fronte dell’evoluzione futura delle minacce cyber – e senza mettere a rischio il bilancio economico complessivo delle aziende

Data Hub: l’architettura data-centrica di Pure Storage

Pure Storage presenta data hub, la propria visione per rinnovare l’architettura storage per i workload non strutturati e data-intensive. Progettata partendo da Pure Storage FlashBlade™, data hub è disegnata per essere un’architettura data-centrica, che consenta alle aziende di utilizzare efficacemente i dati.

Per innovare e sopravvivere in un contesto sempre più data-driven, le aziende devono progettare infrastrutture che in primo luogo tengano conto dei dati e consentano un accesso completo ed in tempo reale a questi ultimi. Le soluzioni oggi più diffuse sono state progettate per i dischi e hanno storicamente contribuito a creare silos di dati. Un’architettura data hub è invece progettata per fornire, condividere e unificare i dati, offrendo la possibilità di accedere ad un valore senza precedenti.

Oggi le aziende si affidano a quattro tipologie di soluzioni di analytics in silos: data warehouse, data lake, streaming analytics e cluster di AI. Un data hub integra le caratteristiche più importanti di queste quattro tipologie di silos e le unifica in una singola piattaforma. Un data hub deve avere quattro caratteristiche principali:
Throughput elevato sia per object storage che per archiviazione di file. I dispositivi di backup e data warehouse richiedono un throughput elevato per workload comuni e basati su file, e per applicazioni cloud-native e object-based.
Architettura scale-out. La caratteristica primaria del data lake è la sua architettura scale-out nativa, che consente di scalare senza limiti i lavori batch, in quanto è il software, non l’utente, a gestire la resilienza e le prestazioni.
Prestazioni multidimensionali. I dati non sono prevedibili e possono arrivare a qualsiasi velocità, pertanto le aziende necessitano di una piattaforma in grado di processare qualsiasi tipo di dato e con qualsiasi modello di accesso.
Elaborazione in parallelo. Nell’industria informatica c’è stato un profondo cambiamento dalle tecnologie seriali alle tecnologie parallele, costruite per imitare il cervello umano, e lo storage deve omologarsi.

Wenceslao Lada Vice President Worldwide Alliances di Commvault

Wenceslao Lada, Vice President Worldwide Alliances, CommvaultCommvault ha nominato Wenceslao Lada Vice President Worldwide Alliances.

Lada, grazie alla sua consolidata esperienza, entra in Commvault con la responsabilità di rafforzare le partnership esistenti e stringere nuove alleanze con cloud provider e aziende tecnologiche leader di settore. Inoltre, grazie alle sue competenze, Lada supporterà lo sviluppo di nuove opportunità di business e l’ampliamento del market share di Commvault e dei suoi partner globali.

Lada ha più di 20 anni di esperienza nello sviluppo e realizzazione di strategie di canale e OEM per aziende leader IT. Prima del suo ingresso in Commvault, è stato Vice President, Worldwide Global Customer Success Sales di Cisco e, in precedenza, Vice President and General Regional manager for Americas and EMEA di Hewlett-Packard.

Lada, che risponde a Taraniuk, sarà responsabile del nuovo team Worldwide Alliances, che unisce le divisioni attuali OEM e Alliances.

E’ arrivato il momento per gli utenti di passare dai dischi rigidi alla tecnologia a stato solido: SSD Crucial BX500

BX500 Crucial MicronCrucial annuncia la disponibilità dell’SSD Crucial® BX500, un disco di nuova generazione progettato per offrire agli utenti un upgrade di archiviazione affidabile e veloce. Disponibile in formato da 2.5 pollici e capacità da 120 GB, 240 GB e 480 GB, BX500 rappresenta il modo più facile per ottenere tutta la velocità di un computer nuovo senza doverne sostenere il costo.

Con velocità di lettura/scrittura sequenziali fino a 540/500 MB/s, il nuovo BX500 consente un avvio più rapido del sistema, caricamenti di file più veloci e migliori performance globali del sistema. Il BX500 non ha parti mobili rendendolo un’alternativa più fresca, silenziosa e affidabile rispetto a un disco rigido. Inoltre, dato il minor utilizzo di energia di un disco rigido, la durata della batteria del notebook risulta maggiore.

La guida all’installazione Crucial SSD offre semplici video per un’installazione passo-passo, mentre il software Acronis® True Image™ HD aiuta a migrare i dati in modo facile e veloce. Lo strumento software Crucial® Storage Executive consente agli utenti di controllare l’utilizzo dello spazio di archiviazione (GB), scaricare gli ultimi firmware e migliorare le prestazioni del disco. Inoltre, BX500 è supportato da un customer service in diverse lingue disponibile via telefono, chat, email e forum.

BX500 offre diversi vantaggi, tra cui:
Protezione dalla perdita di dati grazie all’algoritmo Multistep Data Integrity.
Protezione dal surriscaldamento grazie agli strumenti di monitoraggio termico.
Scrittura più veloce attraverso la tecnologia Dynamic Write Acceleration.

E’ arrivato il momento per gli utenti di passare dai dischi rigidi alla tecnologia a stato solido,” afferma Teresa Kelley, VP & GM, Micron Consumer Products Group. “La tecnologia SSD sta diventando sempre più comune e a chi è pronto a passare al disco a stato solido, BX500 offre prestazioni e affidabilità a un prezzo competitivo garantite dal brand Crucial”.

Un’unica piattaforma per il backup e recovery riducono il downtime del 55%

Vincenzo Costantino, Director, EMEA South Technical Services, Commvault
Vincenzo Costantino, Director, EMEA South Technical Services, Commvault

Secondo stime di Gartner il costo medio di un downtime parte da una base di 5.600 dollari al minuto. Nonostante questo, molte aziende non hanno ancora definito una strategia di “High Availability” (HA) o Alta Disponibilità.

Quali sono le principali cause di downtime?
I downtime non pianificati sono un rischio spesso aggravato da approcci multi-prodotto e multi-vendor che limitano l’agilità e la disponibilità all’interno dell’architettura di backup e recovery di un’azienda. Implementare un’unica piattaforma completa di gestione dei dati può contrastare il rischio di downtime causato proprio dall’uso di un numero eccessivo di prodotti.
Un’indagine di IDC realizzata nel 2018 ‘Quantifying the Business Value of Commvault Software: Worldwide Customer Survey Analysis’, indica che le aziende che utilizzano un’unica piattaforma per il backup e recovery hanno ridotto il downtime del 55%.
Una singola soluzione può inoltre incrementare la produttività IT e ridurre i costi annuali, garantendo operazioni di backup e recovery più affidabili e veloci. Queste capacità sono in grado di migliorare i risultati di business e di rispondendo alle diverse esigenze, allontanando il rischio di downtime non pianificati.

Come impostare una corretta strategia di High Availability?
Una strategia di HA dovrà tenere in considerazione l’esigenza crescente di protezione dei dati in ambienti IT multi-cloud e ibridi in rapida crescita che richiedono flessibilità e sicurezza per fornire agilità di business. Backup e protezione dei dati sono fondamentali per l’alta disponibilità, insieme alla flessibilità con funzionalità versatili come la deduplica in ambienti cloud e policy di licenza per infrastrutture virtuali.
I clienti aziendali hanno bisogno di flessibilità per garantire alta disponibilità e una riduzione dei rischi all’infrastruttura dati, con la necessità di adattabilità integrata e una vasta gamma di opzioni di cloud storage per soddisfare questi requisiti. Da aggiungere anche le normative di protezione dei dati (ad esempio GDPR) e di diritto all’oblio e funzionalità richieste per la protezione by design, la notifica di violazione entro 72 ore, principi di minimizzazione dei dati, trasferimento e portabilità delle informazioni.
I cyberattacchi stanno diventando una delle principali cause di downtime.

Come inserire la sicurezza informatica in una strategia di HA?
Quando un attacco cyber supera le difese di sicurezza, le tecnologie di rilevazione delle minacce che ogni azienda dovrebbe possedere indicheranno anomalie rispetto ai modelli di comportamento e operativi standard. Le aziende sono responsabili non solo dei propri dati, ma anche di quelli dei clienti e devono garantire processi appropriati di backup e di ripristino su richiesta. Per ottimizzare la sicurezza dei dati in una strategia di HA, le aziende dovrebbero considerare disaster recovery e business continuity, attività monitorate in modo completo che possono offrire anche crittografia dei dati archiviati e di quelli in transito.
Gli attacchi dei ransomware WannaCry, Petya e NotPetya hanno colpito più di 150 paesi nel 2017, le aziende possono adottare un approccio con singola piattaforma per realizzare il backup dei dati in modo semplice, automatico e sicuro, riducendo il rischio di perdita dei dati a seguito di violazioni e garantendo livelli elevati di disponibilità delle informazioni.

Qual è l’impatto del cloud sulla disponibilità delle applicazioni?
Quando si considera l’impatto del cloud sulla disponibilità, è necessario un approccio appropriato, soprattutto per quanto riguarda l’integrazione. L’unione di molteplici applicazioni e soluzioni di disaster recovery in silo spesso crea problemi e può ostacolare l’efficacia dell’intera infrastruttura di dati. Le aziende dovrebbero quindi scegliere una piattaforma che operi con differenti soluzioni cloud e agevoli e semplifichi la disponibilità dei dati nel cloud.
Soluzioni hyperscale e multi-cloud garantiscono benefici significativi nella capacità di adattare i sistemi alle condizioni in evoluzione e rendere i dati disponibili indipendentemente da variabili di tempo e luogo (anche virtuale).
La disponibilità può essere a rischio anche nel caso in cui un cloud service provider subisse interruzioni di attività o di connessione per un lungo periodo. La migrazione al cloud è un’opzione interessante per la sua relativa facilità e accessibilità, ma ci sono difficoltà potenziali da affrontare nel ripristino dei dati e nell’assicurarne la disponibilità.

I risultati della ricerca sottolineano che un terzo delle aziende non ha un sito di disaster recovery. Quali sono i rischi correlati all’High Availability?
Nonostante la consapevolezza dell’importanza dei dati aziendali, oltre il 60% delle imprese non ha implementato un piano di disaster recovery documentato in caso di eventi disastrosi, sia naturali che dolosi.
Tra le best practice da includere in un piano di disaster recovery: ripristino dei dati off-site in una location secondaria, collaborare con partner di fiducia o avere un tema dedicato al DR. È importante che le aziende aggiornino in modo costante il loro piano di DR e effettuino test regolari applicando differenti situazioni.
I piani di disaster recovery richiedono una forte collaborazione tra molte figure, che includono tutte le linee di business. Per una strategia di HA efficace, è fondamentale realizzare test e prove in modo continuo e adattare e far evolvere gli strumenti utilizzati.