Creare un backup personalizzato in 4 mosse

Oggi, in un momento in cui i servizi cloud sono in forte espansione, quanto è ancora necessario fare il classico backup dei dati? La perdita di dati non solo è un evento spiacevole, ma può anche comportare grosse spese.
Guardando agli ultimi 12 mesi, il 20% delle aziende italiane ha dovuto affrontare la perdita irreparabile dei propri dati, con un danno economico medio di circa 1,5 milioni di dollari . Di conseguenza, prestare attenzione al backup è fondamentale.
Alexander Viershrodt, Head of Commercial Management Server di 1&1 IONOS, il provider di hosting e cloud per aziende di tutte le dimensioni, ha individuato 4 suggerimenti su come creare un backup personalizzato.

1. La regola 3-2-1
Secondo questa regola empirica afferma che è necessario avere a disposizione almeno 3 copie di ogni dato importante, utilizzare 2 diversi dispositivi o sistemi, e conservare 1 copia in un luogo differente. Per un backup giornaliero ciò significa avere, ad esempio, i dati a disposizione per una settimana, salvarli simultaneamente su un disco locale e in cloud e conservarne una copia offline.

2. Pianificare i backup in modo strategico
La perdita di dati aziendali comporta non solo spese ingenti per le aziende, ma anche un’attribuzione di responsabilità non indifferente. Di conseguenza, è necessario controllare con regolarità che la strategia di backup sia adeguata ai requisiti informatici più recenti. È utile anche determinare quanto tempo potrebbe essere necessario per recuperare completamente i dati, cioè per quanto tempo verrà eseguito il backup dei dati di ripristino (Recovery Time Objective o RTO). Bisogna anche definire un margine di perdita dei dati considerato accettabile, definito come l’intervallo di tempo tra due backup (Recovery Point Objective o RPO). Un intervallo più breve aumenta enormemente il carico di sistema, e implica l’adozione di soluzioni di server più potenti e, dunque, più costose.

3. Combinare diversi piani di backup
I backup sono uno strumento di archiviazione flessibile. È necessario pianificare esattamente cosa va archiviato e con quale frequenza. Quanto sono importanti i dati dipende dal luogo in cui vengono archiviati. In generale, i server Web, che solitamente vengono eseguiti su server dedicati, dovrebbero essere sottoposti a backup almeno una volta al giorno, poiché non si tratta di dati particolarmente critici. Questo di solito si applica al sito Web di un’azienda o alle pagine dei prodotti. Tuttavia, se le soluzioni di collaborazione o i server di posta sono fuori uso, le conseguenze per le operazioni aziendali potrebbero essere gravi in quanto i dipendenti condividono molte informazioni importanti via e-mail. Per cui è necessario eseguire il backup del server di Exchange una volta al giorno, ma dei database ogni 30 minuti. Altrettanto critici sono gli shop online, che non possono permettersi di avere nessun intoppo, dal momento che, per questo genere di imprese, i tempi di inattività possono costare molto in termini economici. In questi casi, infatti, i server dovrebbero essere sottoposti a backup almeno tre volte al giorno e i database ogni 30 minuti.

4 Il RAID non si sostituisce al backup
Con il RAID (Redundant Array of Independent Disks), i dischi rigidi indipendenti vengono collegati in modo tale che in caso di un errore del sistema, i dati siano ancora presenti sui dischi rimanenti. La perdita di dati però potrebbe ancora verificarsi nel caso in cui i dati venissero scritti in modo errato, un virus infettasse il sistema, il software avesse qualche errore, oppure i dati o più dischi rigidi si guastassero. In altre parole, la tecnologia RAID protegge da errori hardware, ma non da errori software, quindi è consigliabile eseguire backup regolari anche quando si utilizza un sistema RAID.

Always-on enterprise: il backup è essenziale

Luca Dell’Oca, EMEA Principal Cloud Architect Veeam

Una visione e una strategia aziendale chiare potrebbero far pensare al backup come ad un elemento discutibile e non fondamentale. Alcuni dirigenti diranno che avere un piano B significa già pensare che il piano A non funzionerà mai. Ma c’è un tipo di backup che è quasi universalmente riconosciuto come una necessità: quando si tratta di archiviazione di file e applicazioni, il backup e la replica sono ampiamente considerati un dato di fatto. Tuttavia, l’importanza del backup viene talvolta trascurata, un errore che nessuna azienda dovrebbe commettere.
Sia in caso di interruzioni causate dall’hardware, che da attacchi informatici o da errori commessi dall’utente, è sempre necessario avere un piano B quando si tratta di business continuity e di proteggere la disponibilità dei dati. Quando si verifica un problema di disponibilità dei dati, i dipartimenti IT sono sotto pressione per ridurre al minimo l’impatto sui dipendenti e sui clienti. La Giornata Mondiale del Backup è un’opportunità per ricordare alle aziende l’importanza di proteggere i propri dati e di elaborare e sostenere un piano di ripristino di emergenza.
Secondo le statistiche di Market Research Future, si prevede che il mercato del cloud backup raggiungerà i 5,6 miliardi di dollari entro il 2023, con un CAGR del 21% in un periodo di cinque anni. Data l’esplosione del mercato globale del cloud computing, che si stima possa raggiungere i 623,3 miliardi di dollari entro il 2023 con un CAGR del 18% su un periodo quinquennale, questa crescita del cloud backup non sorprende. È comunque ancora incoraggiante il fatto che aziende stiano lavorando per investire nel backup e nella replica dei dati, prendendo assolutamente sul serio il tema della data availability.
D’altra parte, anche i consumatori stanno cominciando a gestire i loro dati in maniera più accurata, ciò è dovuto anche a fatti recenti come il caso di Cambridge Analytica o l’introduzione della nuova regolamentazione europea GDPR, che hanno portato la questione della gestione dei dati all’attenzione dell’opinione pubblica. L’avvento del GDPR pone anche la questione della possibilità, da parte degli utenti, di poter visualizzare i loro dati personali archiviati, e le aziende devono dar seguito a questa richiesta entro un mese. In merito a questo, le aziende devono ricordare che i consumatori, i dipendenti e i clienti si aspettano che le informazioni richieste siano sempre disponibili e condivise con loro quasi in tempo reale, ormai viviamo in un mondo dove trovare risposte alle proprie domande è immediato, basta fare una ricerca su Google o chiedere ad Alexa, la risposta è istantanea.
La principale minaccia alla disponibilità dei dati è un’interruzione delle operazioni IT di un’azienda. Data la complessità degli ecosistemi di gestione dei dati, con molte aziende che stanno esplorando strategie IT ibride e multi-cloud, oggi più che mai, i reparti IT devono prestare attenzione ad ogni minimo dettaglio. Da un certo punto di vista, questo può anche essere visto come una benedizione. Nell’era del cloud, le aziende non dipendono da un singolo punto di interruzione e possono creare backup virtuali in altri luoghi per ogni pacchetto di dati che producono. Questo va ponderato con i protocolli di privacy e il valore di alcuni dati, nonché con considerazioni aziendali quali i vincoli di bilancio e le priorità di business.
Le aziende, grazie a una solida strategia di cloud backup e di disaster recovery, possono garantire la disponibilità dei dati in qualsiasi momento, tenendo anche conto del fatto che alcuni dati sono più importanti per il backup rispetto ad altri dati, infatti i dati e le applicazioni mission-critical devono essere sottoposti a backup continuo. Altra questione importante sono i tempi di inattività non pianificati, definiti tali proprio perché possono colpire in qualsiasi momento.
Pertanto, i backup devono essere eseguiti quando i dati vengono modificati per garantire che le informazioni fondamentali e i sistemi su cui l’azienda si basa possano essere ripristinati esattamente com’erano prima dell’interruzione. Soluzioni come il Backup-as-a-service (BaaS) e il Disaster Recovery-as-a-service (DRaaS) garantiscono protezione e business continuity. Grazie a costi basati su op-ex, il modello ‘x as a service’ consente alle aziende di pagare i servizi in base a come li utilizzano, piuttosto che fare investimenti di capitale restrittivi che non sempre hanno un ROI adeguato. In particolare, le organizzazioni devono considerare i propri servizi di backup e ripristino come parte fondamentale della più ampia gestione dei dati e della strategia cloud. Veeam Availability Suite fornisce una soluzione olistica per il backup e la replica su cloud e disaster recovery, assicurando la disponibilità per tutti i workloads – virtuali, fisici e in cloud – da un’unica console di gestione.
La consapevolezza del valore dei dati è in aumento, e nella Giornata Mondiale del Backup, i responsabili IT dovrebbero prendersi un momento per riflettere se la loro strategia di backup e ripristino è adatta allo scopo e in linea con le loro esigenze di business continuity. Dato che le esigenze di disponibilità dei dati nel business digitale continuano ad evolversi, disporre di un’infrastruttura a prova di futuro non può che essere un must per tutte le imprese moderne.

Perdite di dati: 30% in più nel 2018

Acronis ha presentato i dati del sondaggio globale commissionato per il World Backup Day 2019 per fare luce sulle abitudini globali di protezione dati degli utenti. Dall’indagine emerge che il 65,1% degli utenti intervistati o un membro della loro famiglia ha perso dati in seguito a un’eliminazione involontaria, un guasto o un problema software, con un aumento del 29,4% rispetto allo scorso anno.
Il sondaggio che Acronis commissiona per il World Backup Day rivela anche che quasi tutti gli utenti (92,7%) eseguono ormai il backup dei propri computer, con un aumento di oltre il 24,1% rispetto allo scorso anno, il più consistente su base annua.
“Questi due risultati possono apparire incompatibili a una prima lettura: come è possibile che sia aumentata la percentuale di dati persi se quasi tutti eseguono il backup?” si chiede James Slaby, Direttore Cyber Protection presso Acronis. “Spiegare il senso di queste cifre non è comunque complicato. Le persone utilizzano un numero maggiore di dispositivi e accedono ai propri dati da più posizioni rispetto a prima, moltiplicando così le opportunità di perdere i dati. A volte eseguono il backup del laptop, ma non quello dello smartphone che magari viene dimenticato in taxi causando così la perdita dei dati.”
Per l’indagine mondiale di Acronis sono stati intervistati non solo utenti consumer, ma anche – per la prima volta – di fascia business. Il numero crescente di CEO, CIO e altri dirigenti che hanno perso il proprio lavoro a seguito di violazioni dei dati, attacchi online ed errori procedurali dei team IT ha spinto Acronis ad integrare nel sondaggio domande sui loro timori e sulle procedure attuate in merito ai dati. L’aggiunta degli utenti business ha messo in evidenza numerose differenze sulle motivazioni e le modalità con cui utenti e aziende proteggono le proprie risorse digitali.
Il numero di dispositivi usati dagli utenti è in costante aumento: oltre il 68,9% di utenti individuali riferisce di possedere tre o più dispositivi, inclusi computer, smartphone e tablet. È un aumento del 7,6% dal 2018.
Considerata la quantità dei dati usati e i racconti di coloro che hanno perso le proprie case a causa di incendi e inondazioni, e del volume di dati perduti in seguito ad attacchi ransomware e violazioni della sicurezza, l’incremento dei backup riferito testimonia l’esigenza di protezione dei dati da parte di quasi tutti gli utenti. Di fatto quest’anno solo il 7% ha dichiarato di non aver mai eseguito un backup, una percentuale che lo scorso anno era pari al 31,4%.
Dal sondaggio emerge anche il maggior valore attribuito dagli intervistati ai propri dati: il 69,9% riferisce l’intenzione di spendere oltre $50 per recuperare file, foto, video perduti. Lo scorso anno questa percentuale era inferiore al 15%.
Il 62,7% degli utenti tiene i propri dati nelle immediate vicinanze, eseguendo il backup su un disco esterno locale (48,1%) o su una partizione di disco rigido (14,6%). Solo il 37,4% utilizza un approccio al cloud o ibrido tra cloud e in locale.
La bassa percentuale di adozione del cloud presenta un’altra apparente incongruenza. La maggior parte degli utenti afferma che l’accesso libero ai dati è uno dei principali vantaggi offerti dal backup, con una netta maggioranza che sceglie “l’accesso facile e rapido ai dati di backup da qualsiasi posizione” come caratteristica prioritaria. Ciononostante, solo un terzo esegue il backup nel cloud, l’unica opzione che offre la possibilità di recuperare i file da qualsiasi posizione.
Il tipo di dati su cui convergono i maggiori timori degli utenti è rappresentato da contatti, password e altre informazioni personali (45,8%), a cui fanno seguito file multimediali come foto, video, musica e giochi (38,1%).
Poco meno della metà degli utenti è consapevole dei potenziali attacchi online che minacciano i dati, come il ransomware (46%), il malware di mining di criptovalute (53%) e gli attacchi di ingegneria sociale (52%) usati per diffondere i malware. La diffusione delle informazioni relative a questi pericoli sembra aver subito un rallentamento, perché il numero di consumatori consapevoli è aumentato del solo 4% nello scorso anno.
Poiché una sola ora di fermo aziendale implica in media 300.000 $ di attività mancate, gli utenti corporate devono conoscere il valore dei propri dati. E poiché è sui CEO e sui dirigenti di alto profilo che ricade la maggiore responsabilità per la protezione dei dati e le procedure di sicurezza all’indomani delle eventuali violazioni, la leadership va assumendo un atteggiamento proattivo.
Ciò spiega perché gli utenti business intervistati da Acronis per il World Backup Day siano ormai pronti a proteggere i propri file, applicazioni e sistemi, con una netta maggioranza che sottolinea come sicurezza e salvaguardia dei dati siano gli aspetti prioritari, collocati rispettivamente al primo e al secondo posto.
Per la prima volta il sondaggio del 2019 ha visto la partecipazione delle aziende. Le risposte provengono da strutture di ogni dimensione: un 32,7% di piccole aziende con meno di 100 dipendenti, un 41% di aziende di medie dimensioni con un numero di dipendenti compreso tra 101 e 999 e un 26,3% di grandi imprese che impiegano 1.000 o più persone.
Indipendentemente dalla dimensione, la maggioranza considera la protezione dei dati una priorità ed esegue quindi il backup dei dati ogni mese (35,1%), ogni settimana (24,8%) o ogni giorno (25,9%). Grazie a ciò, è il 68,7% delle aziende intervistate ad affermare di non aver subito durante lo scorso anno perdite di dati che hanno causato periodi di inattività.
Le stesse aziende appaiono anche fortemente consapevoli dei rischi più recenti che corrono i propri dati; per questa ragione si dichiarano preoccupate o fortemente preoccupate dai ransomware (60,6%), dal cryptojacking (60,1%) e dagli attacchi di ingegneria sociale (61%).
Nella pratica, le aziende di ogni dimensione si affidano ai backup nel cloud: il 48,3% in modo esclusivo e il 26,8% adottando una combinazione di backup locale e cloud.
Considerati i timori dichiarati a proposito della sicurezza e della salvaguardia dei dati, la loro fiducia verso il cloud è comprensibile. L’esigenza di “backup affidabili che rendano i dati sempre accessibili per il ripristino” è soddisfatta quindi dal backup offsite nel cloud, che garantisce la sopravvivenza dei dati anche se un incendio, un alluvione o un’emergenza naturale distrugge le strutture aziendali. In termini di sicurezza (“i dati devono essere protetti dalle minacce online e cybercriminali”), il cloud rappresenta una sorta di cuscinetto che gli attacchi malware hanno difficoltà a violare.
Poiché le minacce ai dati continuano a mutare a una velocità straordinaria, tanto i singoli quando le aziende devono adottare soluzioni che forniscano una protezione dei dati di vasta portata, flessibile al punto da includere backup locali, ibridi e cloud, nonché funzioni proattive di backup e difesa dal malware.
Soltanto le soluzioni di backup Acronis – Acronis Backup per le aziende e Acronis True Image per l’uso personale – integrano una difesa contro il ransomware basata su intelligenza artificiale che individua e arresta il ransomware in tempo reale e ripristina automaticamente qualsiasi file oggetto di attacco. L’efficacia della tecnologia è comprovata: solo lo scorso anno ha bloccato oltre 400.000 attacchi ransomware.

Data center e requisiti di archiviazione

L’attuale “stile di vita digitale” si basa sui dati: l’enorme quantità generata e prodotta dall’uomo e dalle macchine ha fatto crescere l’esigenza della loro disponibilità e conservazione per un periodo di tempo indefinito nei data center. I requisiti di archiviazione sono in continua espansione e tuttavia, le moderne soluzioni di archiviazione – secondo Toshiba Electronics Europe GmbH – non devono necessariamente essere complesse.
In passato, le aree di archiviazione erano suddivise in offline, nearline e online, includendo soluzioni di backup e a nastro, dischi rigidi ad alta capacità e le più veloci opzioni di unità di archiviazione esistenti. Oggi un approccio che privilegia gli hard disk non è più efficace, poiché i data center richiedono una visione più ampia delle soluzioni di archiviazione. I sistemi cloud rendono irrilevante la pianificazione dello storage in termini di dischi rigidi e gigabyte. Le sfide vengono invece affrontate in termini di sistemi, array, rack o unità di misura simili che fanno passare in secondo piano le nostre misure tradizionali di prestazioni e capacità.
Ad esempio, se un’azienda introduce un nuovo servizio, che include app e interfacce multiple, i requisiti possono essere molto alti. Che si tratti di Netflix, dell’app DB Navigator o di un’intera piattaforma digitale come Facebook, è necessario valutare aspetti come tipo di dati, capacità di archiviazione, formati di accesso, disponibilità e scalabilità. Proprio per questo non è possibile soddisfare i requisiti di archiviazione “solamente” attraverso una soluzione basata su hard disk, SSD o “architetture” di storage utilizzate nel passato poiché ogni caso necessita della propria soluzione.
Il confronto tra unità SSD e hard disk sembra dipendere dall’utilizzo, poiché le unità SSD sono generalmente veloci ed efficienti, mentre gli hard disk possono memorizzare molti più dati ad un costo inferiore. Tuttavia, quando si parla a livello di array o si arriva a considerare interi cluster in un data center, le cose cambiano.
Le grandi implementazioni sono casi tipici in cui tecnologie diverse vengono utilizzate per raggiungere un obiettivo comune. In base ai requisiti delle applicazioni di un’azienda e all’approccio di archiviazione specifico, un livello particolare di performance può essere raggiunto impiegando una quantità definita di SSD o di sistemi, ma anche da una probabilmente maggiore quantità di hard disk. La scelta finale di una tecnologia rispetto a un’altra dipende molto anche da altri elementi per esempio quelli di tipo economico. Con lo stesso investimento si può acquistare un piccolo numero di sistemi SSD ad alte prestazioni, un numero maggiore di sistemi ibridi basati su una combinazione di SSD e hard disk, o anche un sistema basato solo su hard disk e tutte queste soluzioni potrebbero raggiungere gli obiettivi prefissati. Per fare una valutazione ponderata è anche importante tenere in considerazione il Total Cost of Ownership (TCO), così come i costi di esercizio, e i requisiti di potenza.
Anche piccole modifiche alla configurazione pianificata, come l’availability dei dischi e le variazioni di prezzo delle unità, causano cambiamenti che vanno tenuti presenti anche all’interno di un approccio basato sul budget. In questi casi un confronto con i metodi di project management diventa utile soprattutto quando le esigenze o il campo di applicazione cambiano rapidamente. Per questo serve un approccio “agile” con frequenti review e l’inclusione di molte prospettive, competenze e partecipazione di team interdisciplinari. Lo stesso vale per le soluzioni di “archiviazione pianificata”. Le esigenze individuali richiedono soluzioni personalizzate che non includono necessariamente una singola tecnologia: una pianificazione “agile” è ideale per le soluzioni di archiviazione nei data center, dove spesso si combinano esigenze diverse.
I dischi rigidi continueranno ad essere la colonna portante di molte soluzioni di archiviazione. Ci sono notevoli vantaggi economici quando si utilizzano hard disk ad alta capacità di archiviazione dove non sono richieste prestazioni di altissimo livello. Inoltre, l’esperienza decennale di lavoro con questa tecnologia, la capacità di pianificare a lungo termine, insieme alla disponibilità di soluzioni di aggiornamento per le implementazioni esistenti, garantiscono che gli hard disk giocheranno un ruolo importante nelle soluzioni di archiviazione negli anni a venire.
Per le applicazioni in tempo reale, le unità SSD sono senza dubbio la scelta migliore. Tuttavia, in tutti gli altri casi non è possibile dare indicazioni in generale. Gli hard disk moderni, come la serie MG di Toshiba per ambienti aziendali, restano l’ideale in molti casi e situazioni poiché, man mano che il numero di unità in un sistema, o addirittura il numero di sistemi, cresce, i criteri e le metriche variano e cambiano. L’uso di hard disk spesso diventa di nuovo una scelta potenziale.
Le soluzioni della serie MG di Toshiba, con il sistema SAS o SATA, da 7.200 giri/min offrono un’ampia gamma di capacità da 1 TB (MG04) a 16 TB (MG08) per ambienti aziendali e restano l’ideale in molti casi e situazioni poiché, man mano che il numero di unità in un sistema, o addirittura il numero di sistemi, cresce, i criteri e le metriche variano e cambiano. I modelli MG07 e MG08 si basano su un design e una tecnologia collaudata, sono riempiti ad elio e hanno una garanzia di cinque anni e un volume di dati fino a 550 TB/anno.
Questi modelli sono classificati come unità nearline, cioè sono adatti per memorizzare tutti i dati che non hanno bisogno di essere modificati o a cui non bisogna accedere in modo permanente. In pratica, questo è il caso della maggior parte dei dati. Tutto ciò diventa tangibile nel caso delle applicazioni dei “social media”: le informazioni sul profilo sono accessibili per un breve periodo di tempo, dopodiché vengono archiviate nuovamente in una memoria a lungo termine, pur rimanendo rapidamente accessibili.
Proprio per questo i dischi rigidi delle serie MG07 o MG08, grazie ai sensori interni e all’elevata integrità dei dati, sono in grado di gestire in modo affidabile, rapido ed economico i crescenti volumi di dati odierni.

WD Blue SSD anche con standard NVMe

Western Digital sta accelerando il passaggio allo standard NVMe nelle tecnologie di archiviazione per PC aggiungendo un modello NVMe™ alla famiglia di prodotti pluripremiati WD Blue® SSD (Solid State Drive), ossia il WD Blue SN500 NVMe SSD. La nuova unità SSD può offrire performance tre volte superiori rispetto allo stesso modello 1 con tecnologia SATA ed è in grado di garantire la stessa affidabilità per cui la famiglia di prodotti WD Blue è conosciuta. Particolarmente adatta a tutti coloro che producono contenuto, oltre che agli appassionati di PC, l’unità WD Blue SN500 NVMe SSD è ottimizzata per applicazioni multitasking e ad alto impiego di risorse, poichè permette un accesso quasi istantaneo a file e programmi. Grazie alla possibilità di beneficiare dell’architettura scalabile SSD già disponibile con l’acclamato WD Black® SN750 NVMe SSD, il nuovo WD Blue SN500 NVMe SSD si basa sulla tecnologia proprietaria di Western Digital 3D NAND, oltre che sul firmware e controller, e fornisce velocità di lettura e di scrittura superiore rispettivamente ai 1,700 MB/s e ai 1,450 MB/s (per i modelli 500GB) con un consumo ridotto di energia a partire da 2.7W. In linea con le crescenti richieste di storage e con l’aumento dei carichi di lavoro da parte dei clienti, WD Blue SN500 NVMe SSD offre prestazioni di scrittura superiori rispetto ai modelli con tecnologia SATA e ad altre tecnologie attualmente presenti sul mercato, rappresentando così una soluzione altamente competitiva.