Creare un backup personalizzato in 4 mosse

Oggi, in un momento in cui i servizi cloud sono in forte espansione, quanto è ancora necessario fare il classico backup dei dati? La perdita di dati non solo è un evento spiacevole, ma può anche comportare grosse spese.
Guardando agli ultimi 12 mesi, il 20% delle aziende italiane ha dovuto affrontare la perdita irreparabile dei propri dati, con un danno economico medio di circa 1,5 milioni di dollari . Di conseguenza, prestare attenzione al backup è fondamentale.
Alexander Viershrodt, Head of Commercial Management Server di 1&1 IONOS, il provider di hosting e cloud per aziende di tutte le dimensioni, ha individuato 4 suggerimenti su come creare un backup personalizzato.

1. La regola 3-2-1
Secondo questa regola empirica afferma che è necessario avere a disposizione almeno 3 copie di ogni dato importante, utilizzare 2 diversi dispositivi o sistemi, e conservare 1 copia in un luogo differente. Per un backup giornaliero ciò significa avere, ad esempio, i dati a disposizione per una settimana, salvarli simultaneamente su un disco locale e in cloud e conservarne una copia offline.

2. Pianificare i backup in modo strategico
La perdita di dati aziendali comporta non solo spese ingenti per le aziende, ma anche un’attribuzione di responsabilità non indifferente. Di conseguenza, è necessario controllare con regolarità che la strategia di backup sia adeguata ai requisiti informatici più recenti. È utile anche determinare quanto tempo potrebbe essere necessario per recuperare completamente i dati, cioè per quanto tempo verrà eseguito il backup dei dati di ripristino (Recovery Time Objective o RTO). Bisogna anche definire un margine di perdita dei dati considerato accettabile, definito come l’intervallo di tempo tra due backup (Recovery Point Objective o RPO). Un intervallo più breve aumenta enormemente il carico di sistema, e implica l’adozione di soluzioni di server più potenti e, dunque, più costose.

3. Combinare diversi piani di backup
I backup sono uno strumento di archiviazione flessibile. È necessario pianificare esattamente cosa va archiviato e con quale frequenza. Quanto sono importanti i dati dipende dal luogo in cui vengono archiviati. In generale, i server Web, che solitamente vengono eseguiti su server dedicati, dovrebbero essere sottoposti a backup almeno una volta al giorno, poiché non si tratta di dati particolarmente critici. Questo di solito si applica al sito Web di un’azienda o alle pagine dei prodotti. Tuttavia, se le soluzioni di collaborazione o i server di posta sono fuori uso, le conseguenze per le operazioni aziendali potrebbero essere gravi in quanto i dipendenti condividono molte informazioni importanti via e-mail. Per cui è necessario eseguire il backup del server di Exchange una volta al giorno, ma dei database ogni 30 minuti. Altrettanto critici sono gli shop online, che non possono permettersi di avere nessun intoppo, dal momento che, per questo genere di imprese, i tempi di inattività possono costare molto in termini economici. In questi casi, infatti, i server dovrebbero essere sottoposti a backup almeno tre volte al giorno e i database ogni 30 minuti.

4 Il RAID non si sostituisce al backup
Con il RAID (Redundant Array of Independent Disks), i dischi rigidi indipendenti vengono collegati in modo tale che in caso di un errore del sistema, i dati siano ancora presenti sui dischi rimanenti. La perdita di dati però potrebbe ancora verificarsi nel caso in cui i dati venissero scritti in modo errato, un virus infettasse il sistema, il software avesse qualche errore, oppure i dati o più dischi rigidi si guastassero. In altre parole, la tecnologia RAID protegge da errori hardware, ma non da errori software, quindi è consigliabile eseguire backup regolari anche quando si utilizza un sistema RAID.

Perdite di dati: 30% in più nel 2018

Acronis ha presentato i dati del sondaggio globale commissionato per il World Backup Day 2019 per fare luce sulle abitudini globali di protezione dati degli utenti. Dall’indagine emerge che il 65,1% degli utenti intervistati o un membro della loro famiglia ha perso dati in seguito a un’eliminazione involontaria, un guasto o un problema software, con un aumento del 29,4% rispetto allo scorso anno.
Il sondaggio che Acronis commissiona per il World Backup Day rivela anche che quasi tutti gli utenti (92,7%) eseguono ormai il backup dei propri computer, con un aumento di oltre il 24,1% rispetto allo scorso anno, il più consistente su base annua.
“Questi due risultati possono apparire incompatibili a una prima lettura: come è possibile che sia aumentata la percentuale di dati persi se quasi tutti eseguono il backup?” si chiede James Slaby, Direttore Cyber Protection presso Acronis. “Spiegare il senso di queste cifre non è comunque complicato. Le persone utilizzano un numero maggiore di dispositivi e accedono ai propri dati da più posizioni rispetto a prima, moltiplicando così le opportunità di perdere i dati. A volte eseguono il backup del laptop, ma non quello dello smartphone che magari viene dimenticato in taxi causando così la perdita dei dati.”
Per l’indagine mondiale di Acronis sono stati intervistati non solo utenti consumer, ma anche – per la prima volta – di fascia business. Il numero crescente di CEO, CIO e altri dirigenti che hanno perso il proprio lavoro a seguito di violazioni dei dati, attacchi online ed errori procedurali dei team IT ha spinto Acronis ad integrare nel sondaggio domande sui loro timori e sulle procedure attuate in merito ai dati. L’aggiunta degli utenti business ha messo in evidenza numerose differenze sulle motivazioni e le modalità con cui utenti e aziende proteggono le proprie risorse digitali.
Il numero di dispositivi usati dagli utenti è in costante aumento: oltre il 68,9% di utenti individuali riferisce di possedere tre o più dispositivi, inclusi computer, smartphone e tablet. È un aumento del 7,6% dal 2018.
Considerata la quantità dei dati usati e i racconti di coloro che hanno perso le proprie case a causa di incendi e inondazioni, e del volume di dati perduti in seguito ad attacchi ransomware e violazioni della sicurezza, l’incremento dei backup riferito testimonia l’esigenza di protezione dei dati da parte di quasi tutti gli utenti. Di fatto quest’anno solo il 7% ha dichiarato di non aver mai eseguito un backup, una percentuale che lo scorso anno era pari al 31,4%.
Dal sondaggio emerge anche il maggior valore attribuito dagli intervistati ai propri dati: il 69,9% riferisce l’intenzione di spendere oltre $50 per recuperare file, foto, video perduti. Lo scorso anno questa percentuale era inferiore al 15%.
Il 62,7% degli utenti tiene i propri dati nelle immediate vicinanze, eseguendo il backup su un disco esterno locale (48,1%) o su una partizione di disco rigido (14,6%). Solo il 37,4% utilizza un approccio al cloud o ibrido tra cloud e in locale.
La bassa percentuale di adozione del cloud presenta un’altra apparente incongruenza. La maggior parte degli utenti afferma che l’accesso libero ai dati è uno dei principali vantaggi offerti dal backup, con una netta maggioranza che sceglie “l’accesso facile e rapido ai dati di backup da qualsiasi posizione” come caratteristica prioritaria. Ciononostante, solo un terzo esegue il backup nel cloud, l’unica opzione che offre la possibilità di recuperare i file da qualsiasi posizione.
Il tipo di dati su cui convergono i maggiori timori degli utenti è rappresentato da contatti, password e altre informazioni personali (45,8%), a cui fanno seguito file multimediali come foto, video, musica e giochi (38,1%).
Poco meno della metà degli utenti è consapevole dei potenziali attacchi online che minacciano i dati, come il ransomware (46%), il malware di mining di criptovalute (53%) e gli attacchi di ingegneria sociale (52%) usati per diffondere i malware. La diffusione delle informazioni relative a questi pericoli sembra aver subito un rallentamento, perché il numero di consumatori consapevoli è aumentato del solo 4% nello scorso anno.
Poiché una sola ora di fermo aziendale implica in media 300.000 $ di attività mancate, gli utenti corporate devono conoscere il valore dei propri dati. E poiché è sui CEO e sui dirigenti di alto profilo che ricade la maggiore responsabilità per la protezione dei dati e le procedure di sicurezza all’indomani delle eventuali violazioni, la leadership va assumendo un atteggiamento proattivo.
Ciò spiega perché gli utenti business intervistati da Acronis per il World Backup Day siano ormai pronti a proteggere i propri file, applicazioni e sistemi, con una netta maggioranza che sottolinea come sicurezza e salvaguardia dei dati siano gli aspetti prioritari, collocati rispettivamente al primo e al secondo posto.
Per la prima volta il sondaggio del 2019 ha visto la partecipazione delle aziende. Le risposte provengono da strutture di ogni dimensione: un 32,7% di piccole aziende con meno di 100 dipendenti, un 41% di aziende di medie dimensioni con un numero di dipendenti compreso tra 101 e 999 e un 26,3% di grandi imprese che impiegano 1.000 o più persone.
Indipendentemente dalla dimensione, la maggioranza considera la protezione dei dati una priorità ed esegue quindi il backup dei dati ogni mese (35,1%), ogni settimana (24,8%) o ogni giorno (25,9%). Grazie a ciò, è il 68,7% delle aziende intervistate ad affermare di non aver subito durante lo scorso anno perdite di dati che hanno causato periodi di inattività.
Le stesse aziende appaiono anche fortemente consapevoli dei rischi più recenti che corrono i propri dati; per questa ragione si dichiarano preoccupate o fortemente preoccupate dai ransomware (60,6%), dal cryptojacking (60,1%) e dagli attacchi di ingegneria sociale (61%).
Nella pratica, le aziende di ogni dimensione si affidano ai backup nel cloud: il 48,3% in modo esclusivo e il 26,8% adottando una combinazione di backup locale e cloud.
Considerati i timori dichiarati a proposito della sicurezza e della salvaguardia dei dati, la loro fiducia verso il cloud è comprensibile. L’esigenza di “backup affidabili che rendano i dati sempre accessibili per il ripristino” è soddisfatta quindi dal backup offsite nel cloud, che garantisce la sopravvivenza dei dati anche se un incendio, un alluvione o un’emergenza naturale distrugge le strutture aziendali. In termini di sicurezza (“i dati devono essere protetti dalle minacce online e cybercriminali”), il cloud rappresenta una sorta di cuscinetto che gli attacchi malware hanno difficoltà a violare.
Poiché le minacce ai dati continuano a mutare a una velocità straordinaria, tanto i singoli quando le aziende devono adottare soluzioni che forniscano una protezione dei dati di vasta portata, flessibile al punto da includere backup locali, ibridi e cloud, nonché funzioni proattive di backup e difesa dal malware.
Soltanto le soluzioni di backup Acronis – Acronis Backup per le aziende e Acronis True Image per l’uso personale – integrano una difesa contro il ransomware basata su intelligenza artificiale che individua e arresta il ransomware in tempo reale e ripristina automaticamente qualsiasi file oggetto di attacco. L’efficacia della tecnologia è comprovata: solo lo scorso anno ha bloccato oltre 400.000 attacchi ransomware.

Data center e requisiti di archiviazione

L’attuale “stile di vita digitale” si basa sui dati: l’enorme quantità generata e prodotta dall’uomo e dalle macchine ha fatto crescere l’esigenza della loro disponibilità e conservazione per un periodo di tempo indefinito nei data center. I requisiti di archiviazione sono in continua espansione e tuttavia, le moderne soluzioni di archiviazione – secondo Toshiba Electronics Europe GmbH – non devono necessariamente essere complesse.
In passato, le aree di archiviazione erano suddivise in offline, nearline e online, includendo soluzioni di backup e a nastro, dischi rigidi ad alta capacità e le più veloci opzioni di unità di archiviazione esistenti. Oggi un approccio che privilegia gli hard disk non è più efficace, poiché i data center richiedono una visione più ampia delle soluzioni di archiviazione. I sistemi cloud rendono irrilevante la pianificazione dello storage in termini di dischi rigidi e gigabyte. Le sfide vengono invece affrontate in termini di sistemi, array, rack o unità di misura simili che fanno passare in secondo piano le nostre misure tradizionali di prestazioni e capacità.
Ad esempio, se un’azienda introduce un nuovo servizio, che include app e interfacce multiple, i requisiti possono essere molto alti. Che si tratti di Netflix, dell’app DB Navigator o di un’intera piattaforma digitale come Facebook, è necessario valutare aspetti come tipo di dati, capacità di archiviazione, formati di accesso, disponibilità e scalabilità. Proprio per questo non è possibile soddisfare i requisiti di archiviazione “solamente” attraverso una soluzione basata su hard disk, SSD o “architetture” di storage utilizzate nel passato poiché ogni caso necessita della propria soluzione.
Il confronto tra unità SSD e hard disk sembra dipendere dall’utilizzo, poiché le unità SSD sono generalmente veloci ed efficienti, mentre gli hard disk possono memorizzare molti più dati ad un costo inferiore. Tuttavia, quando si parla a livello di array o si arriva a considerare interi cluster in un data center, le cose cambiano.
Le grandi implementazioni sono casi tipici in cui tecnologie diverse vengono utilizzate per raggiungere un obiettivo comune. In base ai requisiti delle applicazioni di un’azienda e all’approccio di archiviazione specifico, un livello particolare di performance può essere raggiunto impiegando una quantità definita di SSD o di sistemi, ma anche da una probabilmente maggiore quantità di hard disk. La scelta finale di una tecnologia rispetto a un’altra dipende molto anche da altri elementi per esempio quelli di tipo economico. Con lo stesso investimento si può acquistare un piccolo numero di sistemi SSD ad alte prestazioni, un numero maggiore di sistemi ibridi basati su una combinazione di SSD e hard disk, o anche un sistema basato solo su hard disk e tutte queste soluzioni potrebbero raggiungere gli obiettivi prefissati. Per fare una valutazione ponderata è anche importante tenere in considerazione il Total Cost of Ownership (TCO), così come i costi di esercizio, e i requisiti di potenza.
Anche piccole modifiche alla configurazione pianificata, come l’availability dei dischi e le variazioni di prezzo delle unità, causano cambiamenti che vanno tenuti presenti anche all’interno di un approccio basato sul budget. In questi casi un confronto con i metodi di project management diventa utile soprattutto quando le esigenze o il campo di applicazione cambiano rapidamente. Per questo serve un approccio “agile” con frequenti review e l’inclusione di molte prospettive, competenze e partecipazione di team interdisciplinari. Lo stesso vale per le soluzioni di “archiviazione pianificata”. Le esigenze individuali richiedono soluzioni personalizzate che non includono necessariamente una singola tecnologia: una pianificazione “agile” è ideale per le soluzioni di archiviazione nei data center, dove spesso si combinano esigenze diverse.
I dischi rigidi continueranno ad essere la colonna portante di molte soluzioni di archiviazione. Ci sono notevoli vantaggi economici quando si utilizzano hard disk ad alta capacità di archiviazione dove non sono richieste prestazioni di altissimo livello. Inoltre, l’esperienza decennale di lavoro con questa tecnologia, la capacità di pianificare a lungo termine, insieme alla disponibilità di soluzioni di aggiornamento per le implementazioni esistenti, garantiscono che gli hard disk giocheranno un ruolo importante nelle soluzioni di archiviazione negli anni a venire.
Per le applicazioni in tempo reale, le unità SSD sono senza dubbio la scelta migliore. Tuttavia, in tutti gli altri casi non è possibile dare indicazioni in generale. Gli hard disk moderni, come la serie MG di Toshiba per ambienti aziendali, restano l’ideale in molti casi e situazioni poiché, man mano che il numero di unità in un sistema, o addirittura il numero di sistemi, cresce, i criteri e le metriche variano e cambiano. L’uso di hard disk spesso diventa di nuovo una scelta potenziale.
Le soluzioni della serie MG di Toshiba, con il sistema SAS o SATA, da 7.200 giri/min offrono un’ampia gamma di capacità da 1 TB (MG04) a 16 TB (MG08) per ambienti aziendali e restano l’ideale in molti casi e situazioni poiché, man mano che il numero di unità in un sistema, o addirittura il numero di sistemi, cresce, i criteri e le metriche variano e cambiano. I modelli MG07 e MG08 si basano su un design e una tecnologia collaudata, sono riempiti ad elio e hanno una garanzia di cinque anni e un volume di dati fino a 550 TB/anno.
Questi modelli sono classificati come unità nearline, cioè sono adatti per memorizzare tutti i dati che non hanno bisogno di essere modificati o a cui non bisogna accedere in modo permanente. In pratica, questo è il caso della maggior parte dei dati. Tutto ciò diventa tangibile nel caso delle applicazioni dei “social media”: le informazioni sul profilo sono accessibili per un breve periodo di tempo, dopodiché vengono archiviate nuovamente in una memoria a lungo termine, pur rimanendo rapidamente accessibili.
Proprio per questo i dischi rigidi delle serie MG07 o MG08, grazie ai sensori interni e all’elevata integrità dei dati, sono in grado di gestire in modo affidabile, rapido ed economico i crescenti volumi di dati odierni.

La nuova rivoluzione IT? Abbattere il modello delle licenze

Donato Ceccomancini, Country Sales Manager Italy, Infinidat
Il mondo IT vive di rivoluzioni, è noto. Ogni tecnologia, ogni approccio, ogni innovazione mira non solo a modernizzare lo status esistente, ma a metterne in discussione le sue stesse basi, promettendo – e in qualche caso mantenendo – vantaggi ben più che significativi. Che si parli di hardware o di software non fa differenza, c’è sempre un approccio potenzialmente disruptive che promette di rivoluzionare lo status quo, cambiando di fatto i paradigmi finora utilizzati.
Nel caso dello storage, la rivoluzione prende il nome di storage-defined. Ovvero, nella capacità di spostare la “intelligenza” dall’hardware – le cui innovazioni sono per natura più rigide, e quindi meno frequenti – al software che lo gestisce. Algoritmi avanzati, sviluppati facendo tesoro dei nuovi paradigmi AI e machine learning, consentono di sfruttare al meglio l’hardware sottostante – qualsiasi hardware – permettendo una gestione dei dati realmente “di nuova generazione”, in grado di abbinare prestazioni, flessibilità e affidabilità. In questo modo, le organizzazioni che combattono costantemente con la necessità di salvare, gestire e proteggere dati sempre crescenti in modo ottimale, possono raggiungere questo obiettivo senza doversi legare a una determinata tipologia hardware.
Se la tecnologia si evolve in modo così importante a supporto delle esigenze di business delle aziende clienti, possiamo dire lo stesso dei modelli con cui viene consumata? Stiamo vivendo il passaggio dal concetto di acquisto a quello di consumo, sulla spinta della crescente diffusione del modello di cloud computing. Che si tratti di apparati hardware o di licenze software, ormai per le aziende risulta naturale – oltre che più pratico – legare i costi al determinato utilizzo di una piattaforma, evitando così l’obbligo di immobilizzare capitale in partenza, con tutte le difficoltà – economiche e di gestione – che questo può comportare.
C’è sicuramente spazio per migliorare anche in questo ambito però, adottando lo stesso approccio che ha permesso di rivoluzionare lo storage dal punto di vista tecnologico. La maggior parte delle organizzazioni sa che avrà bisogno di nuovo storage per il proprio business, ma tipicamente non sa né quanto né quando. E allora, la possibilità di legare del tutto l’investimento alle concrete necessità di business, con tutta la flessibilità di un approccio “on demand” può rappresentare un vantaggio non indifferente. Soprattutto quando si va del tutto oltre il concetto di licenza – per utente, per macchina, per utilizzo software, non fa differenza…
La vera rivoluzione in questo ambito è rendere ogni innovazione immediatamente disponibile al cliente, nella sua forma più ampia: tutte le funzionalità, tutte le capacità, tutti i possibili utenti… E parallelamente, tenere traccia di quello che il cliente utilizza e di quando inizia a farlo fisicamente. Su base regolare, seguendo quello che è il modello tradizionale delle utility, il cliente paga per quello che ha utilizzato, senza dover richiedere o attivare licenze ulteriori, senza alcun tipo di provisioning e senza alcuna limitazione che non sia quella della capacità fisica delle macchine che ha a disposizione.
Questo approccio consente di superare del tutto il concetto stesso di licenza, mettendo il cliente nella condizione ideale, quella di poter usare ciò che serve veramente, e non quello che ha comprato. Se il business cresce rapidamente, si avrà la libertà di sostenerlo nel modo più efficace, grazie a un’infrastruttura che cresce nel modo più lineare possibile. Se invece la crescita risultasse inferiore alle aspettative, non ci sarebbe comunque nessun problema di sovrautilizzo delle risorse a disposizione, che anzi, possono anche essere ridotte in caso di necessità. È chiaro poi che, avendo a disposizione tutte le funzionalità accessibili semplicemente tramite un clic, l’utente sarà invogliato a provarle, comprendendo man mano meglio quali di queste possono essere più significative per il proprio business.
Dalla licenza, in sostanza, si passa al consumo, eliminando anche le ultime barriere e avendo a disposizione tutta la libertà di poter seguire l’andamento del business. Un modello di consumo di questo tipo non solo offre al cliente un livello di flessibilità mai visto prima, ma dà anche al vendor la possibilità di entrare ancor di più nei meccanismi del cliente, andando a creare una vera comunione di interessi, che giustifica ancor di più il termine di partnership.
Eliminando di fatto il concetto stesso di licenza, si abbattono le ultime barriere che dividono vendor e clienti, uniti nella realtà per il raggiungimento dei medesimi obiettivi.

Veritas Technologies acquisisce APTARE

Veritas Technologies annuncia di aver acquisito APTARE, società software privata con sede a Campbell, in California. APTARE è leader globale nelle soluzioni analitiche per ambienti cloud ibridi ed è la principale piattaforma di analisi IT aperta ed estensibile del settore. La tecnologia di APTARE consentirà a Veritas di offrire ai clienti una piattaforma di analisi avanzata che fornisce insight e report attraverso i diversi ambienti di protezione dei dati, infrastrutture virtuali e storage. Consentirà ai clienti di: Ottenere visibilità sull’intera infrastruttura, on-premise e su qualsiasi cloud, per prendere decisioni più consapevoli. Avere una piattaforma di reporting comune, dal tape to disk al cloud, essenziale in un ambiente multi-cloud. Anticipare meglio le esigenze e prevedere i risultati, come l’ottimizzazione dell’infrastruttura, la riduzione dei costi e il rispetto dei requisiti di conformità e SLA. L’aggiunta delle soluzioni di IT Analytics di APTARE al portfolio di prodotti Veritas rafforza anche l’integrazione dei prodotti dell’azienda con i principali provider tecnologici e cloud tra cui VMware, AWS, Microsoft Azure, OpenStack e ServiceNow.