Backup rapido fondamentale per la sopravvivenza aziendale: 5 motivazioni

Un backup rapido e una pronta capacità di ripristino rivestono un’importanza critica per la sopravvivenza delle aziende. Infatti, rappresentano le caratteristiche di protezione dati più ricercate secondo il rapporto ESG del mese precedente.



Acronis è preparata a questo grazie alla sua soluzione di backup per le aziende, Acronis Backup 12.5, più rapida, più conveniente e più facile da utilizzare rispetto ai prodotti offerti dalla concorrenza. Un backup rapido e recovery di 15 secondi la rendono la soluzione perfetta per i moderni ambienti di business.

1. Più dati, meno tempo per proteggerli.

La quantità di dati nel mondo continua ad aumentare a un livello esponenziale. Si stima che ogni anno creiamo il doppio dei dati rispetto a quelli presenti nell’anno precedente, procedendo verso i 180 zetabyte, o 180 trillioni di gigabyte di nuovi dati nel 2025.

Mentre la maggior parte di questi dati sarà generata da macchine, grazie all’avvento dell’IoT, i dati prodotti dagli uomini cresceranno comunque a un livello costante. Per esempio, il Responsabile IT di Scuderia Toro Rosso Raffaele Boschetti, ha recentemente comunicato ad Acronis che la quantità di dati generata giornalmente presso lo stabilimento Toro Rosso è incrementata di circa il 50 percento, se raffrontata al volume prodotto 12 mesi fa. Si tratta di un’evoluzione simile alla maggior parte delle aziende moderne.

Nonostante questa esplosione di dati, le organizzazioni dispongono di quantità minori di tempo per poterli proteggere. Oltre al fatto che disporre di più dati richiede più tempo per un backup, gli amministratori di sistema ora si occupano di moltissime attività in seguito agli ambienti IT di carattere eterogeneo. Hanno a disposizione un intervallo di tempo limitato per completare tutte le attività, il che trasforma la velocità di backup un fattore critico in questo tipo di ambienti.

2. RPO ridotta.

Se la vostra azienda genera grandi quantità di dati ogni giorno, allora anche i backup incrementali o differenziali possono richiedere molto tempo. Maggiore è l’intervallo tra i backup, maggiore la finestra di recovery point objective (RPO), ossia la quantità di dati persa tra i backup.

Se le elevate spese generali eliminano l’esigenza di un backup continuo per la vostra organizzazione, un backup più rapido probabilmente rappresenta la soluzione migliore. Vi permette di eseguire più backup in un determinato lasso di tempo, diminuendo i livelli di RPO a una quota accettabile. Una maggiore frequenza di backup ridurrà la probabilità di perdite di dati in caso di problemi.

3. RTO ermetico.

Lo scopo per eccellenza di qualsiasi backup è la capacità di ripristinare i dati con rapidità e il minimo sforzo. Recovery Time Objective (RTO) è l’intervallo di tempo in cui è necessario recuperare i dati al fine di assicurare la continuità aziendale. L’RTO viene di norma definito calcolando quali siano i tempi di fermo che un’azienda può sostenere prima di iniziare a soffrire delle conseguenze negative causate dalla stessa perdita di dati. Se le interruzioni non sono contemplate, è necessario un backup rapido che includa più opzioni di recovery di dati, proprio come Acronis Backup 12.5 Advanced. È stato progettato per fornire agli utenti molteplici opzioni di recovery dei dati a prescindere dalla tipologia e dalle modalità di backup eseguite in origine. Include la recovery granulare, il ripristino bare-metal, Acronis Universal Restore, Acronis Instant Restore, Acronis vmFlashback, il ripristino host virtuale e la migrazione any-to-any. I dati protetti con Acronis Backup 12.5 possono essere ripristinati in meno di 15 secondi, in loco o sul cloud e persino su hardware diversi.

4. Utilizzo ridotto delle risorse di sistema.

Il software di backup viene di norma installato sul dispositivo da proteggere. I software moderni possono essere molto leggeri in termini di risorse di sistema, tuttavia la compressione la cifratura dei dati possono aumentare l’utilizzo di CPU e memoria, con il risultato di una potenziale riduzione delle performance. In modo simile, se i dati di backup vengono trasferiti in una location remota tramite la rete, questa operazione può avere conseguenze sulla capacità richiesta per eseguire operazioni di routine. Ecco perché i backup tradizionalmente vengono programmati negli orari non di picco, quando il sistema è libero da altre attività.

Se il software di backup influenza negativamente le prestazioni di calcolo, è tempo di passare oltre. Acronis Backup 12.5 Advanced non solo è molto leggero in termini di risorse di sistema e può essere eseguito in background nel corso dell’intera giornata senza interferire con le operazioni giornaliere, ma include le opzioni di elaborazione del backup off-host, il che consente agli utenti di spostare i task più esigenti dal punto di vista delle risorse (come la replica di dati, la pulizia e la convalida) a un host differente, liberando ancora maggiori risorse.

5. Tecnologia all’avanguardia.

Un backup rapido è il risultato di una tecnologia innovativa d avanzata. Proprio come ci si aspetta che un nuovo smartphone sia rapido e offra molte opzioni oltre alle semplici telefonate, gli innovativi software di backup di Acronis offrono molto di più rispetto al mero backup.

Le soluzioni di backup Acronis si basano su un’architettura cloud ibrida flessibile, che consente di controllare in maniera completa la gestione dei propri dati. Inoltre, può migliorare indirettamente la velocità di protezione dei dati nel complesso, dal momento che è possibile scegliere dove memorizzare e in che modo ripristinare i dati protetti.

Inoltre, include Acronis Active Protection, una tecnologia anti-ransomware all’avanguardia in grado di rilevare e arrestare gli attacchi ransomware, ripristinando istantaneamente qualsiasi dato interessato dall’attacco, oltre a disporre della certificazione dati basata su blockchain tramite Acronis Notary per consentire una verifica molto semplice.

Ora che l’importanza di disporre di un backup rapido è chiara, ecco le cinque domande da porre al proprio fornitore di protezione dei dati:

La soluzione di protezione dati è in grado di evolversi con l’azienda, proteggendo crescenti quantità di dati senza mettere a repentaglio le vostre risorse?
Sarete in grado di proteggere tutti i dati, tra cui tutti i workload in tutti gli ambienti, con un’unica soluzione di backup?
Il crescente carico di dati influenzerà il tempo di ripristino e sarà possibile recuperare i dati presenti su qualsiasi hardware o persino in un ambiente differente?
La soluzione offerta fornirà la flessibilità di poter selezionare dove memorizzare i dati protetti, in loco o sul cloud?
Sono state integrate soluzioni di difesa proattiva contro i ransoware all’interno dell’offerta per contribuire a proteggere i vostri dati dagli attacchi informatici?

Data center di 4ª generazione

Il data center di prossima generazione supererà ogni barriera, integrando facilmente le strutture core con un edge di rete mission-critical più intelligente. I data center di 4ª generazione (Gen 4) sono una realtà emergente e diventeranno il modello per le reti IT del 2020. L’avvento di questo tipo di data center dipendenti dall’edge fa parte delle cinque tendenze identificate per il 2018 da un gruppo globale di esperti di Vertiv.

Le previsioni di Vertiv per il 2017 avevano identificato trend legati a cloud, sistemi integrati, sicurezza dell’infrastruttura e altro ancora. Qui di seguito sono riportati i cinque trend che potranno avere un impatto sull’ecosistema del data center nel 2018:
1. Arrivo dei data center di 4ª generazione: Che si tratti di armadi IT tradizionali o di micro data center di 40 metri cubi, le organizzazioni fanno sempre più affidamento sull’edge. Il data center 4 Gen integra olisticamente e armoniosamente edge e core, elevandoli oltre le semplici reti distribuite.
Questo grazie ad architetture innovative che offrono capacità quasi in tempo reale in moduli scalabili ed economici che sfruttano soluzioni termiche ottimizzate, alimentazione elettrica ad alta densità, batterie agli ioni di litio e unità avanzate di distribuzione dell’energia. Il tutto è coadiuvato da tecnologie evolute di monitoraggio e gestione, che permettono a centinaia o persino a migliaia di nodi IT distribuiti di operare insieme per ridurre latenza e costi iniziali, aumentare i tassi di utilizzo, rimuovere la complessità e permettere alle organizzazioni di aggiungere capacità IT legata alla rete, quando e dove necessario.
2. I provider di cloud scelgono la colocation: L’adozione del cloud sta procedendo a passi talmente rapidi che in molti casi i cloud provider non riescono a far fronte alla richiesta di capacità. In realtà, molti non vorrebbero nemmeno provarci. Preferiscono concentrarsi sulla fornitura di servizi e altre priorità dei nuovi data center e si rivolgeranno ai provider di colocation per soddisfare le esigenze di maggiore capacità.
Essendo focalizzate su efficienza e scalabilità, le strutture di colocation possono soddisfare la domanda rapidamente e allo stesso tempo ridurre i costi. Il proliferare di strutture di colocation permette inoltre ai provider di cloud di scegliere i partner di colocation in luoghi che rispondano alle necessità degli utenti, dove possano operare come strutture edge. I fornitori di colocation stanno rispondendo, mettendo a disposizione parti dei propri data center o intere strutture su misura per i servizi cloud.
3. Riconfigurazione dei data center di classe media: Non è un mistero che le maggiori aree di crescita sul mercato dei data center si trovino nelle infrastrutture hyperscale – in genere provider di cloud o colocation – e sull’edge di rete. Con la crescita delle risorse di colocation e cloud, gli operatori di data center tradizionali ora hanno l’opportunità di rivalutare e riconfigurare le proprie strutture e risorse che rimangono cruciali per le operazioni locali.
Le organizzazioni con più data center continueranno a consolidare le proprie risorse IT interne, ad esempio trasferendo nel cloud o in colocation ciò che è possibile spostare, ridimensionando e sfruttando allo stesso tempo configurazioni dalla rapida implementazione che possono essere scalate velocemente. Queste nuove strutture saranno più piccole, ma più efficienti, sicure e con un’alta disponibilità, in linea con la natura mission-critical dei dati che le aziende cercano di proteggere.
Laddove l’adozione del cloud e della colocation procede più lentamente, si prevede che il prossimo passo sarà rappresentato da architetture di cloud ibrido, per aumentare la sicurezza delle risorse IT in un cloud privato o pubblico, con l’obiettivo di ridurre i costi e gestire i rischi.
4. Arriva (finalmente) l’alta densità: La community dei data center parla da un decennio di densità in forte crescita per la potenza dei rack, ma gli aumenti, nel migliore dei casi, sono stati incrementali. Le cose stanno cambiando. Densità inferiori a 10 kW per rack rimangono la norma, ma implementazioni a 15 kW, in strutture hyperscale non sono più così rare e alcune stanno avanzando verso i 25 kW.
Perché accade proprio ora? La responsabilità principale va all’introduzione e all’adozione diffusa di sistemi informatici iperconvergenti. I provider di colocation, ovviamente, danno priorità allo spazio nelle proprie strutture e l’alta densità dei rack può consentire maggiori guadagni. I progressi nel risparmio energetico nelle tecnologie di server e chip possono solo ritardare l’inevitabilità dell’alta densità posticipata a lungo. Vi sono tuttavia motivi per credere che uno spostamento in massa verso maggiori densità potrebbe assomigliare più a una lenta marcia che a un’accelerata. Densità notevolmente più alte possono cambiare in modo significativo la struttura di un data center – dall’alimentazione al raffreddamento di ambienti a densità più elevate. L’alta densità sta arrivando, ma probabilmente non prima della fine del 2018 e oltre.
5. Il mondo reagisce all’edge: Un numero crescente di aziende sta spostando i sistemi di computing sul proprio edge di rete; è quindi necessario procedere a una valutazione critica delle strutture che ospitano queste risorse edge, della loro sicurezza e della proprietà dei dati ospitati. Questa analisi include il progetto fisico e meccanico, la costruzione e la sicurezza delle strutture edge e complessi dettagli legati alla proprietà dei dati. I governi e gli enti regolatori di tutto il mondo non potranno evitare di considerare questi elementi e prendere eventuali provvedimenti.
Spostare i dati distribuiti nel mondo sul cloud o in una struttura core e recuperarli per l’analisi è un processo troppo lento e macchinoso, per cui sempre più cluster di dati e capacità analitiche risiederanno sull’edge – un edge che può trovarsi in città, stati o paesi diversi da quelli in cui ha sede un’azienda. Chi sono i proprietari dei dati e cosa possono fare con questo patrimonio di informazioni? Il dibattito è in corso e nel 2018 si avanzerà verso azioni e risposte più concrete.