Backup rapido fondamentale per la sopravvivenza aziendale: 5 motivazioni

Un backup rapido e una pronta capacità di ripristino rivestono un’importanza critica per la sopravvivenza delle aziende. Infatti, rappresentano le caratteristiche di protezione dati più ricercate secondo il rapporto ESG del mese precedente.



Acronis è preparata a questo grazie alla sua soluzione di backup per le aziende, Acronis Backup 12.5, più rapida, più conveniente e più facile da utilizzare rispetto ai prodotti offerti dalla concorrenza. Un backup rapido e recovery di 15 secondi la rendono la soluzione perfetta per i moderni ambienti di business.

1. Più dati, meno tempo per proteggerli.

La quantità di dati nel mondo continua ad aumentare a un livello esponenziale. Si stima che ogni anno creiamo il doppio dei dati rispetto a quelli presenti nell’anno precedente, procedendo verso i 180 zetabyte, o 180 trillioni di gigabyte di nuovi dati nel 2025.

Mentre la maggior parte di questi dati sarà generata da macchine, grazie all’avvento dell’IoT, i dati prodotti dagli uomini cresceranno comunque a un livello costante. Per esempio, il Responsabile IT di Scuderia Toro Rosso Raffaele Boschetti, ha recentemente comunicato ad Acronis che la quantità di dati generata giornalmente presso lo stabilimento Toro Rosso è incrementata di circa il 50 percento, se raffrontata al volume prodotto 12 mesi fa. Si tratta di un’evoluzione simile alla maggior parte delle aziende moderne.

Nonostante questa esplosione di dati, le organizzazioni dispongono di quantità minori di tempo per poterli proteggere. Oltre al fatto che disporre di più dati richiede più tempo per un backup, gli amministratori di sistema ora si occupano di moltissime attività in seguito agli ambienti IT di carattere eterogeneo. Hanno a disposizione un intervallo di tempo limitato per completare tutte le attività, il che trasforma la velocità di backup un fattore critico in questo tipo di ambienti.

2. RPO ridotta.

Se la vostra azienda genera grandi quantità di dati ogni giorno, allora anche i backup incrementali o differenziali possono richiedere molto tempo. Maggiore è l’intervallo tra i backup, maggiore la finestra di recovery point objective (RPO), ossia la quantità di dati persa tra i backup.

Se le elevate spese generali eliminano l’esigenza di un backup continuo per la vostra organizzazione, un backup più rapido probabilmente rappresenta la soluzione migliore. Vi permette di eseguire più backup in un determinato lasso di tempo, diminuendo i livelli di RPO a una quota accettabile. Una maggiore frequenza di backup ridurrà la probabilità di perdite di dati in caso di problemi.

3. RTO ermetico.

Lo scopo per eccellenza di qualsiasi backup è la capacità di ripristinare i dati con rapidità e il minimo sforzo. Recovery Time Objective (RTO) è l’intervallo di tempo in cui è necessario recuperare i dati al fine di assicurare la continuità aziendale. L’RTO viene di norma definito calcolando quali siano i tempi di fermo che un’azienda può sostenere prima di iniziare a soffrire delle conseguenze negative causate dalla stessa perdita di dati. Se le interruzioni non sono contemplate, è necessario un backup rapido che includa più opzioni di recovery di dati, proprio come Acronis Backup 12.5 Advanced. È stato progettato per fornire agli utenti molteplici opzioni di recovery dei dati a prescindere dalla tipologia e dalle modalità di backup eseguite in origine. Include la recovery granulare, il ripristino bare-metal, Acronis Universal Restore, Acronis Instant Restore, Acronis vmFlashback, il ripristino host virtuale e la migrazione any-to-any. I dati protetti con Acronis Backup 12.5 possono essere ripristinati in meno di 15 secondi, in loco o sul cloud e persino su hardware diversi.

4. Utilizzo ridotto delle risorse di sistema.

Il software di backup viene di norma installato sul dispositivo da proteggere. I software moderni possono essere molto leggeri in termini di risorse di sistema, tuttavia la compressione la cifratura dei dati possono aumentare l’utilizzo di CPU e memoria, con il risultato di una potenziale riduzione delle performance. In modo simile, se i dati di backup vengono trasferiti in una location remota tramite la rete, questa operazione può avere conseguenze sulla capacità richiesta per eseguire operazioni di routine. Ecco perché i backup tradizionalmente vengono programmati negli orari non di picco, quando il sistema è libero da altre attività.

Se il software di backup influenza negativamente le prestazioni di calcolo, è tempo di passare oltre. Acronis Backup 12.5 Advanced non solo è molto leggero in termini di risorse di sistema e può essere eseguito in background nel corso dell’intera giornata senza interferire con le operazioni giornaliere, ma include le opzioni di elaborazione del backup off-host, il che consente agli utenti di spostare i task più esigenti dal punto di vista delle risorse (come la replica di dati, la pulizia e la convalida) a un host differente, liberando ancora maggiori risorse.

5. Tecnologia all’avanguardia.

Un backup rapido è il risultato di una tecnologia innovativa d avanzata. Proprio come ci si aspetta che un nuovo smartphone sia rapido e offra molte opzioni oltre alle semplici telefonate, gli innovativi software di backup di Acronis offrono molto di più rispetto al mero backup.

Le soluzioni di backup Acronis si basano su un’architettura cloud ibrida flessibile, che consente di controllare in maniera completa la gestione dei propri dati. Inoltre, può migliorare indirettamente la velocità di protezione dei dati nel complesso, dal momento che è possibile scegliere dove memorizzare e in che modo ripristinare i dati protetti.

Inoltre, include Acronis Active Protection, una tecnologia anti-ransomware all’avanguardia in grado di rilevare e arrestare gli attacchi ransomware, ripristinando istantaneamente qualsiasi dato interessato dall’attacco, oltre a disporre della certificazione dati basata su blockchain tramite Acronis Notary per consentire una verifica molto semplice.

Ora che l’importanza di disporre di un backup rapido è chiara, ecco le cinque domande da porre al proprio fornitore di protezione dei dati:

La soluzione di protezione dati è in grado di evolversi con l’azienda, proteggendo crescenti quantità di dati senza mettere a repentaglio le vostre risorse?
Sarete in grado di proteggere tutti i dati, tra cui tutti i workload in tutti gli ambienti, con un’unica soluzione di backup?
Il crescente carico di dati influenzerà il tempo di ripristino e sarà possibile recuperare i dati presenti su qualsiasi hardware o persino in un ambiente differente?
La soluzione offerta fornirà la flessibilità di poter selezionare dove memorizzare i dati protetti, in loco o sul cloud?
Sono state integrate soluzioni di difesa proattiva contro i ransoware all’interno dell’offerta per contribuire a proteggere i vostri dati dagli attacchi informatici?

Data center di 4ª generazione

Il data center di prossima generazione supererà ogni barriera, integrando facilmente le strutture core con un edge di rete mission-critical più intelligente. I data center di 4ª generazione (Gen 4) sono una realtà emergente e diventeranno il modello per le reti IT del 2020. L’avvento di questo tipo di data center dipendenti dall’edge fa parte delle cinque tendenze identificate per il 2018 da un gruppo globale di esperti di Vertiv.

Le previsioni di Vertiv per il 2017 avevano identificato trend legati a cloud, sistemi integrati, sicurezza dell’infrastruttura e altro ancora. Qui di seguito sono riportati i cinque trend che potranno avere un impatto sull’ecosistema del data center nel 2018:
1. Arrivo dei data center di 4ª generazione: Che si tratti di armadi IT tradizionali o di micro data center di 40 metri cubi, le organizzazioni fanno sempre più affidamento sull’edge. Il data center 4 Gen integra olisticamente e armoniosamente edge e core, elevandoli oltre le semplici reti distribuite.
Questo grazie ad architetture innovative che offrono capacità quasi in tempo reale in moduli scalabili ed economici che sfruttano soluzioni termiche ottimizzate, alimentazione elettrica ad alta densità, batterie agli ioni di litio e unità avanzate di distribuzione dell’energia. Il tutto è coadiuvato da tecnologie evolute di monitoraggio e gestione, che permettono a centinaia o persino a migliaia di nodi IT distribuiti di operare insieme per ridurre latenza e costi iniziali, aumentare i tassi di utilizzo, rimuovere la complessità e permettere alle organizzazioni di aggiungere capacità IT legata alla rete, quando e dove necessario.
2. I provider di cloud scelgono la colocation: L’adozione del cloud sta procedendo a passi talmente rapidi che in molti casi i cloud provider non riescono a far fronte alla richiesta di capacità. In realtà, molti non vorrebbero nemmeno provarci. Preferiscono concentrarsi sulla fornitura di servizi e altre priorità dei nuovi data center e si rivolgeranno ai provider di colocation per soddisfare le esigenze di maggiore capacità.
Essendo focalizzate su efficienza e scalabilità, le strutture di colocation possono soddisfare la domanda rapidamente e allo stesso tempo ridurre i costi. Il proliferare di strutture di colocation permette inoltre ai provider di cloud di scegliere i partner di colocation in luoghi che rispondano alle necessità degli utenti, dove possano operare come strutture edge. I fornitori di colocation stanno rispondendo, mettendo a disposizione parti dei propri data center o intere strutture su misura per i servizi cloud.
3. Riconfigurazione dei data center di classe media: Non è un mistero che le maggiori aree di crescita sul mercato dei data center si trovino nelle infrastrutture hyperscale – in genere provider di cloud o colocation – e sull’edge di rete. Con la crescita delle risorse di colocation e cloud, gli operatori di data center tradizionali ora hanno l’opportunità di rivalutare e riconfigurare le proprie strutture e risorse che rimangono cruciali per le operazioni locali.
Le organizzazioni con più data center continueranno a consolidare le proprie risorse IT interne, ad esempio trasferendo nel cloud o in colocation ciò che è possibile spostare, ridimensionando e sfruttando allo stesso tempo configurazioni dalla rapida implementazione che possono essere scalate velocemente. Queste nuove strutture saranno più piccole, ma più efficienti, sicure e con un’alta disponibilità, in linea con la natura mission-critical dei dati che le aziende cercano di proteggere.
Laddove l’adozione del cloud e della colocation procede più lentamente, si prevede che il prossimo passo sarà rappresentato da architetture di cloud ibrido, per aumentare la sicurezza delle risorse IT in un cloud privato o pubblico, con l’obiettivo di ridurre i costi e gestire i rischi.
4. Arriva (finalmente) l’alta densità: La community dei data center parla da un decennio di densità in forte crescita per la potenza dei rack, ma gli aumenti, nel migliore dei casi, sono stati incrementali. Le cose stanno cambiando. Densità inferiori a 10 kW per rack rimangono la norma, ma implementazioni a 15 kW, in strutture hyperscale non sono più così rare e alcune stanno avanzando verso i 25 kW.
Perché accade proprio ora? La responsabilità principale va all’introduzione e all’adozione diffusa di sistemi informatici iperconvergenti. I provider di colocation, ovviamente, danno priorità allo spazio nelle proprie strutture e l’alta densità dei rack può consentire maggiori guadagni. I progressi nel risparmio energetico nelle tecnologie di server e chip possono solo ritardare l’inevitabilità dell’alta densità posticipata a lungo. Vi sono tuttavia motivi per credere che uno spostamento in massa verso maggiori densità potrebbe assomigliare più a una lenta marcia che a un’accelerata. Densità notevolmente più alte possono cambiare in modo significativo la struttura di un data center – dall’alimentazione al raffreddamento di ambienti a densità più elevate. L’alta densità sta arrivando, ma probabilmente non prima della fine del 2018 e oltre.
5. Il mondo reagisce all’edge: Un numero crescente di aziende sta spostando i sistemi di computing sul proprio edge di rete; è quindi necessario procedere a una valutazione critica delle strutture che ospitano queste risorse edge, della loro sicurezza e della proprietà dei dati ospitati. Questa analisi include il progetto fisico e meccanico, la costruzione e la sicurezza delle strutture edge e complessi dettagli legati alla proprietà dei dati. I governi e gli enti regolatori di tutto il mondo non potranno evitare di considerare questi elementi e prendere eventuali provvedimenti.
Spostare i dati distribuiti nel mondo sul cloud o in una struttura core e recuperarli per l’analisi è un processo troppo lento e macchinoso, per cui sempre più cluster di dati e capacità analitiche risiederanno sull’edge – un edge che può trovarsi in città, stati o paesi diversi da quelli in cui ha sede un’azienda. Chi sono i proprietari dei dati e cosa possono fare con questo patrimonio di informazioni? Il dibattito è in corso e nel 2018 si avanzerà verso azioni e risposte più concrete.

HPE InfoSight: le basi per il data center autonomo con AI Recommendation Engine

Hewlett Packard Enterprise ha introdotto il primo AI Recommendation Engine progettato per ridurre le problematiche di gestione delle infrastrutture e aumentare l’affidabilità delle applicazioni. Facendo leva su tecniche di machine learning avanzate, le nuove funzionalità di HPE InfoSight tracciano la strada che conduce al data center autonomo. HPE ha annunciato inoltre la prima release di HPE InfoSight per HPE 3PAR, nell’ottica di estendere HPE InfoSight all’intero portafoglio storage HPE.




Le aziende non possono permettersi di affrontare intoppi operativi o subire ritardi nelle applicazioni. Ma la complessità delle infrastrutture provoca un “gap tra app e dati”, che impatta sul business. Per questa ragione HPE è costantemente impegnata nello sviluppo di soluzioni in grado di minimizzare inconvenienti e tempi di fermo attraverso le funzionalità di AI e di analisi predittiva di HPE InfoSight, che permettono di ridurre fin dell’85%1 il tempo dedicato a risolvere le problematiche.

HPE InfoSight analizza ogni secondo milioni di sensori diffusi nella propria base installata globale utilizzando i relativi dati per prevedere e prevenire problemi che vanno dallo storage alle applicazioni. HPE InfoSight assicura performance affidabili e continuità operativa aiutando a raggiungere oltre il 99,9999% di disponibilità garantita.

Un nuovo passo verso il data center autonomo
HPE InfoSight pone le basi del data center autonomo per mezzo del nuovo AI Recommendation Engine. Facendo leva sulle proprie funzionalità predittive, HPE InfoSight consiglia preventivamente l’IT sulle azioni da intraprendere per evitare problemi, migliorare le prestazioni e ottimizzare le risorse disponibili. Le raccomandazioni sono basate su capacità di machine learning avanzate che sfruttano quasi un decennio di esperienza nella data science unitamente a dati telemetrici raccolti da oltre 10.000 clienti HPE Nimble Storage. HPE InfoSight apprende continuamente rendendo i sistemi dei clienti sempre più intelligenti e affidabili. Uno studio indipendente ha recentemente provato che HPE InfoSight riesce a ridurre i costi correnti IT dello storage del 79%.

La potenza dell’analisi predittiva arriva su 3PAR
HPE ha dimostrato le particolari capacità di HPE InfoSight negli ambienti HPE Nimble Storage, dove oggi l’86% dei problemi viene risolto automaticamente prima ancora che il cliente possa accorgersi dell’inconveniente. Estendendo HPE InfoSight a 3PAR, sia i clienti HPE Nimble Storage che i clienti 3PAR possono ora beneficiare di vantaggi concreti grazie ad HPE InfoSight.

Questa prima release di HPE InfoSight for 3PAR rende disponibili le seguenti funzionalità:
· Analisi sull’intero stack. Per i clienti 3PAR che utilizzano l’ultima versione del sistema operativo 3PAR2, HPE InfoSight permette all’IT di risolvere i problemi di performance e identificare la causa primaria tra storage e virtual machine (VM) dell’host. Fornisce anche la visibilità per localizzare le VM “noisy neighbor”.
· Visibilità globale. Attraverso un nuovo portale cloud, che unisce HPE InfoSight e HPE StoreFront Remote, tutti i clienti 3PAR che utilizzano sistemi connessi da remoto, potranno disporre di informazioni dettagliate relative a performance trending, capacità predittive, controlli dello stato di salute dei sistemi e best practice, attraverso tutti gli array 3PAR.
· Basi funzionali per consentire il supporto predittivo. È stata implementata un’infrastruttura di automazione e analytics che potrà essere utilizzata in futuro per rilevare anomalie, prevedere problemi complessi e dirottare le casistiche direttamente al supporto di 3° livello.

Liebert EXS: UPS compatto per carichi critici

Vertiv introduce Liebert® EXS il nuovo UPS che arricchisce il suo già riconosciuto portfolio. Liebert EXS è un UPS estremamente compatto, monolitico e senza trasformatore che assicura una densità molto alta e la massima potenza attiva possibile fino a 40°C. La sua efficienza in doppia conversione fino al 96,2% riduce inoltre in modo significativo il costo totale di proprietà (TCO) e l’impatto sull’ambiente.

Disponibile inizialmente nella gamma di 10-20 kVA in Europa, Medio Oriente e Africa (EMEA), Liebert EXS vanta l’ingombro più piccolo presente sul mercato per questa categoria, con dimensioni pari anche alla metà rispetto alla concorrenza.



Il design compatto assicura una configurazione ottimizzata delle batterie, con la possibilità di ospitare fino a quattro stringhe. Si elimina così la necessità di un vano per batterie esterne e si riducono di conseguenza i costi complessivi di installazione e lo spazio richiesto, rendendo la soluzione ideale per applicazioni IT. Inoltre, Liebert EXS può alimentare diversi sistemi di sicurezza, come definito nella norma EN 50171, tra cui luci di emergenza per vie di fuga e impianti di estinzione incendi, strutture di trasporto, sanitarie, retail e di enti pubblici.

Come tutti i sistemi UPS offerti, anche Liebert EXS può essere corredato di Vertiv LIFE™ Services, un sofisticato servizio di diagnostica remota e monitoraggio preventivo che invia segnalazioni tempestive sulle condizioni dell’UPS e su problemi di tolleranza ai guasti, consentendo una manutenzione proattiva efficace, una risposta rapida in caso di incidenti e una risoluzione da remoto 24/7. Inoltre, la piattaforma di Data Centre Infrastructure Management (DCIM) Trellis™ consente l’ottimizzazione unificata in tempo reale dell’infrastruttura del data center IT e degli impianti.

HPE Apollo 4510 Gen10

Questo sistema di nuova generazione è stato costruito su misura per lo storage a oggetti e mette a disposizione una delle più ampie capacità storage di qualsiasi server di profondità 4U standard, con un limite di 600TB per sistema.



La piattaforma è ideale per i clienti che intendono ottimizzare la conservazione e il collocamento di enormi quantità di dati avvalendosi dello storage a oggetti come archivio attivo per l’accesso immediato ai dati strutturati e non strutturati.
Il sistema HPE Apollo 4510 Gen10 offre superiori prestazioni con il 16% di core in più rispetto alla generazione precedente.
Il nuovo supporto delle schede NVMe può essere utilizzato come efficiente cache per i metadati di Scality RING con il 100% degli alloggiamenti per gli hard disk destinati allo storage di dati a oggetti.
Inoltre, il sistema HPE Apollo 4510 Gen10 si avvale di un design dual-drawer a caricamento frontale con profondità rack standard per facilitare i clienti nella manutenzione dei loro sistemi.