Backup e ripristino dei dati dei siti web da pannello Plesk

Plesk integra ora Acronis Backup Cloud nella propria piattaforma di gestione web e nel pannello di controllo, assicurando così ai provider di servizi di hosting e cloud un metodo semplice per eseguire il backup dei server Plesk e consentendo ai professionisti web e agli amministratori IT di ripristinare i propri dati.



Per proteggere i server Plesk, i Service Provider devono soltanto installare l’agent Acronis Backup Cloud sui propri server fisici e sulle macchine virtuali e aggiungere l’estensione Acronis Backup Cloud all’interfaccia utente Plesk.

L’integrazione di Acronis Backup Cloud con Plesk apporta numerosi vantaggi ai professionisti web e ai Service Provider, come ad esempio i seguenti:
I Service Provider possono eseguire backup completi dell’immagine server, archiviarli nel cloud Acronis e utilizzare i file di backup per il disaster recovery o la migrazione del server.
I backup dei server sono visibili nella UI Plesk e consentono agli amministratori di sistema di eseguire i backup, gestire lo spazio di backup e offrire funzionalità self-service ai clienti su base tariffaria.
I professionisti web possono utilizzare l’interfaccia utente Plesk a cui sono abituati per ripristinare i propri ambienti server, i file, le email e i database in modo sicuro.

La sicurezza dei siti è una preoccupazione crescente I criminali informatici sfruttano infatti le vulnerabilità dei siti web per inserirvi del codice dannoso e diffondere così i malware, rendendo difficile per questi siti web liberarsi dai malware stessi.

I file possono inoltre venire eliminati involontariamente o smarriti a seguito della sospensione di un account. Ciò rende il backup l’unico metodo affidabile per garantire la disponibilità del sito ed evitare perdite permanenti di dati.

I dati e il loro valore per il business: previsioni in 5 punti

Tra le principali sfide che i leader aziendali si troveranno ad affrontare nel 2018 si porrà il tema dei dati e del loro valore per il business. Questa nuova fonte di ricchezza verrà regolamentata proprio durante il prossimo anno, quando i controlli sulla correttezza del patrimonio informativo saranno equiparati ai controlli finanziari e assumeranno un impatto importante anche in termini di reputazione delle aziende.
Disporre di un’infrastruttura storage e di un approccio alla trasformazione digitale adeguati è vitale per le aziende, anche per cogliere i vantaggi delle tecnologie di Machine Learning e di Intelligenza Artificiale che i soggetti imprenditoriali più avanzati stanno già adottando.



Mauro Bonfanti, Regional Director Italy, Pure Storage

Una gestione più efficiente dei processi aziendali e il controllo dei dati saranno centrali nel 2018, e sia l’IT sia la cultura all’interno delle aziende sono chiamati ad evolvere per supportare questo processo.
L’implementazione del GDPR, ormai imminente nell’area UE, impone che le aziende riescano a gestire e proteggere i dati personali e sappiano dove questi risiedono, dimostrando di avere il controllo totale su di essi.
Rispondere in maniera efficace a quanto previsto dalla normativa, o affrontare incidenti di sicurezza è pressoché impossibile se i sistemi IT richiedono giorni per effettuare Backup, indicizzazione e ripristino dei dati. Per arrivare a controllare e proteggere efficacemente il patrimonio di dati, con ogni probabilità assisteremo a investimenti cospicui nel corso del 2018, soprattutto in network più veloci e in funzioni di data discovery e indicizzazione. Si punterà inoltre sui tool e sulle piattaforme per migliorare la visibilità e le performance dei sistemi.
La regolamentazione GDPR si applicherà a qualunque sistema, dai nastri di backup alle attuali tecnologie cloud, fino ai supporti più datati, e magari dimenticati da tempo in qualche magazzino. Questo significa che la tecnologia da sola non basta. E’ fondamentale comprendere che la protezione dei dati in azienda riguarda tutte le funzioni, e che dovranno essere messi in atto cambiamenti culturali e di processo per soddisfare e mantenere l’aderenza al GDPR. È importante che vi sia una forte leadership del management, accompagnata dagli strumenti più adeguati a gestire il cambiamento. L’infrastruttura informatica è senz’altro di supporto, e dev’essere integrata in un approccio olistico, a partire dall’architettura dei dati fino ad arrivare al back office e al personale che si interfaccia con il cliente.

Controllo del cloud – vinceranno le architetture ibride
La domanda non è più se usare o meno le tecnologie cloud, ma come impiegare al meglio un deployment multi-cloud: molti manager optano ora per le architetture ibride che fondono i vantaggi di un costo certo con le performance dei sistemi on-premise e la potenza del cloud.
I requisiti sempre più stringenti del controllo dei dati tenderanno ad incrementare ulteriormente l’appeal dei modelli ibridi, secondo una logica che potrà solo accelerare, mentre le aziende tentano di trovare un compromesso tra le esigenze dell’Information Technology e i TCO delle piattaforme cloud pubbliche, piuttosto che di quelle on-premise.
Il cambio di paradigma dalla virtualizzazione alle soluzioni native del cloud e dei container è collegato a una maggiore attenzione, da qui ai prossimi anni, verso la perfetta comunicazione tra cloud pubblico e cloud privato e alla migrazione dei dati. Le tecnologie capaci di integrare potenza e sicurezza in architetture multi-tenant, nell’ottica di questa nuova mobilità del dato, conquisteranno la leadership di mercato e si imporranno all’attenzione. Spostare e allocare i dati sarà un requisito essenziale del cloud, visto che le aziende considerano la collocazione dei dati sia da una prospettiva di business che di tipo legislativo. Trasferire il patrimonio informativo a centri ubicati in ogni regione diventerà un’operazione sempre più comune, specialmente attraverso il collegamento tra sistemi storage ad alta capacità e sistemi di elaborazione in locale, per applicazioni mission-critical o di particolare importanza.

Estrarre valore dall’Intelligenza Artificiale e dal Machine Learning
Le problematiche legate all’archiviazione e alla delivery dei dati necessari per istruire i sistemi di Intelligenza Artificiale (AI) e Machine Learning (ML) sono state risolte da tecnologie avanzate come Pure FlashBlade e NVIDIA DGX-1. La sfida quindi per i CTO nel 2018 sarà quella di capire cosa è fattibile adesso, e cosa può produrre i maggiori benefici per il business.
Pure ha già incorporato con successo tecniche di Machine Learning sia nel proprio sviluppo software che nell’ecosistema di supporto e può confermare il valore di questo approccio per i team di sviluppo interno così come per i clienti. Che tratti di guida automatica, sviluppo software, tecnologie mediche o cyber-security, qualsiasi azienda è oggi in grado di addestrare i propri sistemi informatici ad apprendere e ad applicare eccezioni e regole.
Nel 2018 mi aspetto di vedere tecnologie ML applicate nei vari contesti industriali, per migliorare le mansioni e al contempo la qualità dei task. La robotica è uno tra i settori più interessanti per le applicazioni di Intelligenza Artificiale.
Dalle analisi di Forrester emerge che il 70% delle aziende prevede di implementare qualche forma di intelligenza artificiale nel corso del prossimo anno. Io credo tuttavia che i vantaggi legati all’utilizzo di ML emergeranno ancor più velocemente. L’automazione basata su questi sistemi ha già dimostrato il suo valore, ad esempio in termini di risparmio di tempo nella normale amministrazione dell’infrastruttura IT.
L’Internet of Things e il Machine Learning per l’analisi dei dati producono informazioni preziose che possono essere utilizzate per risolvere le criticità prima ancora che queste impattino il business. Abbiamo clienti che paragonano l’automazione abilitata dai nostri sistemi con la presenza di un ingegnere delle infrastrutture operativo 24/7. Ciò significa davvero liberare risorse per estrarre il massimo valore per l’azienda.

Il dialogo sullo storage dovrebbe diventare dialogo sui dati
Dal punto di vista sia tecnologico e di go to market il problema di garantire elevate performance e uno storage semplice, scalabile e robusto è già stato risolto. Il 2018 segnerà un punto di svolta e le tecnologie di automazione e orchestrazione astrarranno le operazioni in una chiamata ad API REST da Ansible, Chef, Puppet, Kubernetes, etc.
Attualmente gli sviluppatori hanno accesso ai file e agli oggetti storage di cui hanno bisogno, su una piattaforma scalabile con performance garantite e aggiornamenti continui della tecnologia sottostante. In questo modo non ci si deve più preoccupare della provenienza dei dati o delle modalità di delivery. Il data management viene enormemente semplificato, aprendo nuovi scenari ai data scientist e agli altri specialisti dell’IT, che possono ora concentrarsi sui dati stessi e sul miglioramento dei processi invece di occuparsi dell’infrastruttura.

La spesa IT nel 2018
Pure Storage si sta preparando a diventare un’azienda dal fatturato annuale di 1 miliardo di dollari. Ci sono molti segnali incoraggianti nel mercato che confermano opportunità significative in questo senso.
Lo studio di analisti IDC ha previsto che il 34% delle aziende europee aumenterà la spesa destinata allo storage on premise agevolando così la strada verso la compliance al GDPR. Ciò è anche in linea con la tendenza che osserviamo del cloud ibrido pubblico/on-premise a dominare la pianificazione IT.
Guardando a tutte le voci di spesa legate allo storage, spinte dal GDPR nell’ Europa occidentale, IDC prevede 2,4 miliardi di dollari di investimento nel 2017, 3,37 miliardi di dollari nel 2018, con livelli di circa 2,5 miliardi di dollari all’anno che saranno mantenuti fino al 2021. L’intero ecosistema dei dati dovrebbe quindi registrare un’accelerazione negli investimenti.
In diversi settori si inizierà ad estrarre valore dai dati in maniera consistente, utilizzando ML e AI, applicazioni che la nostra piattaforma FlashBlade è particolarmente adatta a supportare. La tecnologia DGX-1 di Nvidia si trova al cuore degli ambienti più sofisticati di analytics e deep learning. Grazie alla nostra solida partnership con Nvidia a livello globale e ai recenti accordi siglati con PNY Technologies, il distributore a livello europeo di Nvidia, contiamo di poter aiutare molti clienti a ridurre i loro cicli di analisi e i tempi necessari ad implementare progetti innovativi.

La nuova sede Rittal in Italia

Si è tenuta lunedì 11 dicembre la cerimonia ufficiale di posa della prima pietra per la costruzione della nuova sede Rittal in Italia. La struttura, che dovrebbe essere pronta per ospitare i dipendenti dell’azienda e della consociata Eplan già da fine 2018, si trova nel comune di Pioltello ed è stata ideata per rispondere al meglio alle esigenze presenti e future delle due società.



L’evento ha avuto una rilevante importanza simbolica per l’azienda ed ha rappresentato la pietra miliare di un percorso evolutivo di lunga durata e ricco di soddisfazioni. Per celebrare l’avvenimento, hanno preso parte alla cerimonia i vertici di Rittal e Eplan, una selezione di partner storici, rappresentanti di realtà associative e informative di settore, oltre a tutta la
giunta comunale di Pioltello e ai rappresentanti dell’impresa costruttrice.
L’investimento nella costruzione su misura di un immobile di proprietà è stato fortemente voluto dal vertice del gruppo Friedhelm Loh, di cui Rittal ed Eplan sono parte, ad ulteriore riprova del valore strategico del mercato italiano.
Anche l’area scelta per localizzare il nuovo edificio combina diversi tipi di considerazioni: innanzitutto una attenta valutazione delle peculiarità infrastrutturali e logistiche indispensabili per un’efficace impiego in ambito industriale, ma anche un’attenzione a minimizzare gli impatti del trasferimento su chi quotidianamente deve raggiungere il proprio posto di lavoro.
L’edificio è stato progettato secondo criteri NZEB (Nearly Zero Energy Building) per assicurare un ridotto consumo energetico e disporrà del controllo automatizzato dell’irraggiamento all’interno dell’edificio con sistema frangisole esterno. Avrà una superficie di 3700 m 2 distribuita su 4 piani e permetterà di ospitare fino a 140 addetti, prevedendo quindi la flessibilità necessaria ad accogliere futuri ampliamenti di organico. Sono inoltre previste delle aree per conferenze e formazione, uno show room e delle aree dedicate al relax dei dipendenti. Un impianto fotovoltaico da 23,4 kWp sopperirà alle esigenze energetiche delle aziende insediate nel building.

Backup rapido fondamentale per la sopravvivenza aziendale: 5 motivazioni

Un backup rapido e una pronta capacità di ripristino rivestono un’importanza critica per la sopravvivenza delle aziende. Infatti, rappresentano le caratteristiche di protezione dati più ricercate secondo il rapporto ESG del mese precedente.



Acronis è preparata a questo grazie alla sua soluzione di backup per le aziende, Acronis Backup 12.5, più rapida, più conveniente e più facile da utilizzare rispetto ai prodotti offerti dalla concorrenza. Un backup rapido e recovery di 15 secondi la rendono la soluzione perfetta per i moderni ambienti di business.

1. Più dati, meno tempo per proteggerli.

La quantità di dati nel mondo continua ad aumentare a un livello esponenziale. Si stima che ogni anno creiamo il doppio dei dati rispetto a quelli presenti nell’anno precedente, procedendo verso i 180 zetabyte, o 180 trillioni di gigabyte di nuovi dati nel 2025.

Mentre la maggior parte di questi dati sarà generata da macchine, grazie all’avvento dell’IoT, i dati prodotti dagli uomini cresceranno comunque a un livello costante. Per esempio, il Responsabile IT di Scuderia Toro Rosso Raffaele Boschetti, ha recentemente comunicato ad Acronis che la quantità di dati generata giornalmente presso lo stabilimento Toro Rosso è incrementata di circa il 50 percento, se raffrontata al volume prodotto 12 mesi fa. Si tratta di un’evoluzione simile alla maggior parte delle aziende moderne.

Nonostante questa esplosione di dati, le organizzazioni dispongono di quantità minori di tempo per poterli proteggere. Oltre al fatto che disporre di più dati richiede più tempo per un backup, gli amministratori di sistema ora si occupano di moltissime attività in seguito agli ambienti IT di carattere eterogeneo. Hanno a disposizione un intervallo di tempo limitato per completare tutte le attività, il che trasforma la velocità di backup un fattore critico in questo tipo di ambienti.

2. RPO ridotta.

Se la vostra azienda genera grandi quantità di dati ogni giorno, allora anche i backup incrementali o differenziali possono richiedere molto tempo. Maggiore è l’intervallo tra i backup, maggiore la finestra di recovery point objective (RPO), ossia la quantità di dati persa tra i backup.

Se le elevate spese generali eliminano l’esigenza di un backup continuo per la vostra organizzazione, un backup più rapido probabilmente rappresenta la soluzione migliore. Vi permette di eseguire più backup in un determinato lasso di tempo, diminuendo i livelli di RPO a una quota accettabile. Una maggiore frequenza di backup ridurrà la probabilità di perdite di dati in caso di problemi.

3. RTO ermetico.

Lo scopo per eccellenza di qualsiasi backup è la capacità di ripristinare i dati con rapidità e il minimo sforzo. Recovery Time Objective (RTO) è l’intervallo di tempo in cui è necessario recuperare i dati al fine di assicurare la continuità aziendale. L’RTO viene di norma definito calcolando quali siano i tempi di fermo che un’azienda può sostenere prima di iniziare a soffrire delle conseguenze negative causate dalla stessa perdita di dati. Se le interruzioni non sono contemplate, è necessario un backup rapido che includa più opzioni di recovery di dati, proprio come Acronis Backup 12.5 Advanced. È stato progettato per fornire agli utenti molteplici opzioni di recovery dei dati a prescindere dalla tipologia e dalle modalità di backup eseguite in origine. Include la recovery granulare, il ripristino bare-metal, Acronis Universal Restore, Acronis Instant Restore, Acronis vmFlashback, il ripristino host virtuale e la migrazione any-to-any. I dati protetti con Acronis Backup 12.5 possono essere ripristinati in meno di 15 secondi, in loco o sul cloud e persino su hardware diversi.

4. Utilizzo ridotto delle risorse di sistema.

Il software di backup viene di norma installato sul dispositivo da proteggere. I software moderni possono essere molto leggeri in termini di risorse di sistema, tuttavia la compressione la cifratura dei dati possono aumentare l’utilizzo di CPU e memoria, con il risultato di una potenziale riduzione delle performance. In modo simile, se i dati di backup vengono trasferiti in una location remota tramite la rete, questa operazione può avere conseguenze sulla capacità richiesta per eseguire operazioni di routine. Ecco perché i backup tradizionalmente vengono programmati negli orari non di picco, quando il sistema è libero da altre attività.

Se il software di backup influenza negativamente le prestazioni di calcolo, è tempo di passare oltre. Acronis Backup 12.5 Advanced non solo è molto leggero in termini di risorse di sistema e può essere eseguito in background nel corso dell’intera giornata senza interferire con le operazioni giornaliere, ma include le opzioni di elaborazione del backup off-host, il che consente agli utenti di spostare i task più esigenti dal punto di vista delle risorse (come la replica di dati, la pulizia e la convalida) a un host differente, liberando ancora maggiori risorse.

5. Tecnologia all’avanguardia.

Un backup rapido è il risultato di una tecnologia innovativa d avanzata. Proprio come ci si aspetta che un nuovo smartphone sia rapido e offra molte opzioni oltre alle semplici telefonate, gli innovativi software di backup di Acronis offrono molto di più rispetto al mero backup.

Le soluzioni di backup Acronis si basano su un’architettura cloud ibrida flessibile, che consente di controllare in maniera completa la gestione dei propri dati. Inoltre, può migliorare indirettamente la velocità di protezione dei dati nel complesso, dal momento che è possibile scegliere dove memorizzare e in che modo ripristinare i dati protetti.

Inoltre, include Acronis Active Protection, una tecnologia anti-ransomware all’avanguardia in grado di rilevare e arrestare gli attacchi ransomware, ripristinando istantaneamente qualsiasi dato interessato dall’attacco, oltre a disporre della certificazione dati basata su blockchain tramite Acronis Notary per consentire una verifica molto semplice.

Ora che l’importanza di disporre di un backup rapido è chiara, ecco le cinque domande da porre al proprio fornitore di protezione dei dati:

La soluzione di protezione dati è in grado di evolversi con l’azienda, proteggendo crescenti quantità di dati senza mettere a repentaglio le vostre risorse?
Sarete in grado di proteggere tutti i dati, tra cui tutti i workload in tutti gli ambienti, con un’unica soluzione di backup?
Il crescente carico di dati influenzerà il tempo di ripristino e sarà possibile recuperare i dati presenti su qualsiasi hardware o persino in un ambiente differente?
La soluzione offerta fornirà la flessibilità di poter selezionare dove memorizzare i dati protetti, in loco o sul cloud?
Sono state integrate soluzioni di difesa proattiva contro i ransoware all’interno dell’offerta per contribuire a proteggere i vostri dati dagli attacchi informatici?

Data center di 4ª generazione

Il data center di prossima generazione supererà ogni barriera, integrando facilmente le strutture core con un edge di rete mission-critical più intelligente. I data center di 4ª generazione (Gen 4) sono una realtà emergente e diventeranno il modello per le reti IT del 2020. L’avvento di questo tipo di data center dipendenti dall’edge fa parte delle cinque tendenze identificate per il 2018 da un gruppo globale di esperti di Vertiv.

Le previsioni di Vertiv per il 2017 avevano identificato trend legati a cloud, sistemi integrati, sicurezza dell’infrastruttura e altro ancora. Qui di seguito sono riportati i cinque trend che potranno avere un impatto sull’ecosistema del data center nel 2018:
1. Arrivo dei data center di 4ª generazione: Che si tratti di armadi IT tradizionali o di micro data center di 40 metri cubi, le organizzazioni fanno sempre più affidamento sull’edge. Il data center 4 Gen integra olisticamente e armoniosamente edge e core, elevandoli oltre le semplici reti distribuite.
Questo grazie ad architetture innovative che offrono capacità quasi in tempo reale in moduli scalabili ed economici che sfruttano soluzioni termiche ottimizzate, alimentazione elettrica ad alta densità, batterie agli ioni di litio e unità avanzate di distribuzione dell’energia. Il tutto è coadiuvato da tecnologie evolute di monitoraggio e gestione, che permettono a centinaia o persino a migliaia di nodi IT distribuiti di operare insieme per ridurre latenza e costi iniziali, aumentare i tassi di utilizzo, rimuovere la complessità e permettere alle organizzazioni di aggiungere capacità IT legata alla rete, quando e dove necessario.
2. I provider di cloud scelgono la colocation: L’adozione del cloud sta procedendo a passi talmente rapidi che in molti casi i cloud provider non riescono a far fronte alla richiesta di capacità. In realtà, molti non vorrebbero nemmeno provarci. Preferiscono concentrarsi sulla fornitura di servizi e altre priorità dei nuovi data center e si rivolgeranno ai provider di colocation per soddisfare le esigenze di maggiore capacità.
Essendo focalizzate su efficienza e scalabilità, le strutture di colocation possono soddisfare la domanda rapidamente e allo stesso tempo ridurre i costi. Il proliferare di strutture di colocation permette inoltre ai provider di cloud di scegliere i partner di colocation in luoghi che rispondano alle necessità degli utenti, dove possano operare come strutture edge. I fornitori di colocation stanno rispondendo, mettendo a disposizione parti dei propri data center o intere strutture su misura per i servizi cloud.
3. Riconfigurazione dei data center di classe media: Non è un mistero che le maggiori aree di crescita sul mercato dei data center si trovino nelle infrastrutture hyperscale – in genere provider di cloud o colocation – e sull’edge di rete. Con la crescita delle risorse di colocation e cloud, gli operatori di data center tradizionali ora hanno l’opportunità di rivalutare e riconfigurare le proprie strutture e risorse che rimangono cruciali per le operazioni locali.
Le organizzazioni con più data center continueranno a consolidare le proprie risorse IT interne, ad esempio trasferendo nel cloud o in colocation ciò che è possibile spostare, ridimensionando e sfruttando allo stesso tempo configurazioni dalla rapida implementazione che possono essere scalate velocemente. Queste nuove strutture saranno più piccole, ma più efficienti, sicure e con un’alta disponibilità, in linea con la natura mission-critical dei dati che le aziende cercano di proteggere.
Laddove l’adozione del cloud e della colocation procede più lentamente, si prevede che il prossimo passo sarà rappresentato da architetture di cloud ibrido, per aumentare la sicurezza delle risorse IT in un cloud privato o pubblico, con l’obiettivo di ridurre i costi e gestire i rischi.
4. Arriva (finalmente) l’alta densità: La community dei data center parla da un decennio di densità in forte crescita per la potenza dei rack, ma gli aumenti, nel migliore dei casi, sono stati incrementali. Le cose stanno cambiando. Densità inferiori a 10 kW per rack rimangono la norma, ma implementazioni a 15 kW, in strutture hyperscale non sono più così rare e alcune stanno avanzando verso i 25 kW.
Perché accade proprio ora? La responsabilità principale va all’introduzione e all’adozione diffusa di sistemi informatici iperconvergenti. I provider di colocation, ovviamente, danno priorità allo spazio nelle proprie strutture e l’alta densità dei rack può consentire maggiori guadagni. I progressi nel risparmio energetico nelle tecnologie di server e chip possono solo ritardare l’inevitabilità dell’alta densità posticipata a lungo. Vi sono tuttavia motivi per credere che uno spostamento in massa verso maggiori densità potrebbe assomigliare più a una lenta marcia che a un’accelerata. Densità notevolmente più alte possono cambiare in modo significativo la struttura di un data center – dall’alimentazione al raffreddamento di ambienti a densità più elevate. L’alta densità sta arrivando, ma probabilmente non prima della fine del 2018 e oltre.
5. Il mondo reagisce all’edge: Un numero crescente di aziende sta spostando i sistemi di computing sul proprio edge di rete; è quindi necessario procedere a una valutazione critica delle strutture che ospitano queste risorse edge, della loro sicurezza e della proprietà dei dati ospitati. Questa analisi include il progetto fisico e meccanico, la costruzione e la sicurezza delle strutture edge e complessi dettagli legati alla proprietà dei dati. I governi e gli enti regolatori di tutto il mondo non potranno evitare di considerare questi elementi e prendere eventuali provvedimenti.
Spostare i dati distribuiti nel mondo sul cloud o in una struttura core e recuperarli per l’analisi è un processo troppo lento e macchinoso, per cui sempre più cluster di dati e capacità analitiche risiederanno sull’edge – un edge che può trovarsi in città, stati o paesi diversi da quelli in cui ha sede un’azienda. Chi sono i proprietari dei dati e cosa possono fare con questo patrimonio di informazioni? Il dibattito è in corso e nel 2018 si avanzerà verso azioni e risposte più concrete.