Impressioni di un utente ignorante utilizzando Acronis True Image 2017

Penso che Acronis True Image 2017 sia nato come prodotto cloud adatto al backup e restore da parte di “un utente qualsiasi” e queste sono le mie impressioni.

Senza leggere documentazione l’ho lanciato ed installato.
Qualche mese fa avevo fatto la stessa cosa, con la stessa semplicità, ma avendo a disposizione un vecchio portatile ho poi preferito disinstallarlo perché avevo avuto la percezione che il mio computer non fosse in grado di supportare tutti i programmi che dovevo tenere attivi.
Con il nuovo portatile tutto è stato perfetto.
Ho selezionato la parte di disco di cui volevo fare backup, una decina di giga. Pur avendo a disposizione una linea ADSL in teoria a 20 Mega, non ho valutato la velocità reale di upload, il programma aveva stimato come tempo di backup una ventina di ore.
E’ un po’ inquietante vedere l’elevato numero di ore stimate anche se poi si può continuare a lavorare senza problemi, si può anche spegnere il computer senza perdere quanto salvato. Certo con la fibra sarebbe un’altra storia ma immagino se uno avesse un’adsl ancora meno veloce o una connessione mobile limitata.
Spero che successivamente vengano backuppati solo gli aggiornamenti (le differenze). Non ci si accorge della presenza del tool.

Ho provato anche a backuppare facebook ma è andato in errore. Ovviamente non ho letto la documentazione, probabilmente ho sbagliato a configurarlo, forse avrei dovuto configurare qualcosa in facebook ma quello che mi attendo da un simile tool è proprio di non dover sapere niente e se c’è un errore, che è normale, che mi si dica come comportarmi per agevolare la risoluzione. Vuoi vedere che avevo trovato un bug?
La segnalazione di errore è stata presa in consegna.
Per risolverla inizialmente mi sono state chieste informazioni che richiedevano competenza (conoscenza dell’ftp, lanciare tool, trovare cartelle, creare un log). Avendo fatto notare che difficilmente una persona non tecnica avrebbe potuto aiutarli mi hanno fatto installare TeamViewer ed hanno fatto tutto loro da remoto. Supporto rapido e efficace. Sicuramente non erano italiani ma hanno trovato il modo di supportare al meglio un cliente italiano.

In effetti era un bug. Hanno analizzato il problema e mi hanno sempre tenuto aggiornato via email.
you have some albums dated back to 2007. Such albums do not provide ‘update date’ via Facebook API.
We will use the parameter ‘creation date’ instead, the developers are currently preparing an update.

Ovvero, sono stato il primo loro utente del servizio con cartelle facebook precedenti al 2007 (più di 10 ani fa) ed in questo caso le API Facebook  non funzionano e di conseguenza il sw è andato in errore. Utilizzeranno una differente modalità per risolvere il problema e lo stanno. Lo hanno risolto.

Concludendo: Acronis True Image 2017 è semplice, valido ed utilizzabile da tutti.
Richiederebbe una connessione internet più veloce di quella che abitualmente in Italia hanno a disposizione gli utenti finali.
In caso di bug, il supporto iniziale era pensato per utenti con competenze tecniche, avendo fatto notare il possibile problema ed avendo dato massima disponibilità, con TeamViewer hanno raccolto velocemente le informazioni necessarie per l’analisi.
Il bug è stato risolto velocemente (non più di una ventina di giorni) e soprattutto tenendo sempre aggiornato il cliente sulle tappe e le tempistiche di risoluzione del problema.

Avendo trovato un bug ho contribuito al miglioramento del prodotto come anche da Acronis riconosciuto:
Your case really helped!
And with your help we will be able to perfect Acronis True Image so thank you very much for it!

N4820U: da Thecus conveniente NAS 4-bay in formato rack

Thecus ha presentato il nuovo conveniente NAS della serie N4820U, un modello a 4-bay in formato rack e ingombro 1U ideale per aziende di piccole e medie dimensioni in fase di crescita. Questo prodotto garantisce affidabilità ed elevate prestazioni per rispondere alle esigenze di storage dei carichi di lavoro che sono in continua evoluzione.
La serie N4820U si basa sulla CPU Server Quad Core Intel® Celeron N3450 da 1,1GHz portata a 2,2GHz, 4GB di RAM resiliente DDR3 incrementabile fino a 8GB. Questa famiglia di prodotti comprende due modelli: quello siglato N4820U -S è dotato di un singolo alimentatore standard, mentre la versione N4820U -R dispone di alimentatore ridondato.
La serie N4820U offre complete funzionalità per il backup e la protezione dei dati: thin provisioning, replica per il disaster recovery, tecnologia snapshot (solo Btrfs), Data Guard per il disaster recovery (per backup in tempo reale remoti o locali) così come backup su servizi cloud come DropBox, ElephantDrive e Amazon S3. Per una sicurezza dei dati senza compromessi, la nuova soluzione di Thecus viene offerta in abbinamento con Acronis True Image e McAfee Antivirus.
Dotata del più recente ThecusOS 7.0, la serie N4820U offre un ampio set di funzionalità e supporta una grande quantità di app di terze parti, così come la possibilità di scalare orizzontalmente (Scale Out). Grazie allo Scale Out, le aziende possono evitare costosi rifacimenti del data center aggiungendo in modo flessibile ulteriori dispositivi NAS per aumentare la capienza dello storage.

Soluzioni di data center modulari: l’accordo Rittal – Hewlett Packard

Rittal sta avviando una partnership con Hewlett Packard Enterprise (HPE) per offrire congiuntamente soluzioni di data center modulari per il mercato globale. Nell’ambito di una alleanza orientata all’impegno condiviso Rittal completa il suo portafoglio di soluzioni modulari e scalabili – dai Micro Data Center ai data center scalabili integrati in container – con i servizi tecnologici Pointnext di HPE per una offerta di portata globale.
Grazie alla nuova partnership i clienti possono disporre di soluzioni IT complete oltre all’accesso globale a servizi, prodotti e consulenze specialistiche per poter trarre i massimi benefici dalla combinazione di Internet of Things e l’Edge Computing.
Con la firma di questo accordo Rittal e HPE si focalizzano sui mercati che richiedono soluzioni ibride, cloud e di edge computing secondo il principio “plug and play”. Tra i vantaggi per il cliente vanno annoverate agilità, tecnologie affermate, provisioning rapido e snello, efficienza energetica e dei costi.

SANsymphony Software-Defined Storage e DataCore Hyper-converged Virtual SAN certificati VMware vSphere Metro Storage Cluster

DataCore ha annunciato che i suoi prodotti SANsymphony™ Software-Defined Storage e DataCore™ Hyper-converged Virtual SAN sono stati verificati come configurazioni compatibili con VMware vSphere Metro Storage Cluster. Una configurazione VMware vSphere Metro Storage Cluster (vMSC) è una soluzione certificata vSphere che unisce la replica con il clustering basato su batterie di storage. Queste configurazioni, definite comunemente come cluster di storage “allungati” o cluster di storage metropolitani, sono tipicamente adottate in ambienti dove evitare disaster recovery e downtime è requisito indispensabile.

La migliore strategia per garantire uptime senza interruzioni comincia con l’esecuzione del mirroring di copie identiche dei dati tra due luoghi diversi, idealmente a una certa distanza l’uno dall’altro. La semplice divisione in cluster dei server non è sufficiente a offrire adeguata protezione, in particolare se le batterie di storage condiviso su cui si basano sono vulnerabili in caso di problema che coinvolga l’intero sito. L’architettura vMSC permette ai sottosistemi di “allungare” lo storage e la rete fino a coprire due siti.

Una soluzione ancora migliore incorpora i cluster a elevata disponibilità di vSphere con i prodotti SANsymphony Software-Defined Storage o DataCore Hyper-converged Virtual SAN. SANsymphony è particolarmente adatto quando i server vSphere dipendono da una SAN esterna e i cluster vi accedono via iSCSI o Fibre Channel. Quando invece si sfrutta una configurazione iper-convergente mantenendo lo storage fisico all’interno dei server, DataCore Hyper-converged Virtual SAN è la soluzione ideale.

Preoccupazioni sull’adeguamento al regolamento di protezione dei dati (General Data Protection Regulation – GDPR)

Secondo un’indagine commissionata da NetApp, oltre il 70% dei CIO europei e dei manager IT sono preoccupati dal fatto che le loro aziende potrebbero non essere in grado di rispettare la scadenza imposta per aderire al regolamento generale sulla protezione dei dati (General Data Protection Regulation – GDPR).

Questo è uno dei risultati rilasciati oggi da NetApp e riguardanti l’indagine sull’adozione del cloud, la sicurezza e la conformità al GDPR in Europa. Lo studio ha individuato significative lacune nella comprensione e nel senso di urgenza relativi alla preparazione delle aziende al GDPR in vista della scadenza del 25 maggio 2018. Solo il 37% degli intervistati finora ha investito fondi extra per la conformità alla regolamentazione sui dati – un numero che dovrebbe essere molto più elevato per preparare le imprese ad un futuro governato dai dati e per evitare multe.

Altri risultati chiave dell’indagine, che ha coinvolto 750 CIO e manager IT provenienti da Francia, Germania e Regno Unito, mostrano:
La responsabilità sulla conformità dei dati non è sempre chiara
Manca una comprensione completa di ciò che è coinvolto nel GDPR
La preparazione del GDPR si muove lentamente

Le aziende sono alle prese con le responsabilità sulla conformità: il punto cruciale del termine fissato per l’entrata in vigore del GDPR è la conformità. Mentre chi origina i dati ne rimane il proprietario, a livello di GDPR è responsabile anche chiunque elabora tali dati. Tuttavia, il 51% degli intervistati afferma che la responsabilità sulla conformità rimane alla società che produce i dati, il 46% dice che fa capo all’azienda che elabora i dati e il 37% dei partecipanti all’indagine crede che la responsabilità sulla conformità dei dati sia dei cloud provider di terze parti. Tutte queste parti saranno individualmente responsabili dei dati che gestiscono e le risposte multiple degli intervistati indicano una comprensione elementare di questa “responsabilità condivisa” per i dati personali. Ma le cifre basse dimostrano anche un’aria di incertezza tra i CIO e i manager IT dell’area EMEA.

Le imprese sono sempre più consapevoli del GDPR, ma è necessaria una maggiore educazione: ad aggravare la confusione sulla conformità è la mancanza di comprensione completa di ciò che è coinvolto nel GDPR. C’è una comprensione più alta in Germania, ma solo il 17% degli intervistati tedeschi afferma di comprendere appieno la GDPR. La Francia è seconda con il 15%, seguita dal Regno Unito con il 12%. La maggioranza della base degli intervistati dice di avere una certa comprensione del GDPR (47%), ma a un solo anno dal termine del 2018, il 9% dice ancora che “non sa” cos’è il GDPR. Questa mancanza di comprensione è rispecchiata dal 73% della base degli intervistati che ammette di avere alcune preoccupazioni circa la scadenza incombente e la minaccia di pesanti multe alle aziende se non vengono rispettate le nuove regole.

La preparazione al GDPR procede lentamente: con il passare del tempo e solo un terzo (37%) degli intervistati in tutta Europa che afferma di investire fondi supplementari nella preparazione al GDPR entro il termine prefissato, è la Germania a prepararsi di più all’avvento del GDPR, con oltre un quarto degli intervistati (27%) che dice di avere già assunto personale specifico con esperienza sulla protezione dei dati; la Francia è seconda con il 20%, segue il Regno Unito con il 17%. Tuttavia, il 14% della base degli intervistati non ha ancora alcuna preparazione. Tale preparazione si rivelerà essenziale a causa della crescente importanza dei dati per le aziende. Come prevede IDC, ci sarà una crescita esponenziale dei dati, con 80 miliardi di dispositivi che si connetteranno a Internet entro il 2025.1

La conformità ha una bassa priorità: quando si parla di adozione del cloud, poco più di un quarto degli intervistati (29%) considera la conformità alla normativa come una motivazione fondamentale. Ciò suggerisce che le aziende non sono ancora concentrate sulla questione della conformità – anche quando si tratta di decisioni aziendali importanti come l’adozione del cloud.