Performance testing? Sì, ma fatto bene!

Riccardo Facciotti, Tech Sales Director South EMEA, INFINIDAT

In INFINIDAT spesso andiamo a trovare prospect che stanno pensando di sostituire gli storage array esistenti con soluzioni nuove per beneficiare di maggiore flessibilità, facilità d’uso e riduzione dei costi. Queste aziende vogliono essere sicure che le performance del nuovo storage siano pari o superiori a quello in essere al fine di supportare la crescita, velocizzare le applicazioni di business e soddisfare gli utenti. Per questo motivo le aziende testano, anche frequentemente, le soluzioni storage per diversi casi d’uso. Ma poiché il performance testing non è una pratica usuale per molti team IT, alcuni suggerimenti possono essere molto utili.
Riteniamo che il modo migliore per verificare le prestazioni sia quello di far girare applicazioni reali. A volte è possibile grazie a funzionalità dell’infrastruttura (virtualizzatori di SAN, hypervisor, volume manager, ambienti di test esistenti). Questo approccio consente di comprendere esattamente come lo storage si comporterebbe in situazioni reali che non possono essere simulate. Pensiamo ad esempio al fatto che le applicazioni single threaded non generano grandi quantità di IO, ma se le emuliamo con diversi thread otterremmo risultati molto migliori rispetto a quelli reali. Per questo genere di applicazioni, per ottenere il massimo da un sistema di multicontroller attive, è necessario aggiungere il parallelismo a livello di database o applicativo.
Purtroppo si tratta di un’opzione spesso non percorribile per via di approcci no-risk, l’incapacità di installare soluzioni onsite, policy di sicurezza, mancanza di tempo, ecc. Un’altra opzione è quella di utilizzare applicazioni reali con workload simulati. E’ una buona alternativa, soprattutto se l’applicazione è caratterizzata da schemi noti e specifici, tipicamente i batch job. Questi hanno tempi di svolgimento predefiniti ed è facile confrontarli in ambienti diversi. I limiti? E’ comunque necessario disporre degli apparati onsite o fornire al vendor dati reali, dedicare del tempo da parte degli specialisti e pensare a un metodo per simulare le interazioni utente o acquistare un software che lo faccia. Le aziende con notevoli budget IT, come le telco e le banche, possono farlo, ma per la maggior parte delle imprese è impossibile.
Quindi, oggi, il modo più semplice per verificare le performance dello storage è quello di fare test sintetici con tool quali Vdbench e iorate in ambiente controllato. Il problema principale è come questi risultati si possono confrontare con quanto si otterrà in realtà sul campo.
Per fare la correlazione è possibile, per esempio, raccogliere le metriche sulle performance dagli array esistenti e cercare di simularli su storage nuovo. E’ un metodo efficace, ma non tutte le metriche che contano possono essere inserite come per esempio i diversi livelli di storage, una distribuzione corretta dei workload, workload in base all’IO, e anche i cache hit. Una volta compreso ciò che accade in collaborazione con i professionisti INFINIDAT, è possibile scrivere dei profili da emulare in un test box. Di solito i picchi di workload vengono emulati ma non è sempre una buona idea. Spesso infatti si differenziano in modo sostanziale da workload usuali in termini di cache hit, read percentage, IO size ecc. E’ quindi consigliabile emulare due tipologie di workload – tipico e peak, separatamente.
Quindi, dopo aver fatto test sintetici e aver capito che non è possibile emulare al 100% correttamente, cosa si può fare per migliorare l’accuratezza? Si possono fare test su storage di vendor diversi e capire come si relazionano, o far girare gli stessi test sui vostri array e vedere come le performance si relazionano con qualcosa che conoscete, e questi dati sono più vicini alla realtà.
Per fare chiarezza, INFINIDAT ha condotto una serie di test estesi e dettagliati, confrontando i propri Infinibox con sistemi all-Flash, in un ambiente il più possibile reale. Gli esperimenti sono stati condotti su volumi di dati importanti, nell’ordine dei 200TB, perché ai workload attuali viene spesso richiesta un’ampia scala, oltre ad affidabilità e performance. Il risultato è stato molto chiaro, con i sistemi software-defined ibridi che hanno raggiunto prestazioni decisamente superiori rispetti agli AFA con cui sono stati comparati – per la cronaca, firmati da EMC e Pure Storage.
Se utilizzati come soluzione target per migliorare workload individuali, i supporti media possono offrire un valore notevole ai data center moderni, ma tale valore viene sprecato se non è accompagnato da innovazioni a livello di architettura di sistema. Ed è questo il caso degli attuali AFA, che semplicemente si limitano a posizionare media più veloci (flash) dietro ad architetture di front-end datate come mezzo per incrementare le prestazioni. Riconoscendo che qualunque soluzione storage media-reliant non riuscirebbe a soddisfare i requisiti di prestazioni real-time delle aziende moderne, è fondamentale poter contare su un’architettura storage software innovativa dotata dell’adattabilità e la flessibilità necessarie per ottimizzare le prestazioni di qualunque tipologia di workload – presente e futura.
In generale, possiamo concludere che è difficile emulare – vi potrebbero proporre di usare una dimensione di cache 10 volte quella attuale ma se il test sintetico viene effettuato con un cache hit set uguale a quello del box esistente, probabilmente non vedrete alcuna differenza nei risultati tra 16GB e 1TB. In questo senso, il suggerimento è uno solo: non fidarsi dei test condotti in laboratorio ma eseguire i propri o fare riferimento a quelli condotti da terze parti, ma in ambienti reali.

Impressioni di un utente ignorante utilizzando Acronis True Image 2017

Penso che Acronis True Image 2017 sia nato come prodotto cloud adatto al backup e restore da parte di “un utente qualsiasi” e queste sono le mie impressioni.

Senza leggere documentazione l’ho lanciato ed installato.
Qualche mese fa avevo fatto la stessa cosa, con la stessa semplicità, ma avendo a disposizione un vecchio portatile ho poi preferito disinstallarlo perché avevo avuto la percezione che il mio computer non fosse in grado di supportare tutti i programmi che dovevo tenere attivi.
Con il nuovo portatile tutto è stato perfetto.
Ho selezionato la parte di disco di cui volevo fare backup, una decina di giga. Pur avendo a disposizione una linea ADSL in teoria a 20 Mega, non ho valutato la velocità reale di upload, il programma aveva stimato come tempo di backup una ventina di ore.
E’ un po’ inquietante vedere l’elevato numero di ore stimate anche se poi si può continuare a lavorare senza problemi, si può anche spegnere il computer senza perdere quanto salvato. Certo con la fibra sarebbe un’altra storia ma immagino se uno avesse un’adsl ancora meno veloce o una connessione mobile limitata.
Spero che successivamente vengano backuppati solo gli aggiornamenti (le differenze). Non ci si accorge della presenza del tool.

Ho provato anche a backuppare facebook ma è andato in errore. Ovviamente non ho letto la documentazione, probabilmente ho sbagliato a configurarlo, forse avrei dovuto configurare qualcosa in facebook ma quello che mi attendo da un simile tool è proprio di non dover sapere niente e se c’è un errore, che è normale, che mi si dica come comportarmi per agevolare la risoluzione. Vuoi vedere che avevo trovato un bug?
La segnalazione di errore è stata presa in consegna.
Per risolverla inizialmente mi sono state chieste informazioni che richiedevano competenza (conoscenza dell’ftp, lanciare tool, trovare cartelle, creare un log). Avendo fatto notare che difficilmente una persona non tecnica avrebbe potuto aiutarli mi hanno fatto installare TeamViewer ed hanno fatto tutto loro da remoto. Supporto rapido e efficace. Sicuramente non erano italiani ma hanno trovato il modo di supportare al meglio un cliente italiano.

In effetti era un bug. Hanno analizzato il problema e mi hanno sempre tenuto aggiornato via email.
you have some albums dated back to 2007. Such albums do not provide ‘update date’ via Facebook API.
We will use the parameter ‘creation date’ instead, the developers are currently preparing an update.

Ovvero, sono stato il primo loro utente del servizio con cartelle facebook precedenti al 2007 (più di 10 ani fa) ed in questo caso le API Facebook  non funzionano e di conseguenza il sw è andato in errore. Utilizzeranno una differente modalità per risolvere il problema e lo stanno. Lo hanno risolto.

Concludendo: Acronis True Image 2017 è semplice, valido ed utilizzabile da tutti.
Richiederebbe una connessione internet più veloce di quella che abitualmente in Italia hanno a disposizione gli utenti finali.
In caso di bug, il supporto iniziale era pensato per utenti con competenze tecniche, avendo fatto notare il possibile problema ed avendo dato massima disponibilità, con TeamViewer hanno raccolto velocemente le informazioni necessarie per l’analisi.
Il bug è stato risolto velocemente (non più di una ventina di giorni) e soprattutto tenendo sempre aggiornato il cliente sulle tappe e le tempistiche di risoluzione del problema.

Avendo trovato un bug ho contribuito al miglioramento del prodotto come anche da Acronis riconosciuto:
Your case really helped!
And with your help we will be able to perfect Acronis True Image so thank you very much for it!

Il Data Center del futuro secondo STULZ, Riello UPS e Aruba

Riunite presso la prestigiosa sede Ducati di Borgo Panigale (BO), STULZ, Riello UPS e Aruba hanno dato vita ad un interessante confronto sull’efficienza energetica all’interno dei Data Center, tema sul quale le tre aziende hanno fortemente investito negli ultimi anni, creando importanti sinergie tra loro.

Dopo il discorso di benvenuto a cura dei direttori commerciali di STULZ Alessandro Polce e di Riello UPS Salvatore Moria, i progettisti e IT Manager ospiti dell’evento hanno assistito alla presentazione delle ultime soluzioni tecnologiche sviluppate dalle due aziende per migliorare l’efficienza energetica nei Data Center del futuro, come quello sviluppato da Aruba alle porte di Milano.

A conclusione delle presentazioni, gli ospiti hanno potuto visitare la produzione e il museo Ducati, casa motociclistica che accomuna le tre aziende, sponsor del team Ducati Superbike (Aruba e STULZ) e Ducati MotoGP (Riello UPS).

N4820U: da Thecus conveniente NAS 4-bay in formato rack

Thecus ha presentato il nuovo conveniente NAS della serie N4820U, un modello a 4-bay in formato rack e ingombro 1U ideale per aziende di piccole e medie dimensioni in fase di crescita. Questo prodotto garantisce affidabilità ed elevate prestazioni per rispondere alle esigenze di storage dei carichi di lavoro che sono in continua evoluzione.
La serie N4820U si basa sulla CPU Server Quad Core Intel® Celeron N3450 da 1,1GHz portata a 2,2GHz, 4GB di RAM resiliente DDR3 incrementabile fino a 8GB. Questa famiglia di prodotti comprende due modelli: quello siglato N4820U -S è dotato di un singolo alimentatore standard, mentre la versione N4820U -R dispone di alimentatore ridondato.
La serie N4820U offre complete funzionalità per il backup e la protezione dei dati: thin provisioning, replica per il disaster recovery, tecnologia snapshot (solo Btrfs), Data Guard per il disaster recovery (per backup in tempo reale remoti o locali) così come backup su servizi cloud come DropBox, ElephantDrive e Amazon S3. Per una sicurezza dei dati senza compromessi, la nuova soluzione di Thecus viene offerta in abbinamento con Acronis True Image e McAfee Antivirus.
Dotata del più recente ThecusOS 7.0, la serie N4820U offre un ampio set di funzionalità e supporta una grande quantità di app di terze parti, così come la possibilità di scalare orizzontalmente (Scale Out). Grazie allo Scale Out, le aziende possono evitare costosi rifacimenti del data center aggiungendo in modo flessibile ulteriori dispositivi NAS per aumentare la capienza dello storage.

QNAP e NAKIVO offrono una soluzione di backup completa per il backup di VM

QNAP ha collaborato con NAKIVO per offrire una soluzione di backup VM affidabile e a prestazioni elevate che si integra completamente con QNAP NAS. Questa soluzione contiene tutti gli elementi per il disaster recovery: hardware per eseguire il ripristino, dati di backup e software di backup. Gli utenti possono sfruttare appieno i vantaggi offerti dalla velocità di backup 1.9X dal momento che NAKIVO viene distribuito direttamente su un QNAP NAS, ad un prezzo minore rispetto alle altre applicazioni di backup dedicate.

NAKIVO Backup & Replication è una soluzione rapida, affidabile ed economica per il backup della VM che supporta le applicazioni di backup e replica della VM VMware®, Hyper-V® e AWS® EC2 senza l’uso di agenti. Offre funzioni avanzate che migliorano le prestazioni di backup, l’affidabilità e la velocità di recupero, inclusi la deduplica e la compressione dei dati per ridurre lo spazio di archiviazione, backup incrementali con CBT/RCT, trasferimento dei dati senza LAN, VM immediata e recupero dell’oggetto, copia del backup, verifica immediata del backup con istantanee delle VM recuperate e altro. Installando NAKIVO Backup & Replication v7 direttamente dal QTS App Center di QNAP, gli utenti che richiedono una protezione elevata della VM possono combinare l’archiviazione QNAP NAS potente, sicura e ricca di funzioni con il set di funzioni facili da gestire e complete di NAKIVO Backup & Replication.

NAKIVO, inoltre, supporta il backup di copie della VM da QNAP NAS per l’archiviazione onsite/offsite o su Amazon Cloud per una maggiore protezione. I processi di copia del backup hanno una propria politica di pianificazione e di registrazione del punto di recupero per offrire una soluzione efficiente per il Disaster Recovery.