Wenceslao Lada Vice President Worldwide Alliances di Commvault

Wenceslao Lada, Vice President Worldwide Alliances, CommvaultCommvault ha nominato Wenceslao Lada Vice President Worldwide Alliances.

Lada, grazie alla sua consolidata esperienza, entra in Commvault con la responsabilità di rafforzare le partnership esistenti e stringere nuove alleanze con cloud provider e aziende tecnologiche leader di settore. Inoltre, grazie alle sue competenze, Lada supporterà lo sviluppo di nuove opportunità di business e l’ampliamento del market share di Commvault e dei suoi partner globali.

Lada ha più di 20 anni di esperienza nello sviluppo e realizzazione di strategie di canale e OEM per aziende leader IT. Prima del suo ingresso in Commvault, è stato Vice President, Worldwide Global Customer Success Sales di Cisco e, in precedenza, Vice President and General Regional manager for Americas and EMEA di Hewlett-Packard.

Lada, che risponde a Taraniuk, sarà responsabile del nuovo team Worldwide Alliances, che unisce le divisioni attuali OEM e Alliances.

Un’unica piattaforma per il backup e recovery riducono il downtime del 55%

Vincenzo Costantino, Director, EMEA South Technical Services, Commvault
Vincenzo Costantino, Director, EMEA South Technical Services, Commvault

Secondo stime di Gartner il costo medio di un downtime parte da una base di 5.600 dollari al minuto. Nonostante questo, molte aziende non hanno ancora definito una strategia di “High Availability” (HA) o Alta Disponibilità.

Quali sono le principali cause di downtime?
I downtime non pianificati sono un rischio spesso aggravato da approcci multi-prodotto e multi-vendor che limitano l’agilità e la disponibilità all’interno dell’architettura di backup e recovery di un’azienda. Implementare un’unica piattaforma completa di gestione dei dati può contrastare il rischio di downtime causato proprio dall’uso di un numero eccessivo di prodotti.
Un’indagine di IDC realizzata nel 2018 ‘Quantifying the Business Value of Commvault Software: Worldwide Customer Survey Analysis’, indica che le aziende che utilizzano un’unica piattaforma per il backup e recovery hanno ridotto il downtime del 55%.
Una singola soluzione può inoltre incrementare la produttività IT e ridurre i costi annuali, garantendo operazioni di backup e recovery più affidabili e veloci. Queste capacità sono in grado di migliorare i risultati di business e di rispondendo alle diverse esigenze, allontanando il rischio di downtime non pianificati.

Come impostare una corretta strategia di High Availability?
Una strategia di HA dovrà tenere in considerazione l’esigenza crescente di protezione dei dati in ambienti IT multi-cloud e ibridi in rapida crescita che richiedono flessibilità e sicurezza per fornire agilità di business. Backup e protezione dei dati sono fondamentali per l’alta disponibilità, insieme alla flessibilità con funzionalità versatili come la deduplica in ambienti cloud e policy di licenza per infrastrutture virtuali.
I clienti aziendali hanno bisogno di flessibilità per garantire alta disponibilità e una riduzione dei rischi all’infrastruttura dati, con la necessità di adattabilità integrata e una vasta gamma di opzioni di cloud storage per soddisfare questi requisiti. Da aggiungere anche le normative di protezione dei dati (ad esempio GDPR) e di diritto all’oblio e funzionalità richieste per la protezione by design, la notifica di violazione entro 72 ore, principi di minimizzazione dei dati, trasferimento e portabilità delle informazioni.
I cyberattacchi stanno diventando una delle principali cause di downtime.

Come inserire la sicurezza informatica in una strategia di HA?
Quando un attacco cyber supera le difese di sicurezza, le tecnologie di rilevazione delle minacce che ogni azienda dovrebbe possedere indicheranno anomalie rispetto ai modelli di comportamento e operativi standard. Le aziende sono responsabili non solo dei propri dati, ma anche di quelli dei clienti e devono garantire processi appropriati di backup e di ripristino su richiesta. Per ottimizzare la sicurezza dei dati in una strategia di HA, le aziende dovrebbero considerare disaster recovery e business continuity, attività monitorate in modo completo che possono offrire anche crittografia dei dati archiviati e di quelli in transito.
Gli attacchi dei ransomware WannaCry, Petya e NotPetya hanno colpito più di 150 paesi nel 2017, le aziende possono adottare un approccio con singola piattaforma per realizzare il backup dei dati in modo semplice, automatico e sicuro, riducendo il rischio di perdita dei dati a seguito di violazioni e garantendo livelli elevati di disponibilità delle informazioni.

Qual è l’impatto del cloud sulla disponibilità delle applicazioni?
Quando si considera l’impatto del cloud sulla disponibilità, è necessario un approccio appropriato, soprattutto per quanto riguarda l’integrazione. L’unione di molteplici applicazioni e soluzioni di disaster recovery in silo spesso crea problemi e può ostacolare l’efficacia dell’intera infrastruttura di dati. Le aziende dovrebbero quindi scegliere una piattaforma che operi con differenti soluzioni cloud e agevoli e semplifichi la disponibilità dei dati nel cloud.
Soluzioni hyperscale e multi-cloud garantiscono benefici significativi nella capacità di adattare i sistemi alle condizioni in evoluzione e rendere i dati disponibili indipendentemente da variabili di tempo e luogo (anche virtuale).
La disponibilità può essere a rischio anche nel caso in cui un cloud service provider subisse interruzioni di attività o di connessione per un lungo periodo. La migrazione al cloud è un’opzione interessante per la sua relativa facilità e accessibilità, ma ci sono difficoltà potenziali da affrontare nel ripristino dei dati e nell’assicurarne la disponibilità.

I risultati della ricerca sottolineano che un terzo delle aziende non ha un sito di disaster recovery. Quali sono i rischi correlati all’High Availability?
Nonostante la consapevolezza dell’importanza dei dati aziendali, oltre il 60% delle imprese non ha implementato un piano di disaster recovery documentato in caso di eventi disastrosi, sia naturali che dolosi.
Tra le best practice da includere in un piano di disaster recovery: ripristino dei dati off-site in una location secondaria, collaborare con partner di fiducia o avere un tema dedicato al DR. È importante che le aziende aggiornino in modo costante il loro piano di DR e effettuino test regolari applicando differenti situazioni.
I piani di disaster recovery richiedono una forte collaborazione tra molte figure, che includono tutte le linee di business. Per una strategia di HA efficace, è fondamentale realizzare test e prove in modo continuo e adattare e far evolvere gli strumenti utilizzati.

Come gli snapshot consentono di migliorare il backup

Roy Child, product specialist di Commvault

I punti di vista su snapshot e backup sono diversi. Alcuni sostengono che gli snapshot non possano avere da soli il ruolo del backup, e abbiano bisogno di integrarsi con il backup per assicurare il ripristino. Molte aziende hanno capito di aver bisogno di snapshot per risolvere le sfide di backup e ripristino dei dati critici, ma senza dotarsi di uno strumento di integrazione degli snapshot all’interno del ciclo di vita dei dati, si finisce per creare nuovi problemi invece di risolverli. In realtà, gli snapshot possono davvero migliorare il backup.

Riservare i server di produzione alla produzione effettiva
Gli snapshot apportano numerosi benefici. Sono in grado di eliminare i carichi di backup dai sistemi di produzione. Si effettuano in pochi secondi, in modo che le applicazioni di produzione principali non debbano sopportare per ore carichi di lavoro significativi. Carichi che possono essere trasferiti su un server proxy separato, che esegue il backup per conto della produzione. È possibile consolidare i backup di più server di produzione attraverso lo stesso proxy per incrementare l’efficienza.

Anche l’offload del backup crea nuove sfide  
È più semplice dirlo che farlo. Utilizzare strumenti separati per snapshot e backup conduce a una possibile disconnessione nell’ambiente di backup che porta con sé gravi implicazioni per la gestione e il ripristino. Se i backup avvengono sul server proxy, lo strumento di backup è a conoscenza solo di quello che succede sul proxy. Il server proxy, e quindi il tool di backup, non sono al corrente di quanto fanno i server di produzione, che conservano file importanti, e nemmeno di database o applicazioni che potrebbero esservi in esecuzione.
Perché questo è importante? Bisogna tenere in considerazione queste differenze. L’ambiente di produzione cambia e cresce, ed è quindi necessario mantenere aggiornati snapshot e backup. Quando si devono ripristinare i dati, si presentano alcune sfide aggiuntive. In primo luogo, bisogna sapere esattamente quali file recuperare per ogni database. È necessaria inoltre la presenza di un amministratore di database che lo ripristini e lo riporti in un determinato punto nel tempo, perché non è possibile utilizzare la funzionalità acquistata nel tool di backup.
Inoltre, per essere certi di effettuare il restore dei file corretti nella posizione giusta, serve conoscere esattamente l’origine di provenienza dei dati, tenendo in considerazione che il tool di backup non ha informazioni sulla produzione. Il monitoraggio diventerà quindi fondamentale all’interno della strategia di ripristino.
È un processo molto rapido. Ogni database, disco, VM, file system, server, sistemi storage e proxy che viene aggiunto allo snap rende la lista più lunga e la ricerca più difficile. Inoltre, è importante ricordare che bisogna aggiornare il monitoraggio dei dati ogni volta che l’ambiente cambia. In caso di ripristino su larga scala, sbloccare tutte le relazioni per realizzare il ripristino potrebbe aggiungere ore al tempo di inattività generale.
Un altro elemento che spesso si considera solo all’ultimo momento è la visibilità, specialmente quando si parla di soluzioni scripted. Lo strumento di backup fornisce report e alert per avvisare quando la situazione non sta funzionando in modo adeguato, ma è altrettanto importante che avvisi quando tutto funziona correttamente. La soluzione di gestione degli snapshot deve fare lo stesso.
Si tratta di problematiche dovute al mancato collegamento tra gli strumenti, indipendentemente dalla buona qualità di snapshot e backup. E sono problematiche che vanno affrontate.

Uno strumento unico per gestire snapshot e backup
Quando lo strumento di backup gestisce anche gli snapshot, tutta questa complessità svanisce. Il tool registra tutte le informazioni proxy, gestisce gli elementi di integrazione – OS, hypervisor, database – per assicurare il ripristino e consentire di recuperare un database sotto forma di database, anche in uno specifico momento nel tempo, senza necessità di un amministratore di database. È possibile standardizzare un processo di recovery per snapshot e backup e ottenere la visibilità operativa necessaria senza duplicare report o dover apprendere nuove capacità.
È importante notare che anche se il tool di backup gestisce gli snapshot, potrebbe comunque avere problemi nel backup se la soluzione non supporta tutte le applicazioni o lo storage. Bisognerà utilizzare script e processi manuali per risolvere ogni gap, con tutti i problemi descritti in precedenza.

Lo scripting non è la risposta
Si tratta di una situazione che ho vissuto in prima persona. Quando lavoravo come ingegnere IT, avevamo un’applicazione che doveva effettuare backup coordinati e coerenti su una coppia di server. I dati erano troppi e troppo complessi per poter eseguire i backup in produzione e restare nei tempi previsti. Avremmo avuto bisogno di snapshot, ma a quei tempi non esistevano soluzioni di gestione degli snapshot per il nostro storage. Ho dovuto fare lo script.
La soluzione scripted lavorava molto come ho descritto. Il backup degli snapshot avveniva attraverso un server proxy, senza consapevolezza dei database SQL o dei server di origine. Il ripristino è sempre stato un grosso problema, perché oltre a controllare le relazioni per essere certi che stessero recuperando i dati, l’amministratore doveva ripristinare il database e i file su entrambi i server nello stesso momento nel tempo.
Abbiamo dovuto lavorare con questo processo per molti anni, ed è stato complicato. Dovevamo aggiornare spesso i file di configurazione quando il team applicativo aggiungeva dischi e in più occasioni qualcuno dimenticava un aggiornamento e interrompeva il backup. Senza considerare migrazioni di server e storage che richiedevano modifiche di configurazione ancora più grandi e fasi di test impegnative. Cambiando soluzioni di backup, abbiamo dovuto rielaborare completamente il processo.
A causa della complessità, abbiamo sempre utilizzato la soluzione solo su due di queste coppie di server, e anche se l’ambiente era contenuto nelle dimensioni, il tempo necessario per la manutenzione e la risoluzione dei problemi del processo era tanto. Onestamente, non ce ne saremmo nemmeno preoccupati se non avessimo potuto trovare le finestre di backup in altro modo.
Se avessi potuto realizzare questo processo con una soluzione performante, non avrei dovuto scrivere script, né gestire file di configurazione, né avere conoscenza SQL e componenti da monitorare. La reportistica e gli alert avrebbero incluso backup e snapshot. Il ripristino sarebbe stato semplice e le migrazioni storage sarebbe state virtualmente un non-evento.
In breve, gli snapshot sarebbero stati così integrati con il backup da non accorgersi neanche della loro presenza, oltre a non appesantire ulteriormente l’ambiente di produzione. E questo livello di integrazione rappresenta il modo in cui gli snapshot migliorano il backup. In questa era di singole soluzioni “abbastanza efficaci”, è facile trascurare i costi nascosti e le sfide che da essi derivano, fino al momento in cui non ci si trova ad affrontarli, di solito nella peggiore occasione possibile.

Scott Strubel vice president of worldwide channels di Commvault

Commvault ha nominato Scott Strubel vice president of worldwide channels, con la responsabilità di guidare l’ecosistema globale di reseller e distributori dell’azienda. In questo ruolo, Strubel sarà impegnato nella creazione di programmi innovativi che aiutino i partner di canale a differenziare l’offerta di soluzioni Commvault sul mercato e a garantire valore ai loro clienti, supportando allo stesso tempo la crescita dell’azienda.



Grazie alla sua esperienza nella guida delle vendite e delle relazioni con i partner in aziende del mondo IT, Strubel è la persona più preparata per assumere questo ruolo. Di recente, è stato vice president of the Americas Partner Organization di NetApp, con la responsabilità delle vendite sul canale indiretto, delle attività con i partner e delle operazioni di inside sales e demand generation dell’organizzazione Americas Virtual Sales. In precedenza, ha creato e gestito il field operativo per il software di gestione enterprise di NetApp. Strubel ha ricoperto anche ruoli dirigenziali nelle vendite e nel canale in HP, partecipando al lancio di HP Software.
La nomina di Strubel segue gli ultimi recenti ingressi di Owen Taraniuk in qualità di Head of Worldwide Partnerships and Market Development e di Andy Vandeveld come Vice President Worldwide Alliances, parallele alle nuove e consolidate partnership con alcune aziende leader nel mondo cloud e tecnologico quali AWS, Microsoft, Hitachi, Ltd, HPE e Infinidat.

Commvault entra in Hewlett Packard Enterprise Complete

Commvault è entrata a far parte di Hewlett Packard Enterprise (HPE) Complete, punto unico di commercializzazione di soluzioni infrastrutturali end-to-end certificate di HPE e di terze parti. Attraverso questo programma di rivendita, HPE e i suoi partner globali potranno ora vendere l’ampia gamma di soluzioni Commvault per la data protection, come la Commvault Data Platform, in modo completamente integrato con i prodotti HPE Storage.



Commvault entra in HPE Complete nel momento in cui le aziende si affidano sempre più a soluzioni di backup e data protection semplici, complete e potenti, per ridurre la complessità nei loro ambienti IT. Sulla spinta del continuo aumento della quantità e varietà dei dati, le aziende devono immagazzinare, gestire e analizzare questo vero e proprio tesoro di cui dispongono, riducendo nel contempo i rischi associati ad attacchi ransomware sempre più diffusi e sofisticati, e ad altre minacce ancora. Grazie a questa estensione della collaborazione, realtà che operano nei mercati più vari, compreso quello pubblico e della sanità, possono acquistare con semplicità su HPE Complete soluzioni software Commvault ottimizzate per HPE Storage, tra cui HPE StoreOnce, HPE 3PAR, HPE Nimble Storage, HPE Apollo e HPE ProLiant, ovunque nel mondo, tramite la rete commerciale diretta o indiretta di HPE. A seguito di ciò, i clienti HPE possono semplificare protezione, gestione e attivazione dei loro dati, indipendentemente dal fatto che si trovino on-premise o nel cloud, il tutto accelerando il loro processo di digital transformation.
Le soluzioni software Commvault HPE Complete offrono alle aziende un modo veloce, a costi e rischi contenuti, per proteggere le potenti funzionalità di data protection, backup e disaster recovery di cui hanno bisogno per ottimizzare le loro operazioni IT e trasformare i dati in uno strumento di business:
• Ottimizzando le attività di backup, archiviazione, recovery, ricerca ed e-discovery su database, applicazioni ed endpoint.
• Implementando strategie estese di data protection e compliance normativa, che consentono alle aziende di trovare, amministrare, governare e ripristinare velocemente i dati all’interno dell’intera organizzazione, da un portale centrale.
• Consentendo strategie hybrid cloud grazie alla possibilità di trasferire, gestire e attivare dati tra infrastrutture on-premise e nel cloud.
Grazie all’estensione della partnership con HPE annunciata, Commvault è in grado di offrire una soluzione di data protection pre-validata, che risponde alle necessità sia di storage primario che secondario, grazie alla Commvault Data Platform e alla tecnologia Commvault HyperScale™.
L’ingresso in HPE Complete sottolinea anche il momento particolarmente positivo che Commvault sta vivendo nel mercato healthcare, consentendo a Commvault di offrire in modo più semplice e immediate ai clienti HPE soluzioni pre-validate e completamente integrate per la gestione e la protezione di dati sanitari su prodotti storage HPE, come descritto nel dettaglio da un comunicato stampa dedicato. Inoltre, il nuovo accordo di commercializzazione conferma altre recenti iniziative comuni tra Commvault e HPE, compresa la scelta da parte di HPE della Commvault Data Platform come base della nuova soluzione HPE GreenLake Backup.