Backup and Recovery AWS-Native da Veeam

Veeam® Software annuncia il NUOVO Veeam Backup for Amazon Web Services (AWS), conveniente e sicuro, con protezione Amazon Elastic Compute Cloud (Amazon EC2), sarà disponibile esclusivamente attraverso il marketplace di AWS. Veeam Backup for AWS, una soluzione di riferimento per il backup da AWS ad AWS con potenti funzionalità di ripristino di Veeam, disponibile sia in versione gratuita che a pagamento in AWS Marketplace. Il prodotto è integrato con la soluzione principale di Veeam, Veeam Backup & Replication™, che consente agli utenti Veeam di gestire tutti i propri dati, siano essi cloud, virtuali o fisici, all’interno della stessa piattaforma. Come parte della sponsorizzazione Diamond dell’evento, Veeam presenterà la nuova soluzione per la prima volta all’AWS re:Invent 2019 che si terrà a Las Vegas, mostrando quanto sia facile da gestire, potente e conveniente la soluzione per il backup e rispristino per i workload AWS.
La perdita di dati si può verificare sia che questi siano archiviati on-premises o nel cloud. Un recente sondaggio tra i clienti Veeam ha rilevato che il 53% dei clienti cita l’errore dell’utente o la cancellazione accidentale come causa principale della perdita di dati. In ultima analisi, è responsabilità del cliente assicurarsi che i suoi dati siano protetti.
Pensato specificatamente per AWS, il nuovo Veeam Backup for AWS offre la stessa semplicità, flessibilità e affidabilità che ha portato Veeam ad essere riconosciuto sul mercato. Veeam si è recentemente posizionata come Leader nel 2019 Magic Quadrant for Data Center Backup and Recovery Solutions. Inoltre, la posizione di Leader è stata conferita anche nel Forrester Wave. Questa nuova soluzione rende ancora più semplice per i client e i fornitori di servizi cloud proteggere, gestire e ripristinare nativamente i workload AWS. Veeam offre la flessibilità di archiviare i dati nello stesso cloud (cross-region o cross-account), on-premises, o in altri ambienti supportati da Veeam – VMware V-Sphere, Microsoft Hyper-V o Nutanix AHV.
“La protezione dei dati non è fondamentale solo per la business continuity, ma anche per mantenere il vantaggio competitivo, il rispetto delle normative e la reputazione del marchio. Mentre il cloud promette notevoli vantaggi aziendali, i responsabili IT devono comunque intervenire direttamente per proteggere i dati critici e consentire la business continuity in caso di interruzione, calamità o attacco informatico,” dichiara Ratmir Timashev, Co-Founder and Executive Vice President of Sales & Marketing di Veeam. “L’ultima soluzione cloud-native di Veeam, Veeam Backup for AWS, disponibile in AWS Marketplace e ora integrata in Veeam Backup & Replication, non solo rafforza il nostro impegno nell’essere leader nel Cloud Data Management, ma estende la protezione dei dati basata su Veeam ai clienti AWS, rendendo facile per i clienti acquistare e autorizzare la soluzione utilizzando le stesse API e lo stesso modello di abbonamento utilizzato per altri software.”
La protezione dei dati non è fondamentale solo per la business continuity, ma anche per mantenere il vantaggio competitivo, il rispetto delle normative e la reputazione del marchio. Mentre il cloud promette notevoli vantaggi aziendali, i responsabili IT devono comunque intervenire direttamente per proteggere i dati critici e consentire la business continuity in caso di interruzione, calamità o attacco informatico.
La facilità d’uso è una delle caratteristiche di Veeam Backup for AWS offerto chiavi in mano tramite AWS Marketplace, mentre le potenti funzionalità di ripristino includono funzioni come il ripristino a livello di file per le snapshot native e i backup Veeam. Il primo strumento sul mercato e integrato all’interno della soluzione, Cloud Backup Cost Estimator è stato progettato per fornire ai clienti maggiori controlli e risparmi sui costi simulando le spese di gestione per evitare costi eccessivi prima di avviare i backup.
Per i clienti Veeam, l’integrazione con Veeam Backup & Replication™ permetterà avere il controllo sui propri dati in cloud proteggendo e gestendo i backup AWS insieme ad altri dati virtuali, fisici e in cloud. Altri benefici sono:
· Backup Nativo per AWS e ripristino potente – La stessa soluzione affidabile per il backup on-premises ora protegge i workload AWS. Pensato per i carichi di lavoro originati nel cloud con supporto per le snapshot native e i backup Veeam. Ottimizzazione dei costi per la conservazione a lungo termine dei dati in Amazon Simple Storage Service (Amazon S3).
· Mobilità Ibrida– Flessibile senza cloud lock-in, ripristina o migra qualsiasi carico di lavoro on-premises direttamente ad AWS e ripristina file o dati da AWS a qualsiasi altro ambiente supportato da Veeam (es. VMware V-Sphere, Microsoft Hyper-V, Nutanix AHV).
· Costi di gestione contenuti – Aiuta i clienti a gestire, eseguire il backup e recuperare tutti i carichi di lavoro da un’unica interfaccia. · Portabilità licenze Cloud-ready – Spostare i carichi di lavoro in ambienti cloud con una licenza Veeam Universal (VUL) che segue in modo flessibile il carico di lavoro.

Hard disk della serie P300 Desktop PC da 3,5 pollici ora anche 4TB e 6TB

Toshiba Electronics Europe GmbH annuncia l’ampliamento della serie P300 Desktop PC Hard Drive da 3,5″ pollici con due nuovi modelli da 4TB e 6TB. In questi nuovi drive è stato raddoppiato il buffer, portandolo da 64MB a 128MB, inoltre sono più silenziosi e richiedono meno energia rispetto ad altri modelli della serie.
Grazie al Dual-Stage Actuator, le testine di lettura/scrittura delle unità sono protette in modo ottimale quando I dischi sono trasportati da soli o integrati in un PC. Questi hard disk sono inoltre dotati di un sensore d’urto interno che protegge i dati durante il funzionamento, rendendoli ideali per graphic designer e creativi che lavorano in movimento.
Ulteriori migliorie, come l’implementazione di tecniche innovative per ridurre al minimo il movimento della testina, permettono di aumentare le prestazioni dei drive nelle sequenze di accesso in lettura/scrittura. Questa ottimizzazione riduce al minimo il carico di lavoro meccanico, migliorando le prestazioni complessive così da soddisfare le esigenze delle desktop workstation e dei gamer.
P300 da 4TB è già disponibile sul mercato mentre la configurazione da 6TB sarà invece disponibile nel primo trimestre del 2020.

Reinventare i data center su scala petabyte per generare un vantaggio competitivo

Negli ultimi 10 anni, la crescita esponenziale dei dati ha offerto ad aziende e fornitori di servizi cloud nuove opportunità e sfide, che richiedono un approccio innovativo nella costruzione e nella scalabilità delle infrastrutture storage.
Gli esperti di tecnologia si sono resi conto che gli storage array enterprise tradizionali, basati sull’hardware, non sono più adatti per affrontare la digital transformation, sono difficili da gestire e rappresentano un costo troppo elevato. Le roadmap dei vendor, infatti, parlano spesso in termini di terabyte, mentre le esigenze delle aziende, dopo l’avvento dei social media e a causa dei contenuti generati dagli utenti, sono in petabyte.
Elastic Data Fabric è la visione di Infinidat sul futuro dello storage enterprise, visto come l’evoluzione dei dispositivi hardware tradizionali in data center scalabili ed elastici, ad alte prestazioni, ed estremamente affidabili. Un cambiamento verso uno storage sia in cloud che “on-premise” di tipo software-defined, che assicuri una perfetta mobilità dei dati nell’ambito del data center e del cloud pubblico.
Per le aziende questa trasformazione porterebbe significativi vantaggi sia in termini di costi sia di tempo, diminuendo i rischi e l’impatto sulle prestazioni. Si tratta di un enorme potenziale competitivo, per offrire ai clienti soluzioni innovative che consentano di passare rapidamente dal primo petabyte a numerosi exabyte di capacità, garantendo la massima flessibilità e affidabilità.
Elastic Data Fabric si concretizza in una suite integrata di prodotti e funzioni, che coprono l’intero ciclo di vita dei dati:
InfiniBox® è l’elemento cardine di Elastic Data Fabric. È uno storage Mission Critical Software-Defined di tipo unified (SAN e NAS) che permette di consolidare in poco tempo tutte le diverse tipologie di workload, anche quelli più critici in termini di performance. Offre Snapshot illimitate a zero impatto, replica asincrona, sincrona e active/active. Inoltre, grazie all’innovativa Neural Cache, basata su algoritmi di Intelligenza Artificiale e Machine Learning, è in grado di fornire prestazioni migliori rispetto ai tradizionali sistemi All-Flash hardware based con una elevata scalabilità e affidabilita’ a costi davvero contenuti.
InfiniVerse® è il sistema di monitoraggio e controllo cloud-based, che permette di gestire fino a 100 sistemi InfiniBox® per data center come se fosse un unico storage cloud scale-out gestito da un unico software. InfiniVerse® è alla base anche di Availability Zone (AZ). Le funzionalità AZ consentono una mobilità fluida e trasparente dei dati nell’ambito di un data center e rendono i cicli di vita dell’hardware degli storage trasparenti per gli utenti.
InfiniGuard® è la soluzione di DataProtection di Infinidat per la massimizza protezione, offrendo velocità e affidabilità uniche sia nel backup dati che nel restore degli stessi, per business continuity e disaster recovery ad alte prestazioni.
Neutrix Cloud® è il servizio storage Infinidat che estende l’Elastic Data Fabric al di fuori dei data center on-premise e direttamente sul cloud pubblico. Neutrix Cloud® consente di mantenere un migliore controllo dei propri dati riducendo il rischio di lock-in nel cloud pubblico e riducendo le spese. Neutrix Cloud® è un cloud di storage pubblico CSP-neutral che rende semplice consolidare lo storage cloud fornendo prestazioni elevate e un accesso dati a bassa latenza simultaneamente da Google Cloud, AWS e Azure. Neutrix Cloud® elimina la necessità di archiviare gli stessi dati in diversi cloud pubblici come parte di una strategia multi-cloud.
FLX® è la soluzione storage-as-a-service on-premise di Infinidat con un modello di business OpEx. È disponibile con InfiniBox® per lo storage primario e con InfiniGuard® per backup e recovery. I deployment FLX comprendono un SLA garantito al 100%.

Archiviazione dei dati provenienti da sistemi di videosorveglianza

La videosorveglianza sta diventando sempre più smart ed efficace soprattutto come mezzo per combattere la criminalità, scoprire le cause degli incidenti e quindi prevenirli, e ancora, come prezioso aiuto nella risoluzione di gialli o fatti di cronaca. L’aumento e la diffusione delle telecamere ha portato ad una crescita della quantità di dati generati che devono essere inviati a dispositivi di archiviazione. Di conseguenza è importante pensare a soluzioni e supporti dedicati, sempre più performanti anche in base ad uno dei loro requisiti chiave: l’operatività 24/7. Proprio per questo i Surveillance Digital Video Recorder (sDVR) e i Surveillance Network Video Recorder (sNVR) devono essere costruiti per supportare l’enorme quantità di dati provenienti da fonti multiple e spesso a larghezze di banda elevate. Quando si tratta di archiviazione a lungo termine su server, i dati devono essere conservati per anni senza perdere fotogrammi e rimanere facilmente accessibili ai sistemi di gestione video, al fine di consentire un rapido accesso alle immagini per l’analisi. Il mantenimento e la gestione di queste soluzioni di archiviazione, che riguarda un’enorme mole di dati, destinate ad aumentare, richiede soluzioni molto specifiche e realizzate appositamente per le esigenze di sorveglianza. Ma quali sono queste esigenze e come funzionano le unità per la videosorveglianza?

La garanzia, di un disco, assicura il funzionamento per un certo numero di anni prima che l’unità debba essere sostituita per assicurare la sicurezza. Tuttavia, quest’ultima, offre solo un’indicazione sugli anni di vita sicura e affidabile dell’unità, in base ad una serie di fattori esterni da considerarsi all’interno di un certo range. Per questo motivo è importante comprendere questi fattori e controllarli per ottenere la misura più accurata dell’affidabilità in modo da garantirne una sicurezza a lungo termine.

Uno dei principali fattori in grado di compromettere la durata di un’unità è la temperatura di funzionamento. Al centro di un drive è posizionato un cuscinetto fluidodinamico responsabile della corretta rotazione dei piatti che memorizzano i dati. Dato che questo cuscinetto utilizza l’olio come fluido lubrificante, qualsiasi aumento prolungato della temperatura può causare una riduzione del fluido e, in ultima analisi, una perdita che a lungo termine aumenterebbe le possibilità di guasto del drive.

La temperatura di funzionamento è una delle caratteristiche che deve essere migliore nelle unità di sorveglianza rispetto alle unità Enterprise. I drive per la sorveglianza devono operare in un intervallo di temperatura compreso tra gli 0 e i 70 gradi Celsius, mentre un’unità Enterprise può operare ad una temperatura compresa tra i 5 e i 55 gradi Celsius. Se si decide di utlizzare dischi Enterprise è necessario spendere di più per il raffreddamento dell’ambiente in cui vengono posizionati. Anche se dotati di una garanzia o di un rated workload più interessante, la loro adozione potrebbe richiedere controlli ambientali aggiuntivi, soprattutto quando vengono utilizzati in contesti di videosorveglianza dove si produce più calore, facendo quindi risultare il tutto più costoso.

Il rated workload è un altro fattore da tenere in considerazione. Questo si riferisce all’usura che un’unità subisce inevitabilmente a causa del movimento. Il carico di lavoro che il drive ha, in termini di lettura e scrittura dei dati, influisce sulla sua usura e di conseguenza sul rated workload. Per le unità di sorveglianza il valore medio è fino a 180 TB/anno e anche se basso rispetto alle unità Enterprise (550 TB/anno), è notevolmente superiore ai 55 TB/anno definiti per le unità ad uso client.

L’archiviazione per i sistemi di sorveglianza è un sistema tipicamente 24/7 che richiede un lavoro costante da parte delle unità che memorizzano i dati video. Il valore che indica il numero di ore per le quali è stato concepito un drive è chiamato “operating duty”. Mentre un PC desktop o laptop ad uso domestico potrebbe essere dotato di HDD costruiti per ore di utilizzo quotidiano, la videosorveglianza “always-on” è molto più impegnativa, questo perché le unità per la videosorveglianza non vengono mai spente e devono funzionare in modo molto diverso dalle unità client.

Naturalmente, anche la migliore unità raggiungerà comunque il momento in cui si verificherà un guasto, ma prendendo grazie al Mean Time To Failure (MTTF) potrà essere previsto in maniera più precisa. Con questo valore statistico si fa riferimento al tempo medio di attesa fra i guasti. 1 MTTF sta per 1 milione di ore di funzionamento, il che si traduce in 114 anni. È però importante capire che non si fa riferimeno ad una singola unità, ma ad una “popolazione statistica” di HDD più ampia. Quindi, in un gruppo di un milione di unità, è possibile che una di esse fallisca ogni ora. Quindi per un cluster di 500 unità è previsto un errore ogni 2.000 ore o a circa 83 giorni.

In questo modo è possibile calcolare il tasso di errore annuo (AFR) utilizzando i dati del MTTF. Ciò rivelerebbe che un’istallazione di un milione di ore per unità (MTTF) con 500 unità potrebbe causare il guasto di cinque drive all’anno. Questi dati possono quindi essere utilizzati dagli operatori dei sistemi di videosorveglianza in modo da preventivare le sostituzioni delle unità al fine di garantirne una conservazione dei dati più sicura.

Il fattore più importante e da tenere in considerazione in fase di acquisto è il costo dell’investimento. Se da un lato, risparmiare denaro all’inizio optando per soluzioni più economiche potrebbe rivelarsi una scelte efficace, nel lungo termine, potrebbe il rivelarsi il contrario comportando addirittura costi più elevati attraverso le spese di manutenzione e assistenza.

Le unità di tipo Enterprise spesso non dispongono dei miglioramenti hardware e software per supportare il worlkload di scrittura-video, mentre le unità progettate per l’uso client non sono adatte al funzionamento 24/7. Invece i drive specifici per la sorveglianza, come gli HDD Toshiba S300 Surveillance o V300 Video Streaming HDD, sono in grado di soddisfare le specifiche tecniche idonee per il settore, tra cui un milione di ore di rating MTTF e sono garantiti per tre anni con un intervallo di temperatura operativa dai 0 ai 70 gradi Celsius. Offrono inoltre un buffer fino a 256 MB e controller del disco ottimizzati per consentire la scrittura contemporanea di 64 feed video HD. La tecnologia Dynamic Cache Technology contribuisce inoltre a migliorare le prestazioni in tempo reale delle unità in modo che nessun fotogramma venga perso, anche in situazioni di workload più pesanti, come la scrittura e la revisione dei video allo stesso tempo.

QSM 3.2, sistema operativo per XCubeNAS, ottimizza le prestazioni e introduce nuove funzionalità

Quando si parla di storage, spesso si è portati a pensare che il livello delle prestazioni sia determinato quasi esclusivamente dall’hardware. Vero, ma non del tutto. Se l’uso di unità di memoria a stato solido e dei più avanzati controller disponibili sul mercato sono garanzia di affidabilità ed efficienza, l’adozione di un software avanzato può infatti introdurre un vero “cambio di passo” nell’utilizzo dei dispositivi.

La dimostrazione arriva con il rilascio del nuovo sistema operativo QSM 3.2, destinato a equipaggiare i NAS della serie XCubeNAS di QSAN. L’azienda con sede a Taipei, nata nel 2004 e specializzata nel settore storage a livello enterprise, ha introdotto con la nuova versione di QSM una serie di funzionalità che permettono di aumentare le prestazioni dei suoi NAS e fornire alle aziende nuovi strumenti per la gestione “intelligente” dei dati.

Sotto il profilo squisitamente prestazionale, il software ottimizza sia l’allocazione delle risorse, sia le performance nella gestione dei file di grandi dimensioni. Il nuovo sistema di gestione della memoria, inoltre, garantisce il mantenimento delle prestazioni e un eccezionale livello di stabilità anche quando i dispositivi sono sottoposti a carichi di lavoro “estremi”.

La maggiore velocità si riverbera anche nelle operazioni di ricostruzione dei dati, con un miglioramento del 180% nella velocità, così come nelle operazioni di backup e sincronizzazioni, che registrano un + 150% a livello di prestazioni nella trasmissione dati Rsync e XMirror.

Il nuovo sistema operativo, inoltre, introduce il supporto per la funzionalità RESTful API (Application Programming Interface), attraverso la quale le aziende possono utilizzare le API sviluppate da QSAN per integrare i dispositivi dell’azienda nel loro sistema di management centralizzato.