Storage & Cloud: analisi QSAN

Simone Ceccano, Sales Manager Italy, QSAN Technology
Simone Ceccano, Sales Manager Italy, QSAN Technology

Il mercato negli ultimi 15 anni ha subito delle vere e proprie ondate causate dall’emergere prepotente di nuove tecnologie, vedi il Cloud e sistemi di Iperconvergenza, che in un primo momento sembravano dover dettare nuovi standard in grado di sostituire per sempre i vecchi modi di intendere i datacenter e la gestione dei dati delle imprese. Puntualmente, al ritirarsi della marea, le soluzioni di archiviazione di tipo tradizionale non solo non sono scomparse, ma si sono dimostrate capaci di convivere e di adattarsi alle nuove opportunità create da queste nuove tecnologie. Questo perché le modalità di gestione del dato sono strettamente legate alle particolari esigenze delle aziende e dei diversi settori di business, per cui non è possibile ipotizzare un’unica soluzione standardizzata per realtà tanto diverse tra loro, seppure con in comune l’esigenza di dover stare al passo con l’evoluzione tecnologica e la diversificazione della domanda che viene dal mercato.  Questo discorso è tanto più vero nel variegato mercato italiano, il cui zoccolo duro, accanto alle grandi imprese e alla Pubblica Amministrazione, è formato dalle innumerevoli PMI di cui il nostro territorio è costellato, vero motore propulsore della nostra economia, ma il cui contesto è diversificato a seconda del settore o della situazione regionale in cui operano.

Un esempio lampante in tal senso è stata la comparsa delle soluzioni Cloud. Sicuramente il Cloud permette di risparmiare tempo e denaro nell’allestire datacenter interni che poi necessiteranno di continui aggiornamenti e manutenzione, senza menzionare i costosi sistemi necessari a garantire la sicurezza interna dei dati. Inoltre il vantaggio di una soluzione Cloud è la possibilità di iniziare ad utilizzarla immediatamente, tagliando tempi di attesa e di installazione, eliminando allo stesso tempo i costi del personale adibito al mantenimento ed implementazione di soluzioni storage di tipo tradizionale.

L’altra faccia della medaglia sono le scarse performance delle soluzioni Cloud, che rimangono comunque dipendenti dalla rete, rendendole perciò inadatte ad aziende con applicazioni mission-crytical che necessitano di velocità di trasferimento dati significative. Inoltre con il Cloud, se da una parte si eliminano i costi fissi di manutenzione dell’infrastruttura locale, dall’altra le imprese si trovano a dover pagare un canone fisso che nel caso di grandi quantità di dati può avere un costo non indifferente, in taluni casi in grado di annullare il ROI, rinunciando al contempo al controllo dei propri dati che viene inevitabilmente demandato a terzi.

Qual’é la soluzione migliore? Come detto in precedenza, la domanda non ha una risposta semplice e univoca, in quanto dipendente dal contesto particolare in cui viene calata. QSAN Technology, da sempre attenta all’evoluzione tecnologica e di mercato, propone l’utilizzo di soluzioni di hybrid cloud che possono far fronte contemporaneamente ad esigenze tanto diversificate. Con sistemi storage predisposti per interfacciarsi con le soluzioni cloud standard di mercato, come la serie XCubeNAS di QSAN, è possibile utilizzare l’archiviazione cloud per applicazioni che richiedono un livello di sicurezza inferiore, ma in grado di condividere informazioni in tempo reale tra diversi dispositivi, e utilizzare allo stesso tempo l’archiviazione locale per le operazioni e le applicazioni business-critical, che devono gestire dati riservati o che richiedono performance elevate. La serie XCubeNAS fornisce funzionalità che consentono di parlare direttamente con i principali Cloud Provider come Alibaba, Amazon, Dropbox, Google Drive e Onedrive. Con pochi clic, l’utente è in grado creare uno storage hybrid cloud che consente di spostare in modo efficiente i propri dati tra cloud pubblico e archiviazione locale, beneficiando delle superiori funzioni di sicurezza dello storage locale, quali WORM (Write Once Read Many) e SED (Self Encrypting Drive).

In quest’ottica, il revival dello storage locale si accompagna alla costante decrescita del costo dei dischi rotativi e soprattutto a stato solido (SSD), che rende alla portata delle PMI soluzioni ad alte performance che fino a poco tempo fa erano considerate di esclusivo appannaggio delle Enterprise. Non a caso, la strategia di QSAN Technology è orientata alla proposizione di sistemi entry-level AFA (All-Flash-Array) come la serie XCubeFAS, rivolta agli utenti che vogliono prepararsi ad affrontare le sfide alla base della continua crescita dei dati e allo stesso tempo seguire il trend dei nuovi modelli di business e digitalizzazione aziendale.

QSAN propone soluzioni all-flash basate sulla filosofia delle 5P:

  • PRESTAZIONI: Un vantaggio principale dei sistemi AFA è rappresentato dalle prestazioni costantemente elevate. La misurazione include tre fattori: IOPS, latenza e throughput.
  • PROTOCOLLI: Nel networking o nei Data Center virtualizzati, le applicazioni mission-critical hanno bisogno di una larghezza di banda maggiore per supportare le reti 10GbE/25GbE e Fibre Channel.
  • PERSISTENZA: La mancata disponibilità di servizio per applicazioni mission-crytical è inaccettabile: l’architettura totalmente ridondata dei sistemi XCubeFAS, a partire dai controller, è garanzia di servizi non-stop.
  • PREZZO: A partire dalla capacità minima richiesta, si può espandere il sistema AFA in modo conveniente man mano che la domanda cresce. Scegliendo il miglior rapporto tra capacità e prezzo AFA entry-level nel mercato, ti assicurerai di ottenere sempre la maggiore capacità possibile tenendo d’occhio il ROI.
  • POSIZIONAMENTO: I sistemi AFA entry-level rappresentano l’ideale per i clienti delle piccole e medie imprese che richiedono l’elaborazione dei dati per database, ambienti di virtualizzazione, produzione multimediale e high computing come AI e IoT. Anche le aziende di grandi dimensioni possono utilizzare i sistemi AFA entry-level per servizi in crescita e adottare invece sistemi AFA di livello superiore dopo che le esigenze dell’azienda sono maturate tanto da richiedere un dispositivo di livello superiore.

Accanto alle soluzioni più tradizionali XCubeSAN e alle serie XCubeNAS e XCubeFAS, che sono attori relativamente recenti nel nostro portfolio, QSAN non ha intenzione di fermarsi mentre il mercato è in continuo movimento e pertanto ha in cantiere nel 2020 la proposizione di soluzioni storage ad altissime performance basate su tecnologia NVMe, oltre alla seconda generazione di NAS HA, Unified storage ad alta affidabilità basate su ZFS.

Il mercato continuerà a vedere la crescita di soluzioni Cloud e di Iperconvergenza, ma accanto a queste soluzioni, gli storage tradizionali dovranno essere pronti ad affiancarle in una situazione di complementarietà, come nel caso degli storage hybrid cloud, forti delle possibilità e delle prestazioni che l’avvento di tecnologie come NVMe hanno reso disponibili agli utenti. In quest’ottica, lo storage del prossimo futuro dovrà essere sempre più interoperabile con diverse piattaforme e più interconnesso con altri ambienti e sistemi, sia a livello di connettività che a livello applicativo. Il tutto dovrà però andare di pari passo con la sicurezza del dato, tanto che l’adozione o meno di determinate funzionalità di sicurezza, adeguate agli standard di mercato sempre in aggiornamento, saranno la vera discriminante nello scegliere una soluzione anziché un’altra. Alla luce delle non semplici sfide che attendono tutti i vendor nel mercato dello storage, mentre il vostro business cresce e cambia insieme ai vostri dati, QSAN Technology vuole a maggior ragione continuare ad essere il partner ideale per accompagnarvi con la sua esperienza attraverso questi cambiamenti.

Backup and Recovery AWS-Native da Veeam

Veeam® Software annuncia il NUOVO Veeam Backup for Amazon Web Services (AWS), conveniente e sicuro, con protezione Amazon Elastic Compute Cloud (Amazon EC2), sarà disponibile esclusivamente attraverso il marketplace di AWS. Veeam Backup for AWS, una soluzione di riferimento per il backup da AWS ad AWS con potenti funzionalità di ripristino di Veeam, disponibile sia in versione gratuita che a pagamento in AWS Marketplace. Il prodotto è integrato con la soluzione principale di Veeam, Veeam Backup & Replication™, che consente agli utenti Veeam di gestire tutti i propri dati, siano essi cloud, virtuali o fisici, all’interno della stessa piattaforma. Come parte della sponsorizzazione Diamond dell’evento, Veeam presenterà la nuova soluzione per la prima volta all’AWS re:Invent 2019 che si terrà a Las Vegas, mostrando quanto sia facile da gestire, potente e conveniente la soluzione per il backup e rispristino per i workload AWS.
La perdita di dati si può verificare sia che questi siano archiviati on-premises o nel cloud. Un recente sondaggio tra i clienti Veeam ha rilevato che il 53% dei clienti cita l’errore dell’utente o la cancellazione accidentale come causa principale della perdita di dati. In ultima analisi, è responsabilità del cliente assicurarsi che i suoi dati siano protetti.
Pensato specificatamente per AWS, il nuovo Veeam Backup for AWS offre la stessa semplicità, flessibilità e affidabilità che ha portato Veeam ad essere riconosciuto sul mercato. Veeam si è recentemente posizionata come Leader nel 2019 Magic Quadrant for Data Center Backup and Recovery Solutions. Inoltre, la posizione di Leader è stata conferita anche nel Forrester Wave. Questa nuova soluzione rende ancora più semplice per i client e i fornitori di servizi cloud proteggere, gestire e ripristinare nativamente i workload AWS. Veeam offre la flessibilità di archiviare i dati nello stesso cloud (cross-region o cross-account), on-premises, o in altri ambienti supportati da Veeam – VMware V-Sphere, Microsoft Hyper-V o Nutanix AHV.
“La protezione dei dati non è fondamentale solo per la business continuity, ma anche per mantenere il vantaggio competitivo, il rispetto delle normative e la reputazione del marchio. Mentre il cloud promette notevoli vantaggi aziendali, i responsabili IT devono comunque intervenire direttamente per proteggere i dati critici e consentire la business continuity in caso di interruzione, calamità o attacco informatico,” dichiara Ratmir Timashev, Co-Founder and Executive Vice President of Sales & Marketing di Veeam. “L’ultima soluzione cloud-native di Veeam, Veeam Backup for AWS, disponibile in AWS Marketplace e ora integrata in Veeam Backup & Replication, non solo rafforza il nostro impegno nell’essere leader nel Cloud Data Management, ma estende la protezione dei dati basata su Veeam ai clienti AWS, rendendo facile per i clienti acquistare e autorizzare la soluzione utilizzando le stesse API e lo stesso modello di abbonamento utilizzato per altri software.”
La protezione dei dati non è fondamentale solo per la business continuity, ma anche per mantenere il vantaggio competitivo, il rispetto delle normative e la reputazione del marchio. Mentre il cloud promette notevoli vantaggi aziendali, i responsabili IT devono comunque intervenire direttamente per proteggere i dati critici e consentire la business continuity in caso di interruzione, calamità o attacco informatico.
La facilità d’uso è una delle caratteristiche di Veeam Backup for AWS offerto chiavi in mano tramite AWS Marketplace, mentre le potenti funzionalità di ripristino includono funzioni come il ripristino a livello di file per le snapshot native e i backup Veeam. Il primo strumento sul mercato e integrato all’interno della soluzione, Cloud Backup Cost Estimator è stato progettato per fornire ai clienti maggiori controlli e risparmi sui costi simulando le spese di gestione per evitare costi eccessivi prima di avviare i backup.
Per i clienti Veeam, l’integrazione con Veeam Backup & Replication™ permetterà avere il controllo sui propri dati in cloud proteggendo e gestendo i backup AWS insieme ad altri dati virtuali, fisici e in cloud. Altri benefici sono:
· Backup Nativo per AWS e ripristino potente – La stessa soluzione affidabile per il backup on-premises ora protegge i workload AWS. Pensato per i carichi di lavoro originati nel cloud con supporto per le snapshot native e i backup Veeam. Ottimizzazione dei costi per la conservazione a lungo termine dei dati in Amazon Simple Storage Service (Amazon S3).
· Mobilità Ibrida– Flessibile senza cloud lock-in, ripristina o migra qualsiasi carico di lavoro on-premises direttamente ad AWS e ripristina file o dati da AWS a qualsiasi altro ambiente supportato da Veeam (es. VMware V-Sphere, Microsoft Hyper-V, Nutanix AHV).
· Costi di gestione contenuti – Aiuta i clienti a gestire, eseguire il backup e recuperare tutti i carichi di lavoro da un’unica interfaccia. · Portabilità licenze Cloud-ready – Spostare i carichi di lavoro in ambienti cloud con una licenza Veeam Universal (VUL) che segue in modo flessibile il carico di lavoro.

Hard disk della serie P300 Desktop PC da 3,5 pollici ora anche 4TB e 6TB

Toshiba Electronics Europe GmbH annuncia l’ampliamento della serie P300 Desktop PC Hard Drive da 3,5″ pollici con due nuovi modelli da 4TB e 6TB. In questi nuovi drive è stato raddoppiato il buffer, portandolo da 64MB a 128MB, inoltre sono più silenziosi e richiedono meno energia rispetto ad altri modelli della serie.
Grazie al Dual-Stage Actuator, le testine di lettura/scrittura delle unità sono protette in modo ottimale quando I dischi sono trasportati da soli o integrati in un PC. Questi hard disk sono inoltre dotati di un sensore d’urto interno che protegge i dati durante il funzionamento, rendendoli ideali per graphic designer e creativi che lavorano in movimento.
Ulteriori migliorie, come l’implementazione di tecniche innovative per ridurre al minimo il movimento della testina, permettono di aumentare le prestazioni dei drive nelle sequenze di accesso in lettura/scrittura. Questa ottimizzazione riduce al minimo il carico di lavoro meccanico, migliorando le prestazioni complessive così da soddisfare le esigenze delle desktop workstation e dei gamer.
P300 da 4TB è già disponibile sul mercato mentre la configurazione da 6TB sarà invece disponibile nel primo trimestre del 2020.

Reinventare i data center su scala petabyte per generare un vantaggio competitivo

Negli ultimi 10 anni, la crescita esponenziale dei dati ha offerto ad aziende e fornitori di servizi cloud nuove opportunità e sfide, che richiedono un approccio innovativo nella costruzione e nella scalabilità delle infrastrutture storage.
Gli esperti di tecnologia si sono resi conto che gli storage array enterprise tradizionali, basati sull’hardware, non sono più adatti per affrontare la digital transformation, sono difficili da gestire e rappresentano un costo troppo elevato. Le roadmap dei vendor, infatti, parlano spesso in termini di terabyte, mentre le esigenze delle aziende, dopo l’avvento dei social media e a causa dei contenuti generati dagli utenti, sono in petabyte.
Elastic Data Fabric è la visione di Infinidat sul futuro dello storage enterprise, visto come l’evoluzione dei dispositivi hardware tradizionali in data center scalabili ed elastici, ad alte prestazioni, ed estremamente affidabili. Un cambiamento verso uno storage sia in cloud che “on-premise” di tipo software-defined, che assicuri una perfetta mobilità dei dati nell’ambito del data center e del cloud pubblico.
Per le aziende questa trasformazione porterebbe significativi vantaggi sia in termini di costi sia di tempo, diminuendo i rischi e l’impatto sulle prestazioni. Si tratta di un enorme potenziale competitivo, per offrire ai clienti soluzioni innovative che consentano di passare rapidamente dal primo petabyte a numerosi exabyte di capacità, garantendo la massima flessibilità e affidabilità.
Elastic Data Fabric si concretizza in una suite integrata di prodotti e funzioni, che coprono l’intero ciclo di vita dei dati:
InfiniBox® è l’elemento cardine di Elastic Data Fabric. È uno storage Mission Critical Software-Defined di tipo unified (SAN e NAS) che permette di consolidare in poco tempo tutte le diverse tipologie di workload, anche quelli più critici in termini di performance. Offre Snapshot illimitate a zero impatto, replica asincrona, sincrona e active/active. Inoltre, grazie all’innovativa Neural Cache, basata su algoritmi di Intelligenza Artificiale e Machine Learning, è in grado di fornire prestazioni migliori rispetto ai tradizionali sistemi All-Flash hardware based con una elevata scalabilità e affidabilita’ a costi davvero contenuti.
InfiniVerse® è il sistema di monitoraggio e controllo cloud-based, che permette di gestire fino a 100 sistemi InfiniBox® per data center come se fosse un unico storage cloud scale-out gestito da un unico software. InfiniVerse® è alla base anche di Availability Zone (AZ). Le funzionalità AZ consentono una mobilità fluida e trasparente dei dati nell’ambito di un data center e rendono i cicli di vita dell’hardware degli storage trasparenti per gli utenti.
InfiniGuard® è la soluzione di DataProtection di Infinidat per la massimizza protezione, offrendo velocità e affidabilità uniche sia nel backup dati che nel restore degli stessi, per business continuity e disaster recovery ad alte prestazioni.
Neutrix Cloud® è il servizio storage Infinidat che estende l’Elastic Data Fabric al di fuori dei data center on-premise e direttamente sul cloud pubblico. Neutrix Cloud® consente di mantenere un migliore controllo dei propri dati riducendo il rischio di lock-in nel cloud pubblico e riducendo le spese. Neutrix Cloud® è un cloud di storage pubblico CSP-neutral che rende semplice consolidare lo storage cloud fornendo prestazioni elevate e un accesso dati a bassa latenza simultaneamente da Google Cloud, AWS e Azure. Neutrix Cloud® elimina la necessità di archiviare gli stessi dati in diversi cloud pubblici come parte di una strategia multi-cloud.
FLX® è la soluzione storage-as-a-service on-premise di Infinidat con un modello di business OpEx. È disponibile con InfiniBox® per lo storage primario e con InfiniGuard® per backup e recovery. I deployment FLX comprendono un SLA garantito al 100%.

Archiviazione dei dati provenienti da sistemi di videosorveglianza

La videosorveglianza sta diventando sempre più smart ed efficace soprattutto come mezzo per combattere la criminalità, scoprire le cause degli incidenti e quindi prevenirli, e ancora, come prezioso aiuto nella risoluzione di gialli o fatti di cronaca. L’aumento e la diffusione delle telecamere ha portato ad una crescita della quantità di dati generati che devono essere inviati a dispositivi di archiviazione. Di conseguenza è importante pensare a soluzioni e supporti dedicati, sempre più performanti anche in base ad uno dei loro requisiti chiave: l’operatività 24/7. Proprio per questo i Surveillance Digital Video Recorder (sDVR) e i Surveillance Network Video Recorder (sNVR) devono essere costruiti per supportare l’enorme quantità di dati provenienti da fonti multiple e spesso a larghezze di banda elevate. Quando si tratta di archiviazione a lungo termine su server, i dati devono essere conservati per anni senza perdere fotogrammi e rimanere facilmente accessibili ai sistemi di gestione video, al fine di consentire un rapido accesso alle immagini per l’analisi. Il mantenimento e la gestione di queste soluzioni di archiviazione, che riguarda un’enorme mole di dati, destinate ad aumentare, richiede soluzioni molto specifiche e realizzate appositamente per le esigenze di sorveglianza. Ma quali sono queste esigenze e come funzionano le unità per la videosorveglianza?

La garanzia, di un disco, assicura il funzionamento per un certo numero di anni prima che l’unità debba essere sostituita per assicurare la sicurezza. Tuttavia, quest’ultima, offre solo un’indicazione sugli anni di vita sicura e affidabile dell’unità, in base ad una serie di fattori esterni da considerarsi all’interno di un certo range. Per questo motivo è importante comprendere questi fattori e controllarli per ottenere la misura più accurata dell’affidabilità in modo da garantirne una sicurezza a lungo termine.

Uno dei principali fattori in grado di compromettere la durata di un’unità è la temperatura di funzionamento. Al centro di un drive è posizionato un cuscinetto fluidodinamico responsabile della corretta rotazione dei piatti che memorizzano i dati. Dato che questo cuscinetto utilizza l’olio come fluido lubrificante, qualsiasi aumento prolungato della temperatura può causare una riduzione del fluido e, in ultima analisi, una perdita che a lungo termine aumenterebbe le possibilità di guasto del drive.

La temperatura di funzionamento è una delle caratteristiche che deve essere migliore nelle unità di sorveglianza rispetto alle unità Enterprise. I drive per la sorveglianza devono operare in un intervallo di temperatura compreso tra gli 0 e i 70 gradi Celsius, mentre un’unità Enterprise può operare ad una temperatura compresa tra i 5 e i 55 gradi Celsius. Se si decide di utlizzare dischi Enterprise è necessario spendere di più per il raffreddamento dell’ambiente in cui vengono posizionati. Anche se dotati di una garanzia o di un rated workload più interessante, la loro adozione potrebbe richiedere controlli ambientali aggiuntivi, soprattutto quando vengono utilizzati in contesti di videosorveglianza dove si produce più calore, facendo quindi risultare il tutto più costoso.

Il rated workload è un altro fattore da tenere in considerazione. Questo si riferisce all’usura che un’unità subisce inevitabilmente a causa del movimento. Il carico di lavoro che il drive ha, in termini di lettura e scrittura dei dati, influisce sulla sua usura e di conseguenza sul rated workload. Per le unità di sorveglianza il valore medio è fino a 180 TB/anno e anche se basso rispetto alle unità Enterprise (550 TB/anno), è notevolmente superiore ai 55 TB/anno definiti per le unità ad uso client.

L’archiviazione per i sistemi di sorveglianza è un sistema tipicamente 24/7 che richiede un lavoro costante da parte delle unità che memorizzano i dati video. Il valore che indica il numero di ore per le quali è stato concepito un drive è chiamato “operating duty”. Mentre un PC desktop o laptop ad uso domestico potrebbe essere dotato di HDD costruiti per ore di utilizzo quotidiano, la videosorveglianza “always-on” è molto più impegnativa, questo perché le unità per la videosorveglianza non vengono mai spente e devono funzionare in modo molto diverso dalle unità client.

Naturalmente, anche la migliore unità raggiungerà comunque il momento in cui si verificherà un guasto, ma prendendo grazie al Mean Time To Failure (MTTF) potrà essere previsto in maniera più precisa. Con questo valore statistico si fa riferimento al tempo medio di attesa fra i guasti. 1 MTTF sta per 1 milione di ore di funzionamento, il che si traduce in 114 anni. È però importante capire che non si fa riferimeno ad una singola unità, ma ad una “popolazione statistica” di HDD più ampia. Quindi, in un gruppo di un milione di unità, è possibile che una di esse fallisca ogni ora. Quindi per un cluster di 500 unità è previsto un errore ogni 2.000 ore o a circa 83 giorni.

In questo modo è possibile calcolare il tasso di errore annuo (AFR) utilizzando i dati del MTTF. Ciò rivelerebbe che un’istallazione di un milione di ore per unità (MTTF) con 500 unità potrebbe causare il guasto di cinque drive all’anno. Questi dati possono quindi essere utilizzati dagli operatori dei sistemi di videosorveglianza in modo da preventivare le sostituzioni delle unità al fine di garantirne una conservazione dei dati più sicura.

Il fattore più importante e da tenere in considerazione in fase di acquisto è il costo dell’investimento. Se da un lato, risparmiare denaro all’inizio optando per soluzioni più economiche potrebbe rivelarsi una scelte efficace, nel lungo termine, potrebbe il rivelarsi il contrario comportando addirittura costi più elevati attraverso le spese di manutenzione e assistenza.

Le unità di tipo Enterprise spesso non dispongono dei miglioramenti hardware e software per supportare il worlkload di scrittura-video, mentre le unità progettate per l’uso client non sono adatte al funzionamento 24/7. Invece i drive specifici per la sorveglianza, come gli HDD Toshiba S300 Surveillance o V300 Video Streaming HDD, sono in grado di soddisfare le specifiche tecniche idonee per il settore, tra cui un milione di ore di rating MTTF e sono garantiti per tre anni con un intervallo di temperatura operativa dai 0 ai 70 gradi Celsius. Offrono inoltre un buffer fino a 256 MB e controller del disco ottimizzati per consentire la scrittura contemporanea di 64 feed video HD. La tecnologia Dynamic Cache Technology contribuisce inoltre a migliorare le prestazioni in tempo reale delle unità in modo che nessun fotogramma venga perso, anche in situazioni di workload più pesanti, come la scrittura e la revisione dei video allo stesso tempo.