Un mondo di dati

Evan PowellUn mondo di dati di Evan Powell, CEO di Nexenta Systems

Nel 1999, la popolazione mondiale ha superato la barriera dei sei miliardi. Ci sarebbero voluti altri 12 anni per raggiungere i sette miliardi.
Immaginiamo se, per assurdo, si arrivasse a 70 miliardi entro la fine del 2013. Come farebbe il mondo a far fronte a questa crescita? Lo stesso vale per la rapidità con la quale sono cresciuti i dati negli ultimi due anni. Non solo creiamo circa 2,5 quintilioni di byte al giorno, ma abbiamo generato negli ultimi due anni quasi il 90% di tutti i dati esistenti oggi.

Questa esplosione di dati è stata generata dai social media, da sistemi GPS, da sistemi medicali, da download e upload di video e altro materiale digitale, da telefoni cellulari e dalle transazioni finanziarie. A questi si aggiungono dati governativi, informazioni militari, dati dei gestori di carte di credito, transazioni online, dati climatici, quelli delle telco, le email, Google e Facebook.

[ad#lb]

I Big Data rappresentano l‘insieme di tutti questi dati e altri ancora. Utilizzando i Big Data, le aziende cercano di ottenere un quadro completo delle informazioni in loro possesso e di effettuare analisi. Spesso, però, devono affrontare il problema di come archiviare i dati e come realizzare valore da volumi di dati grezzi e non strutturati.
Oggi, molte organizzazioni hanno necessità di conservare enormi quantità di dati per mantenere e far crescere il proprio business o per essere conformi a costose normative.

Le aziende che raccolgono terabyte o petabyte di informazioni business critical devono imparare ad archiviarle e conservarle in modo appropriato. Tuttavia, le architetture e i prodotti di storage tradizionali potrebbero non essere più adatti, né da un punto di vista tecnologico, né economico, a offrire il supporto necessario per queste aziende. In molti casi, soluzioni con un approccio del tipo “data silos” per lo storage e la gestione dei dati non sono in grado di rispondere alle esigenze delle aziende in termini di flessibilità e scalabilità.

Man mano che cresce l’importanza dei dati per le organizzazioni, diventa essenziale che tutte le informazioni raccolte siano archiviate in modo corretto e, al contempo, disponibili e accessibili a tutti gli utenti, a prescindere dal luogo in cui si trovano. Anche l’integrità dei dati è fondamentale; con il tempo, i dati possono deteriorarsi e perdere integrità, costringendo molti vendor a utilizzare processi di back­end per scrubbing dei dati, individuare errori e correggerli, ove possibile. Tuttavia, se i processi di data scrubbing devono esaminare grosse quantità di dati, è possibile che a risentirne siano la disponibilità dei dati e le prestazioni dei sistemi.

Ne consegue che, se non sono in grado di identificare e correggere eventuali errori automaticamente, le soluzioni di data storage possono rappresentare un rischio a lungo termine alla continuità del business. Inoltre, le tradizionali soluzioni di storage legacy non riescono a rispondere a immeditate richieste di dati, né a raggiungere standard elevati di sicurezza.

Lo Storage alla base di Big Data  
Oggi, le aziende sono sotto pressione per gestire l’esplosione di dati business critical in modo sicuro e accessibile. Korea Telecom (KT) ad esempio, aveva necessità di gestire enormi quantità di dati e al contempo riuscire a garantire la scalabilità dei propri servizi cloud pubblici in modo conveniente. Era necessaria una soluzione in grado di supportare questa crescita esplosiva, offrire la scalabilità necessaria e aumentare le prestazioni in termini di velocità.

Un’altra azienda, viaForensics, esperta di questioni forensi relative a iPhone e Android, aveva necessità di un ambiente storage affidabile per garantire l’estrazione sicura di una grande quantità di dati a supporto dei requisiti di conformità. Entrambe le realtà hanno optato per soluzioni storage open source, in grado di supportare l’incremento e la gestione della capacità di storage a costi contenuti, assicurando al contempo la sicurezza di tutte le informazioni oggi e in futuro.

E’ chiaro che la gestione di Big Data pone una serie di sfide a molte realtà. Con la continua crescita della quantità di file, le organizzazioni necessitano di maggiori prestazioni per la gestione dello storage, la replica, il disaster recovery, nonché della capacità di utilizzare hardware in-house per garantire il contenimento dei costi. E’ necessario che le interruzioni di servizio siano ridotte al minimo e che i dati siano facilmente accessibili. Inoltre, l’integrità dei dati deve essere protetta sul lungo periodo e il sistema deve essere in grado di scalare a livello di terabyte e petabyte.

Il problema è che le tradizionali soluzioni di storage legacy, progettate per essere implementate in un’unica postazione, non sono più in grado di soddisfare le immediate esigenze di Big Data, né di rispondere a elevati standard di sicurezza dati. La soluzione al problema è un’altra.

Le soluzioni OpenStorage consentono alle organizzazioni di adottare implementazioni per lo storage dei dati convenienti e ad alte prestazioni, offrendo funzionalità come la deduplicazione inline, snapshot e clonazione illimitate, soluzioni indipendenti dall’hardware e supporto per l’alta disponibilità. Utilizzando queste soluzioni, le aziende riescono in molti casi a ridurre i costi del 70-80%.

La gestione dell’esplosione dei dati rappresenta una grande sfida e la situazione non può che peggiorare. L’incapacità di rispondere ai nuovi requisiti renderà molte aziende incapaci di sfruttare le opportunità di business offerte oggi dall’enorme crescita dei dati. L’adozione di un approccio aperto consente alle moderne organizzazioni di gestire la crescita in modo sicuro e garantire al contempo un risparmio sui costi.

Storage-Backup.com