NAS storage scale-out Dell EMC Isilon all-flash

Dell EMC annuncia un nuovo membro della famiglia di prodotti Dell EMC Isilon, associando le prestazioni della tecnologia flash con la principale piattaforma scale-out NAS del mercato. Isilon All-Flash è pensato per aiutare le imprese a modernizzare la loro infrastruttura e soddisfare le esigenze dei business digitali.
Tradizionalmente, i prodotti all flash array (AFA) si focalizzavano principalmente su dati o applicazioni strutturati o a blocchi che supportano circa il 20% di tutti i dati del data center. Tuttavia l’imperativo per l’IT di gestire i dati non strutturati – che oggi contano per oltre l’80% dei nuovi dati prodotti, gestiti e archiviati – è sempre più pressante. Per farlo, le aziende si avvalgono di applicazioni e workload sempre più potenti che richiedono processi ad alte prestazioni al fine di elaborare enormi quantità di dati non strutturati e fornire i risultati di business che le imprese desiderano. Dell EMC considera questa opportunità come la frontiera ultima del flash che richiede un’architettura scale-out progettata per trarre vantaggio dai media flash e fornire lo stesso livello di protezione, gestione, accesso e sicurezza che queste applicazioni di dati non strutturati richiedono.
Dell EMC indirizza questo cambiamento con la nuova famiglia di NAS storage scale-out Isilon All-Flash. Già leader nello storage all-flash con il 30,9% del mercato , Dell EMC associa le prestazioni della tecnologia flash con la scalabilità, l’accesso multi-protocollo e la sicurezza del sistema operativo Isilon OneFS. Noto come ‘Progetto Nitro’, l’architettura bladed-node ad alta densità di Isilon All-Flash offre 4 nodi Isilon all’interno di un unico chassis 4U con capacità che spaziano da 92TB a 924TB per chassis. Disponibile in diverse configurazioni, le unità Isilon All-Flash possono essere combinate in un unico cluster che offre fino a 92,4PB di capacità e oltre 1,5TB/s di prestazioni aggregate.
Lo storage Isilon All-Flash è pensato per una vasta gamma di applicazioni e workload non strutturati di prossima generazione che richiedono performance NAS molto elevate, tra cui lo streaming 4k, il sequenziamento genomico, l’automazione di progetti elettronici e l’analisi near real-time con svariati vendor di soluzioni Big Data come: Hortonworks, Cloudera, Pivotal, IBM e Splunk. Isilon All-Flash può essere implementato come nuovo cluster o integrarsi con cluster Isilon esistenti per accelerare le prestazioni di un data lake aziendale e ridurre il costo totale di possesso (TCO) di una soluzione SATA all flash multi-tier e ad alta capacità. Basata sul sistema operativo Isilon OneFS, la nuova offerta Dell EMC offre le funzionalità essenziali che le imprese richiedono per modernizzare l’IT: prestazioni estreme, scalabilità massima, flessibilità operativa, maggiore efficienza e protezione e sicurezza enterprise-grade.

• Prestazioni estreme: fino a 25M IOPS e 1,5TB/s di throughput per cluster, Isilon All-Flash è pensato per accelerare gli esiti di business per i workload non strutturati più esigenti.
• Scale-to-fit: i clienti possono partire da un unico chassis 4U da 96TB ed espandersi facilmente combinando fino a 100 chassis Isilon All-Flash e oltre 400 nodi in un unico cluster, per offrire fino a 92,4PB di capacità storage.
• Accesso multi-protocollo di prossima generazione: con il supporto di NFS, SMB, HDFS, Object, NDMP, FTP e altri, l’accesso multi-protocollo di Isilon è ineguagliato sul mercato, assicurando l’accesso read e write a tutti i dati non strutturati.
• Storage tiering: Isilon SmartPools e CloudPools permettono ai clienti di beneficiare di tiering dello storage automatico per ridurre le spese di capitale e ottimizzare le risorse conservando lo storage Isilon All-Flash per le applicazioni più esigenti.
• Efficienza senza eguali: le soluzioni Isilon All-Flash possono sfruttare la deduplica Isilon SmartDedupe per ridurre ulteriormente (fino al 30%) i requisiti storage.
• Sicurezza dei dati: per soddisfare rigorose normative di sicurezza e compliance, Isilon All-Flash offre controllo degli accessi role-based (RBAC), zone di accesso sicure, protezione dei dati write-once read many (WORM), auditing del file system e cifratura dei dati a riposo con dischi self-encrypting (SED).

Aggiornata la Data Platform di Commvault

Le più recenti innovazioni Commvault fanno uso di un’architettura ad API aperte per raggiungere nuovi livelli di apertura, offrendo ai clienti la flessibilità di poter scegliere fornitori infrastrutturali, di piattaforma, di elaborazione e storage. Tra le principali funzionalità presentate oggi ci sono:

La tendenza più rivoluzionaria nel mercato IT oggi è il passaggio al cloud. Forte della sua riconosciuta esperienza nella gestione dei dati nel cloud, Commvault ha annunciato maggiori funzionalità per Amazon Web Services (AWS), in grado di andare oltre le macchine virtuali, a garantire protezione ai database, consentendo ulteriormente alle aziende di implementare strategia di data management realmente olistiche, on premise o nel cloud.

Commvault ha anche annunciato nuove funzionalità di backup, migrazione e data protection per applicazioni e workload nei cloud Oracle e Azure. Questo supporto aggiuntivo sottolinea ulteriormente il ruolo di Commvault come unico fornitore di data protection e management in grado di promuovere una strategia cloud realmente enterprise, con il supporto di oltre 25 cloud pubblici e una varietà crescente di workload cloud-based o cloud specific.

Per rendere più semplice agli utenti configurare, operare e monitorare il proprio ambiente, Commvault ha annunciato una serie di interfacce utente role-specific su HTML-5, tra cui una nuova console per gli amministratori di database e virtualizzazione. Queste nuove console consentono agli utenti di effettuare ampie rappresentazioni grafiche e visuali di KPI, utilizzo, stato di salute del sistema ed altre metriche, e può essere personalizzato sulla base del loro ruolo nell’organizzazione. Queste nuove interfacce utente arricchiscono ulteriormente la console java-based Commvault, solida e testata sul campo, per rispondere meglio alle necessità dei clienti.

Commvault ha anche migliorato le funzionalità di automazione della sua piattaforma, pensando alla pressione senza precedenti che le organizzazioni si trovano ad affrontare per raggiungere agilità e automazione dei processi, creando parallelamente valore dai propri dati. Queste funzionalità rappresentano una funzionalità critica per la Commvault Data Platform – assieme all’indicizzazione dinamica e al singolo repository virtuale – che si estende verso nuovi workload come i big data, semplifica la gestione dei workload, lo storage e l’accesso ai dati.

Le aziende sono in cerca di nuove opzioni per scalare il loro storage riducendo la spesa su soluzioni legacy tradizionali, in particolare per backup, recovery e archiviazione, e per questo necessitano di una piattaforma che sia scalabile e performante, in linea con le loro necessità di business. Commvault migliora la propria piattaforma con funzionalità software defined, che offrono ai clienti livelli di prestazioni e scalabilità paragonabili a quelli di molti ambienti big data e digital repository. In questo modo, Commvault mette i clienti nella condizione di sfruttare nuove soluzioni pensate appositamente per i big data e i workload digitali. Grazie alla Commvault Data Platform e ai nuovi Software Defined Data Service, Commvault permette alle organizzazioni di liberarsi dal vendor lock-in, di abbassare i costi rispetto a un approccio legacy, di raggiungere maggiori agilità e flessibilità e di rendere la propria IT più scalabile e meglio performante.

Le nuove API annunciate a Commvault GO estendono l’apertura della Commvault Data Platfrorm e rafforzano la solida leadership da parte di Commvault nell’integrazione delle sue soluzioni di protezione dei dati con la più ampia varietà di ambienti on promise, virtuali, cloud e distribuiti. Le API della piattaforma offrono ai clienti la possibilità di alternare workload nuovi e tradizionali e trasformarli praticamente su ogni tipo di infrastruttura.

Il mercato del copy data management da sempre si concentra sulla possibilità per gli utenti di raggiungere i propri obiettivi di business, siano essi una maggiore agilità, una superiore velocità di time-to-market o l’acquisizione di nuovi clienti. Storicamente, questo spazio è stato occupato da soluzioni a silo, per specifiche applicazioni IT – con il risultato che i clienti si trovavano ad acquistare array complessi fatti di soluzioni differenti. Con il suo block level copy data management ed il supporto agli array flash storage ed alla replica nel cloud, la piattaforma dati Commvault consente ai clienti di eliminare questo approccio a silo, abbattendo i costi, velocizzando i processi ed eliminando la complessità.

Commvault ha arricchito ulteriormente quello che già era uno degli spettri più ampi del mercato in tema di array storage, piattaforme di virtualizzazione e applicazioni enterprise, annunciando il supporto a livello di replica array-based da parte di IntelliSnap ai moduli flash di Pure Storage. A seguito di ciò, i clienti possono massimizzare il valore degli investimenti effettuati su tecnologia Pure Storage migliorando l’efficienza legata ad acquisizione, trasferimento, mantenimento, ricerca, analisi e ripristino dei dati.

Commvault v11 certificato per SAP HANA su IBM Power Systems

Commvault annuncia che la più recente versione (v11) del suo portfolio di soluzioni – Commvault Software e Commvault Data Platform – ha ottenuto da parte di SAP la certificazione con la piattaforma SAP HANA su IBM Power Systems. La piattaforma dati Commvault fornisce ai clienti un’infrastruttura data management di base per proteggere meglio, gestire ed elaborare più velocemente maggiori quantità di dati, ridurre i costi operativi, evitare interruzioni del business e rendere l’innovazione più veloce. A seguito di ciò, i clienti SAP possono migliorare l’efficienza dell’IT e ottenere maggior valore di business dai propri dati attivi in SAP HANA.
Da tempo partner Software Solutions di SAP, Commvault contente un backup and recovery automatizzato dei dati SAP HANA, compresi SAP S/4HANA e altri casi di utilizzo e tipologie di implementazione. Le organizzazioni che usano SAP HANA possono usare la piattaforma dati Commvault per un recovery rapido, un ripristino point-in-time, veloci spin-up oltre a un refresh degli ambienti di test e sviluppo per SAP HANA, o per creare database clone dagli snapshot, senza impatto sulla produzione. La piattaforma dati Commvault è anche strettamente integrata con SAP HANA studio e SAP HANA cockpit per supportare semplici task self-service DBA di monitoraggio della protezione dei dati.
Con le sue funzionalità snapshot native sulla scelta più ampia del mercato di array storage, piattaforme di virtualizzazione e applicazioni enterprise, la piattaforma dati Commvault offre ai clienti la possibilità di implementare moderne infrastrutture di data management in grado di ottimizzare gli investimenti IT esistenti e trasformare i dati in informazioni e valore strategico per il business.

I cinque fondamentali per una gestione olistica dei dati

N. Robert Hammer, chairman, presidente e CEO di Commvault, ha aperto la prima conferenza per i clienti dell’azienda, Commvault GO, con un intervento focalizzato sui cinque fondamentali che permettono alle aziende di adottare una strategia di gestione dei dati olistica. Tale strategia si è resa necessaria con il passaggio al cloud, l’esplosione delle applicazioni, la crescente domanda di sicurezza e compliance, e l’anywhere computing. I dati oggi sono al centro di tutto e le aziende devono avere la possibilità di attivarli ovunque essi risiedano.
I cinque fondamentali sono:
1. Conosci i tuoi dati – le aziende devono sapere dove i dati sono archiviati, garantirne la sicurezza e conoscerne la disponibilità per attività di ripristino, disaster recovery, test/dev, report e analisi. Adottando un indice ricco, ampio, dinamico e scalabile le imprese possono raccogliere, modificare e organizzare tutte le loro informazioni.
2. Federa i tuoi dati – nell’universo odierno dei dati, le aziende non hanno solo qualche silo, ma molti e spesso non sanno di che dati dispongono o dove essi siano. Federare i dati significa proteggere, recuperare, spostare, trovare e fornire applicazioni e dati che risiedono su infrastrutture diverse, e di accedervi e utilizzarli senza spostarli.
3. Mobilita i tuoi dati – le organizzazioni devono aggregare i dati, che attualmente risiedono in luoghi diversi – on premise, nel cloud, in ambienti virtuali e mobili. Per mobilitarli è necessario poter effettuare il backup di tali dati su questi dispositivi per evitarne la perdita e consentirne l’eliminazione.
4. Gestisci i tuoi dati – Essere conformi a un numero crescente di normative è oggi una realtà. Federando i dati sotto un’unica governance aziendale, le imprese possono conoscere i dati disponibili, sapere dove sono e adottare le policy necessarie per garantirne la compliance.
5. Proteggi i tuoi dati – In un mondo di hack, malware, ransomware e altre minacce, interne ed esterne, le imprese devono poter proteggere i propri dati. Una strategia di sicurezza deve prevedere l’autenticazione di chi vuole accedere ai dati, la conferma dei diritti di accesso e la cifratura/protezione con password dei dati.