Storage per la Virtual Desktop Infrastructure (VDI)

Ivan Renesto, Enterprise Solutions Marketing Manager, Dell
Ivan Renesto, Enterprise Solutions Marketing Manager, Dell
L’infrastruttura Virtual Desktop, o VDI, è di estremo interesse per il mercato. È innovativa, sicura, gestita centralmente e flessibile – il sogno di ogni IT manager.

Il vantaggio è che i desktop virtuali sono indipendenti dall’hardware e quindi accessibili da qualunque sistema operativo (OS). È anche molto più facile implementarli, assicurando agli utenti la libertà che desiderano. E grazie al single-user OS, la compatibilità applicativa non è un problema.

Tuttavia, quando si implementa un’infrastruttura VDI è necessario indirizzare alcuni elementi. Innanzitutto, il calcolo TCO/ROI potrebbe non essere semplice come alcuni sostengono. Inoltre, l’impatto delle performance sulle applicazioni, in particolare quelle multimediali e 3D, deve essere analizzato. Infine, non dimentichiamoci degli aspetti legati al licensing, che possono rappresentare un fattore determinante in ambito VDI.

Mentre il desktop computing centralizzato offre importanti vantaggi, tutte le risorse si riuniscono nel data center. E questo significa che CPU, memoria, networking e dischi devono essere gestiti da un unico punto – l’infrastruttura virtuale. Il beneficio è che, se dimensionata correttamente, quest’ultima è più flessibile in termini di consumo di risorse rispetto al computing decentralizzato. È anche maggiormente in grado di gestire i picchi di lavoro dato che avvengono saltuariamente su un numero limitato di sistemi nel data center. Ma cosa succede se i picchi sono costanti e le medie sono così elevate che il costo di facilitarle è sproporzionato rispetto a quello di un sistema decentralizzato?

Apparentemente c’è un’insidia che si nasconde nel VDI, si chiama “IOPS”.

IL CLIENT
Un client fisico con Windows dispone di un disco locale che di solito è SATA e gira a 5.400 o 7.200 RPM, fornendo da 40 a 50 IOPS. Quando si avvia, il client carica sia l’OS sia diversi servizi, molti dei quali forniscono funzionalità che potrebbero essere richieste dal sistema fisico, semplificando la vita all’utente. Ma quando il client è virtuale, molti di questi servizi sono superflui o addirittura controproducenti. L’indicizzazione, i servizi hardware (wireless LAN), prefetching e altri producono molti IOPS nel tentativo di ottimizzare la velocità di caricamento, attività utile sui client fisici ma totalmente inutile in ambiente virtuale.
L’elemento più sorprendente è che la maggior parte di questi IOPS sono WRITE, dove il rapporto read/write si ritiene sia, percentualmente, di circa 90/10. Ma in realtà gli utenti utilizzano dozzine o addirittura centinaia di diverse applicazioni, virtuali o installate. In pratica, il rapporto read/write risulta al massimo pari a 50/50! Attestandosi in generale intorno a 30/70, o anche 20/80 e a volte 10/90. Ma perché è importante?

BOOT E LOGON
Quando si adotta un’infrastruttura VDI, essa deve essere ottimizzata per IOPS. Ha quindi senso accendere in anticipo e in maniera sequenziale le machine che verranno impiegate un determinato giorno prima che gli utenti inizino a utilizzarle. D’altra parte, il 90-95% degli IOPS in fase di boot sono read. Se si dispone di una cache sufficientemente ampia o dedicata a catturare le operazioni di lettura del sistema operativo, lo stress sullo storage è minimo. Se progettato correttamente, l’impatto dei boot storm sull’infrastruttura Virtual Desktop può essere drasticamente ridotto o addirittura azzerato nelle ore di produzione.

I logon storm sono tutt’altra cosa. L’impatto sugli IOPS quando un utente effettua il logon dipende molto dal modo in cui profili e policy sono configurati e come le applicazioni vengono fornite. La soluzione sta nell’ottimizzare l’immagine della Virtual Machine (VM) ma anche la gestione dello user environment. Tuttavia, se tutti gli utenti iniziano a lavorare contemporaneamente, è necessario un numero sostanzialmente più elevato di IOPS (e storage) per accomodarli rispetto a quando i logon sono distribuiti su diverse ore. L’unico modo per farlo a dovere è sapere quando gli utenti effettuano il login.

Oltre al login, c’è un terzo elemento di cui tenere conto: il primo avvio di un’applicazione. I primi minuti dopo il logon, le applicazioni si avviano per la prima volta. In questa fase il rapporto read/write è di circa 50/50, dopodiché le operazioni di lettura scendono, mentre i write restano uguali. Questo significa che pochi minuti dopo il login, il rapporto read/write passa da 50/50 a 20/80, che è quello che si verifica in produzione. I primi scendono e i secondi no, ma sono le operazioni di scrittura a creare problemi.

CACHE
Vi sono molte soluzioni che promettono di velocizzare in modo significativo lo storage.
Mentre il modo in cui la cache viene utilizzata è diverso in base a vendor e soluzione. La maggior parte ha una percentuale fissa di cache dedicata alle scritture, e questa write cache è generalmente più piccola rispetto a quella dedicata alle operazioni di scrittura.
Il punto è che quando il numero di write rimane sotto a un determinato livello, la maggior parte di esse è gestita dalla cache. Ed è veloce. Molto più veloce che per le read. Questa cache è, tuttavia, solo una soluzione temporanea per gestire i write I/O occasionali. Dato che, con la VDI, la maggior parte degli I/O sono write, non possiamo assumere che la cache si occupi di risolvere i problemi di scrittura in input o output, e avremo bisogno del giusto numero di dischi per gestirli.

SSD
I dischi a stato solido (SSD) sono in realtà solo più grandi dei memory stick (in alcuni casi poco di più) piuttosto che veri e propri dischi. Il vantaggio è che sono in grado di gestire un’enorme quantità di IOPS; a volte addirittura 50.000 o 100.000. Non hanno parti mobili, di conseguenza l’accesso richiede pochi microsecondi, invece che millisecondi. Inoltre, i consumi equivalgono a una frazione di un disco meccanico a rotazione. Un array di dischi SSD utilizza solo poche centinaia di Watt, mentre quelli tradizionali possono arrivare a diverse migliaia.

Vi sono due tipologie di memorie flash: NOR e NAND. Nelle prime, ogni bit è indirizzabile separatamente ma le write sono molto lente. Le memorie NAND sono molto più veloci e, poiché richiedono meno spazio per cella di memoria, offrono una densità superiore alle memorie NOR. Sono anche molto più economiche. L’aspetto negativo è che si possono indirizzare solo blocchi di celle, ma per i dispositivi basati su blocchi, come i dischi SSD, vanno benissimo.

Attualmente i dischi SSD sono molto più costosi di quelli fiber channel e la maggior parte dei vendor non ne garantisce una durata di molteplici anni con un profilo I/O come quello della VDI. Ma i miglioramenti nelle celle SSD sono costanti. Con un rapporto read/write più equilibrato, una durata più lunga, dischi più capienti e un costo più contenuto, riteniamo che i dischi SSD diverranno sempre più comuni nelle Storage Area Network (SAN).

CONCLUSIONI
È ormai ovvio che calcolare la quantità di storage necessario per ospitare una VDI in maniera corretta non deve essere sottovalutato. L’ostacolo principale al momento sono gli IOPS. Il rapporto read/write che si vede nella pratica mostra valori percentuali quali 40/60, a volte addirittura 10/90, e tutti registrano più scritture che letture. E poiché le write sono più costosi delle read – su qualunque sistema storage – il numero di dischi necessari aumenta di conseguenza, in base all’uso degli utenti e all’applicazione.

Infine, è fondamentale effettuare un progetto pilota. Utilizzare applicazioni reali con utenti effettivi in produzione, per sapere in anticipo: come si comportano e il rapporto read/write generato. Altrimenti tutti si lamenteranno, e il progetto VDI fallirà.

Processore veloce, hard drive di classe enterprise e software di backup integrato nel nuovo WD Sentinel DX4200

WD Sentinel DX4200 è una soluzione che utilizza Windows Storage Server, progettata per rispondere alle necessità odierne delle piccole e medie imprese (PMI) combinando il sistema operativo per workgroup Windows Storage Server 2012 R2 e la CPU Intel® Atom™ C2338 Dual Core.
Con una capacità che può arrivare fino a 16TB, il WD Sentinel DX4200 consente alle piccole imprese di espandere lo storage a loro disposizione aggiornando man mano i dischi, con l’aumentare delle necessità di archiviazione del loro business. Il WD Sentinel DX4200 rappresenta una soluzione ideale per il backup e fornisce alle PMI tutti i vantaggi dello storage centralizzato in modalità on-premise.
Che si tratti di file personali o professionali, i contenuti digitali hanno un valore inestimabile e sono spesso insostituibili. Basato su Windows Storage Server, il WD Sentinel DX4200 fornisce alle aziende differenti modalità per proteggere le loro informazioni senza necessità di intervento da parte dell’utente. Il dispositivo è pre-popolato con dischi di classe enterprise WD Se, Windows Storage Spaces per la protezione dei dati, software di backup, porte di rete e opzioni di alimentazione ridondanti.
WD Sentinel DX 4200 fornisce protezione dei dati per ogni dispositivo sulla rete dei piccoli uffici ed è supportato da un anno di WD Guardian Services.
1. I dischi interni: Preconfigurato con gli apprezzati dischi WD di classe enterprise per garantire durata e affidabilità.
2. Storage Spaces: Con configurazioni semplici, mirrored o a parità di volume per garantire protezione dei dati e velocità.
3. WD SmartWare™ Pro Backup: Il software di backup e recovery permette di effettuare il backup dei dati fino a 25 dispositivi sulla rete.
4. Connettività di rete ridondante: La doppia connessione Gigabit Ethernet supporta modalità di teaming come Adaptive Fault Tolerance (AFT), che passa automaticamente alla seconda porta di rete nel caso di interruzione del network, Adaptive Load Balancing per condividere un carico di rete e fornire tolleranza agli errori in caso di problemi di porta, cavo o adattatore, e Static Link Aggregation per un superiore throughput di rete grazie all’utilizzo di entrambi gli adattatori di rete.
5. Protezione Disaster Recovery opzionale: E’ possibile connettersi alla cloud aziendale creata dal software opzionale di disaster recovery, per salvare i dati offsite in ottica di disaster recovery.
6. Boot Drive: Sistema operativo preinstallato attivato.
WD Sentinel DX4200 è reso ulteriormente interessante dall’eccellente supporto clienti di WD. Tutti i clienti di WD Sentinel DX4200 avranno WD Guardian Pro per un anno a partire dalla prima chiamata. I clienti di WD Sentinel possono effettuare l’upgrade del loro piano di servizi con una delle seguenti opzioni:
1. WD Guardian Pro: Offre un anno di supporto e servizio WD, con sostituzione espressa dei componenti e accesso prioritario al supporto tecnico.
2. Protezione Guardian estesa: Servizio che estende la garanzia di prodotto da limitata di due anni standard a cinque anni (si veda support.wdc.com per i termini e condizioni).

WD Sentinel DX4200
WD Sentinel DX4200

Le capacità di replica e disaster recovery per i data center remoti incrementate da Brocade

Brocade introduce una nuova estensione della piattaforma che consente alle aziende di ottenere recovery point più brevi e recovery time più rapidi per il restore di dati e applicazioni in caso di evento disastroso, o durante le operazioni di backup e replica su link WAN inaffidabili. La nuova piattaforma di disaster recovery estende la tecnologia Brocade Fabric Vision tra data center per automatizzare il monitoring, incrementare gli insight e semplificare il troubleshooting sulle distanze, per rilevare automaticamente le anomalie della WAN, sostenere le performance ed evitare downtime imprevisti.

Le aziende oggi affrontano sfide significative alla luce della crescita esplosiva del traffico di dati e applicazioni, spinta dalla virtualizzazione, che sta ponendo una pressione significativa sull’IT per mantenere i dati altamente disponibili. Secondo IDC, i requisiti di disaster recovery sono diventati sempre più rigidi per le applicazioni mission-critical, con l’84% delle aziende che registra RPO inferiori a un’ora e il 78% RTO inferiori a quattro ore (“Measuring Cost of Downtime and Recovery Objectives Among US Firms”, Laura Dubois, Eric Burgener, Robert Amatruda, IDC, Dicembre 2013)

Per rispondere e garantire un downtime vicino allo zero e applicazioni sempre disponibili, Brocade ha ampliato il proprio portfolio Fiber Channel SAN Gen 5 con l’aggiunta del nuovo extension switch Brocade 7840, che fornisce un incremento di 6 volte delle performance, unito a una disponibilità senza precedenti e una gestione semplificata tra data center remoti. La soluzione inoltre raddoppia le performance, alla metà dei costi, rispetto ad appliance di WAN optimization che spesso sono impropriamente implementate come alternativa al disaster recovery.

Per completare il nuovo switch, Brocade ha anche esteso la tecnologia Fabric Vision tra data center per fornire nuovi livelli di controllo e visibilità, allo scopo di individuare i problemi più rapidamente ed evitare interruzioni impreviste. Questa nuova funzionalità riduce la complessità e i costi operativi per i data center remoti, contribuendo a ottenere operatività always-on con il massimo uptime applicativo.

Inoltre, l’azienda ha introdotto anche Brocade FC16-64, un nuovo port blade per il director Brocade DCX 8510 che garantisce la più alta densità del settore e la connettività più efficiente a livello energetico, per massimizzare l’utilizzo del sistema e ridurre i costi operativi e quelli in conto capitale. Il nuovo blade incrementa la scalabilità di Brocade DCX 8510 fino a 512 porte Fiber Channel Gen 5 con un totale di banda di sistema di 10.2 Terabit per secondo (Tbps). Ogni blade consuma il 70% in meno di energia rispetto alle soluzioni concorrenti, aumentando allo stesso tempo la densità di porta del 33% e riducendo i requisiti di cablaggio del 75%, migliorando significativamente l’efficienza operativa.

Brocade 7840 migliora la tempestività del disaster recovery aziendale
Riconfermando l’impegno dell’azienda nell’innovazione dei fabric storage, gli switch Brocade 7840 offrono opzioni di connettività 40 Gigabit per secondo (Gbps) e 10 Gbps FCIP, con velocità di throughput dei dati almeno sei volte più rapide rispetto ai competitor. I sistemi di Brocade 7840 forniscono un throughput di dati applicativi a 80 Gbps, assicurando flussi di dati a distanza con crittografia 256-bit IPsec senza impatti negativi sulle prestazioni.

Inoltre, gli switch Brocade 7840 migliorano in modo significativo le performance di replica a distanza, utilizzando la compressione dei dati e l’accelerazione del protocollo di dischi e nastri. Tra le ulteriori funzionalità avanzate che incrementano la disponibilità e l’affidabilità generale della rete vi sono:
· Upgrade non invasivi: facilita le operazioni di business always-on e migliora l’uptime applicativo con gli unici upgrade del firmware WAN-side non invasivi
· Estensione del Trunking: unisce numerose connessioni WAN in un unico trunk logico a banda elevata, garantendo un load balancing attivo e resilienza di rete per proteggere da danni ai link WAN
· Livello di banda adattabile: stabilisce in modo automatico la banda, condividendo i livelli di limite minimo e massimo per ottimizzarne l’utilizzo e mantenere performance WAN durante le interruzioni.

La tecnologia Fabric Vision permette il monitoraggio, la gestione e la diagnosi su lunghe distanze
Esclusiva della famiglia Brocade Fiber Channel SAN, e ora estesa sulle distanze, la tecnologia Fabric Vision è una soluzione hardware e software che supporta le aziende ad accelerare le implementazioni, ottimizzare le risorse, ridurre significativamente i costi operativi e superare la complessità delle infrastrutture tra data center.

Con la tecnologia Fabric Vision, gli amministratori hanno nuovi tool e capacità di automazione che semplificano le operazioni di gestione giorno per giorno, incrementa la produttività e permette il monitoraggio proattivo delle metriche fondamentali tra data center, per rilevare in modo automatico le anomalie sulla WAN, sostenere le performance ed evitare downtime imprevisti.

Tra le funzionalità chiave per il disaster recovery vi sono:
· Monitoring e Alerting Policy Suite (MAPS): semplifica il monitoraggio con automazione basata su policy tra data center per rilevare in modo automatico anomalie sulla WAN ed evitare downtime imprevisti.
· Visibilità dei flussi: accelera il troubleshooting dei flussi di I/O end-to-end a distanza con diagnostiche integrate, ed elimina la necessità di costosi strumenti di terze parti.
· Dashboard: rileva e risolve velocemente i problemi legati alla rete WAN attraverso l’analisi delle cause principali e playback point-in-time. Inoltre, gli amministratori possono visualizzare tutte le informazioni fondamentali da dashboard thin client accessibili via web, permettendo risparmi significativi in termini di tempo e di compiti di gestione.

Supermicro presenta VMware EVO: RAIL, nodi FatTwin Virtual SAN Ready e NVIDIA GRID vGPU SuperServer al VMworld Barcellona

– Soluzioni VMware ottimizzate per calcolo, storage e networking forniscono piattaforme chiavi in mano per la virtualizzazione per scalabilità e adattabilità in ambienti Hyper-Scale

BARCELLONA, Spagna, 14 ottobre 2014 /PRNewswire/ — Super Micro Computer, Inc. (NASDAQ: SMCI), azienda leader globale nella realizzazione di server con elevate prestazioni ed elevata efficienza, tecnologia di storage e soluzioni di calcolo ecologiche presenta il proprio 2U TwinPro™ VMware certificato EVO: RAIL, nodi 4U FatTwin™ Virtual SAN Ready e un programma per l’accesso anticipato NVIDIA GRID™ vGPU™ basato su SuperServer® al VMworld a Barcellona, Spagna, questa settimana. Supermicro EVO: Infrastruttura RAIL con convergenza elevata accelera la distribuzione e ottimizza le prestazioni degli ambienti virtualizzati. L’apparecchiatura 4U 4-nodi FatTwin Virtual SAN è dotata di nodi pronti a distribuire VDI con supporti fino a 400 VM, 8 alloggiamenti sostituibili a caldo per dischi rigidi da 3.5″ per alimentatori digitali U e ridondati, sostituibili a caldo, di livello titanio, a elevata efficienza (96%+). L’ultimo X10 SYS-1028GR-TRT SuperServer® di Supermicro fa parte di un programma per l’accesso anticipato che consente di avere una soluzione GPU virtualizzata con tecnologia NVIDIA GRID GPU. Questa soluzione VDI ad alta densità consolida le risorse di calcolo per carichi di lavoro grafico intenso nei centri dati, che permettono ai clienti da remoto di avere prestazioni di calcolo elevate e scalabili da desktop con grandi benefici in termini di sicurezza, riducendo le spese operative generali. Inoltre, Supermicro sta ampliando le proprie soluzioni di server ottimizzati per VMware, storage e networking utilizzando le più innovative soluzioni ecologiche che comprendono processori Intel® Xeon® E5-2600 v3, gli unici NVMe SSD sostituibili a caldo in grado di offrire fino a 6 IOPS sulle soluzioni SATA esistenti per lo storage e alimentatori digitali di livello titanio a elevata efficienza (96%+).

“La nuova generazione di piattaforme server X10 di Supermicro è dotata di PUE-3 per ridurre i consumi di energia elettrica, innovazioni ottimizzate per il raffreddamento che supportano nodi con processori doppi fino a 165W, un’architettura avanzata che sfrutta al massimo le opzioni per reti ed espansioni, gli unici NVMe SSD del settore sostituibili a caldo e i nostri alimentatori digitali a elevata efficienza di livello titanio,” ha dichiarato Charles Liang, Presidente e Amministratore Delegato di Supermicro. “L’unione delle nostre innovazioni per architetture server e storage con soluzioni software leader di settore ci permette di offrire piattaforme di virtualizzazione estremamente sofisticate in grado di soddisfare le crescenti richieste dei Centri Dati. Con un numero sempre maggiore di core, una maggiore capacità di memoria e soluzioni per lo storage con densità molto elevata presenti sul mercato, sfruttiamo al massimo la densità delle VM per rack per offrire prestazioni elevatissime per watt, per piede quadrato, per dollaro.”

“I clienti trarranno beneficio dalle eccezionali prestazioni grafiche e dalla scalabilità che viene dalla tecnologia NVIDIA GRID vGPU grazie al nostro lavoro con Supermicro e VMware sulla tecnologia vGPU per piattaforme di virtualizzazione di prossima generazione,” ha dichiarato Andrew Cresci, Direttore generale, NVIDIA GRID. “Gli utenti avranno prestazioni e affidabilità di livello pari a quello delle workstation con il vantaggio di condividere una GPU su più utenti – la migliore esperienza grafica virtualizzata e condivisa.”

Supermicro EVO: Apparecchiatura RAIL (SYS-2027TR-VRL001/002) (www.supermicro.com/EVO_RAIL) – 2U TwinPro², 4 nodi, alimentatori digitali ridondati, sostituibili a caldo, di livello titanio, a elevata efficienza (96%+), capacità raw 14.4TB con unità da 10K RPM e caching integrato con SSD, connettività di rete RJ45 (modello VRL001) o SFP+ (modello VRL002). Il bundle software include i componenti vSphere, Virtual SAN e vCenter. Supporta fino a 100 macchine virtuali server per uso generale o 250 macchine desktop virtuali per apparecchiatura.

Nodi VSAN Ready (www.supermicro.com/VSAN) – 4U FatTwin™ (SYS-F627R3-VSN002L) 4 nodi, ognuno che supporta un processore Intel® Xeon® E5-2600 v2 doppio, fino a 6GB di memoria, 33.6TB 10K RPM HDDs, 10GbE SFP+, vSphere 5.5, Virtual SAN 5.5. Supporta fino a 250 macchine virtuali.

Il programma per accesso anticipato di Supermicro NVIDIA GRID vGPU SuperServer® (SYS-1028GR-TRT) – Processore doppio Intel® Xeon® E5-2600 v3, fino a 1TB ECC, DDR4 2133MHz in16 DIMM, fino a 3 NVIDIA GRID K2 GPU che supportanto fino a 48 utenti contemporaneamente, porte doppie 10GBase-T ports, 4 alloggiamenti da 2.5″ SATA3 sostituibili a caldo, alimentatori digitali da 1600W, ridondati, livello platino a elevata efficienza (95%+).

Jeff White: Chief Revenue Officer di Extreme Networks

Jeff White, Chief Revenue Officer, Extreme Networks
Jeff White, Chief Revenue Officer, Extreme Networks
Extreme Networks ha nominato Jeff White chief revenue officer (CRO), con la responsabilità di supervisionare le vendite e le organizzazioni di marketing globali, attive in 80 paesi in tutto il mondo.

White possiede oltre 20 anni di esperienza nel settore del networking, nel quale ha ricoperto ruoli di leadership nelle vendite e nel management negli Stati Uniti e a livello internazionale. Di recente, ha svolto il doppio incarico di president per Cisco India e per South Asian Association for Regional Cooperation (SAARC), con base a Bangalore, in India, dove ha guidato le operazioni di vendita e finanziarie di una divisione da 1 miliardo di dollari. È stato, inoltre, senior vice president con responsabilità di gestione generale in un’azienda di 11.000 dipendenti, che svolgevano funzioni di engineering, servizi, marketing e operative. In precedenza, White è stato vice president di Cisco Asia-Pacific, Giappone e Cina Service Provider, un segmento di 3.5 miliardi di dollari, cresciuto significativamente sotto la sua guida. Prima di entrare in Cisco, White ha svolto numerosi incarichi direzionali in Ameritech, un Incumbent Local Exchange Carrier e in Anixter, un system integrator nazionale.