Datacenter Experience 2017 a Milano

Datacenteor Experience 2017 si svolgerà a Milano il 14 marzo presso l’Hotel Michelangelo (Piazza Luigi di Savoia, 6).
Questa l’Agenda:
08.30 Registrazione dei Partecipanti
09.00 Benvenuto e Apertura Lavori a cura di Roberto Maggiora, Politecnico di Milano
09.20 Keynote speech: Industry 4.0
SESSIONE PARALLELA 1 – SESSIONE PARALLELA 2
09.50 Intervento a cura di Brocade – IoT e Industry 4.0: i nuovi trend per l’infrastruttura tecnologica, Alessio Nava, Rittal
10.15 Intervento a cura di Data4 – Intervento a cura di Piller
10.40 Coffee Break e visita all’area espositiva
11.20 Intervento da definire – Intervento a cura di Bticino
11.50 Intervento da definire – Intergrazione tra condotti sbarre e rack, Serdar Gorali, Eae
12.15 SESSIONE PLENARIA Tavola Rotonda: Identità Digitale
13.15 Buffet Lunch e visita all’area espositiva
SESSIONE PARALLELA 1 – SESSIONE PARALLELA 2
14.15 Intervento da definire – Intervento a cura di Bachmann
14.45 Intervento da definire – Intervento da definire
15.05 Intervento da definire – Intervento da definire
15.30 SESSIONE PLENARIA Tavola Rotonda: Progetti Innovativi
16.30 Coffee Break e visita all’area espositiva
16.50 “Gli incentivi fiscali dell’ Industria 4.0”
La Legge di Bilancio 2017 prevede ammortamenti maggiorati per beni strumentali nuovi e per i connessi beni immateriali strumentali. Lo scopo è di favorire il processo di trasformazione tecnologica e digitale secondo il modello “Industria 4.0”. Vedremo quali sono i “paletti” previsti dalla normativa per ottenere un ammortamento aggiuntivo sino al 150% del valore speso.Roberto Ferrari, Ragioniere Commercialista
17.10 Norme e degli standard di sicurezza applicabili al Cloud Computing e alla conservazione dei dati, alla luce dei contenuti delle disposizioni di cui alla Direttiva NIS 2016 e del Regolamento Comunitario EUGDPR.
Giuseppe Serafini, Avvocato del Foro di Perugia
17.35 Chiusura dei lavori ed estrazione dei premi

Nuovo hard disk N300 da 8TB ad alta affidabilità per NAS da Toshiba

Toshiba Electronics Europe (TEE) Personal Storage Division aggiunge un nuovo modello da 8 TB alla serie di hard disk ad alta affidabilità da 3,5” N300 per i NAS (Network Attached Storage), ideale per utenti consumer, home office e piccole imprese. Il nuovo modello è ottimizzato per garantire prestazioni, affidabilità e massima resistenza per le operazioni ad alta capacità di storage 24 ore su 24 per 7 giorni su 7, gli utenti ora possono soddisfare ancora meglio le proprie esigenze con la versione da 8 TB, che si aggiunge a quelle da 4 e 6 TB lanciate precedentemente.

La serie N300 è progettata per ambienti NAS dove grandi volumi di dati devono essere archiviati continuamente in modo affidabile. Grazie al supporto fino a un massimo di otto alloggiamenti per drive in configurazioni NAS multi-RAID, è possibile rispondere alla crescente esigenza di archiviazione dei dati.

Tutti i drive della serie N300 integrano un ampio buffer dati da 128 MB e la Dynamic Cache Technology di Toshiba, un algoritmo cache self-contained con buffer management integrato, che ottimizza l’allocazione della cache durante i processi di lettura/scrittura per garantire prestazioni di alto livello richieste dai domini in tempo reale.

Per massimizzare l’affidabilità, la serie N300 di Toshiba integra tecnologie avanzate, come il controllo avanzato e la tecnologia di rilevamento per mitigare l’effetto di vibrazioni, cadute e surriscaldamento, prevenendo il downtime. Per esempio i sensori multipli di caduta rilevano e compensano urti e vibrazioni di rotazione, mentre il controllo error recovery riduce il tempo di ripristino degli errori dei dati. L’affidabilità è ulteriormente supportata attraverso la tecnologia Ramp Load di Toshiba, che riduce l’usura e le possibilità di rottura della testina dell’hard disk.

L’hard disk N300 da 8 TB ad elevata affidabilità è disponibile da febbraio con un’estensione della garanzia a tre anni al prezzo di 430 euro IVA inclusa.

Email archiving fondamento del Data Management

Vincenzo Costantino, Technical Services Manager, Commvault
Anche se la conformità a normative e direttive non è un concetto nuovo, la pressione, il costo e lo sforzo per soddisfare indicazioni di data compliance hanno ormai raggiunto livelli significativi. I legislatori impongono alle aziende di conformarsi alle regole che governano lo storage e l’archivio dei messaggi di posta – soprattutto quando hanno a che fare con informazioni personali – favorendo l’adozione di nuove soluzioni per la data compliance.

L’avvento dei Big Data e l’esigenza di gestire grandi volumi di data stream hanno portato negli ultimi anni alla messa a punto di nuovi modi per garantire la conformità e trasformare le procedure di business.

Nuovi approcci al data management offrono la fase di discovery iniziale critica per aiutare le organizzazioni a identificare la sensibilità e il potenziale rischio di compliance di tutti i dati prima di strutturarli in un database di informazioni strategiche accessibile e di facile utilizzo.

Molte aziende devono ancora arrivare al punto in cui sono in grado di sfruttare al meglio i dati archiviati per una conformità più efficace. I compliance leader di tutti i settori hanno l’arduo compito di determinare quali dati misurare e come. Le soluzioni di data compliance attualmente disponibili sono molte e varie. E anche se le esigenze di conformità variano a seconda dei segmenti, le aziende oggi riconoscono la necessità di analizzare i dati non solo in riferimento agli obblighi di compliance, ma anche correlati alla possibilità di identificare un vantaggio competitivo dai risultati della funzione di conformità.

I pillar principali di una soluzione di data compliance efficace devono prevedere alcuni fattori. Uno di questi è l’accesso e la gestione intelligente alle informazioni, che permette ai manager di proteggere il business e di risparmiare offrendo un percorso semplice e rapido per rispondere a richieste di compliance e legal discovery. Dati in precedenza non strutturati e non taggati possono così essere sfruttati per dare luogo a decisioni di business strategiche, garantendo all’azienda massima produttività ed efficienza.

Un secondo fattore prevede l’uso di una piattaforma integrata per funzioni quali l’enterprise search ed eDiscovery, assicurando un accesso rapido e trasparente ai dati quando l’azienda ne ha più bisogno. Uno studio di Osterman ha rivelato che a quasi il 55 percento delle imprese è stato chiesto di presentare email da parte di un tribunale o ente normativo. Piuttosto che assumere una terza parte per cercare tra tutti i dati al fine di trovare le informazioni richieste, un’efficace soluzione di data compliance garantisce la disponibilità di valutazioni preliminari in grado di raffinare i data set e fornire solo le informazioni necessarie in modo sicuro e accurato.

Il terzo aspetto fondamentale è la disponibilità di un efficiente sistema di email archiving. La conformità proattiva richiede la capacità di navigare all’interno di grandi data stream. IDC rivela che il 60 percento delle informazioni critiche per le aziende è archiviato nella posta; in altre parole, è indispensabile che l’email storage sia accessibile e strutturato. Una strategia di email archiving adattiva assicura la continuità di business e la disponibilità di informazioni critiche.

Storage dei dati di videosorveglianza plug&play

Overland Storage (Sphere 3D ) ha annunciato l’offerta pre-configurata e integrata con MOBOTIX per lo storage dei dati di videosorveglianza realizzata sulla rinomata soluzione di Network Attached Storage (NAS) SnapServer. MOBOTIX e Overland Storage hanno collaborato per arrivare a un nuovo standard di semplicità e integrazione tra i sistemi di rete IP per la videosorveglianza e quelli di archiviazione dati.

Ogni referenza (SKU) MOBOTIX SnapServer pre-configurata e ottimizzata nelle prestazioni è dotata di una guida utente rapida illustrata e di semplice comprensione. La soluzione può essere scalata per supportare fino a 50 videocamere. Adottando le telecamere IP MOBOTIX, il tempo di installazione si riduce di oltre il 90 per cento rispetto alle tipiche soluzioni di videosorveglianza che non sono pre-configurate per l’auto-installazione. Subito dopo il completamento dell’installazione, che richiede pochi minuti, le telecamere si accendono automaticamente e cominciano a inviare il flusso audio/video agli SnapServer.

L’offerta integrata di videosorveglianza offre le seguenti funzionalità e benefici:
· Installazione ‘plug&play’ e amministrazione semplificata
· Potente software di gestione video incluso senza costi aggiuntivi
· Configurazioni entry-level convenienti che sono altamente scalabili per ambienti più grandi e siti remoti multipli
· Sistema di storage SnapServer ad alte prestazioni che consente ricerche di sequenze video ad alta velocità
· Supporto per l’archiviazione e l’archiviazione remota dei dati tramite sistemi a disco rimovibile RDX® QuikStor™ collegabili direttamente (venduti separatamente) disponibili tramite Tandberg Data, società controllata di Sphere 3D

Google commissiona all’Università di Udine uno studio per la riduzione del consumo energetico dei propri data center

Google ha commissionato all’Università di Udine uno studio per la riduzione del consumo energetico dei propri data center, ovvero i centri di elaborazione sparsi nel mondo in cui vengono eseguite le ricerche in internet degli utenti di Google. Nel 2013 è stato stimato il consumo di tutti i data center (Amazon, Google, Facebook, ecc.) di 91 miliardi di kilowattora, nel solo territorio statunitense, e per il 2020 è prevista una crescita che raggiungerà 140 miliardi di kilowattora. Soltanto negli Stati Uniti, quindi, il consumo energetico totale richiede un’energia equivalente a quella prodotta da più di 30 grosse centrali termoelettriche a carbone da 500 megawatt. Lo studio dei ricercatori udinesi punta a ridurre il consumo energetico dal 5% al 6%, con un conseguente risparmio che potrebbe aggirarsi intorno 3 milioni di dollari l’anno per ogni data center di Google, che ne possiede svariati in tutto il mondo.

Lo studio, finanziato per 100 mila dollari e della durata di un anno e mezzo, è condotto da Stefano Saggini, docente di elettronica del Dipartimento Politecnico di ingegneria e architettura dell’Università di Udine, con Roberto Rizzolatti e Mario Ursino, dottorandi di ricerca in Ingegneria industriale e dell’informazione, già laureati in Ingegneria elettronica a Udine, supportati dalla collaborazione del tecnico del dipartimento Fabiano Zaninotto.

«Si parla spesso – evidenzia Stefano Saggini – di social network, internet of things e cloud computing, ma senza considerare che i servizi informatici hanno dei costi in termini energetici e quindi economici e ambientali». In pratica, «i computer aumentano negli spazi dei data center – sintetizza Saggini – ed è necessario spendere energia per raffreddarli. Il nostro lavoro studia come ridurre il consumo energetico, e quindi l’impatto ambientale e la bolletta energetica dei data center, a partire dalla messa a punto di sistemi più efficienti di alimentazione dei processori dei grandi server».

Il rapporto fra Google e Stefano Saggini nasce grazie allo sviluppo di alcune soluzioni innovative per l’alimentazione dei server messe a punto da Saggini nel 2014 nell’ambito di una ricerca condotta per la multinazionale di componenti elettronici italo-francesce STMicroelectronics, soluzioni proposte poi dalla stessa multinazionale a Google. Successivamente, Google ha deciso di finanziare il laboratorio di elettronica di potenza dell’Università di Udine e di avviare e finanziare questo progetto.