L’intelligenza artificiale può semplificare la protezione dei dati

Edwin Passarella, Technical Services Manager, Commvault Italia
Edwin Passarella, Technical Services Manager, Commvault Italia
Intelligenza Artificiale e Machine learning: è raro ormai non vedere citate queste tecnologie in articoli o pubblicità. A volte può essere una trovata promozionale, spesso invece le ragioni sono valide, ad esempio, la promessa di automazione per semplificare le nostre vite attraverso lo svolgimento di attività regolari, ed in grado di adattarsi ai cambiamenti per raggiungere gli obiettivi prefissati.
L’idea del machine learning in sé può evocare immagini di un futuro distopico che ricorda il film Terminator, con una trama che narra di esseri umani che perdono il controllo delle macchine da loro create. Nel mondo reale, il vero potere di tecnologie come questa si realizza quando otteniamo il controllo e possiamo stabilire le attività che desideriamo, in qualità di amministratori di sistema e utenti aziendali. Non soccombere alla loro volontà, perché Intelligenza Artificiale e Machine Learning sono in grado di apprendere e imparare ad adattarsi. In molti conosceranno il proverbio cinese “Dai un pesce a un uomo e lo nutrirai per un giorno. Insegna a un uomo a pescare e lo nutrirai per tutta la vita.”
Allo stesso modo stiamo istruendo le macchine a realizzare operazioni su base regolare, definendo le nostre esigenze di business principali, RPO e RTO da applicare ai differenti dati, migliorando la prontezza di ripristino dell’intero ambiente.
È importante scegliere soluzioni in grado di apprendere e di adattarsi ai cambiamenti tramite la definizione di obiettivi, l’identificazione di anomalie e la semplificazione della governance e dei requisiti di conservazione dei dati.
Abbiamo appena iniziato a capire come queste tecnologie possono facilitare diversi aspetti della nostra vita. Alcune aziende inventeranno nomi bizzarri per definire i loro tentativi di automazione. Riteniamo intelligenza artificiale e machine learning essenziali e molto attesi negli odierni ambienti di dati in rapida crescita e apporteranno un nuovo livello di fiducia nei modelli di protezione dei dati, garantendo una migliore visibilità delle operazioni quotidiane e delle anomalie impreviste in modo tale da rendere le attività più semplici.

Crucial SSD P1 NVMe

Crucial, brand di Micron Technology, annuncia l’uscita dell’SSD Crucial® P1, un dispositivo di archiviazione per PC che sfrutta l’interfaccia PCIe® NVMe™ e l’avanzata tecnologia QLC di Micron per offrire velocità e capacità a costi inferiori. Si tratta di un’espansione della pluri-premiata gamma di SSD Crucial ad alte prestazioni, affidabili e convenienti.

L’SSD Crucial P1 offre prestazioni reali al top della sua categoria. I parametri PCMark® 8 mostrano che l’unità è in grado di offrire throughput in modalità mista fino a 565MB/s, con una valutazione composita di 5,084, che supera SSD simili nella stessa fascia di prezzo.3

Con velocità di lettura/scrittura sequenziali fino a 2.000/1.700 MB/s,4 il P1 offre prestazioni stabili grazie all’accelerazione di scrittura ibrida-dinamica, un’implementazione unica della cache SLC. L’unità offre un MTTF di 1,8 milioni di ore e una resistenza fino a 200 TB di byte totali scritti, con un consumo energetico pari a una media attiva di 100 mW.

Disponibile con capacità fino a 1 TB e supportato da una garanzia limitata di cinque anni, l’SSD Crucial P1 sfrutta la tecnologia Micron NAND con celle a quattro livelli (QLC). Memorizzando quattro bit in ogni cella NAND, la tecnologia NAND QLC riduce il divario di accessibilità tra i dischi rigidi e la memoria flash, consentendo maggiori velocità e capacità a un prezzo più conveniente.

È noioso il backup? Dipende…

Cristian Meloni, Country Manager Italia, Rubrik
Cristian Meloni, Country Manager Italia, Rubrik

Il backup è noioso? In molti effettivamente la ritengono un’attività decisamente poco stimolante e ripetitiva. Per molti altri il backup non è noioso, è addirittura il problema più grosso di tutto il data center! Il problema deriva soprattutto dalle limitate innovazioni. Le principali soluzioni infatti hanno avuto solo miglioramenti progressivi negli ultimi 20 anni, senza essere in grado di rispondere alle nuove richieste di data protection. A seguito dell’inarrestabile crescita dei dati, le finestre di backup sono diventate sempre più lunghe, mentre il ripristino appare sempre troppo lento per soddisfare i requisiti delle nuove iniziative digitali e le aspettative in costante evoluzione.
In realtà, oggi il backup si è rivelato uno dei settori più entusiasmanti perché sta attraversando una nuova trasformazione tecnologica che può ridurre drasticamente o addirittura eliminare queste preoccupazioni.
Le soluzioni di backup sono complesse da realizzare, in quanto il backup tende a essere messo in secondo piano durante la progettazione ingegneristica di applicazioni di prossima generazione. Le funzioni native di backup e recovery sono spesso limitate all’interno di un’applicazione e le aziende non vogliono avere a che fare con più prodotti di backup. Hanno bisogno di una soluzione centralizzata, che soddisfi tutta una serie di richieste non standardizzate che toccano diversi sistemi operativi, file system, applicazioni, workload e infrastrutture di produzione. Inoltre, ora che il Cloud pubblico è ampiamente adottato per snellire i carichi di lavoro del data center, il backup deve essere in grado di operare anche con differenti infrastrutture Cloud, ognuna con le proprie peculiarità. Per questo si ha molto rispetto per gli ingegneri che progettano e implementano soluzioni di backup. Sono davvero gli eroi silenziosi che consentono di proteggere e ripristinare applicazioni e dati critici.
Anche la gestione del backup non è semplice. I software tradizionali tendono a proporre tutte le opzioni e le possibilità di scelta, rendendo più difficile capire la situazione e prendere la decisione corretta. Spesso il backup richiede un costoso supporto da parte di servizi professionali e consulenti per l’implementazione, la configurazione e la gestione. Una schedulazione classica basata sui job di backup richiede infatti troppo tempo per essere gestita e non offre scalabilità. Come gli storage si sono automatizzati per mascherare la complessità sottostante di lun e gestione volumi, perché i software di backup non possono automatizzare le loro complesse operazioni?
È importante quindi garantire non solo la riduzione della complessità delle infrastrutture di backup sfruttando appliance semplici da installare, scalabili e self-healing, piuttosto che soluzioni software-defined. È necessario anche automatizzare l’intero processo di backup e recovery, rendendolo più snello, veloce e affidabile.
In questo modo, non solo il backup si rivelerà un’attività tutt’altro che noiosa o ripetitiva, ma potrà anche dare un supporto concreto alle attività di business, riducendo la necessità di risorse e velocizzando i processi.

Integrazione dei sistemi UPS modulari a INTELEC 2018

Socomec prenderà parte a INTELEC 2018 – International Telecommunications Energy Conference – con un intervento dedicato ad approfondire il tema dell’integrazione dei sistemi UPS modulari con tutte le componenti esterne necessarie al loro funzionamento. Il contributo è in agenda per mercoledì 10 Ottobre alle ore 14.00 nella sala Lisbona del Lingotto Conference Centre di Torino.

I sistemi UPS modulari sono caratterizzati da un livello di affidabilità molto
più elevato rispetto ai sistemi UPS monolitici. Entrambi però, per funzionare correttamente nell’impianto, hanno la necessità di essere collegati in modo opportuno con la rete di alimentazione, le batterie di riserva e le applicazioni, inoltre c’è da considerare le modalità di
interconnessione dei diversi armadi dello stesso sistema UPS. Le differenti soluzioni con cui si possono integrare tutte queste parti hanno una forte influenza sull’affidabilità complessiva del sistema di alimentazione.
L’intervento di Socomec intende analizzare l’affidabilità di un sistema UPS modulare proprio considerando la sua integrazione con tutte le parti esterne all’UPS, analizzando l’affidabilità di ciascuna delle diverse possibili architetture del sistema di alimentazione e delle diverse soluzioni di interconnessione. Lo scopo è di definire delle linee guida pratiche per
l’integrazione ottimale dell’UPS, in modo da assicurare anche per il sistema globale una elevata affidabilità.