Per evitare di annegare nei dati

Marco Rottigni, Chief Technical Security Officer EMEA di Qualys
I responsabili della sicurezza IT dispongono di una quantità di informazioni superiore al passato, ma questo non li aiuta a risolvere i problemi e non consente loro di concentrarsi sulle priorità di business. E’ indispensabile migliorare il consolidamento dei dati, i livelli di prioritizzazione e i processi.
Dati, dati ovunque, ma riusciamo a fermarci a pensare?
In primis è importante verificare le fonti disponibili da cui attingere i dati sugli apparati IT, sul livello di sicurezza e di conformità.
I Responsabili IT che hanno già consolidato i propri processi si affidano a strumenti di IT Asset Management (ITAM) o database di Configuration Management (CMDB), mentre chi si basa su approcci meno formalizzati analizza ancora i dati elaborati in fogli di calcolo e database proprietari. I dati di compliance sono conservati principalmente su fogli di calcolo o documenti, talvolta provenienti da società di revisione o di consulenza.
Alcune organizzazioni utilizzano software specializzati per monitorare la compliance ed eseguire controlli, ma spesso utilizzati da team che non comunicano tra loro. Altre informazioni che occorre considerare sono: abbiamo troppe fonti che si sovrappongono?
Riusciamo a consolidare gli insiemi di dati – riducendo se possibile il numero di tool utilizzati per raccoglierli – in un unico ambiente?
Se pensiamo di sincronizzare più fonti di dati insieme, è importante procedere su una base affidabile e coerente, ma se questo risulta difficile – è richiesto un lavoro manuale per ottenere risultati tempestivi – allora potrebbe essere più conveniente ed accurato consolidare strumenti e prodotti ovunque sia possibile.
Dopo aver analizzato la fonte dei dati, serve ragionare su come migliorare l'utilizzo di queste informazioni, mirando al contesto e all'accuratezza dei dati. In questo caso, il contesto implica la fornitura dei dati più appropriati, filtrati per soddisfare un obiettivo o un requisito specifico.
L’accuratezza invece implica la fornitura di informazioni aggiornate a quanto sta avvenendo in questo momento piuttosto che rispetto ad un giorno o una settimana fa. E’ altresì importante rivedere i processi per la gestione e l'utilizzo di questi dati su base giornaliera. Ad esempio, quali sono i processi di prioritizzazione e remediation delle superfici vulnerabili oggi? È già in essere un approccio efficace ed efficiente, oppure richiede una maggiore supervisione per assicurare buoni risultati? Ogni organizzazione dovrebbe mirare alla precisione perché la mancanza di dati accurati porta ad un eccesso di informazioni, che devono essere analizzate prima di poterle considerare inutili ed eliminarle.
Secondo uno studio IDC, il tempo medio impiegato per gestire un problema di sicurezza richiede da una a quattro ore per incidente e coinvolge due membri del team SecOps (Fonte: The State of Security Operations). Data la carenza di competenze in materia di sicurezza, il più grande vantaggio aziendale che si ottiene dai dati accurati è l'efficienza operativa. Dati più accurati riducono il numero degli eventi da investigare, permettono al team di approfondire solo gli eventi importanti e di risparmiare tempo prezioso per altri compiti. Le diverse fonti di dati possono poi essere utilizzate in tandem, partendo dalle informazioni Cyber Threat Intelligence per comprendere la nostra esposizione e la relativa sfruttabilità in tempo reale, fino ai dati dell’IT Asset Management (ITAM) che possono dirci cosa abbiamo installato e qual è lo stato di questi apparati. La combinazione di queste due fonti aiuta ad avere coscienza di quando problematiche di security si manifestano nell’organizzazione e dell’urgenza di rimedio o di altre forme di mitigazione.
Pensare fuori dagli schemi
Le considerazioni fatte dovrebbero aiutarci ad adottare un approccio pratico per la gestione degli asset IT su base regolare. Tuttavia, l'IT di oggi è costituito da molti dispositivi e servizi che non sono collegati al nostro network o vengono ospitati e gestiti da terze parti, come ad esempio i servizi dei grandi provider di cloud pubblico, come Amazon o Microsoft. Per ogni piattaforma esterna utilizzata dalla nostra impresa, dovremmo avere la medesima granularità di dati che usiamo internamente, informazioni che poi devono essere centralizzate per consentire di esaminare l’intero contesto.
In aggiunta, maggiore è il numero di servizi IT che sposteremo in cloud, maggiore sarà il volume dei dati – basato sulla scansione continua per le vulnerabilità, sulle modifiche delle risorse IT e sulla implementazione di nuovi dispositivi nel tempo.
Poter gestire tutte queste informazioni è complicato quando si tratta di individuare potenziali problemi, ma diventa essenziale per capire quali elementi sono più importanti per il business. Le informazioni sono importanti anche per identificare risorse e dispositivi critici per il business, assicurandosi che ricevano immediata attenzione in caso di cambiamenti di ambiente. La classificazione di questi aggiornamenti permette al team di prioritizzare gli sforzi. Tali insiemi di dati forniscono anche avvisi quando si manifestano condizioni di rischio per la sicurezza e consentono la rapida individuazione di quelle risorse che necessitano di patch.
La centralizzazione dei dati supporta gli obiettivi di molti team: i team di gestione delle risorse e delle operazioni IT, le divisioni addette alla sicurezza e i professionisti di compliance, richiedono tutti gli stessi dati sulle infrastrutture IT utilizzate all’interno dell’azienda. Le differenze sono legate alla prospettiva e alle azioni da implementare.
Se, ad esempio, pensiamo ad un'istanza del server di cloud virtuale in un account AWS, dovremo installare un agente nella ‘golden image’, che inizierà a raccogliere dati dal momento in cui viene generata qualsiasi nuova immagine del server.
Per il personale IT, l'agente fornirà informazioni preziose sulle risorse che utilizza: dove è collocato geograficamente, quando è stato avviato l’ultima volta, quale software ha installato, quale software proprietario o open source utilizza e quali sono le informazioni di fine supporto legate a questo software.
Al contrario, il team di sicurezza vorrà valutare questi dati dell'agente per verificare ogni nuova vulnerabilità, per rilevare i segni sulla compromissione dei dati e capire se gli exploit sono disponibili per le vulnerabilità rilevate, ricevendo anche informazioni sulla disponibilità di nuove patch da aggiornare. Il team di compliance dovrà invece verificare se il server è conforme al set di controlli inclusi in qualsiasi framework di controllo applicabile, includendo PCI DSS per i dati delle carte di pagamento o dati coperti dalle linee guida GDPR.
Come illustrato in precedenza, è possibile aumentare la consistenza di tutti i processi attivi tramite la creazione di un’unica fonte di verità basata su dati di asset IT, minimizzando lo sforzo richiesto per processare e distribuire questi dati.
Analogamente, questi dati sono molto utili per supportare altri dipartimenti aziendali su temi di sicurezza. Quando pubblicazioni di alto livello condividono storie sugli ultimi attacchi e brecce informatiche, il numero degli interessati di solito aumenta.
Essere in grado di fornire loro informazioni in modo proattivo su tutti problemi può sicuramente contribuire a diffondere fiducia nei piani di sicurezza da noi adottati all’interno dell'organizzazione.
Ampliare l’attenzione ai dati delle risorse IT La gestione della sicurezza si basa sempre più sui dati. Senza questa consapevolezza, diventa difficile dare priorità ai problemi e garantire che tutte le risorse IT siano sicure. Tuttavia, saper gestire l’intero volume dei dati basato su un’unica ed accurata fonte che ruota attorno agli strumenti IT è un grande problema, soprattutto se non disponiamo degli strumenti adeguati. Tornando all’esempio precedente di un'istanza del server cloud, possiamo evitare un'eccessiva duplicazione del lavoro manuale quando l'IT decide di disattivare un server perché non più necessario. Invece di dover aggiornare una miriade di fogli di calcolo e database tra i diversi team aziendali, con una piattaforma centralizzata si riesce a fare la modifica istantaneamente. Il server viene rimosso dalla dashboard legata alla sicurezza e la conformità migliorerà automaticamente.
In sintesi, riteniamo essenziale centralizzare tutti i dati e ottenere una vista unificata su tutte le risorse IT, indipendentemente dal luogo in cui si trovano e dal momento in cui facciamo una ricerca. Il consolidamento dei dati dovrebbe inoltre facilitare la gestione, l'analisi e la ricerca di informazioni su asset, software e aggiornamenti installati. Avere un quadro dettagliato di tutti gli aggiornamenti necessari per la sicurezza dei nostri dati, ben collegati all’ambiente reale, ci garantisce il perfetto allineamento dei tool IT alle priorità del nostro business.

Vademecum per le aziende che vogliono mettere al sicuro i propri dati

OVH fornisce una serie di consigli che mirano a prevenire, attraverso alcune semplici operazioni, la perdita di dati, sia per i casi dovuti ad errori sia per quelli collegati ad attacchi esterni.

Danni economici crescenti
Oggi per singoli cittadini, ma soprattutto per le aziende, il danno causato dalla perdita di dati può essere ingente e raggiungere somme considerevoli. Secondo l’edizione 2018 del Cost of a Data Breach Study realizzato dal Ponemon Institute, un data breach costa all’azienda che lo subisce mediamente quasi 4 milioni di dollari. Se gli attacchi informatici sono responsabili del 48% di questi problemi, nella maggior parte dei casi sono gli errori umani (27% del totale) e i problemi tecnici (25%) ad essere la causa dei danni economici legati alla mancata protezione e corretta conservazione dei dati.
“Quando calcoliamo i costi dovuti alla perdita di dati dobbiamo prendere in considerazione quelli economici diretti” spiega Dionigi Faccenda, Sales Manager South West Europe, NA e LatAm di OVH, “che sono sicuramente elevati, oltre al possibile calo di fatturato, al turnover dei clienti e al maggior impegno richiesto per acquisirne di nuovi. Inoltre, non possiamo trascurare il danno reputazionale e il sentiment pubblico negativo che deriva dalla scoperta che un’azienda non ha saputo gestire, per superficialità o negligenza, nella maniera corretta i propri dati”.
L’accesso ai dati è fondamentale in ogni momento per le organizzazioni, tanto che Il 93% delle aziende che non riesce non riesce ad accedervi per più di 10 giorni presenta istanza di fallimento nel giro di 12 mesi (fonte: SSE Network Services), e il 40% cessa l’attività nell’anno successivo a un guasto informatico critico (fonte, IMPACT Technology Group).

Cosa fare per evitare rischi
L’aspetto paradossale è che questi numeri potrebbero essere ridotti in maniera sostanziale se le organizzazioni adottassero una serie di buone pratiche, che non implicano stravolgimenti nelle abitudini delle aree coinvolte né tantomeno ostacolano le attività legate al business. Una situazione che riguarda sicuramente anche l’ambito del cloud computing e che ha spinto OVH, provider mondiale del Cloud hyperscale, a riassumerle in un vademecum comprensibile e di semplice applicazione: Se si utilizzano virtual private server (VPS) è necessario pianificare un backup automatico quotidiano, esportarlo e replicarlo alcune volte È importante essere in grado di salvare e recuperare file su uno spazio dedicato grazie a protocolli differenti (FTP, NFS e CIFS…), a prescindere dal sistema operativo utilizzato, così da mettere al sicuro i propri dati anche in caso di interruzione del servizio Inoltre, una strategia efficace di backup consiste nel creare un’istantanea della propria macchina virtuale (Snapshot). Contrariamente a un backup completo, non si ha bisogno di bloccare i servizi per impedire la modifica dei dati durante la procedura. In questo modo, si ha sempre a disposizione un punto di ripristino Infine, è importante prevedere la redazione di un report con la lista e lo status dei propri backup “L’adozione di una serie di semplici accorgimenti permette di scongiurare la maggior parte dei rischi” prosegue Faccenda, “e noi in OVH raccomandiamo costantemente ai nostri clienti e partner di dedicare la giusta attenzione a questi aspetti, affiancandoli nell’esecuzione di operazioni che garantiscono l’accesso e l’integrità dei dati e conseguentemente la sicurezza del loro business”.

No data loss

Aruba condivide una serie di utili consigli per mettere in sicurezza i propri dati.
I casi di perdita dei dati sono più frequenti di quanto si possa credere; basti pensare che un sondaggio a livello globale condotto da Ontrack Data Recovery nel 2018 ha fatto emergere che, su circa 350 clienti coinvolti in data loss, il 33% degli intervistati non stava utilizzando alcun sistema di backup quando si è verificata la perdita dei dati.
Garantire la protezione del dato oggi è ancora più necessario: come ormai è noto, secondo il GDPR – art. 5, comma 1, par. f – è infatti necessario assicurare al cliente l’accesso ai dati – qualora ne faccia richiesta – e adottare sistemi per memorizzare i dati in modo sicuro, evitando che possano essere cancellati accidentalmente. Se si è consapevoli dell’importanza dei propri dati, l’utilizzo di soluzioni di backup dovrebbe essere una consuetudine.
Per questa ragione Aruba ha deciso di dare dei validi consigli per chi vuole salvaguardare i propri dati o quelli dei propri clienti.

1. Fidarsi del cloud: la scalabilità del cloud offre soluzioni rapide per trasferire e salvare i propri contenuti su un’infrastruttura remota. Tra i vantaggi, la facilità di consultare i file e modificarli da qualunque parte del mondo, in qualunque momento, senza limitazioni di compatibilità con software o sistemi operativi.
2. Fare backup costanti: esistono software in grado di eseguire backup regolarmente, in maniera automatica, su base oraria, giornaliera, settimanale o mensile – a scelta – riducendo quindi al minimo l’effort e minimizzando l’uso della banda per non interferire con le altre operazioni quotidiane. Il suggerimento è, quindi, di impostare backup costanti ed eseguire test di ripristino a cadenza regolare, in modo da prevenire eventuali perdite di dati.
3. Considerare soluzioni di Disaster Recovery: Backup e Disaster Recovery sono due facce della stessa medaglia, il primo mira a salvaguardare il dato in maniera granulare con la possibilità di ripristinare il dato risalendo ad un momento specifico indietro nel tempo, il secondo permette invece di ripristinare un servizio, nella sua interezza, a seguito di un evento disastroso che può aver portato anche alla perdita effettiva del sito di erogazione del servizio; il cui ripristino avviene secondo precisi Piani di Disaster Recovery (DRP). La strategia più corretta per tutelare qualsiasi azienda è di porre attenzione e implementare entrambe le soluzioni: sempre più business sono consapevoli di questo tipo di prevenzione.
4. Scegliere un provider di fiducia: la scelta madre, in quanto i dati non finiscono in un buco nero, ma vengono conservati all’interno di data center, luoghi fisici che possiedono una ben precisa collocazione geografica, certificazioni e parametri di sicurezza ideati e applicati ad hoc. Al loro interno le informazioni sono duplicate e ridondate e i server sono operativi 24 ore su 24. All’interno della propria strategia di business, l’IT – che cresce d’importanza come elemento strategico – pone sempre più attenzione sulla scelta del fornitore dell’infrastruttura tecnologica per sapere dove siano esattamente conservati i propri dati, in quali data center siano salvati e con quali requisiti di qualità e sicurezza. Molti, ancora, si accertano personalmente che il fornitore eroghi servizi certificati secondo gli standard di settore, quali ad esempio le ISO 9001 e 27001.

“Rispetto al passato il livello di sensibilizzazione è certamente più alto, pur essendoci ancora aziende che hanno il timore di esternalizzare i propri dati, pensando che mantenerli all’interno sia più sicuro. Giornate come il World Backup Day devono far capire che non è così. – ha commentato Lorenzo Giuntini, Head of Engineering di Aruba – Sappiamo che i dati sono il bene più prezioso di ogni azienda, l’oro dei nostri giorni, e proprio per questo motivo vanno affidati a professionisti e messi in sicurezza. Vogliamo far capire che esistono servizi e soluzioni di alto livello in termini di sicurezza, ad esempio il Cloud, il Backup e il Disaster Recovery e si può scegliere dall’archiviazione del singolo dato o di un progetto, alla protezione di interi processi e dell’infrastruttura. Il consiglio in questo senso è, quindi, di affidarsi ad un team di esperti e specialisti che possiedono il giusto know-how per implementare e suggerire la soluzione ideale per ciascun caso, ma anche di affidarsi a un provider che possa garantire la totale sicurezza del dato stesso, mettendo a disposizione infrastrutture d’avanguardia, certificazioni e garanzie di alto livello.”

Always-on enterprise: il backup è essenziale

Luca Dell’Oca, EMEA Principal Cloud Architect Veeam

Una visione e una strategia aziendale chiare potrebbero far pensare al backup come ad un elemento discutibile e non fondamentale. Alcuni dirigenti diranno che avere un piano B significa già pensare che il piano A non funzionerà mai. Ma c’è un tipo di backup che è quasi universalmente riconosciuto come una necessità: quando si tratta di archiviazione di file e applicazioni, il backup e la replica sono ampiamente considerati un dato di fatto. Tuttavia, l’importanza del backup viene talvolta trascurata, un errore che nessuna azienda dovrebbe commettere.
Sia in caso di interruzioni causate dall’hardware, che da attacchi informatici o da errori commessi dall’utente, è sempre necessario avere un piano B quando si tratta di business continuity e di proteggere la disponibilità dei dati. Quando si verifica un problema di disponibilità dei dati, i dipartimenti IT sono sotto pressione per ridurre al minimo l’impatto sui dipendenti e sui clienti. La Giornata Mondiale del Backup è un’opportunità per ricordare alle aziende l’importanza di proteggere i propri dati e di elaborare e sostenere un piano di ripristino di emergenza.
Secondo le statistiche di Market Research Future, si prevede che il mercato del cloud backup raggiungerà i 5,6 miliardi di dollari entro il 2023, con un CAGR del 21% in un periodo di cinque anni. Data l’esplosione del mercato globale del cloud computing, che si stima possa raggiungere i 623,3 miliardi di dollari entro il 2023 con un CAGR del 18% su un periodo quinquennale, questa crescita del cloud backup non sorprende. È comunque ancora incoraggiante il fatto che aziende stiano lavorando per investire nel backup e nella replica dei dati, prendendo assolutamente sul serio il tema della data availability.
D’altra parte, anche i consumatori stanno cominciando a gestire i loro dati in maniera più accurata, ciò è dovuto anche a fatti recenti come il caso di Cambridge Analytica o l’introduzione della nuova regolamentazione europea GDPR, che hanno portato la questione della gestione dei dati all’attenzione dell’opinione pubblica. L’avvento del GDPR pone anche la questione della possibilità, da parte degli utenti, di poter visualizzare i loro dati personali archiviati, e le aziende devono dar seguito a questa richiesta entro un mese. In merito a questo, le aziende devono ricordare che i consumatori, i dipendenti e i clienti si aspettano che le informazioni richieste siano sempre disponibili e condivise con loro quasi in tempo reale, ormai viviamo in un mondo dove trovare risposte alle proprie domande è immediato, basta fare una ricerca su Google o chiedere ad Alexa, la risposta è istantanea.
La principale minaccia alla disponibilità dei dati è un’interruzione delle operazioni IT di un’azienda. Data la complessità degli ecosistemi di gestione dei dati, con molte aziende che stanno esplorando strategie IT ibride e multi-cloud, oggi più che mai, i reparti IT devono prestare attenzione ad ogni minimo dettaglio. Da un certo punto di vista, questo può anche essere visto come una benedizione. Nell’era del cloud, le aziende non dipendono da un singolo punto di interruzione e possono creare backup virtuali in altri luoghi per ogni pacchetto di dati che producono. Questo va ponderato con i protocolli di privacy e il valore di alcuni dati, nonché con considerazioni aziendali quali i vincoli di bilancio e le priorità di business.
Le aziende, grazie a una solida strategia di cloud backup e di disaster recovery, possono garantire la disponibilità dei dati in qualsiasi momento, tenendo anche conto del fatto che alcuni dati sono più importanti per il backup rispetto ad altri dati, infatti i dati e le applicazioni mission-critical devono essere sottoposti a backup continuo. Altra questione importante sono i tempi di inattività non pianificati, definiti tali proprio perché possono colpire in qualsiasi momento.
Pertanto, i backup devono essere eseguiti quando i dati vengono modificati per garantire che le informazioni fondamentali e i sistemi su cui l’azienda si basa possano essere ripristinati esattamente com’erano prima dell’interruzione. Soluzioni come il Backup-as-a-service (BaaS) e il Disaster Recovery-as-a-service (DRaaS) garantiscono protezione e business continuity. Grazie a costi basati su op-ex, il modello ‘x as a service’ consente alle aziende di pagare i servizi in base a come li utilizzano, piuttosto che fare investimenti di capitale restrittivi che non sempre hanno un ROI adeguato. In particolare, le organizzazioni devono considerare i propri servizi di backup e ripristino come parte fondamentale della più ampia gestione dei dati e della strategia cloud. Veeam Availability Suite fornisce una soluzione olistica per il backup e la replica su cloud e disaster recovery, assicurando la disponibilità per tutti i workloads – virtuali, fisici e in cloud – da un’unica console di gestione.
La consapevolezza del valore dei dati è in aumento, e nella Giornata Mondiale del Backup, i responsabili IT dovrebbero prendersi un momento per riflettere se la loro strategia di backup e ripristino è adatta allo scopo e in linea con le loro esigenze di business continuity. Dato che le esigenze di disponibilità dei dati nel business digitale continuano ad evolversi, disporre di un’infrastruttura a prova di futuro non può che essere un must per tutte le imprese moderne.

WD Blue SSD anche con standard NVMe

Western Digital sta accelerando il passaggio allo standard NVMe nelle tecnologie di archiviazione per PC aggiungendo un modello NVMe™ alla famiglia di prodotti pluripremiati WD Blue® SSD (Solid State Drive), ossia il WD Blue SN500 NVMe SSD. La nuova unità SSD può offrire performance tre volte superiori rispetto allo stesso modello 1 con tecnologia SATA ed è in grado di garantire la stessa affidabilità per cui la famiglia di prodotti WD Blue è conosciuta. Particolarmente adatta a tutti coloro che producono contenuto, oltre che agli appassionati di PC, l’unità WD Blue SN500 NVMe SSD è ottimizzata per applicazioni multitasking e ad alto impiego di risorse, poichè permette un accesso quasi istantaneo a file e programmi. Grazie alla possibilità di beneficiare dell’architettura scalabile SSD già disponibile con l’acclamato WD Black® SN750 NVMe SSD, il nuovo WD Blue SN500 NVMe SSD si basa sulla tecnologia proprietaria di Western Digital 3D NAND, oltre che sul firmware e controller, e fornisce velocità di lettura e di scrittura superiore rispettivamente ai 1,700 MB/s e ai 1,450 MB/s (per i modelli 500GB) con un consumo ridotto di energia a partire da 2.7W. In linea con le crescenti richieste di storage e con l’aumento dei carichi di lavoro da parte dei clienti, WD Blue SN500 NVMe SSD offre prestazioni di scrittura superiori rispetto ai modelli con tecnologia SATA e ad altre tecnologie attualmente presenti sul mercato, rappresentando così una soluzione altamente competitiva.