Per evitare di annegare nei dati

Marco Rottigni, Chief Technical Security Officer EMEA di Qualys
I responsabili della sicurezza IT dispongono di una quantità di informazioni superiore al passato, ma questo non li aiuta a risolvere i problemi e non consente loro di concentrarsi sulle priorità di business. E’ indispensabile migliorare il consolidamento dei dati, i livelli di prioritizzazione e i processi.
Dati, dati ovunque, ma riusciamo a fermarci a pensare?
In primis è importante verificare le fonti disponibili da cui attingere i dati sugli apparati IT, sul livello di sicurezza e di conformità.
I Responsabili IT che hanno già consolidato i propri processi si affidano a strumenti di IT Asset Management (ITAM) o database di Configuration Management (CMDB), mentre chi si basa su approcci meno formalizzati analizza ancora i dati elaborati in fogli di calcolo e database proprietari. I dati di compliance sono conservati principalmente su fogli di calcolo o documenti, talvolta provenienti da società di revisione o di consulenza.
Alcune organizzazioni utilizzano software specializzati per monitorare la compliance ed eseguire controlli, ma spesso utilizzati da team che non comunicano tra loro. Altre informazioni che occorre considerare sono: abbiamo troppe fonti che si sovrappongono?
Riusciamo a consolidare gli insiemi di dati – riducendo se possibile il numero di tool utilizzati per raccoglierli – in un unico ambiente?
Se pensiamo di sincronizzare più fonti di dati insieme, è importante procedere su una base affidabile e coerente, ma se questo risulta difficile – è richiesto un lavoro manuale per ottenere risultati tempestivi – allora potrebbe essere più conveniente ed accurato consolidare strumenti e prodotti ovunque sia possibile.
Dopo aver analizzato la fonte dei dati, serve ragionare su come migliorare l'utilizzo di queste informazioni, mirando al contesto e all'accuratezza dei dati. In questo caso, il contesto implica la fornitura dei dati più appropriati, filtrati per soddisfare un obiettivo o un requisito specifico.
L’accuratezza invece implica la fornitura di informazioni aggiornate a quanto sta avvenendo in questo momento piuttosto che rispetto ad un giorno o una settimana fa. E’ altresì importante rivedere i processi per la gestione e l'utilizzo di questi dati su base giornaliera. Ad esempio, quali sono i processi di prioritizzazione e remediation delle superfici vulnerabili oggi? È già in essere un approccio efficace ed efficiente, oppure richiede una maggiore supervisione per assicurare buoni risultati? Ogni organizzazione dovrebbe mirare alla precisione perché la mancanza di dati accurati porta ad un eccesso di informazioni, che devono essere analizzate prima di poterle considerare inutili ed eliminarle.
Secondo uno studio IDC, il tempo medio impiegato per gestire un problema di sicurezza richiede da una a quattro ore per incidente e coinvolge due membri del team SecOps (Fonte: The State of Security Operations). Data la carenza di competenze in materia di sicurezza, il più grande vantaggio aziendale che si ottiene dai dati accurati è l'efficienza operativa. Dati più accurati riducono il numero degli eventi da investigare, permettono al team di approfondire solo gli eventi importanti e di risparmiare tempo prezioso per altri compiti. Le diverse fonti di dati possono poi essere utilizzate in tandem, partendo dalle informazioni Cyber Threat Intelligence per comprendere la nostra esposizione e la relativa sfruttabilità in tempo reale, fino ai dati dell’IT Asset Management (ITAM) che possono dirci cosa abbiamo installato e qual è lo stato di questi apparati. La combinazione di queste due fonti aiuta ad avere coscienza di quando problematiche di security si manifestano nell’organizzazione e dell’urgenza di rimedio o di altre forme di mitigazione.
Pensare fuori dagli schemi
Le considerazioni fatte dovrebbero aiutarci ad adottare un approccio pratico per la gestione degli asset IT su base regolare. Tuttavia, l'IT di oggi è costituito da molti dispositivi e servizi che non sono collegati al nostro network o vengono ospitati e gestiti da terze parti, come ad esempio i servizi dei grandi provider di cloud pubblico, come Amazon o Microsoft. Per ogni piattaforma esterna utilizzata dalla nostra impresa, dovremmo avere la medesima granularità di dati che usiamo internamente, informazioni che poi devono essere centralizzate per consentire di esaminare l’intero contesto.
In aggiunta, maggiore è il numero di servizi IT che sposteremo in cloud, maggiore sarà il volume dei dati – basato sulla scansione continua per le vulnerabilità, sulle modifiche delle risorse IT e sulla implementazione di nuovi dispositivi nel tempo.
Poter gestire tutte queste informazioni è complicato quando si tratta di individuare potenziali problemi, ma diventa essenziale per capire quali elementi sono più importanti per il business. Le informazioni sono importanti anche per identificare risorse e dispositivi critici per il business, assicurandosi che ricevano immediata attenzione in caso di cambiamenti di ambiente. La classificazione di questi aggiornamenti permette al team di prioritizzare gli sforzi. Tali insiemi di dati forniscono anche avvisi quando si manifestano condizioni di rischio per la sicurezza e consentono la rapida individuazione di quelle risorse che necessitano di patch.
La centralizzazione dei dati supporta gli obiettivi di molti team: i team di gestione delle risorse e delle operazioni IT, le divisioni addette alla sicurezza e i professionisti di compliance, richiedono tutti gli stessi dati sulle infrastrutture IT utilizzate all’interno dell’azienda. Le differenze sono legate alla prospettiva e alle azioni da implementare.
Se, ad esempio, pensiamo ad un'istanza del server di cloud virtuale in un account AWS, dovremo installare un agente nella ‘golden image’, che inizierà a raccogliere dati dal momento in cui viene generata qualsiasi nuova immagine del server.
Per il personale IT, l'agente fornirà informazioni preziose sulle risorse che utilizza: dove è collocato geograficamente, quando è stato avviato l’ultima volta, quale software ha installato, quale software proprietario o open source utilizza e quali sono le informazioni di fine supporto legate a questo software.
Al contrario, il team di sicurezza vorrà valutare questi dati dell'agente per verificare ogni nuova vulnerabilità, per rilevare i segni sulla compromissione dei dati e capire se gli exploit sono disponibili per le vulnerabilità rilevate, ricevendo anche informazioni sulla disponibilità di nuove patch da aggiornare. Il team di compliance dovrà invece verificare se il server è conforme al set di controlli inclusi in qualsiasi framework di controllo applicabile, includendo PCI DSS per i dati delle carte di pagamento o dati coperti dalle linee guida GDPR.
Come illustrato in precedenza, è possibile aumentare la consistenza di tutti i processi attivi tramite la creazione di un’unica fonte di verità basata su dati di asset IT, minimizzando lo sforzo richiesto per processare e distribuire questi dati.
Analogamente, questi dati sono molto utili per supportare altri dipartimenti aziendali su temi di sicurezza. Quando pubblicazioni di alto livello condividono storie sugli ultimi attacchi e brecce informatiche, il numero degli interessati di solito aumenta.
Essere in grado di fornire loro informazioni in modo proattivo su tutti problemi può sicuramente contribuire a diffondere fiducia nei piani di sicurezza da noi adottati all’interno dell'organizzazione.
Ampliare l’attenzione ai dati delle risorse IT La gestione della sicurezza si basa sempre più sui dati. Senza questa consapevolezza, diventa difficile dare priorità ai problemi e garantire che tutte le risorse IT siano sicure. Tuttavia, saper gestire l’intero volume dei dati basato su un’unica ed accurata fonte che ruota attorno agli strumenti IT è un grande problema, soprattutto se non disponiamo degli strumenti adeguati. Tornando all’esempio precedente di un'istanza del server cloud, possiamo evitare un'eccessiva duplicazione del lavoro manuale quando l'IT decide di disattivare un server perché non più necessario. Invece di dover aggiornare una miriade di fogli di calcolo e database tra i diversi team aziendali, con una piattaforma centralizzata si riesce a fare la modifica istantaneamente. Il server viene rimosso dalla dashboard legata alla sicurezza e la conformità migliorerà automaticamente.
In sintesi, riteniamo essenziale centralizzare tutti i dati e ottenere una vista unificata su tutte le risorse IT, indipendentemente dal luogo in cui si trovano e dal momento in cui facciamo una ricerca. Il consolidamento dei dati dovrebbe inoltre facilitare la gestione, l'analisi e la ricerca di informazioni su asset, software e aggiornamenti installati. Avere un quadro dettagliato di tutti gli aggiornamenti necessari per la sicurezza dei nostri dati, ben collegati all’ambiente reale, ci garantisce il perfetto allineamento dei tool IT alle priorità del nostro business.

Veeam Backup for Microsoft Office 365 Version 3

Danny Allan, Vice President of Product Strategy, Veeam

Veeam annuncia la disponibilità del nuovo Veeam Backup for Microsoft Office 365 v3, una versione in grado di offrire alle aziende un backup ancora più veloce, una maggiore sicurezza, oltre a funzionalità di visibilità e analisi migliorate. Poiché le aziende sono responsabili della protezione dei dati di Office 365, la soluzione di Veeam garantisce un backup sicuro per Office 365 Exchange Online, SharePoint Online OneDrive for Business and Microsoft Teams, consentendo un recupero dei dati veloce e un eDiscovery dei dati di backup per Office 365 o per ambienti ibridi.
“La maggior parte delle aziende sta adottando la piattaforma Microsoft Office 365 e mentre Microsoft fornisce la gestione e l’uptime per i servizi basati su cloud, è responsabilità delle singole aziende proteggere i propri dati. Le soluzioni innovative di Veeam sono in grado di offrire il controllo necessario per gestire e conservare in modo intelligente l’accesso alle informazioni aziendali critiche al fine di soddisfare i requisiti normativi, di conformità e di ripristino,” ha dichiarato Danny Allan, Vice President of Product Strategy at Veeam. “Stiamo incontrando il favore da parte delle aziende di tutto il mondo. Veeam Backup for Microsoft Office 365 è già stato scaricato da più di 55.000 organizzazioni, che rappresentano sette milioni di utenti Office 365. Questa soluzione rappresenta il 549% di crescita su base annua ed è il nostro prodotto in più rapida crescita. Grazie alla risposta positiva del mercato, ci aspettiamo che la versione 3 acceleri ulteriormente la nostra leadership in questo segmento.”
Inoltre, la rapida adozione e la conseguente crescita di Microsoft Office 365 è un’opportunità per i service provider di offrire soluzioni di backup agli oltre 140 milioni di utenti di Office 365 in un mercato da 2,5 miliardi di dollari. Grazie a Veeam Backup for Microsoft Office 365 v3, i Veeam Cloud & Service Providers (VCSPs) possono fornire soluzioni di backup sicure per Office 365 Exchange Online, SharePoint Online e OneDrive for Business; ripristinando rapidamente i singoli elementi attraverso una serie di opzioni flessibili, automatizzando e scalando in modo efficiente il flusso per il backup di Office 365.

Veeam Backup for Microsoft Office 365 v3 elimina il rischio di perdere l’accesso ai dati aziendali critici e garantisce il pieno controllo. La versione 3 semplifica il backup e il ripristino affidabile dei dati di Office 365 Exchange, SharePoint e OneDrive:
Backup fino a 30 volte più veloce per SharePoint Online e OneDrive for Business, in grado di ridurre drasticamente i tempi per il backup di Office 365.
Maggiore sicurezza per i dati di backup di Office 365 con supporto per l’autenticazione multi-factor.
Maggiore visibilità e analisi approfondite grazie ai report sulla protezione dei dati di Office 365 che aiutano a identificare le caselle email non protette durante la gestione della licenza e dell’archiviazione.

Datacenter Management as a Service: EcoStruxure IT

Schneider Electric presenta EcoStruxure™ IT, l’evoluzione Datacenter Management as a Service. In un mondo sempre connesso, è fondamentale proteggere i dati e le informazioni critiche mantenendo l’infrastruttura del data center sempre al passo con le nuove complessità introdotte dall’IoT e da nuovi ambienti IT che si estendono dall’on-premise al cloud, all’edge.
In questo contesto, l’introduzione delle architetture Data Management as a Service (DMaaS) rappresentano una vera rivoluzione, che consente di affrontare le nuove sfide con successo differenziandosi dai modelli tradizionali di Data Center Infrastructure Management.
Con la recente introduzione della nuova generazione di EcoStruxure IT Schneider Electric ha creato un’architettura unica sul mercato, che consente di beneficiare al 100% dei vantaggi dell’approccio DMaaS in termini di disponibilità, protezione, sicurezza degli ambienti IT di oggi e del futuro. Scegliendo il Data Management as a Service infatti si possono:
Aggregare e analizzare le grandi quantità di dati ottenute dai device connessi dell’infrastruttura data center dei clienti tramite una connessione protetta e crittografata;
Applicare algoritmi su grandi set di dati – raccolti anche da diversi Data Center (quindi in ottica multi-sito) che operano nelle più diverse condizioni ambientali – per prevedere rischi quali guasti, superamento delle soglie di raffreddamento etc – moltiplicando la capacità di intelligence nel tempo grazie alla progressiva crescita del set di dati a disposizione;
Creare nuove opportunità di ricavo integrando il monitoraggio e la gestione delle infrastrutture data center in pacchetti di offerta che possono essere forniti ai clienti sotto forma di “asset as a service”.
Con EcoStruxure TM IT i clienti possono avere:
Visibilità globale attraverso l’ecosistema ibrido, da qualsiasi luogo, con un solo tocco per l’accesso direttamente da uno smartphone;
Informazioni sui dispositivi, allarmi intelligenti e monitoraggio attraverso un sistema aperto che raccoglie dati da tutti i dispositivi indipendentemente dal fornitore;
Previsione dei rischi potenziali facendo leva su analisi comparative globali e analisi nel data lake di EcoStruxure;
Facilità di implementazione grazie a un comodo modello di abbonamento per ambienti di qualsiasi dimensione.

Le best practice Veritas Technologies

Fabio Pascali, Country Manager Italia, Veritas
I dati potrebbero essere diventati il nuovo petrolio, ma molti non sono in grado di proteggere una risorsa così preziosa.
Più di un migliaio di telefoni cellulari, computer portatili e dischi rigidi vengono persi o rubati ogni giorno. All’interno di questi dispositivi smarriti sono memorizzate proprietà intellettuale sensibili, dettagli riguardanti clienti e dipendenti e informazioni aziendali critiche. In molti casi, i dati non sono mai stati sottoposti a backup, il che significa che sono persi per sempre.
La Giornata Mondiale del Backup (World Backup Day) è una buona occasione per ricordare a tutti di fare il backup dei nostri dati preziosi. Le aziende dovrebbero anche cogliere questa opportunità per ripulire i propri dati digitali ed educare i dipendenti sulle best practice in materia di etichetta dei dati.
Ecco come potete riprendere il controllo dei vostri dati:
Eseguire il backup a intervalli regolari – Impostare un programma regolare per fare più copie dei vostri dati può sembrare ovvio, ma è un passo che molte organizzazioni dimenticano di fare. Nell’improbabile eventualità di un blackout o di un attacco ransomware, si desidera mantenere la resilienza del business e assicurarsi che le operazioni continuino a funzionare con interruzioni minime.
Applicare la protezione dei dati su tutti i carichi di lavoro – I dati stanno crescendo rapidamente e diventando sempre più distribuiti, tra cloud, ambienti virtuali e piattaforme applicative. La protezione unificata dei dati è l’unico modo in cui la vostra organizzazione IT può fornire i livelli di servizio richiesti con costi e rischi limitati, sia che i dati risiedano on-premise o nel cloud.
Isolare i backup – È fondamentale che la tecnologia utilizzata per memorizzare i dati di backup non faccia parte del vostro network. Questo è particolarmente importante per gli attacchi ransomware. Il cloud pubblico è affidabile e conveniente da configurare. È anche molto facile da scalare man mano che l’azienda cresce e si evolve.
La regola 3-2-1 – Conservare almeno tre copie dei dati, su almeno due dispositivi, con almeno una copia offsite.
Verifica il tuo processo di recovery – L’esecuzione regolare di test contribuirà a garantire che i dipendenti acquisiscano familiarità con i processi coinvolti nel recovery dei dati di cui hanno bisogno. Si tratterà di verificare che un sito secondario sia online in caso il sito principale non funzionasse, oppure può essere semplice come recuperare un file a caso su un PC e verificare che sia identico all’originale.

Vademecum per le aziende che vogliono mettere al sicuro i propri dati

OVH fornisce una serie di consigli che mirano a prevenire, attraverso alcune semplici operazioni, la perdita di dati, sia per i casi dovuti ad errori sia per quelli collegati ad attacchi esterni.

Danni economici crescenti
Oggi per singoli cittadini, ma soprattutto per le aziende, il danno causato dalla perdita di dati può essere ingente e raggiungere somme considerevoli. Secondo l’edizione 2018 del Cost of a Data Breach Study realizzato dal Ponemon Institute, un data breach costa all’azienda che lo subisce mediamente quasi 4 milioni di dollari. Se gli attacchi informatici sono responsabili del 48% di questi problemi, nella maggior parte dei casi sono gli errori umani (27% del totale) e i problemi tecnici (25%) ad essere la causa dei danni economici legati alla mancata protezione e corretta conservazione dei dati.
“Quando calcoliamo i costi dovuti alla perdita di dati dobbiamo prendere in considerazione quelli economici diretti” spiega Dionigi Faccenda, Sales Manager South West Europe, NA e LatAm di OVH, “che sono sicuramente elevati, oltre al possibile calo di fatturato, al turnover dei clienti e al maggior impegno richiesto per acquisirne di nuovi. Inoltre, non possiamo trascurare il danno reputazionale e il sentiment pubblico negativo che deriva dalla scoperta che un’azienda non ha saputo gestire, per superficialità o negligenza, nella maniera corretta i propri dati”.
L’accesso ai dati è fondamentale in ogni momento per le organizzazioni, tanto che Il 93% delle aziende che non riesce non riesce ad accedervi per più di 10 giorni presenta istanza di fallimento nel giro di 12 mesi (fonte: SSE Network Services), e il 40% cessa l’attività nell’anno successivo a un guasto informatico critico (fonte, IMPACT Technology Group).

Cosa fare per evitare rischi
L’aspetto paradossale è che questi numeri potrebbero essere ridotti in maniera sostanziale se le organizzazioni adottassero una serie di buone pratiche, che non implicano stravolgimenti nelle abitudini delle aree coinvolte né tantomeno ostacolano le attività legate al business. Una situazione che riguarda sicuramente anche l’ambito del cloud computing e che ha spinto OVH, provider mondiale del Cloud hyperscale, a riassumerle in un vademecum comprensibile e di semplice applicazione: Se si utilizzano virtual private server (VPS) è necessario pianificare un backup automatico quotidiano, esportarlo e replicarlo alcune volte È importante essere in grado di salvare e recuperare file su uno spazio dedicato grazie a protocolli differenti (FTP, NFS e CIFS…), a prescindere dal sistema operativo utilizzato, così da mettere al sicuro i propri dati anche in caso di interruzione del servizio Inoltre, una strategia efficace di backup consiste nel creare un’istantanea della propria macchina virtuale (Snapshot). Contrariamente a un backup completo, non si ha bisogno di bloccare i servizi per impedire la modifica dei dati durante la procedura. In questo modo, si ha sempre a disposizione un punto di ripristino Infine, è importante prevedere la redazione di un report con la lista e lo status dei propri backup “L’adozione di una serie di semplici accorgimenti permette di scongiurare la maggior parte dei rischi” prosegue Faccenda, “e noi in OVH raccomandiamo costantemente ai nostri clienti e partner di dedicare la giusta attenzione a questi aspetti, affiancandoli nell’esecuzione di operazioni che garantiscono l’accesso e l’integrità dei dati e conseguentemente la sicurezza del loro business”.