Setacciare e solo successivamente passare al cloud

Entro il 2025, le persone avranno generato 163 zettabyte di dati a livello globale. Ciò corrisponde a un fattore 10 rispetto a oggi. Pertanto, la regola per le aziende è: La qualità dei dati viene prima della quantità, e solo allora è necessario spostarli nel cloud.

Qualità dei dati, cloud, qualità dei dati
© depositphotos, buchachon_photo

I motori della crescita dei dati non saranno più gli utenti privati, ma le aziende. Generano e immagazzinano questi dati nella speranza di poterli trasformare in preziose conoscenze attraverso l'analisi. Stanno digitalizzando i loro processi di produzione e consegna, valutando il comportamento dei clienti e i movimenti del mercato per trovare indizi per un vantaggio competitivo dai dati aggiuntivi. In questo modo le aziende generano ogni giorno grandi quantità di dati, ma solo una parte di queste informazioni può essere utilizzata con profitto. Manca un modo per organizzare tutte queste informazioni non strutturate e tenerne traccia.
Le numerose e-mail, i documenti e le immagini non solo rendono le aziende più suscettibili a pericolose violazioni della sicurezza, ma aumentano anche il rischio di violazioni di dati in cui i dati personali potrebbero defluire. Il problema si intensificherà perché la quantità di dati non strutturati sta crescendo del 49% all'anno, secondo il rapporto "2017 Veritas Data Genomics Index" mostra.

Rimandato non è fisso
Inoltre, tutti questi dati devono essere archiviati, sottoposti a backup e mantenuti altamente disponibili. Molte aziende stanno quindi flirtando con il cloud, perché non devono investire in sale server proprie e personale aggiuntivo. Le risorse vengono ordinate con un semplice clic del mouse e viene fatturato solo lo stoccaggio effettivamente utilizzato. Secondo uno studio di Veritas, il 74% delle aziende di tutto il mondo lavora con due fornitori di infrastrutture cloud, il 23% addirittura con quattro o più partner. Gli approcci ibridi, in cui i dati sono archiviati sia nel cloud che in sede, sono particolarmente popolari. Tuttavia, l'uso dei servizi cloud solleva alcuni problemi che un responsabile IT non dovrebbe sottovalutare. I dati diventano più frammentati, distribuiti in luoghi diversi, rendendo più difficile tenerne traccia.

Conservare solo in paesi sicuri
La mancanza di conoscenza dei luoghi in cui vengono archiviati i dati e del loro contenuto potrebbe diventare problematica il prossimo anno. Secondo il nuovo Regolamento generale sulla protezione dei dati (GDPR), dal 25 maggio 2018 le aziende potranno conservare i dati dei cittadini dell'UE solo in Paesi sicuri e dovranno cancellare le informazioni non appena i clienti chiederanno il loro "diritto all'oblio". Se le aziende non si conformano ai requisiti in tempo utile, possono incorrere in gravi sanzioni.
È importante sapere dove e in quanti punti della rete digitale risiedono i dati rilevanti dei clienti. Il risultato finale è un inventario digitale che comprende sia infrastrutture on-premise che topologie cloud.

La grande pulizia
Sarà fondamentale che le aziende possano scansionare rapidamente tutti i loro dati e classificarli chiaramente per tag. Questo è l'unico modo per distinguere i dati importanti da quelli non importanti. Se si utilizza una tecnologia centrale uniforme, è possibile applicare linee guida uniformi all'intero stock di dati, indipendentemente dal luogo di archiviazione. Ciò consente alle aziende di gestire e proteggere in modo ottimale le informazioni sensibili o critiche, spesso soggette a rigidi periodi di conservazione.
Un'altra analisi di Veritas mostra come molti dati presenti nelle aziende siano in realtà privi di valore. I responsabili IT tedeschi classificano solo il 15% delle informazioni come business-critical. Il resto è suddiviso in dati che le aziende devono esaminare più da vicino. Circa il 19% è costituito da dati cosiddetti ROT: rientrano nella categoria "ridondanti, obsoleti, banali". Ciò significa che non hanno alcun valore commerciale e possono essere eliminati senza eccezioni. Rimane il 66%. Queste informazioni sono chiamate dark data e non possono essere classificate con precisione. In questo caso, l'IT deve agire come un detective e classificare. Anche in questo caso, l'esperienza dimostra che una buona parte rientra nella categoria ROSSA.
Tuttavia, le aziende dovrebbero automatizzare il più possibile i processi manuali di classificazione. Questo perché i processi manuali sono fonte di errore, spesso sono difficili da applicare in tutto l'ambiente e in generale richiedono molta manodopera e sono incoerenti. La classificazione dovrebbe essere un elemento standard di una gestione efficiente delle informazioni come processo automatizzato. In questo modo è possibile proteggere e mantenere i dati importanti in base al loro valore. Le linee guida specificano esattamente per quanto tempo deve essere archiviato o in quale cloud deve essere conservato, ad esempio. I dati non importanti, invece, possono essere eliminati in modo coerente, liberando così memoria. Queste azioni di pulizia dovranno essere eseguite continuamente come un dovere quotidiano, perché l'immensa crescita dei dati non consente di giungere a nessun'altra conclusione.

Informazioni sull'autore: Andreas Bechter, Technical Product Manager di Veritas

(Visitata 47 volte, 1 visita oggi)
h2> Altri articoli sull'argomento

NOTIZIE SULLA SICUREZZA

Bleiben Sie informiert über aktuelle Sicherheitsthemen – praxisnah und zuverlässig. Erhalten Sie exklusive Inhalte direkt in Ihren Posteingang. Verpassen Sie keine Updates.

Jetzt anmelden!
anmelden
È possibile annullare l'iscrizione in qualsiasi momento!
chiudere il link