Aussieben und dann erst in die Cloud verschieben
Bis zum Jahr 2025 werden die Menschen global 163 Zettabyte an Daten generiert haben. Das entspricht einem Faktor 10 gegenüber heute. Deshalb gilt für Unternehmen: Datenqualität kommt vor -quantität, und dann erst in die Cloud verschieben.
Die Treiber des Datenwachstums werden nicht mehr die Privatnutzer, sondern die Unternehmen sein. Sie generieren und speichern diese Daten in der Hoffnung, diese Informationen durch Auswertungen in wertvolles Wissen verwandeln zu können. Sie digitalisieren ihre Fertigungs- und Lieferprozesse, werten Kundenverhalten und Marktbewegungen aus, um aus den zusätzlichen Daten Hinweise für einen Wettbewerbsvorteil zu finden. So entstehen Tag für Tag Unmengen an Daten in den Firmen, doch nur ein Bruchteil dieser Informationen lässt sich tatsächlich gewinnbringend verwenden. Es fehlt an Möglichkeiten, all diese unstrukturierten Informationen zu organisieren, um den Überblick zu behalten.
Die zahlreichen E-Mails, Dokumente und Bilddaten machen Firmen nicht nur anfälliger für gefährliche Sicherheitslücken, auch das Risiko für Datenverluste steigt, bei denen personenbezogene Daten abfliessen könnten. Das Problem wird sich intensivieren, denn die Menge unstrukturierter Daten wächst von Jahr zu Jahr um 49 Prozent, wie der «2017 Veritas Data Genomics Index» zeigt.
Verschoben ist nicht behoben
Zudem müssen alle diese Daten gespeichert, gesichert und hochverfügbar gehalten werden. Viele Unternehmen liebäugeln deshalb mit der Cloud, denn sie müssen nicht in eigene Serverräume und weiteres Personal investieren. Die Ressourcen sind per Mausklick bestellt und nur der tatsächlich gebrauchte Speicher wird in Rechnung gestellt. Einer Veritas-Studie zufolge arbeiten weltweit 74 Prozent der Unternehmen mit zwei Cloud-Infrastrukturanbietern, 23 Prozent sogar mit vier Partnern oder mehr. Besonders beliebt sind hybride Ansätze, bei denen Daten sowohl in der Cloud als auch On-Premise gespeichert werden. Durch den Einsatz von Cloud-Diensten ergeben sich allerdings einige Fragen, die ein IT-Verantwortlicher nicht unterschätzen sollte. Die Daten werden stärker fragmentiert, an unterschiedliche Orte verteilt, wodurch es schwieriger wird, den Überblick zu behalten.
Nur in sicheren Ländern speichern
Das fehlende Wissen zu Speicherorten der Daten und ihrem Inhalt kann kommendes Jahr problematisch werden. Laut der neuen Datenschutz-Grundverordnung (DSGVO, englisch General Data Protection Regulation / GDPR) dürfen Firmen Daten von EU-Bürgern ab dem 25. Mai 2018 nur noch in sicheren Ländern speichern und müssen Informationen löschen, sobald Kunden ihr «Recht auf Vergessenwerden» einfordern. Kommen Unternehmen den Forderungen nicht fristgerecht nach, drohen empfindliche Strafen.
Es ist wichtig zu wissen, wo genau und an wie vielen Orten im digitalen Netzverbund relevante Kundendaten tatsächlich liegen. Im Endeffekt steht eine digitale Inventur an, die sowohl On-Premise-Infrastrukturen als auch Cloud-Topologien umfasst.
Die grosse Aufräumaktion
Entscheidend wird sein, dass Unternehmen alle ihre Daten schnell scannen und per Tag eindeutig klassifizieren können. Denn nur so lässt sich zwischen wertvollen und unwichtigen Daten unterscheiden. Wird hierfür eine zentrale einheitliche Technologie eingesetzt, lassen sich ebenfalls einheitliche Richtlinien auf den gesamten Datenbestand anwenden, unabhängig vom Speicherort. So können Firmen sensible oder kritische Informationen, die oftmals strengen Aufbewahrungsfristen unterliegen, optimal verwalten und schützen.
Wie viele Daten in Unternehmen tatsächlich wertlos sind, zeigt eine andere Veritas-Analyse. So stufen deutsche IT-Verantwortliche nur 15 Prozent ihrer Informationen als geschäftskritisch ein. Der Rest teilt sich in Daten auf, die Unternehmen genauer untersuchen müssen. Rund 19 Prozent sind sogenannte ROT-Daten: Sie fallen unter die Kategorie «Redundant, Obsolet, Trivial». Sie haben also keinerlei Geschäftswert und lassen sich ausnahmslos löschen. Bleiben noch 66 Prozent. Diese Informationen nennen sich Dark Data und können nicht genau eingeordnet werden. Hier muss die IT als Detektiv tätig werden und klassifizieren. Auch hier fällt anschliessend ein Grossteil erfahrungsgemäss in die Rubrik ROT.
Firmen sollten bei der Klassifizierung allerdings manuelle Prozesse möglichst automatisieren. Denn manuelle Prozesse bergen Fehlerquellen, sind oft schwer in der gesamten Umgebung durchsetzbar und insgesamt arbeitsintensiv und inkonsistent. Die Klassifizierung sollte als automatisierter Prozess ein Standardelement in einem effizienten Informationsmanagement sein. So lassen sich wichtige Daten entsprechend ihrem Wert schützen und pflegen. Richtlinien geben genau vor, wie lang sie beispielsweise archiviert oder in welche Cloud sie abgelegt werden sollen. Unwichtige Daten dagegen können konsequent gelöscht und so Speicher freigeräumt werden. Diese Aufräumaktionen wird als alltägliche Pflicht kontinuierlich erfolgen müssen, denn das immense Datenwachstum lässt keinen anderen Schluss zu.
Zum Autor: Andreas Bechter, Technical Product Manager bei Veritas