Trier et ensuite seulement déplacer vers le cloud
D'ici 2025, les gens auront généré globalement 163 zettaoctets de données. Cela correspond à un facteur 10 par rapport à aujourd'hui. C'est pourquoi les entreprises doivent agir : La qualité des données passe avant la quantité, et ce n'est qu'ensuite qu'il faut les déplacer vers le cloud.
Les moteurs de la croissance des données ne seront plus les utilisateurs privés, mais les entreprises. Elles génèrent et stockent ces données dans l'espoir de pouvoir transformer ces informations en connaissances précieuses grâce à des analyses. Elles numérisent leurs processus de fabrication et de livraison, évaluent le comportement des clients et les mouvements du marché afin de trouver, à partir de ces données supplémentaires, des indices leur permettant d'acquérir un avantage concurrentiel. C'est ainsi que les entreprises produisent chaque jour une quantité énorme de données, mais seule une petite partie de ces informations peut être utilisée de manière rentable. Il manque des possibilités d'organiser toutes ces informations non structurées afin de garder une vue d'ensemble.
Les nombreux e-mails, documents et données d'images rendent non seulement les entreprises plus vulnérables à des failles de sécurité dangereuses, mais augmentent également le risque de pertes de données, au cours desquelles des données personnelles pourraient s'échapper. Le problème va s'intensifier, car la quantité de données non structurées augmente de 49 pour cent d'une année à l'autre, comme le montre le "2017 Indice de génomique des données Veritas" montre.
Déplacé n'est pas corrigé
De plus, toutes ces données doivent être stockées, sauvegardées et maintenues à haute disponibilité. C'est pourquoi de nombreuses entreprises lorgnent vers le cloud, car elles n'ont pas besoin d'investir dans leurs propres salles de serveurs ni dans du personnel supplémentaire. Les ressources sont commandées en un clic de souris et seul le stockage réellement utilisé est facturé. Selon une étude de Veritas, 74 pour cent des entreprises dans le monde travaillent avec deux fournisseurs d'infrastructure cloud, 23 pour cent même avec quatre partenaires ou plus. Les approches hybrides, dans lesquelles les données sont stockées à la fois dans le cloud et sur site, sont particulièrement populaires. L'utilisation de services en nuage soulève toutefois quelques questions qu'un responsable informatique ne devrait pas sous-estimer. Les données sont plus fragmentées, réparties à différents endroits, ce qui rend plus difficile de garder une vue d'ensemble.
Ne stocker que dans des pays sûrs
Le manque de connaissances sur les lieux de stockage des données et leur contenu peut devenir problématique l'année prochaine. Selon le nouveau règlement général sur la protection des données (RGPD), les entreprises ne pourront stocker les données des citoyens de l'UE que dans des pays sûrs à partir du 25 mai 2018 et devront supprimer les informations dès que les clients feront valoir leur "droit à l'oubli". Si les entreprises ne se conforment pas à ces exigences dans les délais impartis, elles s'exposent à de lourdes sanctions.
Il est important de savoir exactement où se trouvent les données clients pertinentes et en combien d'endroits dans le réseau numérique. En fin de compte, un inventaire numérique s'impose, qui englobe aussi bien les infrastructures sur site que les topologies en nuage.
La grande opération de nettoyage
Il sera décisif que les entreprises puissent scanner rapidement toutes leurs données et les classer clairement par tag. C'est la seule façon de distinguer les données de valeur de celles qui ne le sont pas. Si une technologie centrale uniforme est utilisée à cet effet, il est également possible d'appliquer des directives uniformes à l'ensemble des données, indépendamment de leur lieu de stockage. Les entreprises peuvent ainsi gérer et protéger de manière optimale les informations sensibles ou critiques, qui sont souvent soumises à des délais de conservation stricts.
Une autre analyse de Veritas montre combien de données sont réellement sans valeur dans les entreprises. Ainsi, les responsables informatiques allemands ne considèrent que 15 % de leurs informations comme critiques pour l'entreprise. Le reste se répartit en données que les entreprises doivent examiner de plus près. Environ 19 pour cent sont des données dites ROT : elles entrent dans la catégorie "Redondant, Obsolète, Trivial". Elles n'ont donc aucune valeur commerciale et peuvent toutes être supprimées sans exception. Il en reste encore 66 %. Ces informations sont appelées Dark Data et ne peuvent pas être classées avec précision. Ici, l'informatique doit jouer les détectives et les classer. Ici aussi, l'expérience montre qu'une grande partie des données tombe dans la rubrique ROUGE.
Les entreprises devraient toutefois automatiser autant que possible les processus manuels lors de la classification. En effet, les processus manuels comportent des sources d'erreur, sont souvent difficiles à appliquer dans l'ensemble de l'environnement et, dans l'ensemble, demandent beaucoup de travail et sont incohérents. En tant que processus automatisé, la classification devrait être un élément standard d'une gestion efficace de l'information. Ainsi, les données importantes peuvent être protégées et entretenues en fonction de leur valeur. Des directives indiquent précisément pendant combien de temps elles doivent être archivées, par exemple, ou dans quel cloud elles doivent être stockées. En revanche, les données non importantes peuvent être systématiquement supprimées, libérant ainsi de la mémoire. Ces actions de nettoyage devront être menées en continu, comme une obligation quotidienne, car l'immense croissance des données ne permet pas d'autre conclusion.
Au sujet de l'auteur : Andreas Bechter, Technical Product Manager chez Veritas