Select Page

La cartographie donne sa juste valeur à l’information détenue dans le multicloud

La cartographie donne sa juste valeur à l’information détenue dans le multicloud

Si le multicloud a libéré les entreprises de l’enfermement constructeur auquel elles étaient tristement habituées, la technologie cloud tend en revanche à diluer et à disperser l’information. Or, l’entreprise reste la seule responsable de la gestion, de l’exploitation et de la conformité de sa data. Pour en être véritablement maître, la cartographie et la classification de la donnée est un préalable désormais indispensable. Cerise sur le gâteau, ces solutions, particulièrement performantes à l’heure du big data et de l’intelligence artificielle, aident également les entreprises à intégrer activement et en conscience le grand mouvement d’intérêt général que représente aujourd’hui l’Open Data.

 

La liberté technologique reconquise en entreprise

La maturité du marché et la diversification de l’offre cloud ont ouvert de nouvelles façons de consommer la technologie, dont le multicloud est une illustration majeure. Avec la compétition farouche que se mènent les acteurs, locaux comme internationaux, les possibilités de switcher d’un provider à l’autre se sont multipliées, libérant de fait les entreprises de leurs modèles initiaux.

Grand bien leur fasse, puisqu’elles peuvent enfin choisir les technologies appropriées selon les projets qu’elles conduisent et l’état de leur informatique. C’est un progrès dont il faut prendre la mesure. Tout directeur des systèmes d’information ayant connu les monopoles constructeurs s’en souvient encore.

 

En disposant d’un large choix de plateformes cloud, les entreprises ont progressivement dispersé leur IT, au point qu’un schéma triangulaire s’est dessiné. Succinctement, la première pointe du triangle englobe toutes les machines purement utilitaires, mais néanmoins nécessaires comme les serveurs frontaux, lesquels ne sont pas concernés pas la protection de la donnée et ont pu très rapidement être migrés dans le Cloud.

La deuxième pointe concerne toutes les machines créant de la valeur et dont la technologie ne permet pas (ou mal) la migration dans le cloud, même privé. On parle évidemment ici du legacy, aussi indispensable au business de l’entreprise qu’indéboulonnable, au moins encore sur une bonne décennie.

La troisième pointe représente l’ensemble des nouvelles applications, lesquelles en revanche, sont développées sur un modèle compatible cloud. C’est vers cette nouvelle façon de concevoir l’informatique que les entreprises cherchent à tendre, afin, on l’aura compris, de s’affranchir à terme de leurs vieux systèmes ERP. Elles se dirigent vers de nouveaux workloads, adoptent des architectures souples et dynamiques capables d’être portées du datacenter vers du cloud public. Ici une part importante de la donnée utile se répartit sur de nombreuses plateformes.

 

La règle de la complexité

Par conséquent l’information au sens large est disséminée sur plusieurs systèmes, dont beaucoup appartiennent à des tiers. Elle se montre particulièrement mobile en outre. La complexité est devenue la règle quand la responsabilité de la gestion et de l’exploitation de ces données produites reste à la charge de l’entreprise.

« Les entreprises devraient avoir une philosophie de la donnée (non personnelle s’entend) comparable à celle du GDPR » rappelle Daniel de Prezzo, Directeur Technologique Veritas South EMEA. « Gouverner sa donnée sans en connaître ni son contenu, ni sa valeur ni sa localisation revient à conduire sa voiture les yeux fermés. ». Outre les risques encourus, on passe surtout à côté du but d’une gestion saine de l’information qui est d’en tirer de la valeur. Il faut évidemment que la donnée travaille pour l’entreprise et certainement pas l’inverse.

 

Où se trouve mon information ? Quels types de données ai-je à ma disposition ? Qui peut y accéder ? Des questions auxquelles la grande majorité des entreprises ne répond que partiellement, d’abord parce qu’elle ne dispose d’aucun outil pour y parvenir. Daniel de Prezzo le confirme : « Oui, la plupart effectuent un travail de cartographie à la main, sans imaginer d’ailleurs que des solutions autrement plus adaptées existent. »

Or, si la cartographie de la donnée n’a jamais été facile à mettre en œuvre, elle est d’autant plus complexe aujourd’hui sans solution dédiée que la donnée est disparate et protéiforme. À quoi s’ajoutent des obligations réglementaires plus lourdes encore.

 

Cartographier et classifier pour retrouver la valeur de sa donnée

Gérer sa donnée, c’est donc d’abord en comprendre le but. Dès que l’on admet que la donnée doit travailler pour l’entreprise, on comprend rapidement quelles sont les étapes à suivre et le processus à mettre en œuvre.

La cartographie de sa donnée représente la toute première étape. C’est elle qui permet ensuite de stocker intelligemment, ce qui signifie entre autres savoir supprimer les données obsolètes, adapter le stockage en fonction de l’utilité quotidienne ou non de l’information considérée et opter pour un archivage moins coûteux pour des usages secondaires. Ce n’est qu’après que la question de la protection peut être réglée correctement au travers des thématiques de sauvegarde, de restauration et de haute disponibilité pour les applications les plus stratégiques. Reste enfin le monitoring, indispensable pour disposer d’un suivi dynamique des mouvements de données dans le cloud. 

Qui dit cartographie dit classification de la donnée à la volée. La classification facilite la découverte, par la métadonnée ou le contenu, des éléments prédéterminés (format bancaire, adresse mail, numéro de passeport, avis consommateurs…) et des solutions intégrées couvrent l’entièreté du champ informationnel avec un focus particulier, évidemment, sur la donnée non structurée. 

À première vue complexe, la classification s’organise en réalité de manière automatique, s’adjoint à la cartographie et autorise l’entreprise à créer ses propres règles.

Au-delà, on parle également de stockage objet, un stockage intelligent, embarquant un moteur de classification qui intervient au moment où l’information utile est écrite. L’opération de classification n’est plus décorrélée du stockage, et c’est bien cette association, entre visibilité, classification et stockage adapté, qui redonne toute sa valeur à la donnée.

 

Serez-vous plutôt traditionnel ou Open Data ? À vous de choisir

Dès lors, c’est une toute nouvelle liberté que l’entreprise retrouve sur l’usage qu’elle peut faire de son information (directives, lois et règlements mis à part) et de nouveaux choix se présentent. Car opter pour la suppression de données quand celles-ci ne servent plus le business de l’entreprise n’est pas un acte qui s’impose nécessairement. D’autres pourraient très bien y trouver leur compte. Dans ce domaine, les besoins et les pratiques des entreprises peuvent être très différents et l’on constate l’apparition de deux écoles.

 

D’un côté se trouve l’école classique, laquelle pose comme principe que chaque donnée créée l’est pour une utilité spécifique, un résultat attendu et des délais de rétention connus à l’avance. Citons par exemple les plans de construction d’un avion, que l’on conservera trente ans. Il n’y a pas de raison particulière de les garder au-delà.

Certes si, diront les tenants de l’école de l’Open Data, qui préfèrent penser qu’une information porte une valeur intrinsèque. Daniel de Prezzo se souvient justement d’une discussion à ce propos lors d’une réunion de travail sous l’égide d’Etalab : « En effet, il faut le reconnaître, il n’est pas exclu qu’on ait besoin de consulter les menus des cantines scolaires au début des années 2000 pour étayer une étude sur nos comportements alimentaires. Allez savoir ! »

Si la question semble intéresser d’abord la sphère publique, le secteur privé peut tout aussi bien choisir de participer à l’élan Open Data. La richesse informationnelle qu’il détient saura trouver preneur. Et quoiqu’il arrive, les deux écoles convergent autour de la question de la rétention informationnelle, qu’elle soit finie ou infinie. Tout commence donc bien par la cartographie et la classification de sa donnée. La suite relève d’un arbitrage qui n’appartient qu’à l’entreprise.

About The Author

Pascal Sebat

Responsable Département Avant-Vente

Daniel De Prezzo

Directeur Technique

Recevez par mail les articles et actualités de Au coeur des InfrasJe m'inscris à la Newsletter