A chaque typologie de données, son infrastructure de stockage

A chaque typologie de données, son infrastructure de stockage

L’explosion du volume des données pose de plus en plus la question de leur stockage. Si les entreprises s’intéressent de près aux algorithmes de stockage, c’est parce que les données orientent les décisions stratégiques. A condition de choisir la solution de stockage la plus adaptée à la fréquence d’accès aux données.

 

L’écosystème du stockage bousculé

La plupart des entreprises ont pris ces dernières années le virage de la data. Les 2/3 de ces nouvelles « Data Driven company » sont bien conscientes que leur business model et leur stratégie reposent sur leur patrimoine data, la valorisation de leurs données (*) et donc sur le choix d’une architecture appropriée. Il faut dire que la production exponentielle des données bouscule l’écosystème du stockage et que la volumétrie croissante impose de baisser constamment les coûts et l’encombrement des systèmes de stockage. L’IoT et ses millions d’appareils de sources de données promettent d’alimenter de grands volumes de données… Mais encore faut-il savoir de quelles données on parle !

 

Stocker et traiter les données, une priorité

Le big data est né du besoin de scalabilité de stockage et de traitement de gros volumes de données. Il se caractérise aussi par la vélocité et la variété des données. Qu’elles soient internes ou externes, structurées ou non structurées, temps réel/statistiques, chaudes ou froides… c’est la typologie des données qui détermine le choix d’une ou de plusieurs architectures. C’est même une priorité (30%) par les entreprises (*) pour qui la mise en place des outils de stockage et de traitement de tout type de données représente un enjeu de qualité, de fiabilité et de conformité dans un contexte de respect des données personnelles.

 

Le choix du coût ou de la performance 

L’effort d’efficacité du stockage a souvent eu pour effet d’augmenter le nombre d’accès, à capacité de stockage égale, au risque de diminuer la performance. Il est important de bien distinguer les données qui sont régulièrement sollicitées et qui doivent bénéficier d’une accessibilité rapide, d’un système de stockage à froid, plus lent et moins coûteux, capable de gérer les données archivées rarement consultées. Dans ce dernier cas, une architecture basée sur un serveur NAS (Network Attached Storage) permet, par exemple, d’accéder à une grande quantité de données non structurées de façon centralisée, à faible coût.

Le stockage des données pose donc de plus en plus la question de la domiciliation de l’architecture.  Or celle-ci répond avant tout à la stratégie de chaque entreprise confrontée à ses propres exigences en termes de protection des données et de niveaux de service. Le stockage en ligne se développe et offre une souplesse comptable au moment où la convergence entre big data, analytique et IoT accroît la pression sur l’infrastructure.

 

Vers le « tout flash »

Par ailleurs, d’après IDC, 20 % du stockage se fera en 2019 sur des systèmes flash, pour répondre aux applications web qui exigent des taux de réponses quasiment en temps réel. Gartner quant à lui prévoit que le futur sera de plus en plus en faveur du « tout flash » au détriment des systèmes hybrides (partie disque, partie flash).  Là encore, tout dépend de la part de données archivées par rapport aux données extraites et restituées sur des flux continus. Dans tous les cas, il s’agit de mesurer le volume de chaque typologie de donnée. Stocker une donnée ne coûte pas cher en soi, mais encore faut-il pouvoir la traiter !

 

(*) Référentiel de la maturité digitale 2018-19 (ebg – IBM)

About The Author

Sebastien Hurst

Responsable Département Avant-Vente

Recevez par mail les articles et actualités de Au coeur des InfrasJe m'inscris à la Newsletter