Gravité des données : comprendre les contraintes physiques des architectures analytiques

Attraction, masse, gravité… la physique peut-elle guider l’entreprise dans la structuration de ses informations critiques ? Cette analogie avec la gravité permet d’appréhender différemment la gestion des données et de mieux visualiser les tenants et aboutissants : quels sont les principes à connaître pour bien concevoir son infrastructure informatique ? Quelles sont les contraintes prévisibles ? Comment bien choisir son architecture et ses partenaires ?

Les entreprises sont parfois prises de cours face à l’explosion des volumes de données générés en interne ou récupérés via des sources externes. Les départements informatiques y font face en mettant en place des structures de stockage et d’analyse, pour conserver et surtout, tirer le meilleur parti de ces données. Phénomène nouveau, la limitation dont il faut tenir compte aujourd’hui n’est pas liée à l’espace de stockage comme c’était le cas dans le passé, mais aux capacités d’échange des réseaux. En effet, selon le principe de la « gravité » des données, la collecte de gros volumes de données génère une certaine « masse » et plus celle-ci est imposante, plus son « attraction » sur ce qui l’entoure est importante. En résumé, plus les données sont nombreuses, plus la probabilité qu’elles soient consommées par des applications ou des services augmente.

Attention donc à bien choisir l’endroit où sont stockées ces données : pour une meilleure efficacité, un transfert plus rapide et une économie de bande passante, les solutions d’analyse de données sont généralement situées au plus près de leur espace de stockage. Car les capacités en bande passante (LAN et WAN) sont mises à rude épreuve du fait du déplacement fréquent des données. Il est également impératif pour le département informatique d’organiser ses équipements selon l’utilisation prévisible des données. En effet, le lieu physique sera déterminant pour optimiser les échanges et maximiser les performances.

Lire l’article (en anglais)

 

En complément :
l’article fondateur (en anglais) de la notion de « Data Gravity »  datant de 2010
et un autre (en anglais) sur la notion de lacs de données (data lake)

 

A lire sur Business-Analytics-Info.fr :
« Transformation numérique : stratégie data et culture analytique au cœur des enjeux de l’entreprise » 
et « Big data : Deloitte livre ses prédictions pour 2015 »