Avant l’analyse, un toilettage des données s’impose

Les données collectées par l’entreprise ne peuvent apporter une réelle valeur ajoutée à une activité commerciale que si celles-ci passent par un processus préalable de  sélection, de tri et de nettoyage. Le Master Data Management et la gestion de la qualité des données sont des outils incontournables pour contribuer à la mise en place d’une « version unique de la vérité », graal de toute stratégie analytique,  favorisant la mise en œuvre d’applications concrètes dans des domaines aussi variés que le marketing produit, l’étude de la satisfaction client ou l’optimisation de l’utilisation de ressources.

Disposer d’une version unique de la vérité, c’est-à-dire s’assurer que l’ensemble des collaborateurs d’une entreprise accèdent aux mêmes données, est l’un des principaux enjeux qui sous-tendent à la réussite d’un programme analytique. Pour y parvenir, les entreprises doivent d’une part considérer leur patrimoine informationnel comme une ressource (et non une suite de « zéros et de uns ») capable d’améliorer leurs prises de décision et d’autre part, exploiter les fonctions de MDM et de qualité de données sur un mode dynamique pour faire face aux évolutions du marché.

Toute bonne décision ne peut être prise que sur la base de données de qualité, actualisées et bien structurées autour d’un référentiel couvrant l’ensemble des activités de l’entreprise. C’est le fameux « GIGO » (« garbage in, garbage out ») qui traduit le fait que lorsque les données entrantes sont de qualité, les résultats de l’analyse le seront également. Bien que cette affirmation semble enfoncer une porte ouverte, la qualité des données reste encore le parent pauvre des projets analytiques des entreprises : si 90% d’entre elles considèrent la qualité des données comme essentielle, seulement 15% ont réellement mis en place des stratégies dédiées.

De nouveaux outils reposant sur la géolocalisation, le suivi de flux de données issues des réseaux sociaux ou consommation de ressources en temps réel sont autant d’apports stratégiques et concurrentiels pour certaines entreprises cherchant à faire évoluer leur business model. Là plus qu’ailleurs, la structuration et la qualité des données sont deux prérequis essentiels pour offrir à l’entreprise l’avantage concurrentiel qu’elle recherche.

Lire l’article (en anglais)

En complément : un article (en anglais) issu d’un blog de Gartner sur le Master Data Management et cinq pratiques essentielles de qualité des données selon un livre blanc (en anglais) de Pitney Bowes.

A lire sur Business-Analytics-Info.fr : « Le paradoxe des Big Data : grosses données et micro-marchés » et «Analytique stratégique : un ROI de plus de 1200%  ».