Aujourd’hui, ce sont les données qui fixent le cap

Depuis la création de la toute première base de données, la qualité des données a toujours été une préoccupation. Ce sujet a toutefois été longtemps négligé, pour la simple raison que l’efficacité des processus était toujours jugée plus importante que l’exhaustivité et la précision des données. Les données étaient un sous-produit des processus. Résultat : les bases de données comportaient énormément d’erreurs et d’omissions. Un article de Jeroen Dijkxhoorn, Directeur du Centre d’excellence Plate-forme analytique de SAS.

Pour faire face à ce problème, les données étaient systématiquement validées avant d’être utilisées. Si de nombreuses erreurs étaient trouvées, tous les efforts étaient soudain concentrés sur la recherche des données manquantes, la correction des inexactitudes et/ou le nettoyage des bases contaminées. L’intervention humaine était constamment nécessaire.

 

Déclenchement automatique des processus par les données

 

Aujourd’hui, cette méthode pose des problèmes car les sources de données sont de plus en plus liées alors que les processus sont susceptibles de démarrer à tout moment. Si la date de lancement d’une campagne marketing par e-mail était auparavant fixée par un professionnel du marketing, elle est désormais déterminée par des déclencheurs reçus du client auxquels vous pouvez réagir. Mieux vous comprendrez le parcours du consommateur, plus votre entreprise réagira facilement à ces déclencheurs et s’adaptera à ses clients. Vous devez pour cela instaurer des règles précisant comment votre entreprise doit réagir lorsque le client ou prospect demande certaines informations ou s’inscrit à un bulletin d’information par e-mail.

 

Cette tribune est extraite de la publication « Future Bright – Laissez-vous guider dans un monde de données » que vous pouvez télécharger ici

 

Le processus se poursuit de manière entièrement automatique, sans intervention humaine et donc, sans l’étape de validation auparavant indispensable. L’exactitude des données doit par conséquent être vérifiée automatiquement, au moyen de services pouvant être déployés tout au long du processus. À ce stade, il est possible de distinguer la validation (correction technique des données dans un flux physique) de la qualité des données (vérification de l’exactitude fonctionnelle).

 

 

Réalité orientée données

 

Les entreprises étaient jusqu’à présent organisées en fonction des processus. Aujourd’hui, ce sont les données qui fixent le cap. Cela signifie que la moindre défaillance dans l’identification des erreurs peut avoir immédiatement un impact considérable. La correction manuelle n’étant plus possible, l’erreur apparaîtra à plusieurs endroits, ce qui rend le suivi de la qualité des données beaucoup plus important. C’est également la raison pour laquelle les règles et réglementations de conformité imposent de nouvelles exigences de qualité des données. Aujourd’hui, les superviseurs veulent des données, et non des rapports, ce qui nécessite une organisation orientée données. Nous nous dirigeons rapidement vers cette réalité.

 

Le problème n’est pas tant la technologie que le manque de suivi centralisé de la cohérence des définitions de données – autrement dit, de la gouvernance des données. Cette tâche incombe généralement au directeur des données, qui fait défaut à la plupart des entreprises.

 

 

Rôle moteur de l’ère du client et de l’Internet des objets

 

Il est urgent de passer à l’action, car l’ère du client impose de réagir rapidement aux déclencheurs des consommateurs. Une vision à 360° du client est donc indispensable. S’il en est question depuis des années, la répartition des données client dans différents systèmes l’a toujours rendue impossible, d’autant plus que le manque de supervision des définitions de données empêche le regroupement de ces dernières.

 

Les développements liés à l’Internet des objets constituent un autre moteur. Celui-ci entraînera un nouveau flux de données que vous pourrez utiliser pour optimiser vos processus et les automatiser en grande partie. Ce phénomène nécessite également une vision appropriée de la gestion des données.

 

 

Combinaison de différents types de données

 

Que votre entreprise soit mue par l’une ou l’autre de ces réalités, il devient de plus en plus important de combiner des données fiables à 100 % à des données présentant un certain degré d’incertitude. Les prévisions météorologiques ou les analyses du ressenti sur les réseaux sociaux en sont des exemples. Comment associer correctement ces données non structurées, souvent stockées dans des clusters Hadoop, à des données structurées parfaitement exactes, comme la planification des trajets d’un chauffeur routier ou les données de comportement d’achat ?

 

En termes de coût, il est impossible de stocker toutes ces données dans la même base. Et d’un point de vue organisationnel, cela ne serait pas non plus souhaitable comme Ronald Damhof l’explique dans Future Bright (p. 25). Après tout, les données dont vous devez rendre compte à vos supérieurs sont très différentes de celles que vous utilisez pour effectuer des expériences et trouver des idées innovantes. Pourtant, ces différents modes d’utilisation doivent coexister sans regrouper physiquement la totalité des données.

 

Une telle complexité exige un modèle logique et des définitions de données limpides. Sans ces définitions et une bonne gérance des données, il est impossible d’exploiter les opportunités qui apparaissent sur le marché et que vos concurrents s’empresseront de saisir. La question n’est donc plus de savoir si vous allez vous lancer, mais quand. Notre réponse est sans appel : dès maintenant. Les données sont votre capital le plus précieux. Agissez en conséquence et exploitez-les avant qu’un concurrent ou un nouveau venu ne prenne les devants.

Jeroen Dijkxhoorn, Directeur du Centre d’excellence Plate-forme analytique de SAS

 

 

Cette tribune est extraite de la publication « Future Bright – Laissez-vous guider dans un monde de données » que vous pouvez télécharger ici