Les Big Data renversent le raisonnement cartésien

Les Big Data génèrent un volume exponentiel de données, renouvelées en permanence. Leur traitement implique d’en extraire immédiatement des corrélations, sans chercher à conserver  l’intégralité desdites données sur le long terme. Cette donne révolutionne le raisonnement par lequel appréhender leur analyse. Finie la pensée cartésienne, socle de la pensée scientifique. Les Big Data nécessitent de revenir à un raisonnement inverse : la pensée inductive.
Le volume des données disponibles atteint des seuils inédits. En 2013, près de mille milliards de milliards d’octets de données auront circulé sur le réseau mondial. Leur traitement implique une puissance de calcul, de stockage et d’analyse gigantesque. Mais pas seulement. Les Big Data provoquent aussi des ruptures culturelles et industrielles dans les modes de traitement qu’elles nécessitent.
Parmi ces ruptures, la plus remarquable se situe sans doute au niveau du cheminement intellectuel nécessaire pour les appréhender. En effet, ces données massives se renouvellent sans cesse, ce qui change complètement la façon de les consommer. Dorénavant, la donnée devient un produit temporaire, consommable, inclus dans un cycle intense de création-destruction.
Dans ce contexte, le raisonnement cartésien – socle de la pensée scientifique – peine à suivre pour identifier les corrélations au sein d’une immense masse de données. La pensée inductive s’avère plus efficace. Elle consiste à saisir une situation dans sa globalité, à la traiter en fonction de références déjà vues par le passé, de façon empirique en fonction de l’existant. Or, justement, le traitement des Big Data vise à rechercher instantanément des informations essentielles, à les traiter dans leur globalité sans a priori pour reproduire des mécanismes efficaces et éprouvés, et produire de nouvelles informations immédiatement exploitables.
Dès lors, apparaissent de nouveaux algorithmes inductifs de célérité qui renversent les logiques. Par exemple, modéliser et normaliser les données revient à rechercher au contraire les singularités et les inconnues. Autre spécificité du raisonnement inductif : il n’y a pas de fin au traitement, lequel peut être multiple, et il constitue un apprentissage continu au fil du temps. Il s’agit d’un véritable ‘lâcher prise’ mental dans l’analyse, caractéristique de la rupture culturelle provoquée par les Big Data.
Lire l’article

En complément, un article sur l’approche empirique des Big Data et un article sur la révolution des Big Data en termes de RH

A lire sur Business Analytics Info: « Quand les Big Data mettent au défi les conventions du recrutement » et « Les décideurs de demain devront penser en Big Data »