Les algorithmes de big data sous surveillance ?

La puissance des algorithmes de big data n’est plus à démontrer. Mais quelles seraient les conséquences d’un mauvais postulat de départ ou du choix erroné d’un ensemble de données ? Pour éviter ces risques et garantir la protection de la vie privée, un think tank propose de faire auditer les algorithmes par des organismes certifiés.

Un think tank français suggère de faire auditer les algorithmes de big data utilisés par les entreprises, mais aussi par les organismes publics, afin de garantir le respect de la vie privée. Pourquoi auditer des algorithmes ? Parce que les risques existent d’une mauvaise interprétation des données ou d’un postulat de départ erroné, erreurs dont les conséquences peuvent être graves, répond le think tank, qui cite l’exemple d’une banque évaluant la capacité de remboursement d’un ménage avant de lui accorder un crédit.

Pour vaincre les méfiances – légitimes – des entreprises et des administrations à laisser contrôler leurs algorithmes, il faudrait que ces contrôles soient assurés par des experts, mais surtout par des entreprises agréées voire assermentées, soumises à des règles strictes de confidentialité. En effet, qui aujourd’hui voudrait dévoiler à ses concurrents les astuces de ses algorithmes ? Enfin, ces contrôles seraient complétés par un contrôle interne assuré par un médiateur qui ferait l’interface entre les utilisateurs des algorithmes et les clients de l’entreprise ou de l’administration, par exemple.

Lire l’article

 

En complément :
Un article sur le baromètre EMC/IDC et le niveau de maturité des entreprises françaises en matière d’exploitation des big data,
et
un article sur la gouvernance des algorithmes

 

A lire sur Business-Analytics-info.fr :
« Relation client et confidentialité des données, la confiance, c’est la clé »
et
« Consommateurs, citoyens et entreprises : les enjeux de l’identité numérique à l’ère des big data »