Un outil pour évaluer la transparence des algorithmes

Transparence. Dans notre société, des humains ont la responsabilité de contrôler les activités humaines. Bientôt, des algorithmes seront chargés de vérifier la loyauté… d’autres algorithmes. Tel est en tout cas l’horizon de la plateforme TransAlgo pour la transparence des algorithmes et des données, lancée à la suite de la promulgation de la loi pour une République numérique.

Les systèmes de recommandation automatique ou les moteurs de recherche nous promettent des suggestions et des résultats à la fois pertinents et personnalisés. Mais comment être certain(e) que ces services, souvent gratuits, interagissent avec nous de façon parfaitement loyale ? Répondre de manière opérationnelle à cette question est le principal objectif du projet TransAlgo, confié à l’institut national de recherche en informatique et en automatique (Inria), à la suite de la promulgation de la loi du 7 octobre 2016 pour une République numérique.

 

Traquer les biais introduits par les concepteurs à l’insu des utilisateurs

 

Pour Nozha Boujemaa, spécialiste de la science des données en charge de ce projet, il s’agit de rétablir une forme d’équilibre entre les citoyens/consommateurs et les géants du numérique qui exploitent leurs données personnelles. Si les services offerts peuvent être intéressants et utiles, rien ne permet aujourd’hui de garantir qu’ils sont rendus selon des critères parfaitement objectifs ou optimaux. Le problème ne réside pas dans la dimension commerciale — connue — de nombre de ces plateformes, mais dans les éventuels biais introduits par leurs concepteurs à l’insu des utilisateurs. En France, en particulier, il s’agit aussi de s’assurer que les algorithmes sous-jacents respectent tout simplement de la législation en vigueur, notamment en matière de non-discrimination.

Dans cette perspective ambitieuse, le déploiement de la plate-forme TransAlgo sera réalisé en au moins deux temps. D’abord, un portail pédagogique en ligne permettra au grand public de saisir les enjeux liés à la transparence et à la responsabilité des algorithmes, car cette technologie pose une question démocratique (notamment le risque de discrimination), selon Nozha Boujemaa. Ensuite, les efforts des chercheurs se concentreront sur le développement d’outils destinés à décortiquer le fonctionnement des algorithmes, à la façon de la rétro-ingénierie, afin de vérifier qu’ils se comportent de manière loyale, en respectant les règles éthiques ou juridiques.

 

Lire l’article

 

En complément :

Un article (en anglais) au sujet de l’influence des algorithmes des réseaux sociaux dans les élections,

et une réflexion (en anglais) sur le recrutement opéré par des algorithmes.