webleads-tracker

Objets connectés, drones, robots et société de l’information : comment les algorithmes façonnent notre avenir

Souvent considérés comme des « boîtes noires », les algorithmes sont devenus objets de fantasme : on les imagine omnipotents, dotés d’un pouvoir prédictif infaillible, mettant à mal notre libre arbitre et nos libertés individuelles… Faut-il s’émouvoir de leur prolifération et de leur complexité croissante ? Quelles questions nouvelles pose la multiplication des objets connectés, drones et autres robots, à l’heure où la Google Car vient d’obtenir son permis de conduire ?

Quel modèle de société voulons-nous choisir à l'heure des big data et de l'intelligence artificielle

C’était le thème des échanges du dernier Club Business Analytics Info, le 10 février dernier, avec en point de mire le modèle de société que nous voulons choisir à l’heure des big data et de l’intelligence artificielle.

 

Cette table ronde, animée par Thomas Boullonnois de Rumeur Publique, réunissait :

Dominique Cardon, Sociologue au laboratoire des usages d’Orange Labs et Professeur associé de l’université de Marne-la-Vallée (LATTS),
Alain Bensoussan, Avocat à la Cour d’appel de Paris, spécialisé en droit des technologies avancées,

Benjamin Benharrosh, Co-fondateur de Delair-Tech, leader français des drones industriels Mouloud Dey, Directeur Business Solutions de SAS.

 

 

Ouvrir la boîte noire pour comprendre

 

Pour faire comprendre les algorithmes actuels, Mouloud Dey retrace leur évolution. Les premiers algorithmes servaient surtout d’instruments de mesure dans une logique descriptive, qui peu à peu a fait place à la modélisation prédictive – très utile pour prédire des comportements en marketing, ou prévenir des défaillances dans l’industrie. La dernière famille d’algorithmes se base sur ces modèles prédictifs pour développer des techniques prescriptives, afin de proposer la meilleure solution à un problème donné. Des techniques utilisées aujourd’hui par les compagnies aériennes pour fixer leur prix, ou par Amazon pour ses « recommandations »…

 

Dominique Cardon s’est intéressé en sociologue aux calculs réalisés sur le web. « Avec le big data et l’enregistrement du réel, explique-t-il, nous produisons de plus en plus de données. Pour leur donner du sens, nous devons leur appliquer des calculs… et ces calculs produisent des mondes ». Une statistique n’est jamais neutre : elle porte nécessairement la représentation du monde de qui la met en place.

 

D’où la mission qu’il s’est proposée avec les algorithmes : non pas les prendre de front pour les critiquer, mais entrer dans leurs calculs pour « comprendre ce qu’ils font au monde dans lequel on vit. » Par exemple : que penser de la « méritocratie » selon Google ? Quel niveau de « personnalisation » peut-on accepter ? Faisons-nous nos propres choix ou les laissons-nous aux grandes entreprises du web ? Il y a des choix de société derrière les algorithmes : voilà pourquoi il est important d’ouvrir leur boîte noire et d’en faire un débat.

 

Les algorithmes changent nos représentations

 

Dominique Cardon note par ailleurs trois « secousses » successives dans le monde de la statistique, qui changent nos représentations du monde.

 

Première secousse, avec la généralisation de l’analytique et du benchmark : la mesure ne cherche plus à objectiver le réel, elle vise à produire des palmarès et des indicateurs sur lesquels les acteurs vont agir. Nous sommes entrés dans un monde où le réel devient plastique : on le mesure pour le transformer.

 

Deuxième secousse, avec les big data : la crise des catégories. On ne décrit plus le monde social « par le haut », en utilisant les catégories traditionnelles (CSP, zones géographiques, etc.), mais on cherche à l’analyser par le bas, en utilisant « la trace singulière des comportements ». Un changement, note le sociologue, tout à fait en phase avec l’individualisme contemporain qui refuse d’être assimilé à une catégorie donnée.

 

Troisième secousse, enfin, avec le machine learning : la disparition des modèles. On passerait en effet d’un monde statistique où les modèles étaient prédéfinis, à des « boîtes noires prédictives » où prédiction et prescription vont ensemble, sans forcément comprendre ce qui forge la prédiction.

Néanmoins, ajoute-t-il un brin provocateur, les grands discours sur l’avenir ne doivent pas faire oublier ce constat d’aujourd’hui : « on nous promet que l’on va tout calculer, mais disons-le : ça ne calcule pas très bien… » Et de prendre en exemple la publicité personnalisée qui reste balbutiante, ou la prédiction de grippe de Google Flu, abandonnée car trop imprécise…

 

Les algorithmes, entre idiotie et efficacité croissante

 

Dominique Cardon clôt son intervention en précisant le concept « d’idiotie des algorithmes » qu’il développe dans son livre*. Dans les années 80, l’utopie de l’intelligence artificielle visait à doter les calculateurs de règles symboliques et complexes. Ce projet s’est finalement effacé « au profit d’un calcul statistique extrêmement puissant, mais au fond un peu idiot », où les règles abstraites sont éliminées. Ce qui n’empêche pas l’efficacité, comme on l’a vu avec la victoire d’un robot sur l’homme au jeu de go, ou avec les logiciels de traduction automatique : « On ne demande plus aux calculateurs d’apprendre la grammaire ; on se base désormais uniquement sur des corrélations statistiques, explique le chercheur. Ce changement de stratégie a permis de franchir un palier très important, mais il rend impossible l’horizon d’une traduction parfaite. »

 

Mouloud Dey, note que l’homme est à la fois l’auteur et le sujet des algorithmes. Il rappelle aussi qu’au-delà de certains algorithmes décriés pour leur usage intrusif de données personnelles, d’autres ont des applications extrêmement vertueuses, que ce soit pour faciliter le quotidien des individus, anticiper des épidémies ou des maladies sur des patients à risques, déclencher des actions préventives dans des zones sensibles, identifier des cellules terroristes…

 

Les drones, entre « heavy data » et « machine learning »

 

Les algorithmes ne sont pas seulement sur le web : ils sont désormais embarqués dans des objets connectés ou des drones, comme ceux de Delair-Tech. Cette société, créée il y a cinq ans, conçoit des drones capables de prendre des dizaines de milliers de photos par vol, pour délivrer trois types de service : des services topographiques, des services pour l’agriculture (prédiction de rendement, détection de maladies…) et l’inspection d’infrastructures.

 

Co-fondateur de l’entreprise, Benjamin Benharrosh souligne que le marché, aujourd’hui dominé par les industriels, est appelé d’ici quelques années à devenir « un marché de traitement de données ». Avec non plus des big data, mais des « Heavy Data », chaque image pesant environ 15 Mo.

 

Ces gigantesques quantités de données peuvent aujourd’hui être utilisées pour « éduquer le logiciel » à reconnaître automatiquement des végétations trop proches de lignes électriques, par exemple, ou des pelleteuses qui creuseraient au-dessus d’un pipe-line. Les données récoltées peuvent aussi être utiles aux drones eux-mêmes, pour leur permettre d’analyser eux-mêmes leur environnement, et adapter éventuellement leur navigation ou leur mission**.

 

Pour une régulation des algorithmes

 

Le développement des algorithmes, des capteurs et leur « encapsulement » dans des drones et autres robots, comme le définit Me Alain Bensoussan, pose des questions juridiques nouvelles et passionnantes.

 

Pour Dominique Cardon, la question de la régulation des algorithmes devient cruciale, notamment parce qu’ils redessinent les contours du monde dans lequel nous vivons. Il prend l’exemple de Google : sans le « page rank », nous serions perdus dans l’immensité du web – mais cette utilité s’accompagne d’effets indésirables liés à la disparition des catégories : par pur effet statistique, le moteur peut devenir raciste sans le vouloir.

 

Les algorithmes devraient-ils alors être « neutres » ? Dominique Cardon juge cela « farfelu » : cela nécessiterait de nous mettre tous d’accord sur une représentation « neutre » du monde, ce qui est évidemment impossible.

 

La régulation des algorithmes doit donc reposer sur le concept de la « loyauté ». Car s’il est impossible de descendre jusqu’aux détails techniques d’un algorithme, on peut toujours savoir « vers où il va » (c’est-à-dire pour quoi il a été programmé) et vérifier qu’il est bien loyal à cette intention initiale. Un exemple : si Amazon, sous couvert de recommandation, met en avant des livres qu’il souhaite promouvoir, alors l’algorithme est déloyal. Idem si Google privilégie ses propres services. « Une rétro-ingénierie » doit pouvoir être faite en ce sens, par la société civile de l’Internet comme par les régulateurs – en attendant que le droit se saisisse de la question pour « produire de la décision ».

 

Au-delà des questions juridiques, poursuit le sociologue, le grand enjeu serait de permettre à tous les utilisateurs du web de comprendre les bases des algorithmes pour mieux les apprivoiser : « Dès qu’on introduit une métrique dans le monde social, on le sait bien, les gens changent leur comportement pour jouer avec la métrique ». On le voit déjà avec les objets connectés : que ce soit pour la course à pied ou la mesure du sommeil, certains utilisateurs trichent pour améliorer leurs propres données ! De même, les utilisateurs les plus actifs sur les sites de rencontre ont compris quels signaux il leur faut envoyer… « Jouer avec les algorithmes, c’est une façon de se les approprier. Voilà une politique éducative qu’il faudrait encourager », conclut-il.

 

Ce qui change avec les robots

 

La question des robots est encore différente, avec un grand vide juridique***. Qu’il s’agisse de « bots » (ceux du web ou du trading à haute fréquence) ou de « robots » matériels, « les robots vivent aujourd’hui en liberté en milieu humain », insiste Alain Bensoussan, qui pointe deux grands défis.

 

Premier défi : la supériorité des robots, y compris dans des domaines très pointus. Le robot médecin Watson, par exemple, donne en moyenne de meilleurs diagnostics de cancer. Dans certains cas, on aurait donc intérêt à avoir recours au robot plutôt qu’à l’homme. Et parce qu’erreur humaine et erreur robot ne sont pas comparables, cela implique de redessiner le droit.

 

Deuxième défi : le « mode GPS » dans lequel nous nous mettons de plus en plus souvent, en nous laissant conduire par les algorithmes. Un comportement qui se justifie par leur puissance, qui permet objectivement d’améliorer l’efficacité dans de nombreux domaines… mais qui pose de nouvelles questions sur la responsabilité juridique de nos actions.

 

Ainsi, conclut Alain Bensoussan, il faut à la fois réguler le rapport entre les hommes et les robots, et gouverner les algorithmes.

 

Régulation et innovation : un dilemme à résoudre

 

… Mais quelle délicate question que celle de légiférer dans un domaine aussi mouvant que celui des robots ou des algorithmes !

 

Me Bensoussan replace le cadre, en rappelant le dilemme qui se pose au législateur : « si on intervient trop vite en droit, on risque de bloquer l’innovation. Mais si on intervient trop tard, si on se contente de réagir, alors on se laisse rapidement dépasser ».

 

Benjamin Benharrosh confirme que la réglementation reste globalement balbutiante en ce qui concerne les drones. Les Etats-Unis, l’Australie et les pays européens se sont dotés de réglementations très disparates, le reste du monde restant non régulé.

 

La législation française, elle, distingue clairement les utilisations ludiques des drones, et celles des drones « plus puissants et plus intelligents » – même si ces derniers ne sont pas encore autorisés à voler dans le même espace que les avions ou les hélicoptères.

 

Pour anticiper les évolutions à venir et définir « l’espace aérien de demain », une approche révolutionnaire vise un rapprochement entre télé-pilotes, opérateurs de drones et contrôleurs aériens. Mais cette réflexion fondamentale ne vient pas des acteurs classiques de l’espace aérien, mais des GAFA…

 

Un autre domaine de réglementation à venir concerne l’utilisation des images prises par les drones – à l’image de la réglementation sur les images satellite. La Cnil s’est penchée sur le sujet. Aux Etats-Unis, l’approche est plus radicale : les drones ont été interdits dans l’espace aérien pour éviter qu’ils n’attentent aux libertés individuelles, et certains Etats ont même autorisé les habitants à les abattre…

 

Mouloud Dey, plaide, lui aussi, pour un encadrement des algorithmes. « Les réglementations ne sont pas seulement un frein, elles sont aussi une protection », dit-il. La France et l’Europe ont la chance d’avoir des institutions comme la Cnil et de s’être déjà dotées de directives. Mais ces réglementations sont élaborées trop lentement : le temps qu’une loi numérique se construise, les technologies et les sujets ont déjà évolué.

 

Autre limite actuelle : alors que les réseaux sont globaux, les pays se dotent de législations locales. Une réglementation transnationale devient nécessaire, notamment sur des sujets aussi cruciaux que la cyber-sécurité. On sait que la menace existe d’attaques coordonnées sur plusieurs pays développés : il est urgent de penser des directives transnationales.

 

Transparence, loyauté : deux concepts-clés pour les algorithmes

 

Alain Bensoussan pointe les deux concepts-clés qui peuvent sous-tendre la gouvernance des algorithmes : transparence et loyauté – notamment en ce qui concerne l’utilisation des données personnelles.

 

Pour la transparence, il rappelle qu’une disposition juridique existe en France depuis 1978 : lorsqu’une décision est prise à partir d’un traitement automatisé, le citoyen concerné est en droit d’en connaître les éléments – donc l’algorithme – et de contester ce dernier. Il est donc possible d’agir, même si très peu de citoyens se saisissent de ce droit.

 

L’obligation de loyauté existe déjà, elle aussi, pour la collecte de données : depuis 2004, on est en effet passé d’une interdiction des traitements déloyaux à une obligation de « collecte loyale ». Cette distinction entre « loyauté » et « déloyauté », note l’avocat, est plus critique qu’elle n’en a l’air. En effet, si deux pays comme la France et les Etats-Unis peuvent s’entendre facilement sur le concept de déloyauté, celui de loyauté revoie à des conceptions éthiques, différentes selon les civilisations…

 

Pour une personnalité juridique des robots

 

Les robots sont de plus en plus libres, à la fois en termes de mobilité (par les capteurs) et en termes de décision (par les algorithmes). Cette liberté, pour Alain Bensoussan, doit être encadrée tout comme on a encadré la liberté des hommes.

 

On pourrait envisager de leur appliquer le droit des humains, peut-on penser. Mais ce ne serait pas suffisant : les algorithmes ne prennent pas les mêmes décisions que les humains ; l’avocat cite l’exemple d’un accident inévitable, où l’algorithme d’une voiture en pilote automatique décide de changer de file pour emboutir une voiture avec un seul conducteur plutôt que le véhicule à quatre conducteurs qui lui faisait face. Une décision rationnelle, qu’aucun humain n’aurait prise…

 

Alain Bensoussan préconise de créer une personnalité juridique singulière pour les robots, avec ses droits et ses obligations. C’est bien ce qui s’est passé quand on a créé la « personnalité morale » pour les entreprises. Rendre les robots sujets de droit et non plus simplement objets de droit : voilà qui permettra de tenir compte de leurs spécificités. « Nous sommes passés en mode GPS, résume-t-il. Les algorithmes nous conduisent dans nos achats comme dans nos voitures ; il faut bien en tenir compte dans nos réglementations, car le mode GPS est un mode dangereux.

 

En conclusion…

 

En conclusion, Mouloud Dey souligne le danger que peut représenter l’autonomie croissante des algorithmes sur certains sujets, et l’importance de pouvoir repasser « en mode manuel ». Il précise que les algorithmes de SAS intègrent toujours le savoir-faire de l’homme, et que les algorithmes prescriptifs proposent à leurs utilisateurs de choisir entre des alternatives, et de reprendre le contrôle.

 

Pour Alain Bensoussan, la possibilité de reprendre le contrôle du système implique d’abord de le comprendre. Il plaide donc pour un « droit de compréhension » qui obligerait les plateformes à publier les éléments de compréhension essentiels de leurs algorithmes. Un enjeu qu’il rapproche du droit de la santé : « le patient ne peut bien sûr pas comprendre tous les détails d’une maladie ; l’essentiel est qu’il comprenne les risques de l’acte opératoire. Il doit en aller de même pour les algorithmes. ».

 

Benjamin Benharrosh pointe enfin que, dans le flou actuel, les innovateurs tentent de reprendre la main sur la réglementation. Une situation pas nécessairement souhaitable, mais qui se comprend tant la régulation est devenue levier de croissance économique : « En tant que start-up, nous avons besoin d’un cadre clair, et que ce cadre évolue rapidement pour ne pas tuer l’innovation ».

 

Voir la vidéo intégrale de la table ronde

 

*Dominique Cardon « A quoi rêvent les algorithmes, nos vies à l’heure des big data » (Seuil, 2015)

** Cette « reprogrammation en vol » reste toutefois interdite dans les pays ayant adopté des réglementations sur les drones, obligeant les machines à respecter une trajectoire pré-enregistrée.

***Alain Bensoussan « Droit des robots » (Larcier, 2016)


 

QUESTIONS DE LA SALLE

 

Les sociologues mesurent-ils la « résistance » des individus aux algorithmes ?

Dominique Cardon : Ce serait formidable, mais très compliqué au vu de la très grande disparité des algorithmes. Ce qu’on observe de façon générale sur le web, c’est que selon le niveau de diplôme, les internautes utilisent des stratégies plus ou moins élaborées de décodage ou de résistance.

Des outils de résistance existent, par ailleurs, à l’image d’Adblock. Les publicitaires ont longtemps caché les chiffres, mais on sait aujourd’hui qu’un grand nombre des bannières publicitaires considérées comme affichées ne le sont pas en réalité. Et ce n’est qu’un exemple ! D’autres outils se développeront pour contrer tous les services qui veulent nous enregistrer. A ce titre, il faut aussi évoquer un grand courant hérité de la culture hacker : « l’obfuscation », qui consiste à produire des signaux qui trompent le calculateur. Cliquer sur toutes les publicités, par exemple (des add-ons permettent de le faire automatiquement), c’est créer un « bruit » qui brouille les capteurs. Voilà une forme de résistance – mais aussi d’appropriation.

 

On parle de plus en plus d’outils d’aide à la décision. Mais si l’on prédit sans expliquer, en quoi est-ce une aide à la décision ? Sans explication, a-t-on un autre choix que celui de suivre aveuglément le résultat l’algorithme ?

Dominique Cardon : A la fin de la boucle, en théorie, c’est l’utilisateur qui prend la décision.

Ce que construisent les algorithmes, c’est le paysage dans lequel ils nous laissent libre de prendre des décisions. Libre à chacun de cliquer sur une publicité personnalisée, ou de rester sur la première page de Google. Je crois assez peu que nous soyons « colonisés » par les algorithmes, mais il nous faut prendre conscience que nous évoluons dans un monde qui a été pré-structuré.

Toutefois, il arrive que l’algorithme devienne prescription et nous automatise : la « boîte noire » s’est alors refermée sur l’utilisateur. Et s’il n’est plus possible de repasser en mode manuel, si la décision prise par le système technique, alors ce sont de nouveaux enjeux juridiques qui se posent.

 

On parle beaucoup de la « blockchain », qui pourrait venir supprimer banques et autres intermédiaires… Mais où est la loyauté ? Où est la transparence ? Quelle régulation ?

La « blockchain » est une technologie répartie qui permet de s’assurer de l’authentification des individus et de la sécurité des transactions… C’est elle qui se trouve notamment derrière le « bitcoin ». Alain Bensoussan invite à se méfier des effets de mode : l’expérience du bitcoin montre tout de même de grands risques… Mais c’est assurément une technologie (le post-algorithme, déjà !) qui mérite d’être regardé de près.

Pour Mouloud Dey, cette promesse de transparence reste une promesse. Pour qu’elle devienne réalité, il faudra qu’elle soit validée par les différents acteurs du monde bancaire, et par les grandes institutions financières.

 

Des villes comme New-York utilisent des données publiques à l’appui de leurs politiques (élagage des arbres, urgences…). Les algorithmes utilisés doivent-ils eux aussi être publics ? Existe-t-il une règle de droit en la matière ?

Alain Bensoussan : Malheureusement non. Il y a en effet eu un débat, en France, pour rendre publics ces algorithmes « de civilisation ». Si l’on regarde à long terme, Internet n’est que le jurassique du monde virtuel qui vient. Les algorithmes prédictifs dessinent le monde social de demain, en s’appuyant notamment sur l’open data… et sur wikipedia. Les données publiques génèrent de nombreux « signaux faibles » qui sont interprétés par les algorithmes pour valider les modèles qui les sous-tendent, ou pour créer de nouveaux modèles (selon la technique des réseaux neuronaux). Ces données constituent « l’expérience » de l’algorithme. Mais cette expérience doit s’accrocher sur un « graphe de connaissances », une connaissance de fond que les algorithmes vont notamment puiser… dans wikipedia. C’est là que l’algorithme va vérifier si le concept existe ou non, c’est là qu’il va chercher les éléments pour établir des liens entre les concepts. En ce sens, wikipedia donne la compétence à l’algorithme.

Open data, wikipedia et techniques algorithmiques : dans ce triangle se trouve le monde tel qu’il est organisé par les grands décideurs politiques comme par les acteurs du marketing. Il est vraiment temps de mettre du droit là-dedans.

 


Voir la vidéo intégrale de la table ronde

 

A lire sur Business Analytics Info :

« UPS adopte l’analyse prescriptive pour optimiser la livraison »

et

« Vous n’aimez pas les maths ? Et si les maths vous faisaient trouver l’amour ? »

 

 

Réagir à cet article

COMMENTAIRE

Commentaire le 25/02/2016

[…] Source: Business analytics. Lire l’article dans son intégralité ici. […]

Commentaire le 24/02/2016

[…] Souvent considérés comme des « boîtes noires », les algorithmes sont devenus objets de fantasme : on les imagine omnipotents, dotés d'un pouvoir prédictif infaillible, mettant à mal notre libre arbitre et nos libertés individuelles… Faut-il s'émouvoir de leur prolifération et de leur complexité croissante ? Quelles questions nouvelles pose la multiplication des objets connectés, drones et autres robots, à l’heure où la Google Car vient d’obtenir son permis de conduire ?  […]

Lire les autres commentaires

DANS LA MEME RUBRIQUE

Envoyer à un ami

X
Limite de 255 caractères