Déléguer la décision à une machine, un choix responsable ?

Chaque jour ou presque, nous sommes amenés à trancher des dilemmes. Alors que cette tâche peut s’avérer extrêmement complexe pour nous autres humains, nous nous apprêtons à confier toujours plus de décisions à des systèmes autonomes. Cette évolution vers un monde où l’intelligence sera partagée avec des robots ne doit pas être prise à la légère, estime Evan Stubbs, directeur de l’analytique chez SAS Australie.

Imaginons une voiture en pilotage automatique transportant une personne assoupie dans le trafic citadin. Le véhicule la précédant prend soudainement feu et, malgré la distance de sécurité, se transforme en obstacle inévitable pour notre voiture. Celle-ci pourrait se déporter à droite, au détriment de la vie de deux piétons, ou à gauche, où l’issue serait une collision frontale avec une moto… Que doit décider la machine ? Épargner son passager en condamnant d’autres personnes ? Ce choix serait-il éthique ?

 

Les lois de la robotique d’Asimov sont inopérantes

 

Ce type de situation apparaît certes extrême, mais de moins en moins improbable tant l’intelligence artificielle s’immisce dans notre quotidien. Les décisions prises par des machines deviendront monnaie courante bien plus tôt qu’on ne le pense, prédit Even Stubbs, directeur de l’analytique chez SAS Australie, dans une tribune publiée sur le site australien « Financial Review ». C’est pourquoi il devient urgent de fixer des règles concernant des décisions pouvant avoir un impact tant sur notre santé que sur notre sécurité ou notre mode de vie.

Dans ses célèbres nouvelles mettant en scène des robots, Isaac Asimov avait définit les trois « lois de la robotique », dont la plus importante établissait que les actions d’une machine ne devaient en aucun cas mettre en péril la vie d’un être humain. Malheureusement, ces règles s’avèrent inopérantes dans des dilemmes comme celui du pilote automatique qui doit « choisir » entre plusieurs vies humaines. Notre responsabilité, estime le directeur de l’analytique de SAS Australie, est de permettre aux systèmes autonomes d’envisager toutes les conséquences de leurs décisions, ainsi que nous le ferions nous-mêmes, sachant que celles-ci se heurtent à nos propres limites — à savoir notre morale et notre subjectivité.

 

 

Lire l’article (en anglais)

 

En complément :

Un article sur une expérience cherchant à inculquer la sensation de douleur aux robots

et une tribune (en anglais) prévoyant un développement rapide de l’intelligence artificielle et nous invitant à cohabiter avec les robots.

 

 

À lire sur Business Analytics Info :

« Après la production, les robots vont investir tous les métiers »

et

« Qui de l’homme ou de la machine prend la décision ? »