Quelles limites pour les armes pilotées par IA ?

Aux États-Unis, la décision de déclencher un tir potentiellement mortel appartient exclusivement aux militaires. La règle concerne aussi bien les armes autonomes que les robots tueurs. Mais cette restriction doit expirer à la fin de l’année, ce qui suscite un débat sur les limites à définir à l’usage de l’artillerie pilotée par intelligence artificielle.

L’automatisation des tâches rendue possible par le boom de l’intelligence artificielle (IA) concerne beaucoup de secteurs. Accélération des opérations, amélioration de l’efficacité, élimination des erreurs humaines, réduction des coûts, etc. : les avantages apparaissent nombreux, en particulier pour les entreprises. Mais qu’en est-il pour une organisation comme l’armée ? Car dans ce domaine, contrairement aux autres, des vies humaines sont en jeu. Dès lors, est-il raisonnable de confier à des robots autonomes la décision de tuer ?

La première puissance militaire mondiale avait résolu temporairement la question en accordant aux seuls humains cette possibilité. Mais cette disposition est sur le point d’expirer, d’où l’inquiétude d’un sénateur du Michigan exprimée, lors d’une récente audition, auprès d’un général de haut rang de l’armée de l’air US. Rassurant, ce dernier a expliqué qu’il ne lui paraissait pas raisonnable de permettre à des robots tueurs d’agir sans intervention humaine. Le responsable militaire a aussi réaffirmé la volonté des armées américaines de préserver les règles éthiques actuellement en vigueur, tout en se préparant à se défendre face à d’éventuels adversaires utilisant des armes autonomes.

 

Lire l’article (en anglais)

 

En complément :

Un article (en anglais) à propos d’une commission chargée d’établir des règles éthiques pour les décisions des voitures autonomes

et un autre (en anglais) au sujet des questions éthiques posées par l’IA au secteur de la finance.