Les « principes d’Asilomar » : vers une éthique de l’IA ?

Plus de 1000 scientifiques ont adopté 23 principes pour encadrer le développement de l’intelligence artificielle et de la robotique après un séminaire organisé par le Future of Life Institute à Asilomar, en Californie. Un timide premier pas vers une éthique de l’IA, selon Jack Stilgoe et Andrew Maynard, experts en politique scientifique.

Le lieu est symbolique. En février 1975, près de 150 chercheurs en génétique se réunissaient à huis-clos au centre de conférences d’Asilomar, sur la côte californienne, pour discuter d’un éventuel moratoire sur les manipulations génétiques. À l’arrivée, aucun consensus n’est trouvé, mais une forme de principe de précaution est adoptée par les scientifiques : ils demandent qu’on n’utilise pas d’organismes dangereux pour l’homme ou capables de se reproduire chez l’animal, selon Wikipédia. Début janvier 2017, Asilomar a été le théâtre d’une nouvelle réunion d’experts pour tenter cette fois de trouver une voie positive pour la recherche en intelligence artificielle (IA) et en robotique, aujourd’hui source de vifs débats dans la communauté scientifique et au-delà.

 

Une intelligence artificielle bienveillante ?

 

L’IA concentre en effet tous les fantasmes, constatent Jack Stigloe, professeur en politique scientifique à University College London, et Andrew Maynard, directeur du laboratoire Risk Innovation de l’université d’État d’Arizona, dans une tribune en ligne publiée par The Guardian. Ainsi, nombre de philosophes s’inquiètent publiquement des dangers apocalyptiques que ferait courir une hypothétique super-intelligence, masquant de ce fait des questions sociales actuelles plus importantes. Car l’IA existe déjà dans notre quotidien, avec un impact certain sur nos façons de travailler, de communiquer, de nous rencontrer et de consommer, notent les deux experts.

La récente réunion d’Asilomar a abouti, sous l’égide du Future of Life Institute, à l’édiction de 23 principes adoptés à ce jour par plus de 1000 chercheurs en robotique et en intelligence artificielle, ainsi que près de 2000 personnalités, dont Stephen Hawking et Elon Musk. Les signataires affirment notamment que l’IA doit être bénéfique pour les gens et développée de manière sécurisée. Jack Stigloe et Andrew Maynard approuvent ces idées positives, mais ils regrettent à la fois leurs limites et l’absence des journalistes et du grand public dans ce débat. Selon eux, si on demandait leur avis aux citoyens, ils se montreraient plus intéressés par l’influence concrète de l’IA sur leur mode de vie que par des spéculations absconses autour de la fin du monde. D’où leur appel à un élargissement à l’ensemble de la société des discussions à propos de l’éthique et de la responsabilité en matière d’intelligence artificielle.

 

Lire l’article (en anglais)

 

En complément :

Un article détaillant les 23 principes d’Asilomar,

et une interview du professeur Jean-Gabriel Ganascia après la publication de son livre Le mythe de la Singularité.