L’apprentissage automatique, fer de lance de l’IA

L’intelligence artificielle (IA) connaît un renouveau considérable depuis une dizaine d’années, notamment grâce aux progrès de l’apprentissage automatique. Le chercheur Yann Le Cun, l’actuel directeur du laboratoire d’IA de Facebook qui a contribué à cette renaissance, détaille les ressorts de son domaine d’expertise.

Les réseaux de neurones convolutifs sont aujourd’hui largement utilisés dans la reconnaissance d’images, les systèmes de recommandation ou le traitement du langage naturel. Inspirés par le cortex visuel des animaux, ils doivent leur popularité au chercheur Yann Le Cun, recruté fin 2013 par Facebook pour diriger son laboratoire d’intelligence artificielle. L’idée générale de l’apprentissage automatique, rappelle ce dernier dans un entretien récent au site « The Conversation », consiste à confier une tâche à une machine sans lui expliquer en détail comment la réaliser, mais en lui fournissant des informations qui lui permettent d’apprendre à le faire.

 

L’apprentissage automatique a prouvé son efficacité

 

La conjonction de trois facteurs explique la réussite de ces programmes aujourd’hui : puissance de calcul considérable, grande disponibilité des données et invention de nouveaux algorithmes. Les réseaux de neurones, spécialité de Yann Le Cun, imitent dans une certaine mesure le fonctionnement des neurones biologiques pour calculer une sortie à partir d’une entrée, par exemple distinguer un chien d’un chat sur une image. Cette méthode d’apprentissage dit « supervisé » a prouvé son efficacité, tout comme l’apprentissage « par renforcement », où la machine teste les paramètres de décision sur elle-même pour s’améliorer – le joueur de Go artificiel de Google, DeepMind, fonctionne ainsi avec succès. Les chercheurs travaillent aussi sur des algorithmes d’apprentissage non supervisé, qui construisent leur propre modèle du monde, à l’instar de nombreux animaux.

La principale difficulté de l’apprentissage automatique, rappelle Yann Le Cun, réside dans le choix des données fournies au programme pour l’entraîner. Dans le cas de la conduite autonome, par exemple, le système peut s’autocorriger pour augmenter sa fiabilité et limiter les risques d’accident. Mais les machines peuvent également reproduire des biais introduits dans les données par les humains. D’où la nécessité d’établir des règles éthiques quant au développement des technologies d’IA. Pour répondre à cet enjeu, relate le chercheur, Facebook participe à un programme baptisé « Partnership on AI ».

 

Lire l’article (en anglais)

 

En complément :

Un article (en anglais) au sujet de la diversité dans le domaine de l’intelligence artificielle,

et un autre à propos des raisons de la renaissance de l’IA.