Faire progresser l’IA grâce au deep learning et aux GPUs

Un texte d’Oliver Schabenberger, Executive Vice President, COO et CTO de SAS.

L’Intelligence Artificielle (IA) est une évolution naturelle de l’analytique. Au fil des années, nous avons vu l’IA ajouter des capacités d’apprentissage et d’automatisation aux tâches d’analyse prédictive et normative.

Nous construisons des systèmes d’IA depuis des décennies, mais les systèmes d’IA actuels sont devenus plus puissants grâce à certaines évolutions. La première vague de systèmes d’IA était constituée de systèmes déterministes basés sur des règles. Les tâches que nous automatisions étaient des tâches de routine, comme recommander le prochain film à regarder ou le prochain produit à acheter.

Nous avons construit ce type de systèmes experts pendant des décennies et nous le faisons toujours. Ils sont très doués pour raisonner autour d’un type restreint de problématiques. Mais ils ne peuvent pas apprendre et faire preuve d’abstraction, ils ne gèrent pas bien l’incertitude, ils sont inflexibles et ils ne sont pas doués pour percevoir le monde naturel.

La vague actuelle de systèmes d’intelligence artificielle apprend ses modèles ou patterns à partir des données, en utilisant l’apprentissage automatique et l’apprentissage profond (deep learning). L’apprentissage est majoritairement supervisé, c’est-à-dire que pendant l’entraînement nous indiquons au modèle la vérité terrain ou « ground truth »: c’est ce que nous voulons qu’il détecte, reconnaisse, prédise ou classe. Grâce à l’exposition à de nombreux échantillons d’apprentissage, le système, constitué principalement d’un réseau de neurones profonds, établit un lien entre le motif des données d’entrée et le résultat. Lorsqu’il est exposé à un nouveau jeu de données pour lequel il ne dispose pas de la vérité terrain, il peut alors en prédire le résultat, par exemple en détectant une maladie dans une image de scan médical.

Les systèmes de deep learning sont capables d’une chose pour laquelle les systèmes experts « artisanaux » ne sont pas doués: percevoir le monde. Cette vague d’intelligence artificielle nous a donné la reconnaissance vocale, la synthèse vocale et la vision par ordinateur. Cela nous a permis de classer, de différencier et de recommander.

Des systèmes de connaissances « faits main » pour la reconnaissance vocale et la vision par ordinateur existaient déjà avant l’apprentissage profond. Leur précision était correcte mais insuffisante pour les applications commerciales. Ils ne pourraient pas vraiment remplacer la tâche accomplie par un humain. Aujourd’hui, grâce à l’IA basée sur les données, nous pouvons le faire.

 

Pourquoi maintenant le deep learning ?

 

La puissance de calcul massive nous permet de construire des modèles plus profonds et plus complexes qui résolvent des problèmes plus complexes. Avec la profondeur croissante du modèle vient une meilleure abstraction du problème. Les grands volumes de données nous permettent de bien entraîner ces modèles. Le résultat : la conduite autonome, le diagnostic médical, le conseil juridique, la génération et la traduction de textes sont maintenant possibles, au niveau d’un humain ou même à des niveau surhumains.

Alors, pourquoi voyons-nous autant d’exemples de réussite du deep learning dans la vision par ordinateur et en traitement du langage naturel? Parce que nous avons identifié des types de réseaux de neurones qui fonctionnent particulièrement bien pour ce type de données: réseaux de neurones convolutifs pour les images et les vidéos, réseaux de neurones récurrents pour le texte et la parole. Et aujourd’hui, les technologies de calcul des processeurs graphiques ou GPU (Graphics Processing Unit) permettent à ces modèles complexes de s’exécuter rapidement, même sur de grandes quantités de données.

En conséquence, nous pouvons automatiser des tâches qui étaient auparavant considérées comme « non-routinières » et non automatisables, comme établir un diagnostic médical, comprendre les émotions dans un texte et conduire une voiture. Ces opérations nécessitent toutes beaucoup de données et beaucoup d’aller-retour sur les données.

 

La question « Dites-moi comment vous avez fait cela » a été remplacée par « Avez-vous les données qu’une machine pourrait utiliser pour apprendre à le faire ? ».

 

Investing dans les GPUs

 

Alors que SAS continue de répondre à ces questions et investit fortement dans les technologies d’apprentissage profond, les charges de travail correspondent bien au paradigme du GPU. En utilisant des GPU, nous pouvons atteindre un haut degré de parallélisme lors de l’entrainement et de l’inférence ou application des modèles.

Nous investissons également dans l’utilisation de GPU en tant que co-processeurs mathématiques afin de prendre en charge les charges de travail analytiques générales. La taille des problèmes ne cesse d’augmenter, la taille des données augmente, les modèles utilisent davantage de fonctionnalités. L’objectif est d’intégrer les capacités de calcul du processeur graphique directement dans nos calculs, afin que la puissance soit intégrée aux calculs et que vous n’ayez pas besoin de coder pour cela.

Nos avancées ne visent pas uniquement les réseaux de neurones et certains algorithmes d’apprentissage automatique, pour lesquels des implémentations spécifiques aux GPU sont en cours de développement. Elles s’appliquent aux mathématiques générales qui sous-tendent nombre de nos outils et solutions d’analyse.

Grâce à cet effort, nous aidons nos clients à tirer profit de leur investissement en GPU, aussi bien en datacentre que dans le cloud.

Pour en savoir plus sur l’apprentissage profond et l’importance des GPU, une vidéo explicative et un livret « Deep Learning with SAS » sont disponibles sur le blog de SAS.

 

Lire l’article