Oxford balaie les idées reçues sur l’intelligence artificielle

Le grand public associe souvent l’Intelligence Artificielle et le Machine Learning aux robots mis en scène par Hollywood dans des scénarios de fin du monde. Tout cela est heureusement bien loin de la réalité mais vient déformer la vision que nous nous faisons de l’IA. Afin de faire progresser la connaissance générale, des chercheurs de l’université d’Oxford ont donc listé les idées reçues sur l’intelligence artificielle.

L’IA se rapprochera-t’elle de l’intelligence générale d’un être humain ?

 

D’après le professeur Mike Wooldridge, chef du département de sciences informatiques à Oxford, il s’agit là de l’idée reçue la plus répandue sur l’intelligence artificielle. Les avancées actuelles de l’IA, même si elles sont impressionnantes, concernent des problèmes précis comme reconnaitre des visages ou jouer au Go. Mais nous sommes encore loin d’une intelligence générale comparable à celle d’un humain et nous ne sommes pas encore sûr de comment y parvenir.

 

Faire de l’intelligence artificielle, est-ce modéliser le cerveau humain ?

 

Même si l’on parle de réseaux de neurones qui s’inspirent de la microstructure du cerveau, ces approches ne sont en fait que vaguement liées à la véritable structure du cerveau. Alors non, l’intelligence artificielle ne se base pas sur la modélisation du cerveau.

 

Le machine learning crée-t-il des boites noires d’algorithmes ?

 

D’après le professeur Michael Osborne, professeur agrégé en Machine Learning à Oxford, cette idée reçue de la « boite noire » est assez répandue. Le machine learning produirait des résultats incompréhensibles de ses superviseurs humains ? Si les principes fondamentaux sont négligés au bénéfice de la performance pure des algorithmes, il peut effectivement y avoir des « angles morts » et des échecs dans les résultats d’analyse. Mais tous les systèmes de machine learning ne souffrent pas de cette limitation et de nombreux chercheurs développent des approches pour parvenir à un machine learning interprétable.

Les humains aussi peuvent aussi se tromper dans leurs démarches heuristiques ou avoir un raisonnement biaisé, et ne peuvent pas non plus toujours expliquer pourquoi ils prennent certaines décisions. Des algorithmes plus simples peuvent être mieux compris, cependant, leur simplicité va souvent se traduire en compromis sur la précision et la performance.

Sacrifier la puissance prédictive a aussi des conséquences sur l’interprétabilité des résultats : si votre modèle (ou un humain) ne peut pas prédire avec précision le monde réel vous ne pouvez pas l’utiliser pour interpréter ce qui se rattache au monde réel. Donc plutôt que d’abandonner le machine learning pour son manque d’interprétabilité nous devrions améliorer son interprétabilité !

 

Tout ce qui est présenté comme de l’intelligence artificielle en est-il vraiment ?

 

Pour le professeur Marta Kwiatkowska, chercheur au département de sciences informatiques d’Oxford, des logiciels classiques sont trop souvent présentés comme de l’intelligence artificielle. Or le terme IA implique une « machine pensante ». Alors si certaines applications sont impressionnantes, par exemple l’assistant personnel Alexa si on la compare aux premiers essais en reconnaissance du langage, il faut aussi de demander si la technologie employée peut raisonner, comprendre un contexte et percevoir des subtilités sociales.

Beaucoup des développements actuels de l’IA sont en réalité les premières étapes de progrès à venir et sont présentés avec un potentiel énorme, mais la réalisation de ce potentiel dépendra de travaux préparatoires qui doivent encore être réalisés.

 

Lire l’article(en anglais)

 

En complément :

explorez le dossier consacré à l’intelligence artificielle sur le site de SAS