Quand les algorithmes reproduisent la bêtise humaine

Malgré son âge respectable — le terme a été forgé voilà 60 ans — l’intelligence artificielle commence seulement à pénétrer notre quotidien. Or les algorithmes d’IA chargés de nous assister à l’avenir ont besoin d’exemples pour progresser. Le principal risque étant qu’ils finissent par intégrer nos pires travers…

Moteurs de recherche, robots conversationnels, etc., les applications intégrant une forme ou une autre d’intelligence artificielle (IA) se multiplient. D’ici quelques années, il sera banal de faire appel à des algorithmes d’IA pour réaliser certaines tâches courantes. Cette dépendance croissante envers une technologie nouvelle, certes synonyme de gains de productivité, s’accompagne toutefois d’un effet collatéral : l’intelligence artificielle peut présenter, dans certains cas, le reflet de la bêtise humaine !

Si, par exemple, vous recherchez le terme « coupe de cheveux féminine professionnelle » dans Google Images, vous trouverez essentiellement des résultats pertinents. En revanche, si vous remplacez « professionnelle » par « non professionnelle » dans votre requête, vous tomberez majoritairement sur des photographies… de femmes noires. Pourquoi ? Parce que Google indexe les images en fonction des éléments contextuels. Dans le cas présent : des préjugés racistes. Les algorithmes d’IA, en particulier ceux d’apprentissage automatique, s’entraînent avec les exemples que nous autres humains leur fournissons. Ce qui peut mettre en évidence nos propres biais de jugement et parfois aussi nos défauts.

 

Lire l’article (en anglais)

 

En complément :

Un article au sujet de la vision de Barack Obama concernant l’intelligence artificielle,

et un article (en anglais) à propos des limitations de Siri, l’assistant personnel d’Apple.