Etude du consortium SHERPA : l’IA devient la cible des cybercriminels

Pas un secteur n’échappe actuellement à la transformation au travers de l’intelligence artificielle, en pratique sur le terrain et dans les débats qui agitent les écosystèmes. Mais le développement de l’IA s’accompagne aussi malheureusement de risques sur la sécurité comme le signale un rapport du consortium européen SHERPA chargé d’étudier l’impact de l’IA sur l’éthique et les droits humains. Le mode opératoire des cybercriminels a changé, ils ne cherchent plus à créer de nouvelles attaques boostées au machine learning (apprentissage automatique) mais plutôt à manipuler des IA existantes.

Comment une IA peut être trompée

La désinformation et l’ingénierie sociale (social engineering) font partie des techniques actuellement testées par les criminels sur les IA des moteurs de recherche, réseaux sociaux et sites de recommandations. D’après le chercheur Andy Patel de F-Secure, des attaques Sybil sont devenues fréquentes sur des système d’IA utilisés quotidiennement comme par exemple des sites de recommandation ou pour fausser les résultats des moteurs de recherche. L’attaque Sybil désigne les attaques au sein d’un système de réputation de réseau peer to peer, qui peut être renversé par la création de fausses identités dont le nombre dépasse celui des utilisateurs véritables du réseau.

Ironiquement, sur la base de ses recherches, notamment autour du réseau social Twitter, Andy Patel constate que les IA ont actuellement plus à craindre de la part des humains que l’inverse.

A l’avenir, d’autres détournements de l’IA sont à redouter

D’après cette même étude du SHERPA, l’IA pourrait aussi servir à créer rapidement de faux contenus très réalistes, aussi bien à l’écrit qu’en audio ou vidéo, appelés « deep fake ».

Ces faux contenus restent actuellement difficiles à détecter, et de nombreuses autres techniques de manipulation de l’IA se multiplient. Les outils et modèles d’attaques nécessitent actuellement un certain niveau d’expertise, mais risquent ensuite de se propager pour être utilisables par des criminels sans connaissances particulières en IA. Sécuriser les intelligences artificielles pour les protéger des attaques s’avère dont de plus en plus nécessaire mais soulèvera des questions éthiques si l’on doit sacrifier la privacy pour plus de surveillance.

Lire l’article