Comment protéger nos algorithmes ?

Pensez à la protection de vos algorithmes ! C’est l’appel lancé par Kira Radinsky, cofondatrice de SalesPredict, aux entreprises et particulièrement à celles impliquées dans la cybersécurité. Ces formules informatiques sont devenues indispensables, mais elles sont vulnérables aux menaces. À mesure que les objets connectés se diffusent, les risques se multiplient. Or, des stratégies de défense existent.

Les entreprises investissent massivement dans leur sécurité matérielle et logicielle : le marché de la cybersécurité pesait 64 milliards d’euros en 2015, et atteindra probablement 155 milliards en 2020. En parallèle, les algorithmes, formules permettant de résoudre un problème ou d’obtenir un résultat donné via une suite d’opérations, se répandent à travers tous nos objets connectés. Peu est fait, à l’heure actuelle, pour assurer leur sécurité. Pourtant, ces outils informatiques facilitant notre quotidien ne sont pas infaillibles. Par exemple, le rôle des spécialistes en SEO (optimisation des moteurs de recherche) est de comprendre comment fonctionnent les algorithmes des moteurs de recherche afin d’aider les sites de leurs clients à remonter dans les résultats de recherche, de Google notamment. Autre exemple, les expéditeurs de spams contournent régulièrement les algorithmes protégeant les boîtes mail.

jhn

Possibilités de hacking

 

Ces exemples sans gravité cachent des possibilités de fraude plus sérieuse. L’industrie des cartes de crédit, notamment, s’appuie sur des techniques d’apprentissage automatique (des « super algorithmes » capables de devenir de plus en plus précis grâce à leur capacité d’apprentissage) et des méthodes statistiques qui pourraient être la cible de hackers. Si un pirate connaît les habitudes d’un acheteur en ligne, il peut l’imiter pour réaliser des achats frauduleux sans être détecté. La manipulation d’un algorithme peut aussi devenir un instrument de fraude électorale. Une étude de l’Académie nationale des sciences américaine a mis en évidence l’influence de la hiérarchie des candidats dans les résultats d’un moteur de recherche, lors d’une élection en Inde en 2014.

Une vulnérabilité des algorithmes d’apprentissage automatique provient du fait qu’ils se fondent sur le principe que les données utilisées pour définir leur formule et celles qu’ils traitent sont générées de la même façon. Récemment, cette faille a été exploitée lors d’une attaque sur des systèmes de reconnaissance biométrique. Les logiciels de reconnaissance faciale s’adaptent petit à petit aux changements liés au vieillissement. En présentant une série de faux traits aux capteurs biométriques, un pirate peut lui faire croire à une évolution physique naturelle vers un visage totalement différent, et usurper une identité.

Nous utilisons des algorithmes d’apprentissage automatique dans tous les domaines du quotidien : l’automobile, la téléphonie, les lecteurs de cartes… L’intelligence artificielle influence aussi bien l’opinion publique que le monde des entreprises. À mesure que les objets connectés se développent, le besoin de prémunir ces équipements contre le piratage statistique devient capital. Des parades existent, telles que les algorithmes d’apprentissage automatique à classification multiple ou la randomisation. Il faut dès aujourd’hui s’intéresser à la protection de ces précieux alliés !

 

Lire l’article (en anglais)

 

En complément :

Un article sur la surveillance des communications cryptées,

et un autre article sur la sécurité informatique.

 

À lire sur Business Analytics Info :

« Big data et objets connectés : peut-on faire converger sécurité et liberté ? »

et

« Protection des données : les nouveaux défis de l’Internet des objets ».