callVous êtes victimes d'une intrusion ? 05 64 27 05 82

Protéger l'IA

Concevoir des Intelligences Artificielles sûres



L'IA est vulnérable

Le Machine-Learning et en particulier le DeepLearning se sont imposés dans notre quotidien pour toutes sortes de tâches critiques, de la vision par ordinateur (conduite autonome, robots industriels) à la reconnaissance de maliciels ou de spams.

Il serait une erreur de penser que ces technologies basés sur l’apprentissage automatique soient dépourvues de faille de sécurité. C’est exactement le contraire qui se produit : elles offrent aux attaquants un tout nouveau champ d’attaque, encore inexploité :

  • Corruption des exemples d’apprentissage, y compris d’un très petit échantillon, entraînant une dégradation effarante des performances, et pouvant de facto être assimilés à des dénis de services difficiles à résoudre,
  • Manipulations subtiles des données d’entrées, d’où résulte une mauvaise classification du système, aux conséquences variables.


Attaques par empoisonnement

La manipulation subtile d’un très petit nombre d’exemples d’apprentissage peut être utilisé pour détériorer drastiquement les performances du systèmes (en réduisant le F-score, augmentation des faux-positifs et faux-négatifs).

Les conséquences sont en finalité similaires à celles d’une attaque par déni de service, mais dont les causes sont difficiles à identifier.

Cette attaque est réalisable dès lors qu’une petite proportion des exemples d’apprentissage est manipulable. Elle est à distinguer de la simple pollution par des examples d’apprentissages mal classés.



Attaques par évasion

(également dénommées adversarial examples en anglais)

Les réseaux de neurones (mais aussi les SVM) sont sensibles à de fines perturbations des données d’entrées conduisant à une mauvaise classification.

Ces attaques ne requièrent aucun accès aux détails des couches sous-jacentes constituant le système mais seulement aux résultats. Elles sont donc conduites en mode boite noire (black box).

Exemples d’attaques :

  1. Mauvaise classification de malwares, de spams, spécialement conçus pour exploiter les failles du modèle,
  2. Reconnaissance d’images faussée (voitures Tesla qui prend le panneau stop pour une vitesse illimitée).

Discutons !

Le coût moyen d’une intrusion est de 2.5 millions d’euros (Accenture). Ne soyez pas le prochain !


Contactez nous

Téléphone

Support : +335 64 27 05 82


Support

contact@owlyshield.com



    Background

    Avenue Jean Monnet

    64130 Chéraute

    contact@owlyshield.com


    Services