• Media type: E-Book; Electronic Thesis; Text
  • Title: Understanding, taming, and defending from adversarial examples ; Comprendre, apprivoiser et se protéger des exemples adversaires
  • Contributor: Bonnet, Benoît [Author]
  • imprint: theses.fr, 2023-02-06
  • Language: English
  • Keywords: Security ; Sécurité ; Exemples Adversaires ; Réseaux de Neurones Artificiels ; Adversarial Examples ; Deep Learning
  • Origination:
  • Footnote: Diese Datenquelle enthält auch Bestandsnachweise, die nicht zu einem Volltext führen.
  • Description: L'Intelligence Artificielle est une discipline qui a connu un fort essor au cours de ces dernières années, notamment en Vision par Ordinateur où l'application la plus commune est la classification d'image. Aujourd'hui, les réseaux de neurones artificiels profonds sont d’excellents classifieurs inférant ce que représente une image. Des travaux ont cependant rapidement montré qu’ils sont vulnérables aux attaques par évasion, aussi appelés les exemples adverses. Ces exemples sont des images qui pour un humain semblent être une représentation normale d'un objet. Mais le classifieur attaqué ne parviendra pas à prédire correctement ce qu'elles représentent.Cette thèse étudie les mécanismes de création de ces exemples, la raison de leur existence et la vulnérabilité des classifieurs. En particulier, ce travail replace ces exemples adverses dans un contexte réaliste. Premièrement, il propose des attaques rapides même sur des grandes images avec un fort taux de succès et une distortion imperceptible ou indétectable.Deuxièmement, il ajoute la contrainte que les exemples adversaires sont avant tout des images, c’est à dire des signaux quantifiés dans le domaine spatial (format PNG) ou dans le domaine DCT (format JPEG). ; Artificial Intelligence is nowadays one of the most essential disciplines of computer science. These algorithms perform particularly well on Computer Vision tasks, especially classification. A classifier infers what an image represents. Nowadays Deep Neural Networks are largely used for these problems. These neural networks first undergo a training phase during which they are given many examples. These images are accompanied by labels: information on what the image represents. However, it was quickly found that the same logic used during the training phase could be used maliciously. This is the creation of Adversarial Examples through an Evasion Attack.Such examples are seemingly normal images. A human understands what it represents as if it was not manipulated. But the attacked classifier will make an ...
  • Access State: Open Access