• Media type: Text; Electronic Thesis; E-Book
  • Title: Méthodes plug-and-play convergentes pour la résolution de problèmes inverses en imagerie avec régularisation explicite, profonde et non-convexe ; Convergent plug-and-play methods for image inverse problems with explicit and nonconvex deep regularization
  • Contributor: Hurault, Samuel [Author]
  • Published: theses.fr, 2023-11-27
  • Language: English
  • Keywords: Non-Convexe ; Convergence ; Inverse problem ; Denoising ; Problème inverse ; Débruitage ; Plug-And-Play ; Nonconvex
  • Origination:
  • Footnote: Diese Datenquelle enthält auch Bestandsnachweise, die nicht zu einem Volltext führen.
  • Description: Les méthodes plug-and-play constituent une classe d'algorithmes itératifs pour la résolution de problèmes inverses en imagerie, où la régularisation est effectuée par un débruiteur de bruit Gaussien. Ces algorithmes donnent de très bonnes performances de restauration, notamment lorsque le débruiteur est paramétré par un réseau de neurones profond. Cependant, l'analyse théorique de la convergence de ces méthodes reste incomplète. La plupart des résultats de convergence existants considèrent des débruiteurs non expansifs, ce qui n'est pas réaliste (ou sous-optimal), ou limitent leur analyse aux termes d'attache aux données fortement convexes. De plus, les algorithmes itératifs plug-and-play ne visent pas à minimiser une fonctionnelle explicite, ce qui peut limiter leur interprétabilité et leur contrôle numérique. Nous distinguons deux types d'algorithmes plug-and-play : les algorithmes RED, qui sont construits en supposant que le débruiteur approche le gradient du logarithme de la distribution des images propres (appelé log prior), et les algorithmes PnP, qui sont construits par approximation de l'opérateur proximal du log prior.Pour ces deux familles d'algorithmes, nous proposons de nouvelles preuves de convergence lorsqu'ils sont utilisés en conjonction avec débruiteur spécifique. Le débruiteur proposé, appelé débruiteur "Gradient-Step", s'écrit comme une étape de descente de gradient sur un potentiel explicite et non convexe paramétré par un réseau de neurones profond. Après l'entraînement, ce potentiel approche une version lissée du log prior. De plus, nous démontrons que ce débruiteur peut également s'écrire comme un opérateur proximal. Nos expériences montrent qu'il est possible d'apprendre un tel débruiteur profond sans compromettre ses performances. En tirant parti des résultats de convergence des algorithmes proximaux pour des problèmes non-convexes, nous démontrons que nos algorithmes RED et PnP sont des processus itératifs convergents vers des points stationnaires de fonctionnelles explicites. Certains ...
  • Access State: Open Access