• Medientyp: Sonstige Veröffentlichung; Elektronische Hochschulschrift; E-Book
  • Titel: Modèles probabilistes pour la segmentation d’images et dépistage du cancer du poumon par apprentissage profond ; Probabilistic segmentation modelling and deep learning-based lung cancer screening
  • Beteiligte: Audelan, Benoît [Verfasser:in]
  • Erschienen: theses.fr, 2021-07-22
  • Sprache: Englisch
  • Schlagwörter: Cancer du poumon ; Deep learning ; Intelligence artificielle ; Imagerie médicale ; Image segmentation ; Apprentissage artificiel ; Medical imaging ; Machine learning ; Artificial intelligence ; Apprentissage profond ; Segmentation d’images ; Lung cancer
  • Entstehung:
  • Anmerkungen: Diese Datenquelle enthält auch Bestandsnachweise, die nicht zu einem Volltext führen.
  • Beschreibung: Cette thèse s'articule autour de deux axes de recherche consacrés à la modélisation probabiliste de la segmentation d'images et au dépistage du cancer du poumon. Dans un premier temps, nous nous intéressons au problème du contrôle de la régularité spatiale des segmentations d'images. Imposer un certain niveau de régularisation est important afin de garantir l'homogénéité des structures segmentées et de contrôler le lissage de leurs contours. Nous étudions différentes distributions de probabilité permettant d'imposer une régularisation spatiale a priori dans des modèles de segmentation probabilistes. Ces distributions sont regroupées au sein d'un même schéma d'optimisation basé sur l'inférence variationnelle, et sont comparées entre elles par rapport à plusieurs critères dont leur capacité à régulariser, la complexité de leur inférence, leur adaptabilité locale ou encore leur impact sur la quantification de l'incertitude. Dans un deuxième temps, nous abordons le défi que constitue le contrôle de la qualité des segmentations au sein de grandes bases de données lorsqu'aucune segmentation de référence n'est disponible. Nous proposons une nouvelle approche pour le contrôle non supervisé reposant sur un modèle probabiliste construit sur des hypothèses simples d'intensité et de régularité. Notre méthode permet d'identifier des cas suspects et génère des sorties interprétables permettant de localiser dans l'image les erreurs potentielles. Dans un troisième temps, nous développons une nouvelle approche pour la fusion de cartes de segmentation continues. En permettant d'estimer un consensus entre plusieurs experts ou algorithmes, notre méthode représente un nouveau levier face au problème de la variabilité pouvant être observée entre annotateurs. Notre approche, basée sur des distributions de probabilité à queue lourde, tient compte des variations locales des performances des annotateurs, ce qui permet d'obtenir une estimation plus robuste du consensus. De plus, le concept de consensus multiples est introduit et son ...
  • Zugangsstatus: Freier Zugang