• Media type: E-Book; Electronic Thesis; Text
  • Title: Apprentissage statistique de modèles de comportement multimodal pour les agents conversationnels interactifs ; Learning multimodal behavioral models for interactive conversational agents
  • Contributor: Mihoub, Alaeddine [Author]
  • imprint: theses.fr, 2015-10-08
  • Language: French
  • Keywords: Coordination histogram ; Social signal processing ; Génération de regard ; Gaze generation ; Probabilistic graphical models ; HSMM ; Génération de gestes ; Classifiers ; Classifieurs ; Gesture generation ; HMM ; SVM ; Decision trees ; Modèles sensori-moteurs de comportement multimodal ; Modèles séquentiels incrémentaux ; Modèles probabilistes graphiques ; Reconnaissance de l’unité interactionnelle ; DBN ; Histogramme de coordination ; Recognition of the interaction unit ; Apprentissage statistique ; Incremental sequential models ; Traitement des signaux sociaux ; Sensorimotor models of multimodal behavior ; [...]
  • Origination:
  • Footnote: Diese Datenquelle enthält auch Bestandsnachweise, die nicht zu einem Volltext führen.
  • Description: L'interaction face-à-face représente une des formes les plus fondamentales de la communication humaine. C'est un système dynamique multimodal et couplé – impliquant non seulement la parole mais de nombreux segments du corps dont le regard, l'orientation de la tête, du buste et du corps, les gestes faciaux et brachio-manuels, etc – d'une grande complexité. La compréhension et la modélisation de ce type de communication est une étape cruciale dans le processus de la conception des agents interactifs capables d'engager des conversations crédibles avec des partenaires humains. Concrètement, un modèle de comportement multimodal destiné aux agents sociaux interactifs fait face à la tâche complexe de générer un comportement multimodal étant donné une analyse de la scène et une estimation incrémentale des objectifs conjoints visés au cours de la conversation. L'objectif de cette thèse est de développer des modèles de comportement multimodal pour permettre aux agents artificiels de mener une communication co-verbale pertinente avec un partenaire humain. Alors que l'immense majorité des travaux dans le domaine de l'interaction humain-agent repose essentiellement sur des modèles à base de règles, notre approche se base sur la modélisation statistique des interactions sociales à partir de traces collectées lors d'interactions exemplaires, démontrées par des tuteurs humains. Dans ce cadre, nous introduisons des modèles de comportement dits "sensori-moteurs", qui permettent à la fois la reconnaissance des états cognitifs conjoints et la génération des signaux sociaux d'une manière incrémentale. En particulier, les modèles de comportement proposés ont pour objectif d'estimer l'unité d'interaction (IU) dans laquelle sont engagés de manière conjointe les interlocuteurs et de générer le comportement co-verbal du tuteur humain étant donné le comportement observé de son/ses interlocuteur(s). Les modèles proposés sont principalement des modèles probabilistes graphiques qui se basent sur les chaînes de markov cachés (HMM) et les ...
  • Access State: Open Access