• Medientyp: E-Book; Elektronische Hochschulschrift; Sonstige Veröffentlichung
  • Titel: Neurodynamic chance-constrained geometric optimization ; Optimisation géométrique neurodynamique avec des contraintes en probabilité
  • Beteiligte: Tassouli, Siham [VerfasserIn]
  • Erschienen: theses.fr, 2023-10-12
  • Sprache: Englisch
  • Schlagwörter: Equations différentielles ordinaires ; Réseaux de neurones récurrents ; Théorie de Lyapunov ; Chance constraints ; Recurrent neural networks ; Contraintes en probabilité ; Ordinary differential equations ; Lyapunov Theory ; Geometric optimization ; Optimisatiion géométrique
  • Entstehung:
  • Anmerkungen: Diese Datenquelle enthält auch Bestandsnachweise, die nicht zu einem Volltext führen.
  • Beschreibung: Dans de nombreux problèmes réels, les décideurs sont confrontés à des incertitudes qui peuvent affecter les résultats de leurs décisions. Ces incertitudes découlent de diverses sources, telles que la variabilité de la demande, les conditions fluctuantes du marché ou des informations incomplètes sur les paramètres du système. Les approches traditionnelles d'optimisation déterministe supposent que tous les paramètres sont connus avec certitude, ce qui peut ne pas refléter avec précision la réalité du problème. L'optimisation sous contraintes de probabilité offre une approche plus réaliste et robuste en tenant compte explicitement de l'incertitude dans la prise de décision. La programmation géométrique est souvent mal comprise comme une technique exclusivement conçue pour les problèmes posynômes. Cependant, c'est une théorie mathématique polyvalente qui a une valeur significative pour résoudre un large éventail de problèmes. En fait, sa véritable force réside dans sa capacité à résoudre efficacement des problèmes en apparence inséparables en exploitant leur structure algébrique linéaire. Cette applicabilité générale de la programmation géométrique en fait un outil précieux pour étudier et résoudre divers problèmes d'optimisation, étendant ainsi son utilité pratique au-delà de sa perception initiale. Les réseaux de neurones récurrents offrent un cadre de calcul inspiré de la biologie avec un grand potentiel d'optimisation. En imitant la structure interconnectée des neurones du cerveau, les réseaux de neurones récurrents excellent dans la modélisation de systèmes complexes et dynamiques. Cette capacité leur permet de capturer les dépendances temporelles et les boucles de rétroaction, ce qui les rend bien adaptés aux scénarios d'optimisation impliquant des prises de décision séquentielles ou des processus itératifs. De plus, l'un des principaux avantages des approches neurodynamiques est leur faisabilité de mise en œuvre matérielle. L'objectif principal de cette thèse est de développer des algorithmes neurodynamiques ...
  • Zugangsstatus: Freier Zugang