• Medientyp: E-Book
  • Titel: Adaptive gradient descent for convex and non-convex stochastic optimization
  • Beteiligte: Ogaltsov, Aleksandr [Verfasser:in]; Dvinskikh, Darina [Verfasser:in]; Dvurechensky, Pavel [Verfasser:in]; Gasniko, Alexander [Verfasser:in]; Spokojnyj, Vladimir G. [Verfasser:in]
  • Körperschaft: Weierstraß-Institut für Angewandte Analysis und Stochastik
  • Erschienen: Berlin: Weierstraß-Institut für Angewandte Analysis und Stochastik Leibniz-Institut im Forschungsverbund Berlin e.V., 2019
  • Erschienen in: Weierstraß-Institut für Angewandte Analysis und Stochastik: Preprint ; 2655
  • Umfang: 1 Online-Ressource (19 Seiten, 551 KB); Diagramme
  • Sprache: Englisch
  • DOI: 10.20347/WIAS.PREPRINT.2655
  • Identifikator:
  • Schlagwörter: Forschungsbericht
  • Entstehung:
  • Anmerkungen: Literaturverzeichnis: Seite 14-15
  • Beschreibung: In this paper we propose several adaptive gradient methods for stochastic optimization. Our methods are based on Armijo-type line search and they simultaneously adapt to the unknown Lipschitz constant of the gradient and variance of the stochastic approximation for the gradient. We consider an accelerated gradient descent for convex problems and gradient descent for non-convex problems. In the experiments we demonstrate superiority of our methods to existing adaptive methods, e.g. AdaGrad and Adam.
  • Zugangsstatus: Freier Zugang