> Merkliste Sie können Bookmarks mittels Listen verwalten, loggen Sie sich dafür bitte in Ihr SLUB Benutzerkonto ein.
Medientyp: E-Artikel Titel: Don't Stop Pretraining: Adapt Language Models to Domains and Tasks Beteiligte: Gururangan, Suchin [VerfasserIn]; Marasović, Ana [VerfasserIn]; Swayamdipta, Swabha [VerfasserIn]; Lo, Kyle [VerfasserIn]; Beltagy, Iz [VerfasserIn]; Downey, Doug [VerfasserIn]; Smith, Noah A. [VerfasserIn] Erschienen: 2020 Erschienen in: Association for Computational Linguistics (58. : 2020 : Online): The 58th Annual Meeting of the Association for Computational Linguistics - proceedings of the conference ; (2020), Seite 8342-8360 Sprache: Englisch DOI: 10.18653/v1/2020.acl-main.740 ISBN: 9781952148255 Identifikator: Entstehung: Anmerkungen: Zugangsstatus: Freier Zugang