1 resultado para DORSAL LINGUAL PAPILLAE
em AMS Tesi di Laurea - Alm@DL - Universit
Filtro por publicador
- Acceda, el repositorio institucional de la Universidad de Las Palmas de Gran Canaria. España (1)
- AMS Tesi di Dottorato - Alm@DL - Università di Bologna (1)
- AMS Tesi di Laurea - Alm@DL - Università di Bologna (1)
- Aston University Research Archive (3)
- B-Digital - Universidade Fernando Pessoa - Portugal (1)
- Biblioteca Digital da Produção Intelectual da Universidade de São Paulo (20)
- Biblioteca Digital da Produção Intelectual da Universidade de São Paulo (BDPI/USP) (246)
- Biblioteca Virtual del Sistema Sanitario Público de Andalucía (BV-SSPA), Junta de Andalucía. Consejería de Salud y Bienestar Social, Spain (6)
- Bibloteca do Senado Federal do Brasil (1)
- Bioline International (1)
- BORIS: Bern Open Repository and Information System - Berna - Suiça (24)
- Brock University, Canada (1)
- CentAUR: Central Archive University of Reading - UK (9)
- CiencIPCA - Instituto Politécnico do Cávado e do Ave, Portugal (1)
- Cochin University of Science & Technology (CUSAT), India (1)
- Consorci de Serveis Universitaris de Catalunya (CSUC), Spain (15)
- Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina (3)
- Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland (2)
- Duke University (1)
- Gallica, Bibliotheque Numerique - Bibliothèque nationale de France (French National Library) (BnF), France (3)
- INSTITUTO DE PESQUISAS ENERGÉTICAS E NUCLEARES (IPEN) - Repositório Digital da Produção Técnico Científica - BibliotecaTerezine Arantes Ferra (1)
- Instituto Politécnico do Porto, Portugal (4)
- Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul (13)
- Martin Luther Universitat Halle Wittenberg, Germany (1)
- National Center for Biotechnology Information - NCBI (11)
- Portal do Conhecimento - Ministerio do Ensino Superior Ciencia e Inovacao, Cape Verde (2)
- RCAAP - Repositório Científico de Acesso Aberto de Portugal (2)
- ReCiL - Repositório Científico Lusófona - Grupo Lusófona, Portugal (1)
- Repositório Científico do Instituto Politécnico de Lisboa - Portugal (9)
- Repositório da Produção Científica e Intelectual da Unicamp (16)
- Repositório da Universidade Federal do Espírito Santo (UFES), Brazil (2)
- Repositorio de la Universidad de Cuenca (1)
- REPOSITORIO DIGITAL IMARPE - INSTITUTO DEL MAR DEL PERÚ, Peru (4)
- Repositório do Centro Hospitalar de Lisboa Central, EPE - Centro Hospitalar de Lisboa Central, EPE, Portugal (10)
- Repositório Institucional da Universidade Federal do Rio Grande do Norte (1)
- Repositorio Institucional de la Universidad de El Salvador (1)
- Repositorio Institucional de la Universidad de Málaga (1)
- Repositório Institucional UNESP - Universidade Estadual Paulista "Julio de Mesquita Filho" (65)
- Repositorio Institucional UNISALLE - Colombia (1)
- RUN (Repositório da Universidade Nova de Lisboa) - FCT (Faculdade de Cienecias e Technologia), Universidade Nova de Lisboa (UNL), Portugal (13)
- School of Medicine, Washington University, United States (2)
- Scielo España (2)
- Scielo Saúde Pública - SP (186)
- Universidad Autónoma de Nuevo León, Mexico (1)
- Universidad de Alicante (1)
- Universidad del Rosario, Colombia (2)
- Universidad Politécnica de Madrid (5)
- Universidade do Minho (5)
- Universidade dos Açores - Portugal (2)
- Universidade Estadual Paulista "Júlio de Mesquita Filho" (UNESP) (2)
- Universidade Federal do Rio Grande do Norte (UFRN) (6)
- Universidade Metodista de São Paulo (3)
- Universidade Técnica de Lisboa (1)
- Universitat de Girona, Spain (1)
- Université de Lausanne, Switzerland (145)
- Université de Montréal (2)
- Université de Montréal, Canada (5)
- University of Connecticut - USA (2)
- University of Michigan (3)
- University of Queensland eSpace - Australia (103)
Resumo:
State-of-the-art NLP systems are generally based on the assumption that the underlying models are provided with vast datasets to train on. However, especially when working in multi-lingual contexts, datasets are often scarce, thus more research should be carried out in this field. This thesis investigates the benefits of introducing an additional training step when fine-tuning NLP models, named Intermediate Training, which could be exploited to augment the data used for the training phase. The Intermediate Training step is applied by training models on NLP tasks that are not strictly related to the target task, aiming to verify if the models are able to leverage the learned knowledge of such tasks. Furthermore, in order to better analyze the synergies between different categories of NLP tasks, experimentations have been extended also to Multi-Task Training, in which the model is trained on multiple tasks at the same time.