1 resultado para ESSENTIAL OILS
em Massachusetts Institute of Technology
Filtro por publicador
- Abertay Research Collections - Abertay University’s repository (1)
- Aberystwyth University Repository - Reino Unido (2)
- AMS Tesi di Dottorato - Alm@DL - Università di Bologna (3)
- Aquatic Commons (27)
- ARCA - Repositório Institucional da FIOCRUZ (1)
- Archive of European Integration (3)
- Aston University Research Archive (3)
- Biblioteca de Teses e Dissertações da USP (2)
- Biblioteca Digital da Produção Intelectual da Universidade de São Paulo (14)
- Biblioteca Digital da Produção Intelectual da Universidade de São Paulo (BDPI/USP) (43)
- Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ (2)
- Bioline International (1)
- BORIS: Bern Open Repository and Information System - Berna - Suiça (4)
- Brock University, Canada (3)
- Cambridge University Engineering Department Publications Database (6)
- CentAUR: Central Archive University of Reading - UK (52)
- Chinese Academy of Sciences Institutional Repositories Grid Portal (39)
- Cochin University of Science & Technology (CUSAT), India (7)
- Comissão Econômica para a América Latina e o Caribe (CEPAL) (1)
- CORA - Cork Open Research Archive - University College Cork - Ireland (2)
- Corvinus Research Archive - The institutional repository for the Corvinus University of Budapest (2)
- Digital Archives@Colby (1)
- Digital Commons - Michigan Tech (1)
- Digital Commons at Florida International University (1)
- Duke University (7)
- eResearch Archive - Queensland Department of Agriculture; Fisheries and Forestry (19)
- Greenwich Academic Literature Archive - UK (1)
- Helda - Digital Repository of University of Helsinki (11)
- Indian Institute of Science - Bangalore - Índia (52)
- INSTITUTO DE PESQUISAS ENERGÉTICAS E NUCLEARES (IPEN) - Repositório Digital da Produção Técnico Científica - BibliotecaTerezine Arantes Ferra (1)
- Instituto Politécnico de Bragança (2)
- Instituto Politécnico de Leiria (1)
- Instituto Politécnico do Porto, Portugal (1)
- Massachusetts Institute of Technology (1)
- Ministerio de Cultura, Spain (19)
- Plymouth Marine Science Electronic Archive (PlyMSEA) (9)
- Portal de Revistas Científicas Complutenses - Espanha (1)
- QUB Research Portal - Research Directory and Institutional Repository for Queen's University Belfast (91)
- Queensland University of Technology - ePrints Archive (64)
- Repositório Alice (Acesso Livre à Informação Científica da Embrapa / Repository Open Access to Scientific Information from Embrapa) (4)
- Repositório Científico da Universidade de Évora - Portugal (16)
- Repositório Científico do Instituto Politécnico de Lisboa - Portugal (5)
- Repositório Digital da UNIVERSIDADE DA MADEIRA - Portugal (2)
- Repositório Institucional da Universidade de Aveiro - Portugal (2)
- Repositório Institucional da Universidade Estadual de São Paulo - UNESP (1)
- Repositório Institucional da Universidade Tecnológica Federal do Paraná (RIUT) (5)
- Repositório Institucional UNESP - Universidade Estadual Paulista "Julio de Mesquita Filho" (279)
- RUN (Repositório da Universidade Nova de Lisboa) - FCT (Faculdade de Cienecias e Technologia), Universidade Nova de Lisboa (UNL), Portugal (1)
- SAPIENTIA - Universidade do Algarve - Portugal (7)
- School of Medicine, Washington University, United States (8)
- South Carolina State Documents Depository (1)
- Universidade de Lisboa - Repositório Aberto (5)
- Universidade do Algarve (1)
- Universidade Federal de Uberlândia (1)
- Universidade Federal do Pará (12)
- Universidade Federal do Rio Grande do Norte (UFRN) (7)
- Universidade Metodista de São Paulo (1)
- Universitat de Girona, Spain (1)
- Université de Lausanne, Switzerland (2)
- Université de Montréal, Canada (8)
- University of Michigan (7)
- University of Queensland eSpace - Australia (3)
Resumo:
This paper presents a novel algorithm for learning in a class of stochastic Markov decision processes (MDPs) with continuous state and action spaces that trades speed for accuracy. A transform of the stochastic MDP into a deterministic one is presented which captures the essence of the original dynamics, in a sense made precise. In this transformed MDP, the calculation of values is greatly simplified. The online algorithm estimates the model of the transformed MDP and simultaneously does policy search against it. Bounds on the error of this approximation are proven, and experimental results in a bicycle riding domain are presented. The algorithm learns near optimal policies in orders of magnitude fewer interactions with the stochastic MDP, using less domain knowledge. All code used in the experiments is available on the project's web site.