1 resultado para Essential oils yield
em Massachusetts Institute of Technology
Filtro por publicador
- JISC Information Environment Repository (1)
- Abertay Research Collections - Abertay University’s repository (1)
- Aberystwyth University Repository - Reino Unido (5)
- AMS Tesi di Dottorato - Alm@DL - Università di Bologna (3)
- Aquatic Commons (77)
- Archivo Digital para la Docencia y la Investigación - Repositorio Institucional de la Universidad del País Vasco (2)
- Aston University Research Archive (4)
- Biblioteca de Teses e Dissertações da USP (2)
- Biblioteca Digital da Produção Intelectual da Universidade de São Paulo (15)
- Biblioteca Digital da Produção Intelectual da Universidade de São Paulo (BDPI/USP) (20)
- Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ (8)
- Bioline International (2)
- BORIS: Bern Open Repository and Information System - Berna - Suiça (5)
- CaltechTHESIS (5)
- Cambridge University Engineering Department Publications Database (34)
- CentAUR: Central Archive University of Reading - UK (11)
- Chinese Academy of Sciences Institutional Repositories Grid Portal (122)
- Cochin University of Science & Technology (CUSAT), India (4)
- CORA - Cork Open Research Archive - University College Cork - Ireland (5)
- Corvinus Research Archive - The institutional repository for the Corvinus University of Budapest (2)
- Digital Commons - Michigan Tech (1)
- Digital Commons at Florida International University (2)
- Duke University (9)
- eResearch Archive - Queensland Department of Agriculture; Fisheries and Forestry (86)
- FAUBA DIGITAL: Repositorio institucional científico y académico de la Facultad de Agronomia de la Universidad de Buenos Aires (6)
- Greenwich Academic Literature Archive - UK (2)
- Helda - Digital Repository of University of Helsinki (22)
- Indian Institute of Science - Bangalore - Índia (79)
- INSTITUTO DE PESQUISAS ENERGÉTICAS E NUCLEARES (IPEN) - Repositório Digital da Produção Técnico Científica - BibliotecaTerezine Arantes Ferra (1)
- Instituto Politécnico de Bragança (2)
- Instituto Politécnico de Leiria (1)
- Massachusetts Institute of Technology (1)
- National Center for Biotechnology Information - NCBI (1)
- Plymouth Marine Science Electronic Archive (PlyMSEA) (1)
- Portal de Revistas Científicas Complutenses - Espanha (1)
- QUB Research Portal - Research Directory and Institutional Repository for Queen's University Belfast (2)
- Queensland University of Technology - ePrints Archive (112)
- Repositório Alice (Acesso Livre à Informação Científica da Embrapa / Repository Open Access to Scientific Information from Embrapa) (4)
- Repositório Científico da Universidade de Évora - Portugal (16)
- Repositório Científico do Instituto Politécnico de Lisboa - Portugal (3)
- Repositório Institucional da Universidade de Aveiro - Portugal (1)
- Repositório Institucional da Universidade Estadual de São Paulo - UNESP (1)
- Repositório Institucional da Universidade Federal do Rio Grande - FURG (2)
- Repositório Institucional da Universidade Tecnológica Federal do Paraná (RIUT) (5)
- Repositorio Institucional de la Universidad Nacional Agraria (1)
- Repositório Institucional UNESP - Universidade Estadual Paulista "Julio de Mesquita Filho" (215)
- SAPIENTIA - Universidade do Algarve - Portugal (6)
- Universidad Politécnica de Madrid (2)
- Universidade Complutense de Madrid (1)
- Universidade de Lisboa - Repositório Aberto (4)
- Universidade do Algarve (1)
- Universidade Federal de Uberlândia (1)
- Universidade Federal do Pará (15)
- Universidade Federal do Rio Grande do Norte (UFRN) (4)
- Universidade Metodista de São Paulo (1)
- Université de Montréal, Canada (2)
- University of Michigan (7)
- University of Queensland eSpace - Australia (4)
- WestminsterResearch - UK (1)
Resumo:
This paper presents a novel algorithm for learning in a class of stochastic Markov decision processes (MDPs) with continuous state and action spaces that trades speed for accuracy. A transform of the stochastic MDP into a deterministic one is presented which captures the essence of the original dynamics, in a sense made precise. In this transformed MDP, the calculation of values is greatly simplified. The online algorithm estimates the model of the transformed MDP and simultaneously does policy search against it. Bounds on the error of this approximation are proven, and experimental results in a bicycle riding domain are presented. The algorithm learns near optimal policies in orders of magnitude fewer interactions with the stochastic MDP, using less domain knowledge. All code used in the experiments is available on the project's web site.