1 resultado para Wireless Sensor and Actuator Networks. Simulation. Reinforcement Learning. Routing Techniques
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Filtro por publicador
- Repository Napier (2)
- Academic Archive On-line (Jönköping University; Sweden) (1)
- Academic Research Repository at Institute of Developing Economies (2)
- Acceda, el repositorio institucional de la Universidad de Las Palmas de Gran Canaria. España (2)
- AMS Tesi di Dottorato - Alm@DL - Università di Bologna (26)
- AMS Tesi di Laurea - Alm@DL - Università di Bologna (13)
- ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha (1)
- Archive of European Integration (9)
- Aston University Research Archive (61)
- Biblioteca Digital da Produção Intelectual da Universidade de São Paulo (7)
- Biblioteca Digital da Produção Intelectual da Universidade de São Paulo (BDPI/USP) (12)
- Biblioteca Virtual del Sistema Sanitario Público de Andalucía (BV-SSPA), Junta de Andalucía. Consejería de Salud y Bienestar Social, Spain (1)
- BORIS: Bern Open Repository and Information System - Berna - Suiça (90)
- Brock University, Canada (4)
- Bulgarian Digital Mathematics Library at IMI-BAS (6)
- CentAUR: Central Archive University of Reading - UK (49)
- Central European University - Research Support Scheme (1)
- CiencIPCA - Instituto Politécnico do Cávado e do Ave, Portugal (1)
- Cochin University of Science & Technology (CUSAT), India (23)
- Coffee Science - Universidade Federal de Lavras (1)
- Comissão Econômica para a América Latina e o Caribe (CEPAL) (4)
- Consorci de Serveis Universitaris de Catalunya (CSUC), Spain (23)
- Cor-Ciencia - Acuerdo de Bibliotecas Universitarias de Córdoba (ABUC), Argentina (1)
- CORA - Cork Open Research Archive - University College Cork - Ireland (1)
- Dalarna University College Electronic Archive (2)
- DI-fusion - The institutional repository of Université Libre de Bruxelles (1)
- Digital Commons - Michigan Tech (9)
- Digital Commons @ DU | University of Denver Research (1)
- Digital Commons at Florida International University (19)
- Digital Peer Publishing (4)
- DigitalCommons@University of Nebraska - Lincoln (11)
- Diposit Digital de la UB - Universidade de Barcelona (1)
- Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland (15)
- DRUM (Digital Repository at the University of Maryland) (2)
- Duke University (2)
- Ecology and Society (1)
- FUNDAJ - Fundação Joaquim Nabuco (1)
- Galway Mayo Institute of Technology, Ireland (1)
- Greenwich Academic Literature Archive - UK (1)
- Illinois Digital Environment for Access to Learning and Scholarship Repository (1)
- Instituto Politécnico do Porto, Portugal (89)
- Instituto Superior de Psicologia Aplicada - Lisboa (2)
- Iowa Publications Online (IPO) - State Library, State of Iowa (Iowa), United States (1)
- Martin Luther Universitat Halle Wittenberg, Germany (3)
- Massachusetts Institute of Technology (3)
- Memorial University Research Repository (2)
- Ministerio de Cultura, Spain (3)
- National Center for Biotechnology Information - NCBI (2)
- Nottingham eTheses (2)
- Portal de Revistas Científicas Complutenses - Espanha (1)
- Publishing Network for Geoscientific & Environmental Data (1)
- QSpace: Queen's University - Canada (1)
- QUB Research Portal - Research Directory and Institutional Repository for Queen's University Belfast (5)
- Repositório Científico da Universidade de Évora - Portugal (2)
- Repositório Científico do Instituto Politécnico de Lisboa - Portugal (3)
- Repositorio de la Universidad de Cuenca (1)
- Repositório digital da Fundação Getúlio Vargas - FGV (1)
- Repositório Institucional da Universidade de Aveiro - Portugal (1)
- Repositório Institucional da Universidade Federal do Rio Grande do Norte (1)
- Repositório Institucional UNESP - Universidade Estadual Paulista "Julio de Mesquita Filho" (39)
- Repositorio Institucional Universidad de Medellín (1)
- RUN (Repositório da Universidade Nova de Lisboa) - FCT (Faculdade de Cienecias e Technologia), Universidade Nova de Lisboa (UNL), Portugal (11)
- School of Medicine, Washington University, United States (1)
- Scielo Saúde Pública - SP (8)
- Universidad de Alicante (3)
- Universidad del Rosario, Colombia (3)
- Universidad Politécnica de Madrid (68)
- Universidade Complutense de Madrid (1)
- Universidade do Minho (3)
- Universidade Federal do Rio Grande do Norte (UFRN) (7)
- Universitat de Girona, Spain (11)
- Universitätsbibliothek Kassel, Universität Kassel, Germany (2)
- Université de Lausanne, Switzerland (15)
- Université de Montréal, Canada (3)
- Université Laval Mémoires et thèses électroniques (1)
- University of Canberra Research Repository - Australia (1)
- University of Connecticut - USA (1)
- University of Michigan (22)
- University of Queensland eSpace - Australia (37)
- University of Southampton, United Kingdom (5)
- University of Washington (1)
- WestminsterResearch - UK (2)
- Worcester Research and Publications - Worcester Research and Publications - UK (1)
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines Funktionsapproximators und dessen Verwendung in Verfahren zum Lernen von diskreten und kontinuierlichen Aktionen: 1. Ein allgemeiner Funktionsapproximator – Locally Weighted Interpolating Growing Neural Gas (LWIGNG) – wird auf Basis eines Wachsenden Neuralen Gases (GNG) entwickelt. Die topologische Nachbarschaft in der Neuronenstruktur wird verwendet, um zwischen benachbarten Neuronen zu interpolieren und durch lokale Gewichtung die Approximation zu berechnen. Die Leistungsfähigkeit des Ansatzes, insbesondere in Hinsicht auf sich verändernde Zielfunktionen und sich verändernde Eingabeverteilungen, wird in verschiedenen Experimenten unter Beweis gestellt. 2. Zum Lernen diskreter Aktionen wird das LWIGNG-Verfahren mit Q-Learning zur Q-LWIGNG-Methode verbunden. Dafür muss der zugrunde liegende GNG-Algorithmus abgeändert werden, da die Eingabedaten beim Aktionenlernen eine bestimmte Reihenfolge haben. Q-LWIGNG erzielt sehr gute Ergebnisse beim Stabbalance- und beim Mountain-Car-Problem und gute Ergebnisse beim Acrobot-Problem. 3. Zum Lernen kontinuierlicher Aktionen wird ein REINFORCE-Algorithmus mit LWIGNG zur ReinforceGNG-Methode verbunden. Dabei wird eine Actor-Critic-Architektur eingesetzt, um aus zeitverzögerten Belohnungen zu lernen. LWIGNG approximiert sowohl die Zustands-Wertefunktion als auch die Politik, die in Form von situationsabhängigen Parametern einer Normalverteilung repräsentiert wird. ReinforceGNG wird erfolgreich zum Lernen von Bewegungen für einen simulierten 2-rädrigen Roboter eingesetzt, der einen rollenden Ball unter bestimmten Bedingungen abfangen soll.