2 resultados para non-parametric background modeling

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O propósito do presente estudo foi o de examinar o impacto da implementação de um programa de desenvolvimento de habilidades sociais no bem-estar psicológico (BEP) e no rendimento escolar numa amostra de estudantes adolescentes portugueses. Para aferir o BEP, foi utilizada a versão portuguesa de 30 itens para adolescentes das escalas de Ryff; o rendimento escolar foi aferido com recurso às avaliações finais de cada período letivo. O programa utilizado baseou-se no desenvolvimento das habilidades sociais de comunicação, assertividade e resolução de problemas, durante o ano letivo numa frequência semanal de 45 minutos nas aulas de Formação Cívica, em estudantes do 7º e 8º anos de escolaridade. Os dados longitudinais foram analisados através da estatística não paramétrica, recorrendo aos testes Wilcoxon-Mann-Whitney correlação de Spearman do programa SPSS®, versão 20.0. Os resultados mostram impacto do programa de desenvolvimento de habilidades sociais nas dimensões do BEP – autoaceitação, relações positivas com os outros, domínio do meio, crescimento pessoal, objetivos na vida e no BEP global em um ou mais momentos do pós teste. Os resultados demonstram igualmente correlações positivas entre as dimensões do BEP – autonomia, autoaceitação, domínio do meio, objetivos na vida e do BEP global e o rendimento escolar, em três ou mais momentos observados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis addresses the Batch Reinforcement Learning methods in Robotics. This sub-class of Reinforcement Learning has shown promising results and has been the focus of recent research. Three contributions are proposed that aim to extend the state-of-art methods allowing for a faster and more stable learning process, such as required for learning in Robotics. The Q-learning update-rule is widely applied, since it allows to learn without the presence of a model of the environment. However, this update-rule is transition-based and does not take advantage of the underlying episodic structure of collected batch of interactions. The Q-Batch update-rule is proposed in this thesis, to process experiencies along the trajectories collected in the interaction phase. This allows a faster propagation of obtained rewards and penalties, resulting in faster and more robust learning. Non-parametric function approximations are explored, such as Gaussian Processes. This type of approximators allows to encode prior knowledge about the latent function, in the form of kernels, providing a higher level of exibility and accuracy. The application of Gaussian Processes in Batch Reinforcement Learning presented a higher performance in learning tasks than other function approximations used in the literature. Lastly, in order to extract more information from the experiences collected by the agent, model-learning techniques are incorporated to learn the system dynamics. In this way, it is possible to augment the set of collected experiences with experiences generated through planning using the learned models. Experiments were carried out mainly in simulation, with some tests carried out in a physical robotic platform. The obtained results show that the proposed approaches are able to outperform the classical Fitted Q Iteration.