913 resultados para simulated drift
Resumo:
Before signing electronic contracts, a rational agent should estimate the expected utilities of these contracts and calculate the violation risks related to them. In order to perform such pre-signing procedures, this agent has to be capable of computing a policy taking into account the norms and sanctions in the contracts. In relation to this, the contribution of this work is threefold. First, we present the Normative Markov Decision Process, an extension of the Markov Decision Process for explicitly representing norms. In order to illustrate the usage of our framework, we model an example in a simulated aerospace aftermarket. Second, we specify an algorithm for identifying the states of the process which characterize the violation of norms. Finally, we show how to compute policies with our framework and how to calculate the risk of violating the norms in the contracts by adopting a particular policy.
Resumo:
A study of Muthalapozhy fishing harbour, located in south India, was conducted for simulating shoreline changes using LITPACK modelling tool. The analysis shows that the estimated advancement in shoreline is of the order of 45 m/year initially, which gradually reduces to 25 m/year. It was also found that the coastline advances more during the south-west monsoon (i.e. June to September) season. Simulation of breakwaters shows that the length of the breakwater should be increased by 200 m for south breakwater and 70 m for north breakwater to keep the channel operational without dredging till 2016. The results of the simulated shoreline will help the port managers for maintaining the channel round the year.
Resumo:
Os algoritmos baseados no paradigma Simulated Annealing e suas variações são atualmente usados de forma ampla na resolução de problemas de otimização de larga escala. Esta popularidade é resultado da estrutura extremamente simples e aparentemente universal dos algoritmos, da aplicabilidade geral e da habilidade de fornecer soluções bastante próximas da ótima. No início da década de 80, Kirkpatrick e outros apresentaram uma proposta de utilização dos conceitos de annealing (resfriamento lento e controlado de sólidos) em otimização combinatória. Esta proposta considera a forte analogia entre o processo físico de annealing e a resolução de problemas grandes de otimização combinatória. Simulated Annealing (SA) é um denominação genérica para os algoritmos desenvolvidos com base nesta proposta. Estes algoritmos combinam técnicas de busca local e de randomização. O objetivo do presente trabalho é proporcionar um entendimento das características do Simulated Annealing e facilitar o desenvolvimento de algoritmos com estas características. Assim, é apresentado como Simulated Annealing e suas variações estão sendo utilizados na resolução de problemas de otimização combinatória, proposta uma formalização através de um método de desenvolvimento de algoritmos e analisados aspectos de complexidade. O método de desenvolvimento especifica um programa abstrato para um algoritmo Simulated Annealing seqüencial, identifica funções e predicados que constituem os procedimentos deste programa abstrato e estabelece axiomas que permitem a visualização das propriedades que estes procedimentos devem satisfazer. A complexidade do Simulated Annealing é analisada a partir do programa abstrato desenvolvido e de seus principais procedimentos, permitindo o estabelecimento de uma equação genérica para a complexidade. Esta equação genérica é aplicável aos algoritmos desenvolvidos com base no método proposto. Uma prova de correção é apresentada para o programa abstrato e um código exemplo é analisado com relação aos axiomas estabelecidos. O estabelecimento de axiomas tem como propósito definir uma semântica para o algoritmo, o que permite a um desenvolvedor analisar a correção do código especificado para um algoritmo levando em consideração estes axiomas. O trabalho foi realizado a partir de um estudo introdutório de otimização combinatória, de técnicas de resolução de problemas, de um levantamento histórico do uso do Simulated Annealing, das variações em torno do modelo e de embasamentos matemáticos documentados. Isto permitiu identificar as características essenciais dos algoritmos baseados no paradigma, analisar os aspectos relacionados com estas características, como as diferentes formas de realizar uma prescrição de resfriamento e percorrer um espaço de soluções, e construir a fundamentação teórica genérica proposta.
Resumo:
Este trabalho busca testar a eficiência do mercado de ações brasileiro através da identificação da existência de post-earnings announcement drift, fenômeno já bastante estudado e reproduzido no mercado norte-americano. Segundo a literatura existente a respeito do assunto, a informação contida na divulgação de resultados de uma firma é relevante para a formação de preço de suas ações. Além disso, os retornos anormais acumulados de ações de firmas que divulgam resultados com “surpresas positivas” possuem tendência positiva por algum tempo após a divulgação do resultado. Por outro lado, os retornos anormais acumulados de ações de empresas que divulgam resultados com “surpresas negativas” possuem tendência negativa por algum tempo após a divulgação do resultado. A identificação de post-earnings announcement drift no mercado acionário brasileiro pode ser de grande utilidade para a estruturação de estratégias de arbitragem e gestão de portfólios. Após uma revisão teórica, o resultado é apresentado e se mostra parcialmente consistente com a literatura existente.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Objetivou-se neste trabalho avaliar a distribuição volumétrica e o espectro de gotas das pontas de pulverização de baixa deriva TTI110015, AI110015 e AVI11001 sob diferentes condições operacionais. A distribuição volumétrica foi determinada em bancada de ensaios padronizada analisando o coeficiente de variação (CV%) de uma barra simulada em computador, utilizando pressões de 200, 300 e 400 kPa, altura de 30, 40 e 50 cm em relação à bancada e espaçamento entre pontas de 40 a 100 cm. O espectro de gotas foi produzido utilizando-se apenas água como calda em um analisador de partículas em meio aquoso, nas pressões de 200, 300 e 400 kPa. Foram avaliados o DMV, a porcentagem de gotas com diâmetro inferior a 100 µm (%100 µm) e a amplitude relativa (AR). As pontas proporcionaram perfil descontínuo nas pressões de 300 e 400 kPa e uniforme a 200 kPa. Na pressão de 200 kPa, as pontas foram adequadas apenas para aplicação em faixa, e a 300 e 400 kPa, apenas para área total. Ocorreu menor CV (abaixo de 7%) com a maior pressão de trabalho e menor espaçamento entre pontas. À medida que se aumentou a pressão de trabalho, reduziu-se o DMV. As pontas TTI110015 e AI110015 em todas as pressões e a ponta AVI11001 na pressão de 200 kPa produziram gotas extremamente grossas e gotas grossas nas pressões de 300 e 400 kPa apenas para a ponta AVI11001. As pontas proporcionaram baixos valores de amplitude relativa (AR) e gotas de tamanho uniforme, bem como produziram baixa porcentagem de gotas menores que 100 µm, principalmente TTI110015 e AI110015, com menor risco de deriva.
Resumo:
This paper analyzes the performance of a parallel implementation of Coupled Simulated Annealing (CSA) for the unconstrained optimization of continuous variables problems. Parallel processing is an efficient form of information processing with emphasis on exploration of simultaneous events in the execution of software. It arises primarily due to high computational performance demands, and the difficulty in increasing the speed of a single processing core. Despite multicore processors being easily found nowadays, several algorithms are not yet suitable for running on parallel architectures. The algorithm is characterized by a group of Simulated Annealing (SA) optimizers working together on refining the solution. Each SA optimizer runs on a single thread executed by different processors. In the analysis of parallel performance and scalability, these metrics were investigated: the execution time; the speedup of the algorithm with respect to increasing the number of processors; and the efficient use of processing elements with respect to the increasing size of the treated problem. Furthermore, the quality of the final solution was verified. For the study, this paper proposes a parallel version of CSA and its equivalent serial version. Both algorithms were analysed on 14 benchmark functions. For each of these functions, the CSA is evaluated using 2-24 optimizers. The results obtained are shown and discussed observing the analysis of the metrics. The conclusions of the paper characterize the CSA as a good parallel algorithm, both in the quality of the solutions and the parallel scalability and parallel efficiency