5 resultados para Modelo Nelson-Siegel Dinâmicos

em Universidade Federal do Rio Grande do Norte(UFRN)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existem vários métodos de simulação para calcular as propriedades críticas de sistemas; neste trabalho utilizamos a dinâmica de tempos curtos, com o intuito de testar a eficiência desta técnica aplicando-a ao modelo de Ising com diluição de sítios. A Dinâmica de tempos curtos em combinação com o método de Monte Carlos verificou que mesmo longe do equilíbrio termodinâmico o sistema já se mostra insensível aos detalhes microscópicos das interações locais e portanto, o seu comportamento universal pode ser estudado ainda no regime de não-equilíbrio, evitando-se o problema do alentecimento crítico ( critical slowing down ) a que sistema em equilíbrio fica submetido quando está na temperatura crítica. O trabalho de Huse e Janssen mostrou um comportamento universal e uma lei de escala nos sistemas críticos fora do equilíbrio e identificou a existência de um novo expoente crítico dinâmico θ, associado ao comportamento anômalo da magnetização. Fazemos uima breve revisão das transições de fase e fenômeno críticos. Descrevemos o modelo de Ising, a técnica de Monte Carlo e por final, a dinâmica de tempos curtos. Aplicamos a dinâmica de tempos curtos para o modelo de Insing ferromagnéticos em uma rede quadrada com diluição de sítios. Calculamos o expoente dinâmicos θ e z, onde verificamos que existe quebra de classe de universilidade com relação às diferentes concentrações de sítios (p=0.70,0.75,0.80,0.85,0.90,0.95,1.00). calculamos também os expoentes estáticos β e v, onde encontramos pequenas variações com a desordem. Finalmente, apresentamos nossas conclusões e possíveis extensões deste trabalho

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A matemática intervalar é uma teoria matemática originada na década de 60 com o objetivo de responder questões de exatidão e eficiência que surgem na prática da computação científica e na resolução de problemas numéricos. As abordagens clássicas para teoria da computabilidade tratam com problemas discretos (por exemplo, sobre os números naturais, números inteiros, strings sobre um alfabeto finito, grafos, etc.). No entanto, campos da matemática pura e aplicada tratam com problemas envolvendo números reais e números complexos. Isto acontece, por exemplo, em análise numérica, sistemas dinâmicos, geometria computacional e teoria da otimização. Assim, uma abordagem computacional para problemas contínuos é desejável, ou ainda necessária, para tratar formalmente com computações analógicas e computações científicas em geral. Na literatura existem diferentes abordagens para a computabilidade nos números reais, mas, uma importante diferença entre estas abordagens está na maneira como é representado o número real. Existem basicamente duas linhas de estudo da computabilidade no contínuo. Na primeira delas uma aproximação da saída com precisão arbitrária é computada a partir de uma aproximação razoável da entrada [Bra95]. A outra linha de pesquisa para computabilidade real foi desenvolvida por Blum, Shub e Smale [BSS89]. Nesta aproximação, as chamadas máquinas BSS, um número real é visto como uma entidade acabada e as funções computáveis são geradas a partir de uma classe de funções básicas (numa maneira similar às funções parciais recursivas). Nesta dissertação estudaremos o modelo BSS, usado para se caracterizar uma teoria da computabilidade sobre os números reais e estenderemos este para se modelar a computabilidade no espaço dos intervalos reais. Assim, aqui veremos uma aproximação para computabilidade intervalar epistemologicamente diferente da estudada por Bedregal e Acióly [Bed96, BA97a, BA97b], na qual um intervalo real é visto como o limite de intervalos racionais, e a computabilidade de uma função intervalar real depende da computabilidade de uma função sobre os intervalos racionais

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O método de combinação de Nelson-Oppen permite que vários procedimentos de decisão, cada um projetado para uma teoria específica, possam ser combinados para inferir sobre teorias mais abrangentes, através do princípio de propagação de igualdades. Provadores de teorema baseados neste modelo são beneficiados por sua característica modular e podem evoluir mais facilmente, incrementalmente. Difference logic é uma subteoria da aritmética linear. Ela é formada por constraints do tipo x − y ≤ c, onde x e y são variáveis e c é uma constante. Difference logic é muito comum em vários problemas, como circuitos digitais, agendamento, sistemas temporais, etc. e se apresenta predominante em vários outros casos. Difference logic ainda se caracteriza por ser modelada usando teoria dos grafos. Isto permite que vários algoritmos eficientes e conhecidos da teoria de grafos possam ser utilizados. Um procedimento de decisão para difference logic é capaz de induzir sobre milhares de constraints. Um procedimento de decisão para a teoria de difference logic tem como objetivo principal informar se um conjunto de constraints de difference logic é satisfatível (as variáveis podem assumir valores que tornam o conjunto consistente) ou não. Além disso, para funcionar em um modelo de combinação baseado em Nelson-Oppen, o procedimento de decisão precisa ter outras funcionalidades, como geração de igualdade de variáveis, prova de inconsistência, premissas, etc. Este trabalho apresenta um procedimento de decisão para a teoria de difference logic dentro de uma arquitetura baseada no método de combinação de Nelson-Oppen. O trabalho foi realizado integrando-se ao provador haRVey, de onde foi possível observar o seu funcionamento. Detalhes de implementação e testes experimentais são relatados

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objective of this study was to determine the seasonal and interannual variability and calculate the trends of wind speed in NEB and then validate the mesoscale numerical model for after engage with the microscale numerical model in order to get the wind resource at some locations in the NEB. For this we use two data sets of wind speed (weather stations and anemometric towers) and two dynamic models; one of mesoscale and another of microscale. We use statistical tools to evaluate and validate the data obtained. The simulations of the dynamic mesoscale model were made using data assimilation methods (Newtonian Relaxation and Kalman filter). The main results show: (i) Five homogeneous groups of wind speed in the NEB with higher values in winter and spring and with lower in summer and fall; (ii) The interannual variability of the wind speed in some groups stood out with higher values; (iii) The large-scale circulation modified by the El Niño and La Niña intensified wind speed for the groups with higher values; (iv) The trend analysis showed more significant negative values for G3, G4 and G5 in all seasons and in the annual average; (v) The performance of dynamic mesoscale model showed smaller errors in the locations Paracuru and São João and major errors were observed in Triunfo; (vi) Application of the Kalman filter significantly reduce the systematic errors shown in the simulations of the dynamic mesoscale model; (vii) The wind resource indicate that Paracuru and Triunfo are favorable areas for the generation of energy, and the coupling technique after validation showed better results for Paracuru. We conclude that the objective was achieved, making it possible to identify trends in homogeneous groups of wind behavior, and to evaluate the quality of both simulations with the dynamic model of mesoscale and microscale to answer questions as necessary before planning research projects in Wind-Energy area in the NEB

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The great interest in nonlinear system identification is mainly due to the fact that a large amount of real systems are complex and need to have their nonlinearities considered so that their models can be successfully used in applications of control, prediction, inference, among others. This work evaluates the application of Fuzzy Wavelet Neural Networks (FWNN) to identify nonlinear dynamical systems subjected to noise and outliers. Generally, these elements cause negative effects on the identification procedure, resulting in erroneous interpretations regarding the dynamical behavior of the system. The FWNN combines in a single structure the ability to deal with uncertainties of fuzzy logic, the multiresolution characteristics of wavelet theory and learning and generalization abilities of the artificial neural networks. Usually, the learning procedure of these neural networks is realized by a gradient based method, which uses the mean squared error as its cost function. This work proposes the replacement of this traditional function by an Information Theoretic Learning similarity measure, called correntropy. With the use of this similarity measure, higher order statistics can be considered during the FWNN training process. For this reason, this measure is more suitable for non-Gaussian error distributions and makes the training less sensitive to the presence of outliers. In order to evaluate this replacement, FWNN models are obtained in two identification case studies: a real nonlinear system, consisting of a multisection tank, and a simulated system based on a model of the human knee joint. The results demonstrate that the application of correntropy as the error backpropagation algorithm cost function makes the identification procedure using FWNN models more robust to outliers. However, this is only achieved if the gaussian kernel width of correntropy is properly adjusted.