936 resultados para finite-state methods
Resumo:
Os objetivos deste trabalho foram (i) rever métodos numéricos para precificação de derivativos; e (ii) comparar os métodos assumindo que os preços de mercado refletem àqueles obtidos pela fórmula de Black Scholes para precificação de opções do tipo européia. Aplicamos estes métodos para precificar opções de compra da ações Telebrás. Os critérios de acurácia e de custo computacional foram utilizados para comparar os seguintes modelos binomial, Monte Carlo, e diferenças finitas. Os resultados indicam que o modelo binomial possui boa acurácia e custo baixo, seguido pelo Monte Carlo e diferenças finitas. Entretanto, o método Monte Carlo poderia ser usado quando o derivativo depende de mais de dois ativos-objetos. É recomendável usar o método de diferenças finitas quando se obtém uma equação diferencial parcial cuja solução é o valor do derivativo.
Resumo:
Este trabalho de tese tem por objetivo ampliar o alcance e aplicação de mapas SODA, preservando a metodologia originalmente desenvolvida. Inicialmente é realizada uma revisão do método, abordando de forma conjunta os artigos seminais, a teoria psicológica de Kelly e a teoria dos grafos; e ao final propomos uma identidade entre construtos de mapas SODA com os conhecimentos tácitos e explícitos, da gestão do conhecimento (KM). Essa sequencia introdutória é completada com uma visão de como os mapas SODA tem sido aplicado. No estágio seguinte o trabalho passa a analisar de forma crítica alguns pontos do método que dão margens a interpretações equivocadas. Sobre elas passamos a propor a aplicação de teorias, de diversos campos, tais como a teoria de means-end (Marketing), a teoria da atribuição e os conceitos de atitude (Psicologia), permitindo inferências que conduzem à proposição da primeira tese: mapas SODA são descritores de atitudes. O próximo estágio prossegue analisando criticamente o método, e foca no paradigma estabelecido por Eden, que não permite conferir ao método o status de descritor de comportamento. Propomos aqui uma mudança de paradigma, adotando a teoria da ação comunicativa, de Habermas, e sobre ela prescrevemos a teoria da ação e da escada da inferência (Action Science) e uma teoria da emoção (neuro ciência), o que permite novas inferências, que conduzem à proposição da segunda tese: mapas SODA podem descrever comportamentos. Essas teses servem de base para o alargamento de escopos do método SODA. É proposta aqui a utilização da teoria de máquinas de estado finito determinístico, designadas por autômato. Demonstramos um mapeamento entre autômato com mapas SODA, obtendo assim o autômato SODA, e sobre ele realizamos a última contribuição, uma proposta de mapas SODA hierárquicos, o que vem a possibilitar a descrição de sequencias de raciocínio, ordenando de forma determinística atitudes e comportamentos, de forma estruturada. A visão de como ela pode ser aplicada é realizada por meio de estudo de caso.
Resumo:
The scheme is based on Ami Harten's ideas (Harten, 1994), the main tools coming from wavelet theory, in the framework of multiresolution analysis for cell averages. But instead of evolving cell averages on the finest uniform level, we propose to evolve just the cell averages on the grid determined by the significant wavelet coefficients. Typically, there are few cells in each time step, big cells on smooth regions, and smaller ones close to irregularities of the solution. For the numerical flux, we use a simple uniform central finite difference scheme, adapted to the size of each cell. If any of the required neighboring cell averages is not present, it is interpolated from coarser scales. But we switch to ENO scheme in the finest part of the grids. To show the feasibility and efficiency of the method, it is applied to a system arising in polymer-flooding of an oil reservoir. In terms of CPU time and memory requirements, it outperforms Harten's multiresolution algorithm.The proposed method applies to systems of conservation laws in 1Dpartial derivative(t)u(x, t) + partial derivative(x)f(u(x, t)) = 0, u(x, t) is an element of R-m. (1)In the spirit of finite volume methods, we shall consider the explicit schemeupsilon(mu)(n+1) = upsilon(mu)(n) - Deltat/hmu ((f) over bar (mu) - (f) over bar (mu)-) = [Dupsilon(n)](mu), (2)where mu is a point of an irregular grid Gamma, mu(-) is the left neighbor of A in Gamma, upsilon(mu)(n) approximate to 1/mu-mu(-) integral(mu-)(mu) u(x, t(n))dx are approximated cell averages of the solution, (f) over bar (mu) = (f) over bar (mu)(upsilon(n)) are the numerical fluxes, and D is the numerical evolution operator of the scheme.According to the definition of (f) over bar (mu), several schemes of this type have been proposed and successfully applied (LeVeque, 1990). Godunov, Lax-Wendroff, and ENO are some of the popular names. Godunov scheme resolves well the shocks, but accuracy (of first order) is poor in smooth regions. Lax-Wendroff is of second order, but produces dangerous oscillations close to shocks. ENO schemes are good alternatives, with high order and without serious oscillations. But the price is high computational cost.Ami Harten proposed in (Harten, 1994) a simple strategy to save expensive ENO flux calculations. The basic tools come from multiresolution analysis for cell averages on uniform grids, and the principle is that wavelet coefficients can be used for the characterization of local smoothness.. Typically, only few wavelet coefficients are significant. At the finest level, they indicate discontinuity points, where ENO numerical fluxes are computed exactly. Elsewhere, cheaper fluxes can be safely used, or just interpolated from coarser scales. Different applications of this principle have been explored by several authors, see for example (G-Muller and Muller, 1998).Our scheme also uses Ami Harten's ideas. But instead of evolving the cell averages on the finest uniform level, we propose to evolve the cell averages on sparse grids associated with the significant wavelet coefficients. This means that the total number of cells is small, with big cells in smooth regions and smaller ones close to irregularities. This task requires improved new tools, which are described next.
Resumo:
In this work we study the Hidden Markov Models with finite as well as general state space. In the finite case, the forward and backward algorithms are considered and the probability of a given observed sequence is computed. Next, we use the EM algorithm to estimate the model parameters. In the general case, the kernel estimators are used and to built a sequence of estimators that converge in L1-norm to the density function of the observable process
Resumo:
The central objective of a study Non-Homogeneous Markov Chains is the concept of weak and strong ergodicity. A chain is weak ergodic if the dependence on the initial distribution vanishes with time, and it is strong ergodic if it is weak ergodic and converges in distribution. Most theoretical results on strong ergodicity assume some knowledge of the limit behavior of the stationary distributions. In this work, we collect some general results on weak and strong ergodicity for chains with space enumerable states, and also study the asymptotic behavior of the stationary distributions of a particular type of Markov Chains with finite state space, called Markov Chains with Rare Transitions
Resumo:
OBJETIVO: Avaliar as causas de baixa visão e cegueira em indivíduos facectomizados, de amostra da população de cidades da região centrooeste do estado de São Paulo. Métodos: Estudo transversal, observacional, feito em cinco cidades da região centro-oeste do estado de São Paulo, em amostra domiciliar e baseada nos dados do último Censo Demográfico (IBGE, 1995), com escolha sistemática dos domicílios. Foi considerada para o presente estudo uma subamostra de indivíduos facectomizados, dos quais foram obtidos dados de identificação e exame oftalmológico completo. Os dados foram avaliados por estatísticas descritivas, análise de freqüência de ocorrência e proporção de concordância, com intervalo de confiança de 95%. RESULTADOS: Dos indivíduos amostrados, 2,37% haviam sido submetidos à facectomia. Dos 201 olhos operados, 26,9% apresentavam acuidade visual compatível com cegueira ou deficiência visual. Com a melhor correção óptica, a acuidade visual permaneceu <0,3 em 19,0%. O exame refracional proporcionou melhora da acuidade visual para 27,9% dos indivíduos facectomizados. As causas de baixa visão foram os erros refrativos não corrigidos, opacidade de cápsula posterior (19,4%), ceratopatia bolhosa (8,3%) coriorretinite cicatricial (8,3%), afacia (8,3%), degeneração macular relacionada a idade (5,5%), leucoma (5,5%), glaucoma (5,5%), atrofia de papila (5,5,%), descolamento de retina (2,8%), atrofia de epitelio pigmentado da retina (2,8%) e alta miopia (2,8%). CONCLUSÃO: Apesar da catarata ser causa de cegueira que pode ser evitável, mesmo após a correção cirúrgica porcentagem expressiva de indivíduos permanece com baixa visão, em geral, em decorrência de fatores relacionados ao seguimento pós-operatório negligenciado.
Resumo:
OBJETIVO: Avaliar as características dos portadores de pterígio na região de Botucatu (SP). MÉTODOS: Portadores de pterígio foram avaliados quanto à idade, sexo, profissão, queixas e características da lesão (primário ou recidivado, tamanho, carnoso ou involutivo). Os dados foram submetidos à avaliação estatística. RESULTADOS: Cerca de metade dos portadores eram do sexo feminino, a maioria com idade superior a 40 anos, que procuraram o tratamento com queixa do efeito anti-estético da lesão. A maioria das lesões era primária (77,08%), grau 2 (69,6%) e do tipo carnoso (86,7%). Pterígio grau 4 esteve presente em 1,4% dos pacientes. CONCLUSÃO: Observou-se maior freqüência de portadores de pterígio entre mulheres, acima dos 40 anos e portadoras de pterígio primário, grau 2 e carnoso. A cegueira por pterígio ainda está presente em nosso meio.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Statecharts are an extension to finite state machines with capability for expressing hierarchical decomposition and parallelism. They also have a mechanism called history, to remember the last visit to a superstate. An algorithm to create a reachability tree for statecharts is presented. Also shown is how to use this tree to analyse dynamic properties of statecharts; reachability from any state configuration, usage of transitions, reinitiability, deadlocks, and valid sequence of events. Owing to its powerful notation, building a reachability tree for statecharts presents some difficulties, and we show how these problems were solved in the tree we propose.
Resumo:
This paper is concerned with the stability of discrete-time linear systems subject to random jumps in the parameters, described by an underlying finite-state Markov chain. In the model studied, a stopping time τ Δ is associated with the occurrence of a crucial failure after which the system is brought to a halt for maintenance. The usual stochastic stability concepts and associated results are not indicated, since they are tailored to pure infinite horizon problems. Using the concept named stochastic τ-stability, equivalent conditions to ensure the stochastic stability of the system until the occurrence of τ Δ is obtained. In addition, an intermediary and mixed case for which τ represents the minimum between the occurrence of a fix number N of failures and the occurrence of a crucial failure τ Δ is also considered. Necessary and sufficient conditions to ensure the stochastic τ-stability are provided in this setting that are auxiliary to the main result.
Resumo:
An improvement to the quality bidimensional Delaunay mesh generation algorithm, which combines the mesh refinement algorithms strategy of Ruppert and Shewchuk is proposed in this research. The developed technique uses diametral lenses criterion, introduced by L. P. Chew, with the purpose of eliminating the extremely obtuse triangles in the boundary mesh. This method splits the boundary segment and obtains an initial prerefinement, and thus reducing the number of necessary iterations to generate a high quality sequential triangulation. Moreover, it decreases the intensity of the communication and synchronization between subdomains in parallel mesh refinement. © 2008 IEEE.
Resumo:
The constant increase in digital systems complexity definitely demands the automation of the corresponding synthesis process. This paper presents a computational environment designed to produce both software and hardware implementations of a system. The tool for code generation has been named ACG8051. As for the hardware synthesis there has been produced a larger environment consisting of four programs, namely: PIPE2TAB, AGPS, TABELA, and TAB2VHDL. ACG8051 and PIPE2TAB use place/transition net descriptions from PIPE as inputs. ACG8051 is aimed at generating assembly code for the 8051 micro-controller. PIPE2TAB produces a tabular version of a Mealy type finite state machine of the system, its output is fed into AGPS that is used for state allocation. The resulting digital system is then input to TABELA, which minimizes control functions and outputs of the digital system. Finally, the output generated by TABELA is fed to TAB2VHDL that produces a VHDL description of the system at the register transfer level. Thus, we present here a set of tools designed to take a high-level description of a digital system, represented by a place/transition net, and produces as output both an assembly code that can be immediately run on an 8051 micro-controller, and a VHDL description that can be used to directly implement the hardware parts either on an FPGA or as an ASIC.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)