993 resultados para Regressão de poisson
Resumo:
In this paper, we develop a flexible cure rate survival model by assuming the number of competing causes of the event of interest to follow a compound weighted Poisson distribution. This model is more flexible in terms of dispersion than the promotion time cure model. Moreover, it gives an interesting and realistic interpretation of the biological mechanism of the occurrence of event of interest as it includes a destructive process of the initial risk factors in a competitive scenario. In other words, what is recorded is only from the undamaged portion of the original number of risk factors.
Resumo:
In this paper, the concept of Poisson stability is investigated for impulsive semidynamical systems. Recursive properties are also investigated. (C) 2009 Elsevier Ltd. All rights reserved.
Resumo:
In this paper, we develop a flexible cure rate survival model by assuming the number of competing causes of the event of interest to follow the Conway-Maxwell Poisson distribution. This model includes as special cases some of the well-known cure rate models discussed in the literature. Next, we discuss the maximum likelihood estimation of the parameters of this cure rate survival model. Finally, we illustrate the usefulness of this model by applying it to a real cutaneous melanoma data. (C) 2009 Elsevier B.V. All rights reserved.
Resumo:
In this article, we present an analytical direct method, based on a Numerov three-point scheme, which is sixth order accurate and has a linear execution time on the grid dimension, to solve the discrete one-dimensional Poisson equation with Dirichlet boundary conditions. Our results should improve numerical codes used mainly in self-consistent calculations in solid state physics.
Resumo:
In this work we study, under the Stratonovich definition, the problem of the damped oscillatory massive particle subject to a heterogeneous Poisson noise characterized by a rate of events, lambda(t), and a magnitude, Phi, following an exponential distribution. We tackle the problem by performing exact time averages over the noise in a similar way to previous works analysing the problem of the Brownian particle. From this procedure we obtain the long-term equilibrium distributions of position and velocity as well as analytical asymptotic expressions for the injection and dissipation of energy terms. Considerations on the emergence of stochastic resonance in this type of system are also set forth.
Resumo:
We analyze data obtained from a study designed to evaluate training effects on the performance of certain motor activities of Parkinson`s disease patients. Maximum likelihood methods were used to fit beta-binomial/Poisson regression models tailored to evaluate the effects of training on the numbers of attempted and successful specified manual movements in 1 min periods, controlling for disease stage and use of the preferred hand. We extend models previously considered by other authors in univariate settings to account for the repeated measures nature of the data. The results suggest that the expected number of attempts and successes increase with training, except for patients with advanced stages of the disease using the non-preferred hand. Copyright (c) 2008 John Wiley & Sons, Ltd.
Resumo:
Generalized linear mixed models are flexible tools for modeling non-normal data and are useful for accommodating overdispersion in Poisson regression models with random effects. Their main difficulty resides in the parameter estimation because there is no analytic solution for the maximization of the marginal likelihood. Many methods have been proposed for this purpose and many of them are implemented in software packages. The purpose of this study is to compare the performance of three different statistical principles - marginal likelihood, extended likelihood, Bayesian analysis-via simulation studies. Real data on contact wrestling are used for illustration.
Resumo:
Propomos uma idealização da situação em que uma macromolécula é ionizada em um solvente. Neste modelo a área da superfície da molécula é suposta ser grande com respeito a seu diâmetro. A molécula é considerada como um dielétrico com uma distribuição de cargas em sua superfície. Utilizando as condições de transmissão, a distribuição de Boltzmann no solvente e resultados recentes sobre espaços de Sobolev no contexto de espaços métricos, bem como de integração sobre superfícies irregulares, o problema é formulado em forma variacional. Resultados clássicos do cálculo de variações permitem a resolução analítica do problema.
Resumo:
O objetivo do presente estudo é avaliar a existência de quebra estrutural no Value-at-Risk (VaR) das empresas que negociam suas ações na bolsa de valores de Nova Iorque (NYSE). O evento que justi ca a suspeita de mudança estrutural é a lei de governança corporativa conhecida como Sarbanes-Oxley Act (ou simplesmente SOX), a mais profunda reforma implementada no sistema de legislação nanceira dos Estados Unidos desde 1934. A metodologia empregada é baseada em um teste de quebra estrutural endógeno para modelos de regressão quantílica. A amostra foi composta de 176 companhias com registro ativo na NYSE e foi analisado o VaR de 1%, 5% e 10% de cada uma delas. Os resultados obtidos apontam uma ligação da SOX com o ponto de quebra estrutural mais notável nos VaRs de 10% e 5%, tomando-se como base a concentração das quebras no período de um ano após a implementação da SOX, a partir do teste de Qu(2007). Utilizando o mesmo critério para o VaR de 1%, a relação encontrada não foi tão forte quanto nos outros dois casos, possivelmente pelo fato de que para uma exposição ao risco tão extrema, fatores mais especí cos relacionados à companhia devem ter maior importância do que as informações gerais sobre o mercado e a economia, incluídas na especi cação do VaR. Encontrou-se ainda uma forte relação entre certas características como tamanho, liquidez e representação no grupo industrial e o impacto da SOX no VaR.
Resumo:
The objective of this dissertation is to analyze the socio-spatial distribution of the of denunciation rate. For this, it is studied association between the denunciations to Disque-Denúncia with the space position of the neighborhoods and the social characteristics in terms of the social context which can take to a greater or minor participation. The analysis will be centered in the relation between the socio-spatial variability of denunciations for 100.000 inhabitants and differences by the models of space regression and geographical representation highlighting the importance of the characteristics of the neighborhoods that generate the social context. The social configuration of a neighborhood, its space localization and its violence rate are the factors associates to the denunciation variability, which can modify its level. In relation to the space dependence of the neighborhoods, it is inferred that they are not independent. The denunciation rate of the neighborhoods is interdependent with close neighborhoods, because of the space externality. In relation to the social index of the neighborhoods, the result that we find is that the association of the denunciation rate with the percentage of elderly, the density and the average of studies of the neighborhoods exists, in other words, the levels of those are related with the levels of the denunciation rate.
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.
Resumo:
Em economias com regimes de metas de inflação é comum que Bancos Centrais intervenham para reduzir os níveis de volatilidade do dólar, sendo estas intervenções mais comuns em países não desenvolvidos. No caso do Brasil, estas intervenções acontecem diretamente no mercado à vista, via mercado de derivativos (através de swaps cambiais) ou ainda com operações a termo, linhas de liquidez e via empréstimos. Neste trabalho mantemos o foco nas intervenções no mercado à vista e de derivativos pois estas representam o maior volume financeiro relacionado à este tipo de atuação oficial. Existem diversos trabalhos que avaliam o impacto das intervenções e seus graus de sucesso ou fracasso mas relativamente poucos que abordam o que levaria o Banco Central do Brasil (BCB) a intervir no mercado. Tentamos preencher esta lacuna avaliando as variáveis que podem se relacionar às intervenções do BCB no mercado de câmbio e adicionalmente verificando se essas variáveis se relacionam diferentemente com as intervenções de venda e compra de dólares. Para tal, além de utilizarmos regressões logísticas, como na maioria dos trabalhos sobre o tema, empregamos também a técnica de redes neurais, até onde sabemos inédita para o assunto. O período de estudo vai de 2005 a 2012, onde o BCB interveio no mercado de câmbio sob demanda e não de forma continuada por longos períodos de tempo, como nos anos mais recentes. Os resultados indicam que algumas variáveis são mais relevantes para o processo de intervenção vendendo ou comprando dólares, com destaque para a volatilidade implícita do câmbio nas intervenções que envolvem venda de dólares, resultado este alinhado com outros trabalhos sobre o tema.
Resumo:
Este trabalho minera as informações coletadas no processo de vestibular entre 2009 e 2012 para o curso de graduação de administração de empresas da FGV-EAESP, para estimar classificadores capazes de calcular a probabilidade de um novo aluno ter bom desempenho. O processo de KDD (Knowledge Discovery in Database) desenvolvido por Fayyad et al. (1996a) é a base da metodologia adotada e os classificadores serão estimados utilizando duas ferramentas matemáticas. A primeira é a regressão logística, muito usada por instituições financeiras para avaliar se um cliente será capaz de honrar com seus pagamentos e a segunda é a rede Bayesiana, proveniente do campo de inteligência artificial. Este estudo mostre que os dois modelos possuem o mesmo poder discriminatório, gerando resultados semelhantes. Além disso, as informações que influenciam a probabilidade de o aluno ter bom desempenho são a sua idade no ano de ingresso, a quantidade de vezes que ele prestou vestibular da FGV/EAESP antes de ser aprovado, a região do Brasil de onde é proveniente e as notas das provas de matemática fase 01 e fase 02, inglês, ciências humanas e redação. Aparentemente o grau de formação dos pais e o grau de decisão do aluno em estudar na FGV/EAESP não influenciam nessa probabilidade.