958 resultados para LOG-POISSON STATISTICS
Resumo:
This paper presents the techniques of likelihood prediction for the generalized linear mixed models. Methods of likelihood prediction is explained through a series of examples; from a classical one to more complicated ones. The examples show, in simple cases, that the likelihood prediction (LP) coincides with already known best frequentist practice such as the best linear unbiased predictor. The paper outlines a way to deal with the covariate uncertainty while producing predictive inference. Using a Poisson error-in-variable generalized linear model, it has been shown that in complicated cases LP produces better results than already know methods.
Resumo:
A mortalidade dos pacientes diabéticos, quando iniciam tratamento hemodialítico, ainda é muito elevada, significativamente maior do que a dos pacientes não diabéticos. As doenças cardíacas são a principal causa de morte nestes pacientes. O diabetes, por si só, está associado a uma alta prevalência de hipertensão, doença cardiovascular e insuficiência cardíaca, resultando em morbi-mortalidade significativas. Tradicionalmente, a mortalidade tem sido associada à cardiopatia isquêmica. A mortalidade cardiovascular, entretanto, não está relacionada apenas à isquemia, mas também à insuficiência cardíaca e à morte súbita. O objetivo deste estudo foi analisar o papel da doença cardiovascular como fator prognóstico para a morte de pacientes diabéticos e não diabéticos, que iniciam hemodiálise, levando em consideração outros fatores. Este foi um estudo prospectivo de uma coorte de 40 pacientes diabéticos e 28 não diabéticos, que iniciaram programa de hemodiálise, de agosto de 1996 a junho de 1999, em 5 hospitais de Porto Alegre, Brasil. O tempo total de acompanhamento foi de 4,25 anos. A avaliação inicial, realizada entre o 20 e o 30 mês de hemodiálise, incluiu: um questionário com características demográficas, história do diabetes e suas complicações, história de hipertensão e acidente vascular cerebral; o exame físico incluindo avaliação nutricional e exame oftalmológico; e avaliação laboratorial com medidas de parâmetros nutricionais, bioquímicos, hormonais, perfil lipídico, e controle metabólico do diabetes, além da avaliação da adequação da diálise. Para a avaliação cardiovascular foram utilizados: questionário Rose, ECG em repouso, cintilografia em repouso e sob dipiridamol, e ecocardiograma bi-dimensional e com Doppler. A mortalidade foi analisada ao final dos 51 meses, e as causas de morte, definidas pelos registros médicos, atestados de óbito ou informações do médico assistente ou familiar. Na análise estatística, foram empregados o teste t de Student, o qui-quadrado (χ2) ou teste exato de Fisher. Para a análise da sobrevida, o método de Kaplan-Meier foi utilizado, e, para identificar os principais fatores associados à mortalidade, construiu-se um modelo de regressão múltipla de Cox. O nÍvel de significância adotado foi de 5%. Ao final do estudo, os pacientes diabéticos tiveram um índice de mortalidade significativamente mais elevado do que os pacientes sem diabetes (47,5% vs. 7,1%; P=0,0013, log rank test). Na análise de Cox, o padrão pseudonormal ou restritivo de disfunção diastólica esteve associado a um risco de 3,2 (IC 95%:1,2-8,8; P=0,02), e a presença de diabetes, a um risco de 4,7 (IC 95%:1,03-21,4; P=0,04) para a morte. Concluiu-se que a disfunção diastólica do ventrículo esquerdo foi o principal preditor de mortalidade nesta coorte de pacientes que estão iniciando tratamento hemodialítico.
Resumo:
Propomos uma idealização da situação em que uma macromolécula é ionizada em um solvente. Neste modelo a área da superfície da molécula é suposta ser grande com respeito a seu diâmetro. A molécula é considerada como um dielétrico com uma distribuição de cargas em sua superfície. Utilizando as condições de transmissão, a distribuição de Boltzmann no solvente e resultados recentes sobre espaços de Sobolev no contexto de espaços métricos, bem como de integração sobre superfícies irregulares, o problema é formulado em forma variacional. Resultados clássicos do cálculo de variações permitem a resolução analítica do problema.
Resumo:
A maioria dos métodos de síntese e sintonia de controladores, bem como métodos de otimização e análise de processos necessitam de um modelo do processo em estudo. A identificação de processos é portanto uma área de grande importância para a engenharia em geral pois permite a obtenção de modelos empíricos dos processos com que nos deparamos de uma forma simples e rápida. Mesmo não utilizando leis da natureza, os modelos empíricos são úteis pois descrevem o comportamento específico de determinado processo. Com o rápido desenvolvimento dos computadores digitais e sua larga aplicação nos sistemas de controle em geral, a identificação de modelos discretos foi amplamente desenvolvida e empregada, entretanto, modelos discretos não são de fácil interpretação como os modelos contínuos pois a maioria dos sistema com que lidamos são de representação contínua. A identificação de modelos contínuos é portanto útil na medida que gera modelos de compreensão mais simples. A presente dissertação estuda a identificação de modelos lineares contínuos a partir de dados amostrados discretamente. O método estudado é o chamado método dos momentos de Poisson. Este método se baseia em uma transformação linear que quando aplicada a uma equação diferencial ordinária linear a transforma em uma equação algébrica evitando com isso a necessidade do cálculo das derivadas do sinais de entrada e saída Além da análise detalhada desse método, onde demonstramos o efeito de cada parâmetro do método de Poisson sobre o desempenho desse, foi realizado também um estudo dos problemas decorrentes da discretização de sinais contínuos, como por exemplo o efeito aliasing decorrente da utilização de tempos de amostragem muito grandes e de problemas numéricos da identificação de modelos discretos utilizando dados com tempos de amostragem muito pequenos de forma a destacar as vantagens da identificação contínua sobre a identificação discreta Também foi estudado um método para compensar a presença de offsets nos sinais de entrada e saída, método esse inédito quando se trata do método dos momentos de Poisson. Esse trabalho também comprova a equivalência entre o método dos momentos de Poisson e uma metodologia apresentada por Rolf Johansson em um artigo de 1994. Na parte final desse trabalho são apresentados métodos para a compensação de erros de modelagem devido à presença de ruído e distúrbios não medidos nos dados utilizados na identificação. Esses métodos permitem que o método dos momentos de Poisson concorra com os métodos de identificação discretos normalmente empregados como por exemplo ARMAX e Box-Jenkins.
Resumo:
The goal of this paper is twofold. First, using five of the most actively traded stocks in the Brazilian financial market, this paper shows that the normality assumption commonly used in the risk management area to describe the distributions of returns standardized by volatilities is not compatible with volatilities estimated by EWMA or GARCH models. In sharp contrast, when the information contained in high frequency data is used to construct the realized volatilies measures, we attain the normality of the standardized returns, giving promise of improvements in Value at Risk statistics. We also describe the distributions of volatilities of the Brazilian stocks, showing that the distributions of volatilities are nearly lognormal. Second, we estimate a simple linear model to the log of realized volatilities that differs from the ones in other studies. The main difference is that we do not find evidence of long memory. The estimated model is compared with commonly used alternatives in an out-of-sample experiment.
Resumo:
The power-law size distributions obtained experimentally for neuronal avalanches are an important evidence of criticality in the brain. This evidence is supported by the fact that a critical branching process exhibits the same exponent t~3=2. Models at criticality have been employed to mimic avalanche propagation and explain the statistics observed experimentally. However, a crucial aspect of neuronal recordings has been almost completely neglected in the models: undersampling. While in a typical multielectrode array hundreds of neurons are recorded, in the same area of neuronal tissue tens of thousands of neurons can be found. Here we investigate the consequences of undersampling in models with three different topologies (two-dimensional, small-world and random network) and three different dynamical regimes (subcritical, critical and supercritical). We found that undersampling modifies avalanche size distributions, extinguishing the power laws observed in critical systems. Distributions from subcritical systems are also modified, but the shape of the undersampled distributions is more similar to that of a fully sampled system. Undersampled supercritical systems can recover the general characteristics of the fully sampled version, provided that enough neurons are measured. Undersampling in two-dimensional and small-world networks leads to similar effects, while the random network is insensitive to sampling density due to the lack of a well-defined neighborhood. We conjecture that neuronal avalanches recorded from local field potentials avoid undersampling effects due to the nature of this signal, but the same does not hold for spike avalanches. We conclude that undersampled branching-process-like models in these topologies fail to reproduce the statistics of spike avalanches.
Resumo:
In this work we analyze the skin bioimpedance statistical distribution. We focus on the study of two distinct samples: the statistics of impedance of several points in the skin of a single individual and the statistics over a population (many individuals) but in a single skin point. The impedance data was obtained from the literature (Pearson, 2007). Using the Shapiro-Wilk test and the assymmetry test we conclude that the impedance of a population is better described by an assymetric and non-normal distribution. On the other side, the data concerning the individual impedance seems to follow a normal distribution. We have performed a goodnes of fitting test and the better distribution to fit the data of a population is the log-normal distribution. It is interesting to note that our result for skin impedance is in simtony with body impedance from the literature of electrical engeneering. Our results have an impact over the statistical planning and modelling of skin impedance experiments. Special attention we should drive to the treatment of outliers in this kind of dataset. The results of this work are important in the general discussion of low impedance of points of acupuncture and also in the problem of skin biopotentials used in equipments like the Electrodermal Screen Tests.
Resumo:
This work aims to present how the application of fractal geometry to the elements of a log-periodic array can become a good alternative when one wants to reduce the size of the array. Two types of log-periodic arrays were proposed: one with fed by microstrip line and other fed by electromagnetic coupling. To the elements of these arrays were applied fractal Koch contours, at two levels. In order to validate the results obtained some prototypes were built, which were measured on a vector network analyzer and simulated in a software, for comparison. The results presented reductions of 60% in the total area of the arrays, for both types. By analyzing the graphs of return loss, it was observed that the application of fractal contours made different resonant frequencies appear in the arrays. Furthermore, a good agreement was observed between simulated and measured results. The array with feeding by electromagnetic coupling presented, after application of fractal contours, radiation pattern with more smooth forms than the array with feeding by microstrip line
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
To investigate the nutrition-related habits (NRH) of Brazilian adolescents and evaluate the associations with risk factors.Cross-sectional school-based was carried out among high school adolescents aged 14-18 years (n = 1,759) from public and private schools from two cities. The NRH were investigated by the weekly consumption of vegetables, fruit, sweet food and fried food. Risk factors investigated were: city, sex, age, socioeconomic status and nutritional status. In statistics, Poisson regression was used with robust variance adjustment.Data indicated low consumption of fruits and vegetables, 70.0 and 71.0%, respectively, and high consumption of sweets and fried food, 66.7 and 63%, respectively. Boys showed risk of inadequate intake of vegetables [prevalence ratios (PR) 1.10, 95% CI 1.01-1.16] and fruit (PR 1.09, 95% CI 1.01-1.16). Furthermore, adolescents who live in Maringa had greater likelihood of consuming vegetables and fruit (20 and 25%, respectively). However, they presented risk of inadequate consumption of sweets (PR 1.19, 95% CI 1.11-1.28) for adolescents who live in Presidente Prudente.We concluded that inadequate NRH show high prevalence among adolescents and indicate the need to employ educational strategies that promote the adoption of more healthy habits and behaviors.
Resumo:
We study Hardy spaces on the boundary of a smooth open subset or R-n and prove that they can be defined either through the intrinsic maximal function or through Poisson integrals, yielding identical spaces. This extends to any smooth open subset of R-n results already known for the unit ball. As an application, a characterization of the weak boundary values of functions that belong to holomorphic Hardy spaces is given, which implies an F. and M. Riesz type theorem. (C) 2004 Elsevier B.V. All rights reserved.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)