891 resultados para Log-normal distribution
Resumo:
Influence diagnostics methods are extended in this article to the Grubbs model when the unknown quantity x (latent variable) follows a skew-normal distribution. Diagnostic measures are derived from the case-deletion approach and the local influence approach under several perturbation schemes. The observed information matrix to the postulated model and Delta matrices to the corresponding perturbed models are derived. Results obtained for one real data set are reported, illustrating the usefulness of the proposed methodology.
Resumo:
In this article, we study a new class of non negative distributions generated by the symmetric distributions around zero. For the special case of the distribution generated using the normal distribution, properties like moments generating function, stochastic representation, reliability connections, and inference aspects using methods of moments and maximum likelihood are studied. Moreover, a real data set is analyzed, illustrating the fact that good fits can result.
Resumo:
The usual tests to compare variances and means (e. g. Bartlett`s test and F-test) assume that the sample comes from a normal distribution. In addition, the test for equality of means requires the assumption of homogeneity of variances. In some situation those assumptions are not satisfied, hence we may face problems like excessive size and low power. In this paper, we describe two tests, namely the Levene`s test for equality of variances, which is robust under nonnormality; and the Brown and Forsythe`s test for equality of means. We also present some modifications of the Levene`s test and Brown and Forsythe`s test, proposed by different authors. We analyzed and applied one modified form of Brown and Forsythe`s test to a real data set. This test is a robust alternative under nonnormality, heteroscedasticity and also when the data set has influential observations. The equality of variance can be well tested by Levene`s test with centering at the sample median.
Resumo:
In many epidemiological studies it is common to resort to regression models relating incidence of a disease and its risk factors. The main goal of this paper is to consider inference on such models with error-prone observations and variances of the measurement errors changing across observations. We suppose that the observations follow a bivariate normal distribution and the measurement errors are normally distributed. Aggregate data allow the estimation of the error variances. Maximum likelihood estimates are computed numerically via the EM algorithm. Consistent estimation of the asymptotic variance of the maximum likelihood estimators is also discussed. Test statistics are proposed for testing hypotheses of interest. Further, we implement a simple graphical device that enables an assessment of the model`s goodness of fit. Results of simulations concerning the properties of the test statistics are reported. The approach is illustrated with data from the WHO MONICA Project on cardiovascular disease. Copyright (C) 2008 John Wiley & Sons, Ltd.
A robust Bayesian approach to null intercept measurement error model with application to dental data
Resumo:
Measurement error models often arise in epidemiological and clinical research. Usually, in this set up it is assumed that the latent variable has a normal distribution. However, the normality assumption may not be always correct. Skew-normal/independent distribution is a class of asymmetric thick-tailed distributions which includes the Skew-normal distribution as a special case. In this paper, we explore the use of skew-normal/independent distribution as a robust alternative to null intercept measurement error model under a Bayesian paradigm. We assume that the random errors and the unobserved value of the covariate (latent variable) follows jointly a skew-normal/independent distribution, providing an appealing robust alternative to the routine use of symmetric normal distribution in this type of model. Specific distributions examined include univariate and multivariate versions of the skew-normal distribution, the skew-t distributions, the skew-slash distributions and the skew contaminated normal distributions. The methods developed is illustrated using a real data set from a dental clinical trial. (C) 2008 Elsevier B.V. All rights reserved.
Resumo:
This article analyses the processes of reducing language in textchats produced by non-native speakers of English. We propose that forms are reduced because of their high frequency and because of the discourse context. A wide variety of processes are attested in the literature, and we find different forms of clippings in our data, including mixtures of different clippings, homophone respellings, phonetic respellings including informal oral forms, initialisms (but no acronyms), and mixtures of clipping together with homophone and phonetic respellings. Clippings were the most frequent process (especially back-clippings and initialisms), followed by homophone respellings. There were different ways of metalinguistically marking reduction, but capitalisation was by far the most frequent. There is much individual variation in the frequencies of the different processes, although most were within normal distribution. The fact that nonnative speakers seem to generally follow reduction patterns of native speakers suggests that reduction is a universal process.
Resumo:
Introdução: a obtenção de um bom controle metabólico é essencial para a prevenção das complicações crônicas do Diabetes Melito (DM). O tratamento é complexo e depende da implementação efetiva das diferentes estratégias terapêuticas disponíveis. Para que isso seja possível, é necessário que o paciente entenda os princípios terapêuticos e consiga executá-los. A precária educação em diabetes é percebida como um dos obstáculos para o alcance das metas terapêuticas. Objetivo: analisar, os fatores associados ao controle metabólico, em pacientes com DM tipo 2 (DM2) não usuários de insulina. Métodos: foi realizado um estudo transversal em pacientes com DM2 não usuários de insulina, selecionados ao acaso entre aqueles que consultavam nos ambulatórios de Medicina Interna, Endocrinologia e Enfermagem do Hospital de Clínicas de Porto Alegre. Os pacientes foram submetidos à avaliação clínica, laboratorial e responderam um questionário que incluía o tipo de tratamento realizado para DM, outros medicamentos e co-morbidades, pesquisa de complicações em ano prévio e avaliação do conhecimento sobre DM. Os pacientes foram classificados em dois grupos, com bom ou mau controle glicêmico, de acordo com o valor da glico-hemoglobina de 1 ponto % acima do limite superior do método utilizado. As comparações entre variáveis contínuas, com distribuição normal, foram analisadas pelo teste t de Student para amostras não-pareadas e para as variáveis de distribuição assimétrica ou com variância heterogênea o teste U de Mann-Whitney. A comparação entre percentagem foi feita pelo teste de qui-quadrado ou exato de Fisher. Foi realizada uma análise logística múltipla para identificar os fatores mais relevantes associados ao controle metabólico (variável dependente). As variáveis independentes com um nível de significância de P < 0,1 na análise bivariada, foram incluídas no modelo. Resultados: foram avaliados 143 pacientes com DM2, idade de 59,3 ± 10,1 anos, duração conhecida do DM 7,5 ± 6,3 anos, índice de massa corporal (IMC) de 29,7 ± 5,2 kg/m².Destes, 94 pacientes (65,73%) apresentavam bom controle glicêmico. Os pacientes com mau controle glicêmico usavam mais anti-hiperglicemiantes orais como monoterapia (OR = 9,37; IC = 2,60-33,81; P=0,004) ou associados (OR = 31,08; IC = 7,42-130,15; P < 0,001). Da mesma maneira, não fizeram dieta em dias de festa (OR = 3,29; IC = 1,51-7,16; P = 0,012). A inclusão do conhecimento sobre diabetes não foi diferente entre os pacientes com bom ou mau controle glicêmico (OR = 1,08; IC = 0,97 - 1,21; P = 0,219). A análise multivariada demonstrou que a consulta com a enfermeira educadora (OR = 0,24; IC = 0,108-0,534; P = 0,003), com o endocrinologista (OR = 0,15 ; IC = 0,063-0,373; P = 0,001) e o uso de hipolipemiantes (OR = 0,10; IC = 0,016 - 0,72; P = 0,054) foram associados ao bom controle glicêmico, ajustados para a não realização de dieta em festas, uso de anti-hiperglicemiantes orais e conhecimento sobre diabetes. Conclusão: o controle metabólico em pacientes DM2 é influenciado pelas atividades de educação com enfermeira e endocrinologista. O tratamento do DM2 deve incluir atividades de educação de forma sistemática.
Resumo:
This paper proposes unit tests based on partially adaptive estimation. The proposed tests provide an intermediate class of inference procedures that are more efficient than the traditional OLS-based methods and simpler than unit root tests based on fully adptive estimation using nonparametric methods. The limiting distribution of the proposed test is a combination of standard normal and the traditional Dickey-Fuller (DF) distribution, including the traditional ADF test as a special case when using Gaussian density. Taking into a account the well documented characteristic of heavy-tail behavior in economic and financial data, we consider unit root tests coupled with a class of partially adaptive M-estimators based on the student-t distributions, wich includes te normal distribution as a limiting case. Monte Carlo Experiments indicate that, in the presence of heavy tail distributions or innovations that are contaminated by outliers, the proposed test is more powerful than the traditional ADF test. We apply the proposed test to several macroeconomic time series that have heavy-tailed distributions. The unit root hypothesis is rejected in U.S. real GNP, supporting the literature of transitory shocks in output. However, evidence against unit roots is not found in real exchange rate and nominal interest rate even haevy-tail is taken into a account.
Resumo:
Dentre os principais desafios enfrentados no cálculo de medidas de risco de portfólios está em como agregar riscos. Esta agregação deve ser feita de tal sorte que possa de alguma forma identificar o efeito da diversificação do risco existente em uma operação ou em um portfólio. Desta forma, muito tem se feito para identificar a melhor forma para se chegar a esta definição, alguns modelos como o Valor em Risco (VaR) paramétrico assumem que a distribuição marginal de cada variável integrante do portfólio seguem a mesma distribuição , sendo esta uma distribuição normal, se preocupando apenas em modelar corretamente a volatilidade e a matriz de correlação. Modelos como o VaR histórico assume a distribuição real da variável e não se preocupam com o formato da distribuição resultante multivariada. Assim sendo, a teoria de Cópulas mostra-se um grande alternativa, à medida que esta teoria permite a criação de distribuições multivariadas sem a necessidade de se supor qualquer tipo de restrição às distribuições marginais e muito menos as multivariadas. Neste trabalho iremos abordar a utilização desta metodologia em confronto com as demais metodologias de cálculo de Risco, a saber: VaR multivariados paramétricos - VEC, Diagonal,BEKK, EWMA, CCC e DCC- e VaR histórico para um portfólio resultante de posições idênticas em quatro fatores de risco – Pre252, Cupo252, Índice Bovespa e Índice Dow Jones
Resumo:
Este trabalho examinou as características de carteiras compostas por ações e otimizadas segundo o critério de média-variância e formadas através de estimativas robustas de risco e retorno. A motivação para isto é a distribuição típica de ativos financeiros (que apresenta outliers e mais curtose que a distribuição normal). Para comparação entre as carteiras, foram consideradas suas propriedades: estabilidade, variabilidade e os índices de Sharpe obtidos pelas mesmas. O resultado geral mostra que estas carteiras obtidas através de estimativas robustas de risco e retorno apresentam melhoras em sua estabilidade e variabilidade, no entanto, esta melhora é insuficiente para diferenciar os índices de Sharpe alcançados pelas mesmas das carteiras obtidas através de método de máxima verossimilhança para estimativas de risco e retorno.
Resumo:
A dinâmica da água em sistema de plantio direto (PD) é alterada em relação ao preparo convencional (PC) devido a modificações na estrutura do solo e a presença de palha na superfície. Para avaliar estas diferenças foram conduzidos experimentos de campo, em 2001/02 e 2002/03, em Eldorado do Sul, RS. O objetivo geral foi quantificar alterações físico-hídricas no perfil e na superfície do solo em PD e PC, com ênfase na dinâmica da água e respostas das plantas de milho. Os sistemas de manejo do solo foram implantados na área em 1995. Foram avaliadas propriedades físicas, a movimentação e a armazenagem de água no solo. Mediu-se a infiltração e a capacidade de campo e monitorou-se a dinâmica da água durante o ciclo da cultura, enfocando a secagem do solo e a extração de água em períodos sem precipitação. Nestes períodos também foi determinada a evaporação da água na superfície e avaliadas respostas das plantas. Os efeitos do plantio direto se evidenciaram nas camadas de solo próximas à superfície. A mesoporosidade foi a propriedade física mais afetada, apresentando uma distribuição exponencial de mesoporos no plantio direto, enquanto no preparo convencional a mesma se aproximou de uma curva normal. Em geral, a condutividade hidráulica, a retenção e a disponibilidade de água foram mais elevadas em plantio direto, principalmente, próximo à superfície. O solo em PD também apresentou maior umidade volumétrica com menor energia de retenção, resultando em redução no avanço da frente de secagem do solo e extração de água. A evaporação também foi maior em PD, demonstrando que a maior umidade no solo em plantio direto se deve ao aumento na capacidade de armazenagem de água. O aprofundamento radicular foi sempre maior no preparo convencional. O plantio direto altera propriedades físicas ligadas à dinâmica da água, proporcionando maior disponibilidade hídrica no solo ao longo do tempo.
Resumo:
A pesquisa objetivou testar se a distribuição hiperbólica de Barndorff-Nielsen constitui representação adequada da distribuição de retornos no mercado acionário brasileiro. Foram considerados os retornos diários do Índice Bovespa e de 30 ações individuais, no período de 30 de junho de 1994 a 31 de dezembro de 1999 e em três subperíodos seus. Os resultados indicam que a distribuição hiperbólica constitui boa representação dos retornos do Índice Bovespa, tanto para o período global como para os três subperíodos, e constitui melhora substancial em relação à distribuição normal. Para as 30 ações analisadas, contudo, os resultados não são inequívocos. A depender do período considerado, a proporção de ações para as quais a distribuição hiperbólica se mostra adequada é variável - de um mínimo de 30 por cento a um máximo de 75 por cento. Mesmo no caso do Índice Bovespa, entretanto, a distribuição hiperbólica não parece captar retornos extremos.
Resumo:
Building Risk-Neutral Densities (RND) from options data can provide market-implied expectations about the future behavior of a financial variable. And market expectations on financial variables may influence macroeconomic policy decisions. It can be useful also for corporate and financial institutions decision making. This paper uses the Liu et all (2007) approach to estimate the option-implied Risk-neutral densities from the Brazilian Real/US Dollar exchange rate distribution. We then compare the RND with actual exchange rates, on a monthly basis, in order to estimate the relative risk-aversion of investors and also obtain a Real-world density for the exchange rate. We are the first to calculate relative risk-aversion and the option-implied Real World Density for an emerging market currency. Our empirical application uses a sample of Brazilian Real/US Dollar options traded at BM&F-Bovespa from 1999 to 2011. The RND is estimated using a Mixture of Two Log-Normals distribution and then the real-world density is obtained by means of the Liu et al. (2007) parametric risktransformations. The relative risk aversion is calculated for the full sample. Our estimated value of the relative risk aversion parameter is around 2.7, which is in line with other articles that have estimated this parameter for the Brazilian Economy, such as Araújo (2005) and Issler and Piqueira (2000). Our out-of-sample evaluation results showed that the RND has some ability to forecast the Brazilian Real exchange rate. Abe et all (2007) found also mixed results in the out-of-sample analysis of the RND forecast ability for exchange rate options. However, when we incorporate the risk aversion into RND in order to obtain a Real-world density, the out-of-sample performance improves substantially, with satisfactory results in both Kolmogorov and Berkowitz tests. Therefore, we would suggest not using the “pure” RND, but rather taking into account risk aversion in order to forecast the Brazilian Real exchange rate.
Resumo:
li consumption is log-Normal and is decomposed into a linear deterministic trend and a stationary cycle, a surprising result in business-cycle research is that the welfare gains of eliminating uncertainty are relatively small. A possible problem with such calculations is the dichotomy between the trend and the cyclical components of consumption. In this paper, we abandon this dichotomy in two ways. First, we decompose consumption into a deterministic trend, a stochastic trend, and a stationary cyclical component, calculating the welfare gains of cycle smoothing. Calculations are carried forward only after a careful discussion of the limitations of macroeconomic policy. Second, still under the stochastic-trend model, we incorporate a variable slope for consumption depending negatively on the overall volatility in the economy. Results are obtained for a variety of preference parameterizations, parameter values, and different macroeconomic-policy goals. They show that, once the dichotomy in the decomposition in consumption is abandoned, the welfare gains of cycle smoothing may be substantial, especially due to the volatility effect.
Resumo:
This dissertation presents two papers on how to deal with simple systemic risk measures to assess portfolio risk characteristics. The first paper deals with the Granger-causation of systemic risk indicators based in correlation matrices in stock returns. Special focus is devoted to the Eigenvalue Entropy as some previous literature indicated strong re- sults, but not considering different macroeconomic scenarios; the Index Cohesion Force and the Absorption Ratio are also considered. Considering the S&P500, there is not ev- idence of Granger-causation from Eigenvalue Entropies and the Index Cohesion Force. The Absorption Ratio Granger-caused both the S&P500 and the VIX index, being the only simple measure that passed this test. The second paper develops this measure to capture the regimes underlying the American stock market. New indicators are built using filtering and random matrix theory. The returns of the S&P500 is modelled as a mixture of normal distributions. The activation of each normal distribution is governed by a Markov chain with the transition probabilities being a function of the indicators. The model shows that using a Herfindahl-Hirschman Index of the normalized eigenval- ues exhibits best fit to the returns from 1998-2013.