943 resultados para Non-parametric Tests


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Considering a series representation of a coherent system using a shift transform of the components lifetime T-i, at its critical level Y-i, we study two problems. First, under such a shift transform, we analyse the preservation properties of the non-parametric distribution classes and secondly the association preserving property of the components lifetime under such transformations. (c) 2007 Elsevier B.V. All rights reserved.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Background: Established in 1999, the Swedish Maternal Health Care Register (MHCR) collects data on pregnancy, birth, and the postpartum period for most pregnant women in Sweden. Antenatal care (ANC) midwives manually enter data into the Web-application that is designed for MHCR. The aim of this study was to investigate midwives? experiences, opinions and use of the MHCR. Method: A national, cross-sectional, questionnaire survey, addressing all Swedish midwives working in ANC, was conducted January to March 2012. The questionnaire included demographic data, preformed statements with six response options ranging from zero to five (0 = totally disagree and 5 = totally agree), and opportunities to add information or further clarification in the form of free text comments. Parametric and non-parametric methods and logistic regression analyses were applied, and content analysis was used for free text comments. Results: The estimated response rate was 53.1%. Most participants were positive towards the Web-application and the included variables in the MHCR. Midwives exclusively engaged in patient-related work tasks perceived the register as burdensome (70.3%) and 44.2% questioned the benefit of the register. The corresponding figures for midwives also engaged in administrative supervision were 37.8% and 18.5%, respectively. Direct electronic transfer of data from the medical records to the MHCR was emphasised as significant future improvement. In addition, the midwives suggested that new variables of interest should be included in the MHCR ? e.g., infertility, outcomes of previous pregnancy and birth, and complications of the index pregnancy. Conclusions: In general, the MHCR was valued positively, although perceived as burdensome. Direct electronic transfer of data from the medical records to the MHCR is a prioritized issue to facilitate the working situation for midwives. Finally, the data suggest that the MHCR is an underused source for operational planning and quality assessment in local ANC centres.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A number of recent works have introduced statistical methods for detecting genetic loci that affect phenotypic variability, which we refer to as variability-controlling quantitative trait loci (vQTL). These are genetic variants whose allelic state predicts how much phenotype values will vary about their expected means. Such loci are of great potential interest in both human and non-human genetic studies, one reason being that a detected vQTL could represent a previously undetected interaction with other genes or environmental factors. The simultaneous publication of these new methods in different journals has in many cases precluded opportunity for comparison. We survey some of these methods, the respective trade-offs they imply, and the connections between them. The methods fall into three main groups: classical non-parametric, fully parametric, and semi-parametric two-stage approximations. Choosing between alternatives involves balancing the need for robustness, flexibility, and speed. For each method, we identify important assumptions and limitations, including those of practical importance, such as their scope for including covariates and random effects. We show in simulations that both parametric methods and their semi-parametric approximations can give elevated false positive rates when they ignore mean-variance relationships intrinsic to the data generation process. We conclude that choice of method depends on the trait distribution, the need to include non-genetic covariates, and the population size and structure, coupled with a critical evaluation of how these fit with the assumptions of the statistical model.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Climate change has resulted in substantial variations in annual extreme rainfall quantiles in different durations and return periods. Predicting the future changes in extreme rainfall quantiles is essential for various water resources design, assessment, and decision making purposes. Current Predictions of future rainfall extremes, however, exhibit large uncertainties. According to extreme value theory, rainfall extremes are rather random variables, with changing distributions around different return periods; therefore there are uncertainties even under current climate conditions. Regarding future condition, our large-scale knowledge is obtained using global climate models, forced with certain emission scenarios. There are widely known deficiencies with climate models, particularly with respect to precipitation projections. There is also recognition of the limitations of emission scenarios in representing the future global change. Apart from these large-scale uncertainties, the downscaling methods also add uncertainty into estimates of future extreme rainfall when they convert the larger-scale projections into local scale. The aim of this research is to address these uncertainties in future projections of extreme rainfall of different durations and return periods. We plugged 3 emission scenarios with 2 global climate models and used LARS-WG, a well-known weather generator, to stochastically downscale daily climate models’ projections for the city of Saskatoon, Canada, by 2100. The downscaled projections were further disaggregated into hourly resolution using our new stochastic and non-parametric rainfall disaggregator. The extreme rainfall quantiles can be consequently identified for different durations (1-hour, 2-hour, 4-hour, 6-hour, 12-hour, 18-hour and 24-hour) and return periods (2-year, 10-year, 25-year, 50-year, 100-year) using Generalized Extreme Value (GEV) distribution. By providing multiple realizations of future rainfall, we attempt to measure the extent of total predictive uncertainty, which is contributed by climate models, emission scenarios, and downscaling/disaggregation procedures. The results show different proportions of these contributors in different durations and return periods.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introdução: A retinopatia diabética (RD) é a principal causa de novos casos de cegueira entre norte-americanos em idade produtiva. Existe uma associação entre RD e as outras complicações microvasculares do diabete melito. A associação da RD com a fase inicial da nefropatia, a microalbuminúria, não está esclarecida em pacientes com diabete melito (DM) tipo 2. Polimorfismos de genes (ENNP1; FABP2) relacionados à resistência insulínica, entre outros, poderiam estar associados à RD. Objetivo: O objetivo deste estudo foi avaliar fatores genéticos e não genéticos associados à RD avançada em pacientes com DM tipo 2. Métodos: Neste estudo caso-controle foram incluídos pacientes DM tipo 2 submetidos à avaliação clínica, laboratorial e oftalmológica. Foi realizada oftalmoscopia binocular indireta sob midríase e obtidas retinografias coloridas em 7 campos padronizados. Foram classificados como casos os pacientes portadores de RD avançada (formas graves de RD não proliferativa e RD proliferativa) e como controles os pacientes sem RD avançada (fundoscopia normal, e outras formas de RD). Foram estudados os polimorfismos K121Q do gene ENNP1 e A54T do gene FABP2. Na análise estatística foram utilizados testes paramétricos e não paramétricos conforme indicado. Foi realizada análise de regressão logística múltipla para avaliar fatores associados à RD avançada. O nível de significância adotado foi de 0,05%. Resultados: Foram avaliados 240 pacientes com DM tipo 2 com 60,6 ± 8,4 anos de idade e duração conhecida de DM de 14,4 ± 8,4 anos. Destes, 67 pacientes (27,9%) apresentavam RD avançada. Os pacientes com RD avançada apresentaram maior duração conhecida de DM (18,1 ± 8,1 vs. 12,9 ± 8,2 anos; P< 0,001), menor índice de massa corporal (IMC) (27,5 ± 4,2 vs. 29,0 ± 9,6 kg/m2; P= 0,019), além de uso de insulina mais freqüente (70,8% vs 35,3%; P< 0,001) e presença de nefropatia diabética (81,1% vs 34,8%; P< 0,001) quando comparados com os pacientes sem RD avançada. Na avaliação laboratorial os pacientes com RD avançada apresentaram valores mais elevados de creatinina sérica [1,4 (0,6 -13,6) vs 0,8 (0,5-17,9) mg/dl; P<0,001] e de albuminúria [135,0 (3,6-1816,0) vs 11,3 (1,5-5105,0) μg/min; P<0,001] quando comparados com pacientes sem RD avançada. A distribuição dos genótipos dos polimorfismos do ENNP1 e FABP2 não foi diferente entre os grupos. A análise de regressão logística múltipla demonstrou que a presença de nefropatia (OR=6,59; IC95%: 3,01-14,41; P<0,001) e o uso de insulina (OR=3,47; IC95%: 1,60- 7,50; P=0,002) foram os fatores associados à RD avançada, ajustados para a duração de DM, presença de hipertensão arterial, glicohemoglobina e IMC. Quando na análise foram incluídos apenas pacientes normoalbuminúricos e microalbuminúricos, a microalbuminúria (OR=3,8; IC95%: 1,38-10,47; P=0,010), o uso de insulina (OR=5,04; IC95%: 1,67-15,21; P=0,004), a duração do DM (OR=1,06 IC95%: 1,00-1,13; P=0,048) e a glicohemoglobina (OR=1,35; IC95%: 1,02-1,79; P=0,034) foram os fatores associados à RD avançada, ajustados para a presença de hipertensão arterial e IMC. Conclusão: Pacientes com DM tipo 2 portadores de formas avançadas de RD apresentam mais freqüentemente envolvimento renal pelo DM, incluindo o estágio de microalbuminúria. Uma avaliação renal com medida de albuminúria dever ser incorporada como avaliação de rotina nestes pacientes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diversos estudos de Finanças Corporativas consideram os custos associados aos ajustes da estrutura de capital das empresas irrelevantes tanto na forma quanto em magnitude. Este estudo analisou empiricamente a influência dos custos de ajustamento na dinâmica dos ajustes da estrutura de capital de empresas brasileiras de capital aberto no período de 1999 a 2007. A alavancagem foi abordada sob três diferentes cenários, considerando a presença de custos fixos, custos proporcionais e por uma composição de custos fixos e proporcionais através de simulações utilizando um modelo reduzido da estrutura de capital. Em seguida a análise não paramétrica da amostra revelou que as empresas apresentam um comportamento dinâmico em suas decisões de financiamento para o ajuste da estruturas de capital, mas que não se revelou contínuo. A utilização de um modelo de duration mostrou-se adequado para mensurar o intervalo de tempo entre os ajustes da estrutura de capital das empresas. Os resultados são extremamente relevantes e suportam a teoria de um comportamento de rebalanceamento dinâmico pelas empresas de suas estruturas de capital em torno de um intervalo ótimo. Entretanto os ajustes não ocorrem de forma imediata e a persistência de choques à estrutura de capital deve-se em sua maior parte aos custos associados aos ajustes do que a uma possível indiferença à estrutura de capital. . Este trabalho constitui-se como pioneiro no mercado brasileiro acerca dos custos de ajustamento da estrutura de capital e abre espaço para a discussão do comportamento ótimo em torno da estrutura de capital de empresas nacionais.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A pesquisa teve como objetivo testar se preços no mercado futuro brasileiro seguem um passeio aleatório - uma das versões da chamada Hipótese do Mercado Eficiente. Foram estudados os preços dos contratos futuros de Ibovespa e de dólar comercial, de 30 de junho de 1994 a 31 de dezembro de 1998. Aplicação de testes paramétricos e não-paramétricos envolvendo a Relação de Variâncias (Variance Ratio) de Lo-MacKinlay levam à conclusão de que a hipótese testada não pode ser rejeitada, apontando, portanto, para eficiência em tais mercados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Várias metodologias de mensuração de risco de mercado foram desenvolvidas e aprimoradas ao longo das últimas décadas. Enquanto algumas metodologias usam abordagens não-paramétricas, outras usam paramétricas. Algumas metodologias são mais teóricas, enquanto outras são mais práticas, usando recursos computacionais através de simulações. Enquanto algumas metodologias preservam sua originalidade, outras metodologias têm abordagens híbridas, juntando características de 2 ou mais metodologias. Neste trabalho, fizemos uma comparação de metodologias de mensuração de risco de mercado para o mercado financeiro brasileiro. Avaliamos os resultados das metodologias não-paramétricas e paramétricas de mensuração de VaR aplicados em uma carteira de renda fixa, renda variável e renda mista durante o período de 2000 a 2006. As metodologias não-paramétricas avaliadas foram: Simulação Histórica pesos fixos, Simulação Histórica Antitética pesos fixos, Simulação Histórica exponencial e Análise de Cenário. E as metodologias paramétricas avaliadas foram: VaR Delta-Normal pesos fixos, VaR Delta-Normal exponencial (EWMA), Simulação de Monte Carlo pesos fixos e Simulação de Monte Carlo exponencial. A comparação destas metodologias foi feita com base em medidas estatísticas de conservadorismo, precisão e eficiência.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper presents semiparametric estimators of changes in inequality measures of a dependent variable distribution taking into account the possible changes on the distributions of covariates. When we do not impose parametric assumptions on the conditional distribution of the dependent variable given covariates, this problem becomes equivalent to estimation of distributional impacts of interventions (treatment) when selection to the program is based on observable characteristics. The distributional impacts of a treatment will be calculated as differences in inequality measures of the potential outcomes of receiving and not receiving the treatment. These differences are called here Inequality Treatment Effects (ITE). The estimation procedure involves a first non-parametric step in which the probability of receiving treatment given covariates, the propensity-score, is estimated. Using the inverse probability weighting method to estimate parameters of the marginal distribution of potential outcomes, in the second step weighted sample versions of inequality measures are computed. Root-N consistency, asymptotic normality and semiparametric efficiency are shown for the semiparametric estimators proposed. A Monte Carlo exercise is performed to investigate the behavior in finite samples of the estimator derived in the paper. We also apply our method to the evaluation of a job training program.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this thesis, we investigate some aspects of the interplay between economic regulation and the risk of the regulated firm. In the first chapter, the main goal is to understand the implications a mainstream regulatory model (Laffont and Tirole, 1993) have on the systematic risk of the firm. We generalize the model in order to incorporate aggregate risk, and find that the optimal regulatory contract must be severely constrained in order to reproduce real-world systematic risk levels. We also consider the optimal profit-sharing mechanism, with an endogenous sharing rate, to explore the relationship between contract power and beta. We find results compatible with the available evidence that high-powered regimes impose more risk to the firm. In the second chapter, a joint work with Daniel Lima from the University of California, San Diego (UCSD), we start from the observation that regulated firms are subject to some regulatory practices that potentially affect the symmetry of the distribution of their future profits. If these practices are anticipated by investors in the stock market, the pattern of asymmetry in the empirical distribution of stock returns may differ among regulated and non-regulated companies. We review some recently proposed asymmetry measures that are robust to the empirical regularities of return data and use them to investigate whether there are meaningful differences in the distribution of asymmetry between these two groups of companies. In the third and last chapter, three different approaches to the capital asset pricing model of Kraus and Litzenberger (1976) are tested with recent Brazilian data and estimated using the generalized method of moments (GMM) as a unifying procedure. We find that ex-post stock returns generally exhibit statistically significant coskewness with the market portfolio, and hence are sensitive to squared market returns. However, while the theoretical ground for the preference for skewness is well established and fairly intuitive, we did not find supporting evidence that investors require a premium for supporting this risk factor in Brazil.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este estudo compara previsões de volatilidade de sete ações negociadas na Bovespa usando 02 diferentes modelos de volatilidade realizada e 03 de volatilidade condicional. A intenção é encontrar evidências empíricas quanto à diferença de resultados que são alcançados quando se usa modelos de volatilidade realizada e de volatilidade condicional para prever a volatilidade de ações no Brasil. O período analisado vai de 01 de Novembro de 2007 a 30 de Março de 2011. A amostra inclui dados intradiários de 5 minutos. Os estimadores de volatilidade realizada que serão considerados neste estudo são o Bi-Power Variation (BPVar), desenvolvido por Barndorff-Nielsen e Shephard (2004b), e o Realized Outlyingness Weighted Variation (ROWVar), proposto por Boudt, Croux e Laurent (2008a). Ambos são estimadores não paramétricos, e são robustos a jumps. As previsões de volatilidade realizada foram feitas através de modelos autoregressivos estimados para cada ação sobre as séries de volatilidade estimadas. Os modelos de variância condicional considerados aqui serão o GARCH(1,1), o GJR (1,1), que tem assimetrias em sua construção, e o FIGARCH-CHUNG (1,d,1), que tem memória longa. A amostra foi divida em duas; uma para o período de estimação de 01 de Novembro de 2007 a 30 de Dezembro de 2010 (779 dias de negociação) e uma para o período de validação de 03 de Janeiro de 2011 a 31 de Março de 2011 (61 dias de negociação). As previsões fora da amostra foram feitas para 1 dia a frente, e os modelos foram reestimados a cada passo, incluindo uma variável a mais na amostra depois de cada previsão. As previsões serão comparadas através do teste Diebold-Mariano e através de regressões da variância ex-post contra uma constante e a previsão. Além disto, o estudo também apresentará algumas estatísticas descritivas sobre as séries de volatilidade estimadas e sobre os erros de previsão.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com o objetivo de precificar derivativos de taxas de juros no mercado brasileiro, este trabalho foca na implementação do modelo de Heath, Jarrow e Morton (1992) em sua forma discreta e multifatorial através de uma abordagem numérica, e, que possibilita uma grande flexibilidade na estimativa da taxa forward sob uma estrutura de volatilidade baseada em fatores ortogonais, facilitando assim a simulação de sua evolução por Monte Carlo, como conseqüência da independência destes fatores. A estrutura de volatilidade foi construída de maneira a ser totalmente não paramétrica baseada em vértices sintéticos que foram obtidos por interpolação dos dados históricos de cotações do DI Futuro negociado na BM&FBOVESPA, sendo o período analisado entre 02/01/2003 a 28/12/2012. Para possibilitar esta abordagem foi introduzida uma modificação no modelo HJM desenvolvida por Brace e Musiela (1994).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper presents semiparametric estimators for treatment effects parameters when selection to treatment is based on observable characteristics. The parameters of interest in this paper are those that capture summarized distributional effects of the treatment. In particular, the focus is on the impact of the treatment calculated by differences in inequality measures of the potential outcomes of receiving and not receiving the treatment. These differences are called here inequality treatment effects. The estimation procedure involves a first non-parametric step in which the probability of receiving treatment given covariates, the propensity-score, is estimated. Using the reweighting method to estimate parameters of the marginal distribution of potential outcomes, in the second step weighted sample versions of inequality measures are.computed. Calculations of semiparametric effciency bounds for inequality treatment effects parameters are presented. Root-N consistency, asymptotic normality, and the achievement of the semiparametric efficiency bound are shown for the semiparametric estimators proposed. A Monte Carlo exercise is performed to investigate the behavior in finite samples of the estimator derived in the paper.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Large and sustained differences in economic performance across regions of developing countries have long provided motivation for fiscal incentives designed to encourage firm entry in lagging areas. Empirical evidence in support of these policies has, however, been weak at best. This paper undertakes a direct evaluation of the most prominent fiscal incentive policy in Brazil, the Fundos Constitucionais de Financiamento (Constitutional Funds). In doing so, we exploit valuable features of the Brazilian Ministry of Labor's RAIS data set to address two important elements of firm location decisions that have the potential to bias an assessment of the Funds: (i) firm “family structure” (in particular, proximity to headquarters for vertically integrated firms), and (ii) unobserved spatial heterogeneity (with the potential to confound the effects of the Funds). We find that the pull of firm headquarters is very strong relative to the Constitutional Funds for vertically integrated firms, but that, with non-parametric controls for time invariant spatial heterogeneity, the Funds provide statistically and economically significant incentives for firms in many of the targeted industries.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper proposes a new novel to calculate tail risks incorporating risk-neutral information without dependence on options data. Proceeding via a non parametric approach we derive a stochastic discount factor that correctly price a chosen panel of stocks returns. With the assumption that states probabilities are homogeneous we back out the risk neutral distribution and calculate five primitive tail risk measures, all extracted from this risk neutral probability. The final measure is than set as the first principal component of the preliminary measures. Using six Fama-French size and book to market portfolios to calculate our tail risk, we find that it has significant predictive power when forecasting market returns one month ahead, aggregate U.S. consumption and GDP one quarter ahead and also macroeconomic activity indexes. Conditional Fama-Macbeth two-pass cross-sectional regressions reveal that our factor present a positive risk premium when controlling for traditional factors.