964 resultados para statistic
Resumo:
Objetivo: o objetivo deste estudo foi avaliar as condições de saúde bucal e a ocorrência de anomalias dentárias em crianças tratadas para leucemia linfoblástica aguda (LLA) no Serviço de Oncologia Pediátrica (SOP) do Hospital de Clínicas de Porto Alegre (HCPA), comparadas com um grupo crianças saudáveis. Amostra: foram selecionadas 56 crianças com diagnóstico de LLA e analisadas as presenças de anomalias dentárias e os índices CPO-D (cariado, perdido, obturado-dente), IPV (índice de placa visível), ISG (índice de sangramento gengival) e fluxo salivar. As crianças tratadas apresentaram uma média de idade, na época do diagnóstico da LLA, de 5,3 ± 2,6, e 11,8 ± 4,2 na avaliação, sendo 32 masculinos e 24 femininos. Os pacientes tratados para LLA foram divididos em três grupos: crianças tratadas somente com quimioterapia, com quimio e radioterapia, e com quimio, radio e transplante de medula óssea. Resultados: os resultados revelaram 80,4% de anomalias dentárias nas crianças tratadas, ou seja, 45 destas apresentaram pelo menos uma alteração, e o grupo de pacientes tratados com quimio, radio e submetidos ao transplante de medula óssea foi o que revelou a maior média de anormalidades dentárias por indivíduo (15,37 ± 15,03), não ocorrendo diferença estatística entre os gêneros. As crianças tratadas para LLA obtiveram CPO-D de 1,9 ± 4,0, ISG de 26,5%, IPV de 72,0%, e índice de fluxo salivar médio de 0,19 mL/min criança. Já o grupo de crianças sadias apresentou CPO-D de 1,52 ± 3,5, ISG de 11,1%, IPV de 53,8% e índice de fluxo salivar médio de 0,27 mL/min. Conclusão: o tratamento para a cura da LLA provoca um aumento significativo no número de anomalias dentárias, sendo mais freqüente nos pacientes menores de cinco anos de idade, principalmente nos pacientes submetidos a quimio e radioterapia associadas ao transplante de medula óssea, o que requer, por parte do cirurgião-dentista, intervenções clínicas diferenciadas e cuidadosas nestes pacientes, tendo-se em vista também os índices aumentados de ISG e IPV. As alterações sofridas pelas glândulas salivares durante o tratamento não são permanentes sob o aspecto do fluxo salivar, que retorna à normalidade. A orientação e o acompanhamento adequados destes pacientes por parte da equipe de saúde bucal podem mantê-los com o índice de CPO-D dentro dos padrões preconizados pela Organização Mundial de Saúde.
Resumo:
Esta dissertação estuda o movimento do mercado acionário brasileiro com o objetivo de testar a trajetória de preços de pares de ações, aplicada à estratégia de pair trading. Os ativos estudados compreendem as ações que compõem o Ibovespa e a seleção dos pares é feita de forma unicamente estatística através da característica de cointegração entre ativos, sem análise fundamentalista na escolha. A teoria aqui aplicada trata do movimento similar de preços de pares de ações que evoluem de forma a retornar para o equilíbrio. Esta evolução é medida pela diferença instantânea dos preços comparada à média histórica. A estratégia apresenta resultados positivos quando a reversão à média se efetiva, num intervalo de tempo pré-determinado. Os dados utilizados englobam os anos de 2006 a 2010, com preços intra-diários para as ações do Ibovespa. As ferramentas utilizadas para seleção dos pares e simulação de operação no mercado foram MATLAB (seleção) e Streambase (operação). A seleção foi feita através do Teste de Dickey-Fuller aumentado aplicado no MATLAB para verificar a existência da raiz unitária dos resíduos da combinação linear entre os preços das ações que compõem cada par. A operação foi feita através de back-testing com os dados intra-diários mencionados. Dentro do intervalo testado, a estratégia mostrou-se rentável para os anos de 2006, 2007 e 2010 (com retornos acima da Selic). Os parâmetros calibrados para o primeiro mês de 2006 puderam ser aplicados com sucesso para o restante do intervalo (retorno de Selic + 5,8% no ano de 2006), para 2007, onde o retorno foi bastante próximo da Selic e para 2010, com retorno de Selic + 10,8%. Nos anos de maior volatilidade (2008 e 2009), os testes com os mesmos parâmetros de 2006 apresentaram perdas, mostrando que a estratégia é fortemente impactada pela volatilidade dos retornos dos preços das ações. Este comportamento sugere que, numa operação real, os parâmetros devem ser calibrados periodicamente, com o objetivo de adaptá-los aos cenários mais voláteis.
Resumo:
Quais os efeitos práticos que a cobrança de metas provoca nas instituições e nos servidores públicos? E quando se vincula premiações financeiras a elas, qual o resultado? O Brasil vive uma onda recente de implantação de modelos de remuneração variável por desempenho no setor público. Minas Gerais universalizou o sistema em 2008, implantando o Acordo de Resultados e o Prêmio por Produtividade, já tendo gasto 1,3 bilhão de reais com o programa. Mas o otimismo dos gestores não encontra fundamento na teoria. A literatura mostra que sistemas de remuneração variável no setor público fracassam ou têm sucesso muito limitado (OCDE, 2005; Perry, Engbergs e Jun, 2009; Bowman, 2010; Weibel, Rost e Osterloh 2010). Conflitos, dificuldade de mensuração do desempenho, fraude e incapacidade de motivar servidores públicos têm direcionado experiências de incentivo ao fracasso. Alguns poucos estudos mostram que, sob certas condições, a remuneração variável por desempenho pode gerar resultados positivos (Marsden, 2010). Seria o sistema mineiro capaz de superar o pessimismo dos especialistas e alcançar resultados positivos? Quais mecanismos de fato operam quando se implementa metas e remuneração variável em instituições públicas? Este trabalho busca responder estas questões a partir do estudo de caso de três organizações da segurança pública em Minas Gerais: Polícia Militar, Polícia Civil e Corpo de Bombeiros Militar. Foram feitas 46 entrevistas com policiais, bombeiros e com a cúpula das instituições, analisados dados estatísticos – que avaliam a evolução do desempenho, observação participante e monitoramento da percepção da mídia sobre tais efeitos. O resultado mostra que metas e incentivos financeiros geraram profundas mudanças nas instituições pesquisadas. Na Polícia Civil houve crescimento da produtividade, aumento do controle e melhoria de processos internos. Entretanto, o foco na produção quantitativa de inquéritos gerou incentivos para a redução de sua qualidade. Na Polícia Militar observou-se impacto menor, uma vez que esta já havia auferido no passado recente ganhos que o uso de indicadores e metas poderia proporcionar. Ainda assim, observou-se aumento da cobrança interna de resultados. Esse fato foi um dos fatores que contribuiu para um efeito negativo importante: a reclassificação de crimes. Uma estrutura de incentivos e a ausência de obstáculos levaram alguns policiais a reclassificar crimes que tinham natureza próxima para melhorar as estatísticas de suas unidades. No Corpo de Bombeiros o impacto foi altamente positivo, levando a instituição a conceber novas estratégias, gerando ganhos importantes de produtividade e melhoria de resultados para o cidadão. O resultado mostra que metas e incentivos financeiros são muito poderosos e podem gerar resultados positivos ou negativos, dependendo da forma como são implementados. As evidências contradizem, em parte, o pessimismo dos acadêmicos e descortinam o funcionamento dos mecanismos que fazem metas e remuneração variável interferirem no resultado de organizações públicas.
Resumo:
Este trabalho teve por objetivo um estudo comparativo da atitude frente à impunidade penal do menor infrator face a crescente criminal idade juvenil e à perspectiva de redução da idade referente a esta prerrogativa penal, com a justificativa de aumentar a responsabilidade social dos jovens. O trabalho abrange duas partes: Na primeira, é analisado o fenômeno da criminalidade, com relação na ilicitude dos jovens, procurando situar seus condicionantes sócio-econômico-culturais e reportando-se, ainda, a estudos empíricos sobre o tema. Paralelamente, e levado a efeito um estudo de atitudes, embasado no referencial teórico da Sociologia do conhecimento do Peter Berger e Thomas Luckmann. Serviram como respondentes da escala 120 sujeitos, divididos segundo os atributos de sexo, idade, nível de escolaridade e profissão. As seis categorias profissionais compunham dois amplos grupos: humanistas e não humanistas. O instrumento, escala de atitude tipo Likeri, foi construído e aplicado pela pesquisadora, obedecendo a etapas definidas e tratamentos estatísticos, tendo a forma experimental definitiva contado com 18 proposições. A análise de itens e fidedignidade da escala comprovaram a eficácia do instrumento. As hipóteses estatísticas levantadas foram testadas através da análise da variância (no grupo como um todo) e o teste do qui-quadrado (com os sujeitos já agrupados em humanistas e não humanistas), ambos com nível de significância fixado em 0,05. Os resultados da análise da variância demonstraram não haver diferenças significativas na atitude, quanto a sexo, idade e nível de escolaridade. Relação significativa foi encontra da entre profissão e a atitude pesquisada. Pelo teste do qui-quadrado evidenciaram-se diferenças significativas entre humanistas e não humanistas somente em relação ao atributo nível de escolaridade
Resumo:
O presente estudo visa a levantar alguns aspectos relevantes relacionados com o estudo de carência da criança institucionalizada. Pretende-se ensaiar uma avaliação do atraso verbal e motor que tal situação acarreta, bem como da recuperação correspondente que a adoção permite. A escassez de tentativas congêneres em nosso meio, visando a trazer à luz dados de realidade sobre este campo, foi o suporte que originou e motivou o presente trabalho. Para esse fim, procedeu-se preliminarmente a uma revisão à literatura, objetivando fundamentar no plano teórico o trabalho não só à luz da psicologia do desenvo1vimento, bem como a luz da legislação relativa à adoção. Realizou-se um estudo exploratório formulando-se o testando-se hipóteses operacionais extraídas da hipótese geral, de haver diferença significativa, em termos do atraso motor e verbal no desenvolvimento e na recuperação motora e verbal em relação a idade inicial e final, bem como a duração da permanência, da criança institucionalizada e posteriormente adotada. As hipóteses foram testadas em termos estatísticos, através do coeficiente de correlação de Pearson adotando um nível de significância de 0,05 para rejeição da hipótese nula.
Resumo:
O objetivo dessa dissertação é analisar o impacto dos movimentos inesperados de variáveis macroeconômicas nos retornos das ações de empresas de diferentes setores. As variáveis macroeconômicas estudadas serão: produto, juros, inflação e preço de commodities. Estudam-se alguns modelos através de diferentes técnicas de regressão para se chegar àquele que tem a melhor especificação. Com o objetivo de melhorar o poder de explicação dos modelos são utilizados os três fatores de Fama e French como variáveis explicativas e outro modelo que além dos fatores de Fama e French incluiu também momentum. Procura-se analisar a magnitude do impacto dos movimentos inesperados das variáveis macroeconômicas e suas relevâncias estatísticas a cada setor.
Resumo:
This dissertation deals with the problem of making inference when there is weak identification in models of instrumental variables regression. More specifically we are interested in one-sided hypothesis testing for the coefficient of the endogenous variable when the instruments are weak. The focus is on the conditional tests based on likelihood ratio, score and Wald statistics. Theoretical and numerical work shows that the conditional t-test based on the two-stage least square (2SLS) estimator performs well even when instruments are weakly correlated with the endogenous variable. The conditional approach correct uniformly its size and when the population F-statistic is as small as two, its power is near the power envelopes for similar and non-similar tests. This finding is surprising considering the bad performance of the two-sided conditional t-tests found in Andrews, Moreira and Stock (2007). Given this counter intuitive result, we propose novel two-sided t-tests which are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test of Moreira (2003).
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.
Resumo:
This paper constructs a unit root test baseei on partially adaptive estimation, which is shown to be robust against non-Gaussian innovations. We show that the limiting distribution of the t-statistic is a convex combination of standard normal and DF distribution. Convergence to the DF distribution is obtaineel when the innovations are Gaussian, implying that the traditional ADF test is a special case of the proposed testo Monte Carlo Experiments indicate that, if innovation has heavy tail distribution or are contaminated by outliers, then the proposed test is more powerful than the traditional ADF testo Nominal interest rates (different maturities) are shown to be stationary according to the robust test but not stationary according to the nonrobust ADF testo This result seems to suggest that the failure of rejecting the null of unit root in nominal interest rate may be due to the use of estimation and hypothesis testing procedures that do not consider the absence of Gaussianity in the data.Our results validate practical restrictions on the behavior of the nominal interest rate imposed by CCAPM, optimal monetary policy and option pricing models.
Resumo:
This paper develops a general method for constructing similar tests based on the conditional distribution of nonpivotal statistics in a simultaneous equations model with normal errors and known reducedform covariance matrix. The test based on the likelihood ratio statistic is particularly simple and has good power properties. When identification is strong, the power curve of this conditional likelihood ratio test is essentially equal to the power envelope for similar tests. Monte Carlo simulations also suggest that this test dominates the Anderson- Rubin test and the score test. Dropping the restrictive assumption of disturbances normally distributed with known covariance matrix, approximate conditional tests are found that behave well in small samples even when identification is weak.
Resumo:
Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.
Resumo:
Differences-in-Differences (DID) is one of the most widely used identification strategies in applied economics. However, how to draw inferences in DID models when there are few treated groups remains an open question. We show that the usual inference methods used in DID models might not perform well when there are few treated groups and errors are heteroskedastic. In particular, we show that when there is variation in the number of observations per group, inference methods designed to work when there are few treated groups tend to (under-) over-reject the null hypothesis when the treated groups are (large) small relative to the control groups. This happens because larger groups tend to have lower variance, generating heteroskedasticity in the group x time aggregate DID model. We provide evidence from Monte Carlo simulations and from placebo DID regressions with the American Community Survey (ACS) and the Current Population Survey (CPS) datasets to show that this problem is relevant even in datasets with large numbers of observations per group. We then derive an alternative inference method that provides accurate hypothesis testing in situations where there are few treated groups (or even just one) and many control groups in the presence of heteroskedasticity. Our method assumes that we can model the heteroskedasticity of a linear combination of the errors. We show that this assumption can be satisfied without imposing strong assumptions on the errors in common DID applications. With many pre-treatment periods, we show that this assumption can be relaxed. Instead, we provide an alternative inference method that relies on strict stationarity and ergodicity of the time series. Finally, we consider two recent alternatives to DID when there are many pre-treatment periods. We extend our inference methods to linear factor models when there are few treated groups. We also derive conditions under which a permutation test for the synthetic control estimator proposed by Abadie et al. (2010) is robust to heteroskedasticity and propose a modification on the test statistic that provided a better heteroskedasticity correction in our simulations.
Resumo:
In this work we focus on tests for the parameter of an endogenous variable in a weakly identi ed instrumental variable regressionmodel. We propose a new unbiasedness restriction for weighted average power (WAP) tests introduced by Moreira and Moreira (2013). This new boundary condition is motivated by the score e ciency under strong identi cation. It allows reducing computational costs of WAP tests by replacing the strongly unbiased condition. This latter restriction imposes, under the null hypothesis, the test to be uncorrelated to a given statistic with dimension given by the number of instruments. The new proposed boundary condition only imposes the test to be uncorrelated to a linear combination of the statistic. WAP tests under both restrictions to perform similarly numerically. We apply the di erent tests discussed to an empirical example. Using data from Yogo (2004), we assess the e ect of weak instruments on the estimation of the elasticity of inter-temporal substitution of a CCAPM model.
Resumo:
This Master Thesis consists of one theoretical article and one empirical article on the field of Microeconometrics. The first chapter\footnote{We also thank useful suggestions by Marinho Bertanha, Gabriel Cepaluni, Brigham Frandsen, Dalia Ghanem, Ricardo Masini, Marcela Mello, Áureo de Paula, Cristine Pinto, Edson Severnini and seminar participants at São Paulo School of Economics, the California Econometrics Conference 2015 and the 37\textsuperscript{th} Brazilian Meeting of Econometrics.}, called \emph{Synthetic Control Estimator: A Generalized Inference Procedure and Confidence Sets}, contributes to the literature about inference techniques of the Synthetic Control Method. This methodology was proposed to answer questions involving counterfactuals when only one treated unit and a few control units are observed. Although this method was applied in many empirical works, the formal theory behind its inference procedure is still an open question. In order to fulfill this lacuna, we make clear the sufficient hypotheses that guarantee the adequacy of Fisher's Exact Hypothesis Testing Procedure for panel data, allowing us to test any \emph{sharp null hypothesis} and, consequently, to propose a new way to estimate Confidence Sets for the Synthetic Control Estimator by inverting a test statistic, the first confidence set when we have access only to finite sample, aggregate level data whose cross-sectional dimension may be larger than its time dimension. Moreover, we analyze the size and the power of the proposed test with a Monte Carlo experiment and find that test statistics that use the synthetic control method outperforms test statistics commonly used in the evaluation literature. We also extend our framework for the cases when we observe more than one outcome of interest (simultaneous hypothesis testing) or more than one treated unit (pooled intervention effect) and when heteroskedasticity is present. The second chapter, called \emph{Free Economic Area of Manaus: An Impact Evaluation using the Synthetic Control Method}, is an empirical article. We apply the synthetic control method for Brazilian city-level data during the 20\textsuperscript{th} Century in order to evaluate the economic impact of the Free Economic Area of Manaus (FEAM). We find that this enterprise zone had positive significant effects on Real GDP per capita and Services Total Production per capita, but it also had negative significant effects on Agriculture Total Production per capita. Our results suggest that this subsidy policy achieve its goal of promoting regional economic growth, even though it may have provoked mis-allocation of resources among economic sectors.
Resumo:
Researchers often rely on the t-statistic to make inference on parameters in statistical models. It is common practice to obtain critical values by simulation techniques. This paper proposes a novel numerical method to obtain an approximately similar test. This test rejects the null hypothesis when the test statistic islarger than a critical value function (CVF) of the data. We illustrate this procedure when regressors are highly persistent, a case in which commonly-used simulation methods encounter dificulties controlling size uniformly. Our approach works satisfactorily, controls size, and yields a test which outperforms the two other known similar tests.