918 resultados para Least squares method
Resumo:
The glycolytic enzyme glyceraldehyde-3 -phosphate dehydrogenase (GAPDH) is as an attractive target for the development of novel antitrypanosomatid agents. In the present work, comparative molecular field analysis and comparative molecular similarity index analysis were conducted on a large series of selective inhibitors of trypanosomatid GAPDH. Four statistically significant models were obtained (r(2) > 0.90 and q(2) > 0.70), indicating their predictive ability for untested compounds. The models were then used to predict the potency of an external test set, and the predicted values were in good agreement with the experimental results. Molecular modeling studies provided further insight into the structural basis for selective inhibition of trypanosomatid GAPDH.
Resumo:
When missing data occur in studies designed to compare the accuracy of diagnostic tests, a common, though naive, practice is to base the comparison of sensitivity, specificity, as well as of positive and negative predictive values on some subset of the data that fits into methods implemented in standard statistical packages. Such methods are usually valid only under the strong missing completely at random (MCAR) assumption and may generate biased and less precise estimates. We review some models that use the dependence structure of the completely observed cases to incorporate the information of the partially categorized observations into the analysis and show how they may be fitted via a two-stage hybrid process involving maximum likelihood in the first stage and weighted least squares in the second. We indicate how computational subroutines written in R may be used to fit the proposed models and illustrate the different analysis strategies with observational data collected to compare the accuracy of three distinct non-invasive diagnostic methods for endometriosis. The results indicate that even when the MCAR assumption is plausible, the naive partial analyses should be avoided.
Resumo:
This paper derives the second-order biases Of maximum likelihood estimates from a multivariate normal model where the mean vector and the covariance matrix have parameters in common. We show that the second order bias can always be obtained by means of ordinary weighted least-squares regressions. We conduct simulation studies which indicate that the bias correction scheme yields nearly unbiased estimators. (C) 2009 Elsevier B.V. All rights reserved.
Resumo:
Background: Low maternal awareness of fetal movements is associated with negative birth outcomes. Knowledge regarding pregnant women's compliance with programs of systematic self-assessment of fetal movements is needed. The aim of this study was to investigate women's experiences using two different self-assessment methods for monitoring fetal movements and to determine if the women had a preference for one or the other method. Methods: Data were collected by a crossover trial; 40 healthy women with an uncomplicated full-term pregnancy counted the fetal movements according to a Count-to-ten method and assessed the character of the movements according to the Mindfetalness method. Each self-assessment was observed by a midwife and followed by a questionnaire. A total of 80 self-assessments was performed; 40 with each method. Results: Of the 40 women, only one did not find at least one method suitable. Twenty of the total of 39 reported a preference, 15 for the Mindfetalness method and five for the Count-to-ten method. All 39 said they felt calm, relaxed, mentally present and focused during the observations. Furthermore, the women described the observation of the movements as safe and reassuring and a moment for communication with their unborn baby. Conclusions: In the 80 assessments all but one of the women found one or both methods suitable for self-assessment of fetal movements and they felt comfortable during the assessments. More women preferred the Mindfetalness method compared to the count-to-ten method, than vice versa.
Resumo:
O presente trabalho teve como objetivo a identificação de atributos relacionados à atratividade de clientes em clusters comerciais, na percepção de consumidores. Partindo-se da atratividade de clientes para lojas, desenvolveu-se um construto de avaliação de atratividade de clientes para clusters comerciais. Por meio de estudo descritivo-quantitativo junto a 240 consumidores, em dois reconhecidos clusters comerciais, utilizando-se a técnica de PLS-PM (Partial Least Squares Path Modeling), avaliou-se a relação entre a atratividade de clientes (variável reflexiva) e as dimensões do mix varejista de clusters comerciais (variáveis latentes), a partir do tratamento de indicadores de efeitos observáveis. Como principais resultados, observou-se que: (1) atratividade está associada significativamente às variáveis latentes, sugerindo robustez do modelo; (2) condições de compra e preços são dimensões com maior associação à atratividade de clientes, embora lojas, produtos e atendimento apresentem relevância; e (3) localização apresentou-se como dimensão menos correlacionada à atratividade de clientes para ambos os clusters.
Resumo:
Estimating the parameters of the instantaneous spot interest rate process is of crucial importance for pricing fixed income derivative securities. This paper presents an estimation for the parameters of the Gaussian interest rate model for pricing fixed income derivatives based on the term structure of volatility. We estimate the term structure of volatility for US treasury rates for the period 1983 - 1995, based on a history of yield curves. We estimate both conditional and first differences term structures of volatility and subsequently estimate the implied parameters of the Gaussian model with non-linear least squares estimation. Results for bond options illustrate the effects of differing parameters in pricing.
Resumo:
O objetivo desse trabalho é mostrar a importância das instituições orçamentárias quando se estuda o efeito da descentralização sobre o tamanho dos governos subnacionais. No caso do Brasil, observamos que as mudanças institucionais iniciaram-se com a descentralização, oriunda de alterações determinadas pela Nova Constituição Federal de 1988, e que por sua vez possibilitou um conjunto de mudanças que determinou como resultado final a alteração do tamanho dos governos estaduais ao longo do tempo. Embora essas fossem promovidas pelo governo federal, a grande maioria delas aconteceu no sentido de tornar a restrição orçamentária dos governos estaduais mais hard, ou seja, os governos subnacionais teriam cada vez menos canais para ampliar seu endividamento, e com esse limitado, eles teriam que se adequar a uma realidade orçamentária mais rígida, em que as despesas teriam que seguir o comportamento das receitas; se essas crescessem, as despesas poderiam crescer, mas se houvesse uma diminuição, as despesas teriam que ser adequadas a esse novo montante de recurso. Das quatro mudanças nas instituições orçamentárias encontradas na literatura, três delas se mostraram importantes empiricamente na determinação do tamanho dos governos subnacionais: A Nova Constituição implantada em 1988, a mudança na forma de fazer orçamento (Efeito-Bacha) e a Lei de Responsabilidade Fiscal. Os resultados demonstraram que a primeira seguiu na direção de aumentar o tamanho dos governos subnacionais através do aumento de recursos transferidos via Fundo de Participação dos Estados; a segunda provocou uma diminuição no tamanho por impor uma nova realidade orçamentária, em que os governos deveriam trabalhar com o orçamento em termos reais de acordo com o que fosse determinado 6 em termos nominais; com relação à Lei de Responsabilidade Fiscal que apresentou um comportamento no sentido de aumentar o tamanho dos governos, há a questão da falta de observações em número suficiente para que seu resultado seja robusto, contudo já se percebe o sentido da influência que essa mudança teve. No caso da Renegociação das dívidas ocorrida entre os governos estaduais e a União, seu resultado mostrou-se mais como um choque negativo, do que como uma alteração que provocasse uma mudança de nível no tamanho dos governos. Trabalhamos com vinte e seis estados e um Distrito Federal entre os anos de 1986 e 2003 usando o modelo de Least Squares Dummy Variable (LSDV).
Resumo:
Este trabalho visa investigar o analfabetismo no Brasil a partir do uso de novas medidas de alfabetização inicialmente desenvolvidas por Basu e Foster (1998). Para tanto, primeiro se avalia o perfil de alfabetização da população brasileira de acordo com a definição de analfabetismo isolado. Entende-se por analfabetos isolados aqueles indivíduos analfabetos que não convivem com pessoas alfabetizadas em nível domiciliar. Segundo, busca-se evidências de externalidades domiciliares da alfabetização de filhos em aspectos relacionados a salários e à participação no mercado de trabalho de pais analfabetos. Devido à suspeita de causalidade reversa nas estimações por Mínimos Quadrados Ordinários (MQO) das equações que relacionam as variáveis de interesse dos pais com as alfabetizações dos filhos, utiliza-se as ofertas municipais de escolas e professores de primeiro grau como variáveis instrumentais para a alfabetização. Da investigação do perfil de alfabetização constata-se que a região Nordeste é a que apresenta os piores resultados entre as regiões do país, uma vez que é a que tem a maior parcela de analfabetos isolados do total. Tal resultado condiciona políticas públicas de alfabetização para essa região. As aplicações das medidas indicam que os rankings de alfabetização por estados são sensíveis às diferentes medidas. Os resultados encontrados das estimações por MQO indicam haver correlação positiva entre as variáveis dependentes dos pais e alfabetização dos filhos. Entretanto, a aplicação da metodologia de variáveis instrumentais não confirma os resultados das estimações por MQO. Contudo, devido à fragilidade dos resultados das estimações do primeiro estágio, não se pode afirmar que não há externalidades da alfabetização dos filhos para os pais.
Resumo:
This dissertation proposes a bivariate markov switching dynamic conditional correlation model for estimating the optimal hedge ratio between spot and futures contracts. It considers the cointegration between series and allows to capture the leverage efect in return equation. The model is applied using daily data of future and spot prices of Bovespa Index and R$/US$ exchange rate. The results in terms of variance reduction and utility show that the bivariate markov switching model outperforms the strategies based ordinary least squares and error correction models.
Resumo:
This paper considers the general problem of Feasible Generalized Least Squares Instrumental Variables (FG LS IV) estimation using optimal instruments. First we summarize the sufficient conditions for the FG LS IV estimator to be asymptotic ally equivalent to an optimal G LS IV estimator. Then we specialize to stationary dynamic systems with stationary VAR errors, and use the sufficient conditions to derive new moment conditions for these models. These moment conditions produce useful IVs from the lagged endogenous variables, despite the correlation between errors and endogenous variables. This use of the information contained in the lagged endogenous variables expands the class of IV estimators under consideration and there by potentially improves both asymptotic and small-sample efficiency of the optimal IV estimator in the class. Some Monte Carlo experiments compare the new methods with those of Hatanaka [1976]. For the DG P used in the Monte Carlo experiments, asymptotic efficiency is strictly improved by the new IVs, and experimental small-sample efficiency is improved as well.
Resumo:
Essa tese foca em diferentes perspectivas sobre CSF (Fatores Críticos de Sucess) em implementações de ERP (Enterprise Resource Planning). A literatura atual foca nos CSF sob o ponto de vista da alta gerência da organização e classifica esses CSF baseado nessa visão. Essa tese irá apresentar a visão do time de implementação de ERP sob os principais CSF e irá utilizar um estudo de caso para avaliar se a alta gerência e o time de implementação compartilham a mesma visão. Além disso ess tese irá propor uma relação entre o sucesso na implementação de ERP e os CSF pesquisados, usando o método PLS (Partial Least Squares) para analisar as respostas do time de implementação a um questionário desenvolvido para medir sucesso na implementação de ERP.
Resumo:
O conceito de paridade coberta de juros sugere que, na ausência de barreiras para arbitragem entre mercados, o diferencial de juros entre dois ativos, idênticos em todos os pontos relevantes, com exceção da moeda de denominação, na ausência de risco de variação cambial deve ser igual a zero. Porém, uma vez que existam riscos não diversificáveis, representados pelo risco país, inerentes a economias emergentes, os investidores exigirão uma taxa de juros maior que a simples diferença entre as taxas de juros doméstica e externa. Este estudo tem por objetivo avaliar se o ajustamento das condições de paridade coberta de juros por prêmios de risco é suficiente para a validação da relação de não-arbitragem para o mercado brasileiro, durante o período de 2007 a 2010. O risco país contamina todos os ativos financeiros emitidos em uma determinada economia e pode ser descrito como a somatória do risco de default (ou risco soberano) e do risco de conversibilidade percebidos pelo mercado. Para a estimação da equação de não arbitragem foram utilizadas regressões por Mínimos Quadrados Ordinários, parâmetros variantes no tempo (TVP) e Mínimos Quadrados Recursivos, e os resultados obtidos não são conclusivos sobre a validação da relação de paridade coberta de juros, mesmo ajustando para prêmio de risco. Erros de medidas de dados, custo de transação e intervenções e políticas restritivas no mercado de câmbio podem ter contribuído para este resultado.
Resumo:
O presente artigo estuda a relação entre corrupção e discricionariedade do gasto público ao responder a seguinte pergunta: regras de licitação mais rígidas, uma proxy para discricionariedade, resultam em menor prevalência de corrupção nos municípios brasileiros? A estratégia empírica é uma aproximação de regressões em dois estágios (2SLS) estimadas localmente em cada transição de regras de licitação, cuja fonte de dados de corrupção é o Programa de Fiscalização por Sorteio da CGU e os dados sobre discricionariedade são derivados da Lei 8.666/93, responsável por regular os processos de compras e construção civil em todas as esferas de governo. Os resultados mostram, entretanto, que menor discricionariedade está relacionada com maior corrupção para quase todos os cortes impostos pela lei de licitações.
Resumo:
A partir 2006, o INEP (Instituto Nacional de Estudos e Pesquisa) passou a divulgar anualmente as notas das escolas no Exame Nacional do Ensino Médio (Enem). Tal divulgação já faz parte do calendário das escolas, professores, jornais e revistas que cobrem o setor educacional e até de pais de alunos. Este estudo visa analisar o impacto da divulgação dessas notas na competição entre as instituições de ensino médio e, mais especificamente, avaliar o efeito da nota média das escolas concorrentes na nota de uma dada escola, em relação aos anos anteriores à divulgação. A concorrência será analisada do ponto de vista espacial, de modo que, o peso atribuído à nota de uma instituição na estimação da nota de outra escola é inversamente proporcional à distâncias entre as mesmas. Essa análise empírica de instituições públicas e privadas foi realizada por meio da estimação em mínimos quadrados, utilizando-se variáveis de controle relacionadas às instituições e ao perfil socioeconômico dos alunos. Para tanto, foram utilizadas as bases de microdados do Censo Escolar e do Enem no período de 2004 à 2011. Os resultados indicam a existência de competição entre as escolas, com aumento no grupo de escolas públicas no período posterior à divulgação.
Resumo:
Esta dissertação concentra-se nos processos estocásticos espaciais definidos em um reticulado, os chamados modelos do tipo Cliff & Ord. Minha contribuição nesta tese consiste em utilizar aproximações de Edgeworth e saddlepoint para investigar as propriedades em amostras finitas do teste para detectar a presença de dependência espacial em modelos SAR (autoregressivo espacial), e propor uma nova classe de modelos econométricos espaciais na qual os parâmetros que afetam a estrutura da média são distintos dos parâmetros presentes na estrutura da variância do processo. Isto permite uma interpretação mais clara dos parâmetros do modelo, além de generalizar uma proposta de taxonomia feita por Anselin (2003). Eu proponho um estimador para os parâmetros do modelo e derivo a distribuição assintótica do estimador. O modelo sugerido na dissertação fornece uma interpretação interessante ao modelo SARAR, bastante comum na literatura. A investigação das propriedades em amostras finitas dos testes expande com relação a literatura permitindo que a matriz de vizinhança do processo espacial seja uma função não-linear do parâmetro de dependência espacial. A utilização de aproximações ao invés de simulações (mais comum na literatura), permite uma maneira fácil de comparar as propriedades dos testes com diferentes matrizes de vizinhança e corrigir o tamanho ao comparar a potência dos testes. Eu obtenho teste invariante ótimo que é também localmente uniformemente mais potente (LUMPI). Construo o envelope de potência para o teste LUMPI e mostro que ele é virtualmente UMP, pois a potência do teste está muito próxima ao envelope (considerando as estruturas espaciais definidas na dissertação). Eu sugiro um procedimento prático para construir um teste que tem boa potência em uma gama de situações onde talvez o teste LUMPI não tenha boas propriedades. Eu concluo que a potência do teste aumenta com o tamanho da amostra e com o parâmetro de dependência espacial (o que está de acordo com a literatura). Entretanto, disputo a visão consensual que a potência do teste diminui a medida que a matriz de vizinhança fica mais densa. Isto reflete um erro de medida comum na literatura, pois a distância estatística entre a hipótese nula e a alternativa varia muito com a estrutura da matriz. Fazendo a correção, concluo que a potência do teste aumenta com a distância da alternativa à nula, como esperado.