1000 resultados para Método dos mínimos quadrados


Relevância:

80.00% 80.00%

Publicador:

Resumo:

A partir 2006, o INEP (Instituto Nacional de Estudos e Pesquisa) passou a divulgar anualmente as notas das escolas no Exame Nacional do Ensino Médio (Enem). Tal divulgação já faz parte do calendário das escolas, professores, jornais e revistas que cobrem o setor educacional e até de pais de alunos. Este estudo visa analisar o impacto da divulgação dessas notas na competição entre as instituições de ensino médio e, mais especificamente, avaliar o efeito da nota média das escolas concorrentes na nota de uma dada escola, em relação aos anos anteriores à divulgação. A concorrência será analisada do ponto de vista espacial, de modo que, o peso atribuído à nota de uma instituição na estimação da nota de outra escola é inversamente proporcional à distâncias entre as mesmas. Essa análise empírica de instituições públicas e privadas foi realizada por meio da estimação em mínimos quadrados, utilizando-se variáveis de controle relacionadas às instituições e ao perfil socioeconômico dos alunos. Para tanto, foram utilizadas as bases de microdados do Censo Escolar e do Enem no período de 2004 à 2011. Os resultados indicam a existência de competição entre as escolas, com aumento no grupo de escolas públicas no período posterior à divulgação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho tem como variável de estudo a arrecadação realizada diretamente pelos municípios. Destacam-se três objetivos: i) analisar o impacto das transferências constitucionais do Fundo de Participação Municipal (FPM) sobre a arrecadação municipal direta; ii) analisar a existência de ciclo político na arrecadação; e iii) analisar o impacto da arrecadação na probabilidade de reeleição dos prefeitos incumbentes. A metodologia usada para a análise do FPM sobre a arrecadação municipal é a Regressão de Descontinuidade (RD) no fuzzy design (Angrist & Pischke, 2008), utilizando para isso as descontinuidades no FPM devido às mudanças nas faixas populacionais. Para analisar o ciclo político, utilizam-se regressões da variável arrecadação municipal sobre dummies para os anos do mandato com efeitos fixos, em consonância com a literatura de ciclos políticos (Videira & Mattos, 2011; Araújo e Leite Filho, 2010; Nakaguma & Bender, 2010). Com relação ao impacto da variável de interesse sobre a probabilidade de reeleição dos prefeitos incumbentes, a metodologia segue a estimação em 3 estágios de um modelo de Mínimos Quadrados Ordinários (MQO), para a amostra toda e para as proximidades das referidas descontinuidades. Os resultados indicam um efeito negativo e crescente do FPM sobre a arrecadação municipal, ao longo de determinadas faixas populacionais, sinalizando que os prefeitos preferem reduzir a arrecadação tributária, ao invés de apenas usar as transferências adicionais obtidas para aumentar o bem público local. Nessa lacuna na arrecadação municipal permitida pelas transferências do FPM, encontra-se a existência de ciclos políticos, estando as arrecadações nos anos iniciais do mandato acima da arrecadação no ano eleitoral. Com relação ao impacto sobre a reeleição, os resultados não são robustos, indicando a necessidade de se obter informações que separem o efeito de aumentos nas alíquotas dos efeitos de aumentos na base de cálculo ou de melhorias na estrutura de arrecadação municipal, que podem estar tornando o sistema de arrecadação municipal mais equilibrado ou equitativo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This dissertation deals with the problem of making inference when there is weak identification in models of instrumental variables regression. More specifically we are interested in one-sided hypothesis testing for the coefficient of the endogenous variable when the instruments are weak. The focus is on the conditional tests based on likelihood ratio, score and Wald statistics. Theoretical and numerical work shows that the conditional t-test based on the two-stage least square (2SLS) estimator performs well even when instruments are weakly correlated with the endogenous variable. The conditional approach correct uniformly its size and when the population F-statistic is as small as two, its power is near the power envelopes for similar and non-similar tests. This finding is surprising considering the bad performance of the two-sided conditional t-tests found in Andrews, Moreira and Stock (2007). Given this counter intuitive result, we propose novel two-sided t-tests which are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test of Moreira (2003).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente trabalho investigou o valor de uma floresta nativa no bioma Mata Atlântica. Para isso, utilizou-se da metodologia de custo de reposição. Além disso, buscou-se explicitar os principais fatores determinantes desse valor, bem como seus impactos. Foram formuladas quatro hipóteses de pesquisa, a saber, i) o nível de degradação da área não influencia o custo total de reposição da floresta nativa; ii) relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa; iii) a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa; e iv) a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Para chegar aos resultados foram realizados testes simples de diferença de médias para as variáveis qualitativas. Os resultados encontrados foram de que pode-se rejeitar a hipótese de que relevos mais acidentados das áreas a serem restauradas não influenciam o custo total de reposição da floresta nativa. No entanto, não se rejeitam as hipóteses de que a distância da área a ser restaurada em relação ao centro urbano mais próximo não influencia o custo total de reposição da floresta nativa e de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa. Após essa primeira aproximação, é realizada uma série de regressões, utilizando o modelo clássico de mínimos quadrados ordinários (MQO). Fez-se uma análise de sensibilidade dos resultados obtidos. O levantamento de dados foi obtido por meio da realização de uma pesquisa (questionário) a uma série de entidades do setor. Foram testadas as quatro hipóteses. De acordo com os testes realizados, pode-se dizer que a hipótese 2 sobre o impacto de um relevo mais acidentado das áreas a serem restauradas no custo total de reposição da floresta nativa se mostrou não significativa em todos os modelos. No entanto, a hipótese 1 do impacto do nível de degradação sobre o valor do projeto foi rejeitada em todos os modelos. A hipótese 3 do impacto da localização da área em relação ao centro urbano sobre o valor do projeto foi rejeitada em dois modelos e a hipótese 4 de que a distância da área a ser restaurada em relação ao viveiro produtor de mudas não influencia o custo total de reposição da floresta nativa foi rejeitada em um modelo. Chegou-se ao resultado de R$22 mil/hectare para o custo de reposição de uma floresta nativa do bioma Mata Atlântica. Esse tipo de estudo foi contextualizado no desenvolvimento feito pela economia ambiental ao longo do tempo, ressaltando suas principais características. Nas conclusões destaca-se os principais pontos do trabalho e são discutidas uma série de implicações teóricas e gerenciais do presente estudo, bem como apresentadas sugestões para novos estudos nessa área.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

No contexto do lançamento do pacote do microcrédito e da Lei do consignado em 2003, e diante de um novo cenário de oferta de crédito destinada à população de baixa renda, o presente estudo busca avaliar o impacto nas preferências de consumo, especificamente com relação a despesas com educação. A reflexão feita nesse estudo é se esse crédito é utilizado também para garantir investimentos em educação. Os dados utilizados são da Pesquisa de Orçamento Familiar (POF) do IBGE dos anos 2002 e 2008 sobre os quais foram ajustadas regressões de mínimos quadrados ordinários. Os resultados mostram que houve uma grande expansão ao acesso, no que se refere ao percentual de famílias com gastos com empréstimos, e uma correspondente ampliação do valor dessas despesas entre as duas edições da pesquisa analisadas. Por fim, foi possível verificar que existe correlação entre as despesas com empréstimos e com educação.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho demonstra como podemos usar opções sobre o Índice de Taxa Média de Depósitos Interfinanceiros de Um Dia (IDI) para extrair a função densidade de probabilidade (FDP) para os próximos passos do Comitê de Política Monetária (COPOM). Como a decisão do COPOM tem uma natureza discreta, podemos estimar a FDP usando Mínimo Quadrados Ordinários (MQO). Esta técnica permite incluir restrições sobre as probabilidades estimadas. As probabilidades calculadas usando opções sobre IDI são então comparadas com as probabilidades encontradas usando o Futuro de DI e as probabilidades calculadas através de pesquisas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Esta dissertação baseia-se na criação de uma taxa não inflacionária da capacidade utilizada (NIRCU) para economia brasileira, utilizando microdados da Sondagem da Indústria de Transformação e Índice de Preços ao Produtor Amplo – M (IPA-M), pesquisas desenvolvidas pela FGV/IBRE. Foram criadas três taxas: NIRCU Sondagem, NIRCU Coincidente e NIRCU Antecedente. A primeira utiliza apenas dados da sondagem e a ideia é verificar que não há pressão inflacionária quando as empresas informam para sondagem que não irão variar os seus preços para os próximos três meses e que o número de turnos trabalhado é igual à média do setor. Já as demais, cruzam as informações das empresas que respondem tanto a Sondagem da Indústria de Transformação quanto no IPA-M e verifica se as que informam que não irão alterar os seus preços nos próximos três meses se concretiza quando comparados às variações do índice. A diferença entre as duas últimas abordagens é que a primeira, NIRCU Coincidente, verifica no mesmo período e a outra, NIRCU Antecedente, no trimestre seguinte. A forma encontrada para verificar a eficácia dos indicadores em mensurar a existência de pressão inflacionária foi inserir os diferentes hiatos de produto das NIRCU no modelo de Curva de Phillips, usando a metodologia de Mínimos Quadrados Ordinários (MQO). De acordo com as estimativas, a NIRCU Antecedente foi a única das três que não apresentou um bom desempenho no resultado; as NIRCU Sondagem e Coincidente tiveram uma performance muita boa, principalmente a última. Ou seja, esses dois indicadores tiveram um resultado tão bom quanto as mais tradicionais medidas de hiato de produto.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho, propomos uma especificação de modelo econométrico na forma reduzida, estimado por mínimos quadrados ordinários (MQO) e baseado em variáveis macroeconômicas, com o objetivo de explicar os retornos trimestrais do índice de ações IBRX-100, entre 2001 e 2015. Testamos ainda a eficiência preditiva do modelo e concluímos que o erro de previsão estimado em janela móvel, com re-estimação de MQO a cada rodada, e utilização de VAR auxiliar para projeção dos regressores, é significativamente inferior ao erro de previsão associado à hipótese de Random Walk para o horizonte de previsão de um trimestre a frente.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com este trabalho pretendeu-se estabelecer o perfil metabolómico volátil de amostras de fluidos biológicos, nomeadamente saliva e urina, de pacientes com cancro da mama e do pulmão e de indivíduos saudáveis (grupo controlo), utilizando a Microextração em Fase Sólida em modo headspace (HS-SPME) seguida de Cromatografia Gasosa acoplada à Espectrometria de Massa (GC-MS). Efetuou-se a comparação entre os perfis voláteis dos grupos estudados com o objetivo de identificar metabolitos que possam ser considerados como potenciais biomarcadores dos tipos de cancro em estudo. De modo a otimizar a metodologia extrativa, HS-SPME, foram avaliados os diferentes parâmetros experimentais com influência no processo extrativo. Os melhores resultados foram obtidos com a fibra CAR/PDMS, usando um volume de 2 mL de saliva acidificada, 10% NaCl (m/v) e 45 minutos de extração a uma temperatura de 37±1°C. Para a urina foi utilizada a mesma fibra, 4 mL de urina acidificada, 20% NaCl (m/v) e 60 minutos de extração a 50±1°C. Nas amostras de saliva e urina, foram identificados 243 e 500 metabolitos voláteis respetivamente, sendo estes pertencentes a diferentes famílias químicas. Posteriormente, utilizou-se a análise discriminante por mínimos quadrados parciais (PLS-DA) que permitiu observar uma boa separação entre os grupos controlo e oncológicos. Nas amostras salivares o grupo de pacientes com cancro da mama foi maioritariamente caracterizado pelo metabolito ácido benzeno carboxílico e o grupo de pacientes com cancro do pulmão pelo ácido hexanóico. Na urina o grupo de pacientes com cancro da mama foi maioritariamente caracterizado pelo metabolito 1-[2-(Isobutiriloxi)-1-metiletil]-2,2-dimetilpropil 2-metilpropanoato e o grupo de pacientes com cancro do pulmão pelo o-cimeno. Além da metodologia PLS-DA foi realizada a validação cruzada de monte carlo (MCCV) tendo-se obtido uma elevada taxa de classificação, sensibilidade e especificidade o que demonstra a robustez dos dados obtidos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

There are a great number of evidences showing that education is extremely important in many economic and social dimensions. In Brazil, education is a right guaranteed by the Federal Constitution; however, in the Brazilian legislation the right to the three stages of basic education: Kindergarten, Elementary and High School is better promoted and supported than the right to education at College level. According to educational census data (INEP, 2009), 78% of all enrolments in College education are in private schools, while the reverse is found in High School: 84% of all matriculations are in public schools, which shows a contradiction in the admission into the universities. The Brazilian scenario presents that public universities receive mostly students who performed better and were prepared in elementary and high school education in private schools, while private universities attend students who received their basic education in public schools, which are characterized as low quality. These facts have led researchers to raise the possible determinants of student performance on standardized tests, such as the Brazilian Vestibular exam, to guide the development of policies aimed at equal access to College education. Seeking inspiration in North American models of affirmative action policies, some Brazilian public universities have suggested rate policies to enable and facilitate the entry of "minorities" (blacks, pardos1, natives, people of low income and public school students) to free College education. At the Federal University of the state Rio Grande do Norte (UFRN), the first incentives for candidates from public schools emerged in 2006, being improved and widespread during the last 7 years. This study aimed to analyse and discuss the Argument of Inclution (AI) - the affirmative action policy that provides additional scoring for students from public schools. From an extensive database, the Ordinary Least Squares (OLS) technique was used as well as a Quantile Regression considering as control the variables of personal, socioeconomic and educational characteristics of the candidates from the Brazilian Vestibular exam 2010 of the Federal University of the state Rio Grande do Norte (UFRN). The results demonstrate the importance of this incentive system, besides the magnitude of other variables

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Several mobile robots show non-linear behavior, mainly due friction phenomena between the mechanical parts of the robot or between the robot and the ground. Linear models are efficient in some cases, but it is necessary take the robot non-linearity in consideration when precise displacement and positioning are desired. In this work a parametric model identification procedure for a mobile robot with differential drive that considers the dead-zone in the robot actuators is proposed. The method consists in dividing the system into Hammerstein systems and then uses the key-term separation principle to present the input-output relations which shows the parameters from both linear and non-linear blocks. The parameters are then simultaneously estimated through a recursive least squares algorithm. The results shows that is possible to identify the dead-zone thresholds together with the linear parameters

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The pattern classification is one of the machine learning subareas that has the most outstanding. Among the various approaches to solve pattern classification problems, the Support Vector Machines (SVM) receive great emphasis, due to its ease of use and good generalization performance. The Least Squares formulation of SVM (LS-SVM) finds the solution by solving a set of linear equations instead of quadratic programming implemented in SVM. The LS-SVMs provide some free parameters that have to be correctly chosen to achieve satisfactory results in a given task. Despite the LS-SVMs having high performance, lots of tools have been developed to improve them, mainly the development of new classifying methods and the employment of ensembles, in other words, a combination of several classifiers. In this work, our proposal is to use an ensemble and a Genetic Algorithm (GA), search algorithm based on the evolution of species, to enhance the LSSVM classification. In the construction of this ensemble, we use a random selection of attributes of the original problem, which it splits the original problem into smaller ones where each classifier will act. So, we apply a genetic algorithm to find effective values of the LS-SVM parameters and also to find a weight vector, measuring the importance of each machine in the final classification. Finally, the final classification is obtained by a linear combination of the decision values of the LS-SVMs with the weight vector. We used several classification problems, taken as benchmarks to evaluate the performance of the algorithm and compared the results with other classifiers

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this work calibration models were constructed to determine the content of total lipids and moisture in powdered milk samples. For this, used the near-infrared spectroscopy by diffuse reflectance, combined with multivariate calibration. Initially, the spectral data were submitted to correction of multiplicative light scattering (MSC) and Savitzsky-Golay smoothing. Then, the samples were divided into subgroups by application of hierarchical clustering analysis of the classes (HCA) and Ward Linkage criterion. Thus, it became possible to build regression models by partial least squares (PLS) that allowed the calibration and prediction of the content total lipid and moisture, based on the values obtained by the reference methods of Soxhlet and 105 ° C, respectively . Therefore, conclude that the NIR had a good performance for the quantification of samples of powdered milk, mainly by minimizing the analysis time, not destruction of the samples and not waste. Prediction models for determination of total lipids correlated (R) of 0.9955, RMSEP of 0.8952, therefore the average error between the Soxhlet and NIR was ± 0.70%, while the model prediction to content moisture correlated (R) of 0.9184, RMSEP, 0.3778 and error of ± 0.76%

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this work, the quantitative analysis of glucose, triglycerides and cholesterol (total and HDL) in both rat and human blood plasma was performed without any kind of pretreatment of samples, by using near infrared spectroscopy (NIR) combined with multivariate methods. For this purpose, different techniques and algorithms used to pre-process data, to select variables and to build multivariate regression models were compared between each other, such as partial least squares regression (PLS), non linear regression by artificial neural networks, interval partial least squares regression (iPLS), genetic algorithm (GA), successive projections algorithm (SPA), amongst others. Related to the determinations of rat blood plasma samples, the variables selection algorithms showed satisfactory results both for the correlation coefficients (R²) and for the values of root mean square error of prediction (RMSEP) for the three analytes, especially for triglycerides and cholesterol-HDL. The RMSEP values for glucose, triglycerides and cholesterol-HDL obtained through the best PLS model were 6.08, 16.07 e 2.03 mg dL-1, respectively. In the other case, for the determinations in human blood plasma, the predictions obtained by the PLS models provided unsatisfactory results with non linear tendency and presence of bias. Then, the ANN regression was applied as an alternative to PLS, considering its ability of modeling data from non linear systems. The root mean square error of monitoring (RMSEM) for glucose, triglycerides and total cholesterol, for the best ANN models, were 13.20, 10.31 e 12.35 mg dL-1, respectively. Statistical tests (F and t) suggest that NIR spectroscopy combined with multivariate regression methods (PLS and ANN) are capable to quantify the analytes (glucose, triglycerides and cholesterol) even when they are present in highly complex biological fluids, such as blood plasma