1000 resultados para Método dos Mínimos Quadrados Ordinários


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Caracterizar financieramente al sector comercial ecuatoriano involucra el investigar las principales variables macroeconómicas y financieras inmersas dentro del sector, para lo cual, se partió de la hipótesis de que el sector comercial ecuatoriano tiene un determinado desempeño financiero que se puede caracterizar a través de la construcción de un modelo estadístico. Se inició con la búsqueda de información sobre el desarrollo de modelos estadísticos similares, en tres países (Alemania, México y Chile), sin embargo, en la web superficial no se obtuvo un modelo a seguir pues únicamente se han estructurado modelos utilizando variables macroeconómicas. Por ello, se diseñó un modelo estadístico basado en el método de mínimos cuadrados ordinarios. La base de datos empleada corresponde al formulario 101 “impuesto a la renta de sociedades y establecimientos permanentes” del Servicio de Rentas Internas (SRI). El modelo estadístico trabaja con un nivel de confianza del 95%, existen once observaciones (período 2002-2012), siete variables independientes (exportaciones netas, inventario de materia prima y productos terminados, total costos y gastos, total ingresos, total pasivo, total patrimonio neto y ventas netas locales totales excluye activos fijos) que explican el comportamiento de la variable dependiente (utilidad del ejercicio). Se realizaron las pruebas de hipótesis correspondientes, presentando consistencia en los resultados encontrados. También se realizó la predicción del comportamiento de la variable dependiente por un período, la misma que difirió en 7,1% del valor real, lo que se explica por el limitado número de observaciones. Se construyeron dos escenarios (pesimista y optimista), asignándoles una probabilidad de ocurrencia, con lo que se calculó el valor esperado (US $ 3.727 millones) y la desviación estándar (US $ 4.842 millones). La investigación se compone de cinco capítulos. El primero, realiza una introducción y aborda la metodología. El segundo, refiere al marco teórico. El tercer capítulo, caracteriza estadística y financieramente al sector comercial ecuatoriano. En el cuarto capítulo se evalúan los efectos de la construcción del modelo utilizando el análisis de escenarios y de elasticidad. Mientras que el quinto capítulo recoge las conclusiones, observaciones y recomendaciones de la investigación.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem como objetivo mostrar que o “quebra-cabeça” é na verdade um artefato estatístico, produzido pelo fato de que a taxa de câmbio real de equilíbrio de longo prazo não é constante, mas varia ao longo do tempo. A abordagem que será usada para demonstrar este fato concilia a pesquisa acadêmica preocupada em testar a hipótese da paridade de poder de compra com a pesquisa orientada para a política econômica que procura estimar a taxa de câmbio real de equilíbrio de longo prazo.4 Uma conseqüência desta abordagem é que ela não implica que a não rejeição da hipótese de raiz unitária para a taxa de câmbio real seja equivalente à rejeição da hipótese de paridade do poder de compra, pois a taxa de câmbio real pode ser uma variável não estacionária e co-integrada com a taxa de câmbio real de longo prazo.5 O trabalho está organizado do seguinte modo: a Seção 2 apresenta uma resenha sucinta de alguns modelos largamente usados na literatura de macroeconomia aberta que especificam as variáveis que afetam a taxa de câmbio real de equilíbrio de longo prazo; a Seção 3 calcula o viés do estimador de mínimos quadrados ordinário da regressão (1) quando a taxa de câmbio real de equilíbrio de longo prazo não é constante; a Seção 4 analisa várias hipóteses quanto ao processo estocástico da taxa de câmbio real de equilíbrio de longo prazo e deduz o processo correspondente à taxa de câmbio real de curto prazo; a Seção 5 conclui o trabalho.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Neste trabalho realizamos um estudo sobre a produtividade total e as produtividades individuais dos fatores de produção para o setor de geração de energia elétrica no Brasil, usando dados do período ] 978 a 1992 das cmpresas ELETRONORTE, CHESF, FURNAS e ELETROSUL. Utilizando a abordagem da estimação econométrica da função dc custo, construímos um modelo do tipo trallslog que inclui a restrição sobre a taxa de retorno do capital, onde os insumos variáveis são mão-de-obra, materiais elétricos e energia e o único insumo fixo é o capital. Os resultados da estimação de mínimos quadrados de três estágios iterativos para o modelo básico mostraram que o aumento médio na produtividade total foi de 9,9% ao ano, sendo que a contribuição média da mão-de-obra foi de 0,3% ao ano, a dos materiais elétricos foi de 2,6%) ao ano e a da energia foi de 7,0% ao ano no período de estudo. A situação muda bastante quando estimamos o mesmo modelo sem considerar o intercâmbio do insumo energia elétrica no processo de produção, tendo em vista que o aumento médio na produtividade total cai para 2,4% ao ano, com uma contribuição negativa da mão-de-obra de 1,0% ao ano c contribuições positivas dos insumos materiais elétricos e energia de, respectivamente, 1,4% e 2,0% ao ano. Como trabalhos complementares, usando este arcabouço teórico, sugerimos a verificação a nível regional da existência do monopólio natural, a determinação do tamanho ótimo da empresa de geração de energia elétrica e a existência de economias de integração vertical entre os segmentos de geração, transmissão e distribuição para o Brasil.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo principal do estudo é verificar os efeitos das decisões do uso da tecnologia da informação (TI) no seu desempenho. Existe uma grande necessidade de justificar os investimentos realizados nessa área e uma expectativa de promover um desempenho superior com o uso dos recursos e capacidades da TI. Portanto, é importante esclarecer o seu valor e o seu papel nas organizações. Mudanças e contextos mercadológicos de rápidas transformações são grandes desafios ao ambiente das organizações. Nesse sentido, as decisões do uso da TI devem ser capazes de mobilizar os recursos e capacidades da TI para responder às mudanças do ambiente organizacional e o desempenho desse uso deve ser avaliado pela contribuição aos processos de negócio, ao contrário de insistir numa relação direta ao desempenho geral em que muitas variáveis ofuscam o real valor da TI. O estudo fundamenta-se na visão baseada em recursos da firma, nas capacidades dinâmicas e na complementaridade dos recursos organizacionais. São propostas duas orientações para as decisões do uso da TI. A primeira orientada pelas capacidades de reconfigurabilidade e complementaridade da TI. A segunda orientada pelos ativos de infra-estrutura, pessoal e parcerias. O desempenho é avaliado pelas competências do uso da TI em relação aos aspectos de sua funcionalidade e de mercado, em nível das exigências do seu processo. O estudo avaliou empiricamente seu objetivo numa amostra de profissionais responsáveis pela tomada de decisão e planejamento de TI em organizações brasileiras. Os dados foram analisados através da modelagem de caminhos por mínimos quadrados parciais. Os principais resultados apontaram fortes e significantes efeitos das decisões do uso da TI orientadas pelas capacidades sobre as decisões orientadas pelos ativos de TI. Revelou-se que as decisões orientadas pelos ativos de pessoal são as únicas que influenciam o desempenho das competências de funcionalidades da TI. Por último, foi evidenciado a importância do tratamento das decisões do uso da TI como uma capacidade dinâmica mesmo sem influência do efeito moderador da turbulência do ambiente organizacional. As principais contribuições acadêmicas são o preenchimento da lacuna que envolve as decisões do uso da TI, seu desempenho em nível de processo dentro do contexto organizacional brasileiro e o usoteórico da visão baseada em recursos da firma e das capacidades dinâmicas como pano de fundo capaz de promover o valor da TI. Dentre as principais contribuições para a prática profissional destaca-se a consideração das capacidades de reconfigurabilidade e complementaridade dos recursos de TI nas decisões do seu uso junto aos demais recursos organizacionais para que se possa obter um melhor desempenho dos processos. O estudo aponta pesquisas futuras promissoras na avaliação do valor da TI e no desenvolvimento de medidas e construtos mais apropriados para sua avaliação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O propósito deste trabalho é examinar os impactos de ajuda externa no crescimento econômico de médio e longo prazo e sua volatilidade nos países recebedores, uma vez que recursos dessa natureza visam acelerar a melhora do nível de bem-estar nas economias de baixa renda. Adicionalmente, também é objetivo deste trabalho avaliar os possíveis efeitos do IDH (Índice de Desenvolvimento Humano) em uma mudança de nível do influxo de ajuda, por meio da escala qualitativa do IDH. A partir dos dados de ajuda externa entre 1999 e 2003 e crescimento econômico entre 1999 e 2008 do Banco Mundial, do IDH apresentado pelo Relatório de Desenvolvimento Humano de 1998 e de algumas varáveis de controle, este estudo se utiliza da técnica de Regressões Descontínuas (RDD) com Variável Instrumental (VI) e do Método de Mínimo Quadrados Dois Estágios (MQ2E) para inferir tanto o impacto do IDH sobre ajuda externa, como deste no crescimento econômico e sua volatilidade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A partir 2006, o INEP (Instituto Nacional de Estudos e Pesquisa) passou a divulgar anualmente as notas das escolas no Exame Nacional do Ensino Médio (Enem). Tal divulgação já faz parte do calendário das escolas, professores, jornais e revistas que cobrem o setor educacional e até de pais de alunos. Este estudo visa analisar o impacto da divulgação dessas notas na competição entre as instituições de ensino médio e, mais especificamente, avaliar o efeito da nota média das escolas concorrentes na nota de uma dada escola, em relação aos anos anteriores à divulgação. A concorrência será analisada do ponto de vista espacial, de modo que, o peso atribuído à nota de uma instituição na estimação da nota de outra escola é inversamente proporcional à distâncias entre as mesmas. Essa análise empírica de instituições públicas e privadas foi realizada por meio da estimação em mínimos quadrados, utilizando-se variáveis de controle relacionadas às instituições e ao perfil socioeconômico dos alunos. Para tanto, foram utilizadas as bases de microdados do Censo Escolar e do Enem no período de 2004 à 2011. Os resultados indicam a existência de competição entre as escolas, com aumento no grupo de escolas públicas no período posterior à divulgação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This dissertation deals with the problem of making inference when there is weak identification in models of instrumental variables regression. More specifically we are interested in one-sided hypothesis testing for the coefficient of the endogenous variable when the instruments are weak. The focus is on the conditional tests based on likelihood ratio, score and Wald statistics. Theoretical and numerical work shows that the conditional t-test based on the two-stage least square (2SLS) estimator performs well even when instruments are weakly correlated with the endogenous variable. The conditional approach correct uniformly its size and when the population F-statistic is as small as two, its power is near the power envelopes for similar and non-similar tests. This finding is surprising considering the bad performance of the two-sided conditional t-tests found in Andrews, Moreira and Stock (2007). Given this counter intuitive result, we propose novel two-sided t-tests which are approximately unbiased and can perform as well as the conditional likelihood ratio (CLR) test of Moreira (2003).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho visa sistematizar um modelo para previsão e explicação dos movimentos de curto prazo da estrutura a termo de taxas de juros pré-fixada em reais do Brasil, baseado na relação dos movimentos em questão com os níveis e alterações que se processam nas variáveis macroeconômicas relevantes. A metodologia usada foi dividir o procedimento em duas etapas: Na primeira etapa, o modelo de Svensson (1994) é usado para ajustar a Estrutura a Termo de Taxas de Juros de cada data específica para obter os parâmetros daquela data. Isso é conseguido através da maximização da estatística R2 na regressão de mínimos quadrados, como sugerido no artigo original de Nelson e Siegel (1987). Então, as medianas dos dois parâmetros de decaimento utilizados são calculadas e mantidas arbitrariamente constantes para facilitar os cálculos da segunda etapa. Na segunda etapa, uma vez que os estimadores que melhor se ajustam às curvas de juros foram obtidos, outra regressão de MQO é realizada considerando os betas de Svensson dependentes de variáveis macroeconômicas de estado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Com este trabalho pretendeu-se estabelecer o perfil metabolómico volátil de amostras de fluidos biológicos, nomeadamente saliva e urina, de pacientes com cancro da mama e do pulmão e de indivíduos saudáveis (grupo controlo), utilizando a Microextração em Fase Sólida em modo headspace (HS-SPME) seguida de Cromatografia Gasosa acoplada à Espectrometria de Massa (GC-MS). Efetuou-se a comparação entre os perfis voláteis dos grupos estudados com o objetivo de identificar metabolitos que possam ser considerados como potenciais biomarcadores dos tipos de cancro em estudo. De modo a otimizar a metodologia extrativa, HS-SPME, foram avaliados os diferentes parâmetros experimentais com influência no processo extrativo. Os melhores resultados foram obtidos com a fibra CAR/PDMS, usando um volume de 2 mL de saliva acidificada, 10% NaCl (m/v) e 45 minutos de extração a uma temperatura de 37±1°C. Para a urina foi utilizada a mesma fibra, 4 mL de urina acidificada, 20% NaCl (m/v) e 60 minutos de extração a 50±1°C. Nas amostras de saliva e urina, foram identificados 243 e 500 metabolitos voláteis respetivamente, sendo estes pertencentes a diferentes famílias químicas. Posteriormente, utilizou-se a análise discriminante por mínimos quadrados parciais (PLS-DA) que permitiu observar uma boa separação entre os grupos controlo e oncológicos. Nas amostras salivares o grupo de pacientes com cancro da mama foi maioritariamente caracterizado pelo metabolito ácido benzeno carboxílico e o grupo de pacientes com cancro do pulmão pelo ácido hexanóico. Na urina o grupo de pacientes com cancro da mama foi maioritariamente caracterizado pelo metabolito 1-[2-(Isobutiriloxi)-1-metiletil]-2,2-dimetilpropil 2-metilpropanoato e o grupo de pacientes com cancro do pulmão pelo o-cimeno. Além da metodologia PLS-DA foi realizada a validação cruzada de monte carlo (MCCV) tendo-se obtido uma elevada taxa de classificação, sensibilidade e especificidade o que demonstra a robustez dos dados obtidos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Several mobile robots show non-linear behavior, mainly due friction phenomena between the mechanical parts of the robot or between the robot and the ground. Linear models are efficient in some cases, but it is necessary take the robot non-linearity in consideration when precise displacement and positioning are desired. In this work a parametric model identification procedure for a mobile robot with differential drive that considers the dead-zone in the robot actuators is proposed. The method consists in dividing the system into Hammerstein systems and then uses the key-term separation principle to present the input-output relations which shows the parameters from both linear and non-linear blocks. The parameters are then simultaneously estimated through a recursive least squares algorithm. The results shows that is possible to identify the dead-zone thresholds together with the linear parameters

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The pattern classification is one of the machine learning subareas that has the most outstanding. Among the various approaches to solve pattern classification problems, the Support Vector Machines (SVM) receive great emphasis, due to its ease of use and good generalization performance. The Least Squares formulation of SVM (LS-SVM) finds the solution by solving a set of linear equations instead of quadratic programming implemented in SVM. The LS-SVMs provide some free parameters that have to be correctly chosen to achieve satisfactory results in a given task. Despite the LS-SVMs having high performance, lots of tools have been developed to improve them, mainly the development of new classifying methods and the employment of ensembles, in other words, a combination of several classifiers. In this work, our proposal is to use an ensemble and a Genetic Algorithm (GA), search algorithm based on the evolution of species, to enhance the LSSVM classification. In the construction of this ensemble, we use a random selection of attributes of the original problem, which it splits the original problem into smaller ones where each classifier will act. So, we apply a genetic algorithm to find effective values of the LS-SVM parameters and also to find a weight vector, measuring the importance of each machine in the final classification. Finally, the final classification is obtained by a linear combination of the decision values of the LS-SVMs with the weight vector. We used several classification problems, taken as benchmarks to evaluate the performance of the algorithm and compared the results with other classifiers

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work calibration models were constructed to determine the content of total lipids and moisture in powdered milk samples. For this, used the near-infrared spectroscopy by diffuse reflectance, combined with multivariate calibration. Initially, the spectral data were submitted to correction of multiplicative light scattering (MSC) and Savitzsky-Golay smoothing. Then, the samples were divided into subgroups by application of hierarchical clustering analysis of the classes (HCA) and Ward Linkage criterion. Thus, it became possible to build regression models by partial least squares (PLS) that allowed the calibration and prediction of the content total lipid and moisture, based on the values obtained by the reference methods of Soxhlet and 105 ° C, respectively . Therefore, conclude that the NIR had a good performance for the quantification of samples of powdered milk, mainly by minimizing the analysis time, not destruction of the samples and not waste. Prediction models for determination of total lipids correlated (R) of 0.9955, RMSEP of 0.8952, therefore the average error between the Soxhlet and NIR was ± 0.70%, while the model prediction to content moisture correlated (R) of 0.9184, RMSEP, 0.3778 and error of ± 0.76%

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work, the quantitative analysis of glucose, triglycerides and cholesterol (total and HDL) in both rat and human blood plasma was performed without any kind of pretreatment of samples, by using near infrared spectroscopy (NIR) combined with multivariate methods. For this purpose, different techniques and algorithms used to pre-process data, to select variables and to build multivariate regression models were compared between each other, such as partial least squares regression (PLS), non linear regression by artificial neural networks, interval partial least squares regression (iPLS), genetic algorithm (GA), successive projections algorithm (SPA), amongst others. Related to the determinations of rat blood plasma samples, the variables selection algorithms showed satisfactory results both for the correlation coefficients (R²) and for the values of root mean square error of prediction (RMSEP) for the three analytes, especially for triglycerides and cholesterol-HDL. The RMSEP values for glucose, triglycerides and cholesterol-HDL obtained through the best PLS model were 6.08, 16.07 e 2.03 mg dL-1, respectively. In the other case, for the determinations in human blood plasma, the predictions obtained by the PLS models provided unsatisfactory results with non linear tendency and presence of bias. Then, the ANN regression was applied as an alternative to PLS, considering its ability of modeling data from non linear systems. The root mean square error of monitoring (RMSEM) for glucose, triglycerides and total cholesterol, for the best ANN models, were 13.20, 10.31 e 12.35 mg dL-1, respectively. Statistical tests (F and t) suggest that NIR spectroscopy combined with multivariate regression methods (PLS and ANN) are capable to quantify the analytes (glucose, triglycerides and cholesterol) even when they are present in highly complex biological fluids, such as blood plasma

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The separation methods are reduced applications as a result of the operational costs, the low output and the long time to separate the uids. But, these treatment methods are important because of the need for extraction of unwanted contaminants in the oil production. The water and the concentration of oil in water should be minimal (around 40 to 20 ppm) in order to take it to the sea. Because of the need of primary treatment, the objective of this project is to study and implement algorithms for identification of polynomial NARX (Nonlinear Auto-Regressive with Exogenous Input) models in closed loop, implement a structural identification, and compare strategies using PI control and updated on-line NARX predictive models on a combination of three-phase separator in series with three hydro cyclones batteries. The main goal of this project is to: obtain an optimized process of phase separation that will regulate the system, even in the presence of oil gushes; Show that it is possible to get optimized tunings for controllers analyzing the mesh as a whole, and evaluate and compare the strategies of PI and predictive control applied to the process. To accomplish these goals a simulator was used to represent the three phase separator and hydro cyclones. Algorithms were developed for system identification (NARX) using RLS(Recursive Least Square), along with methods for structure models detection. Predictive Control Algorithms were also implemented with NARX model updated on-line, and optimization algorithms using PSO (Particle Swarm Optimization). This project ends with a comparison of results obtained from the use of PI and predictive controllers (both with optimal state through the algorithm of cloud particles) in the simulated system. Thus, concluding that the performed optimizations make the system less sensitive to external perturbations and when optimized, the two controllers show similar results with the assessment of predictive control somewhat less sensitive to disturbances

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work has as main objective to find mathematical models based on linear parametric estimation techniques applied to the problem of calculating the grow of gas in oil wells. In particular we focus on achieving grow models applied to the case of wells that produce by plunger-lift technique on oil rigs, in which case, there are high peaks in the grow values that hinder their direct measurement by instruments. For this, we have developed estimators based on recursive least squares and make an analysis of statistical measures such as autocorrelation, cross-correlation, variogram and the cumulative periodogram, which are calculated recursively as data are obtained in real time from the plant in operation; the values obtained for these measures tell us how accurate the used model is and how it can be changed to better fit the measured values. The models have been tested in a pilot plant which emulates the process gas production in oil wells