1000 resultados para Método dos Mínimos Quadrados Ordinários


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work a fast method for the determination of the total sugar levels in samples of raw coffee was developed using the near infrared spectroscopy technique and multivariate regression. The sugar levels were initially obtained using gravimety as the reference method. Later on, the regression models were built from the near infrared spectra of the coffee samples. The original spectra were pre-treated according to the Kubelka-Munk transformation and multiplicative signal correction. The proposed analytical method made possible the direct determination of the total sugar levels in the samples with an error lower by 8% with respect to the conventional methodology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente artigo tem por finalidade analisar os factores condicionantes da previsão do cash flow proveniente da actividade operacional, através do desenvolvimento de um modelo econométrico que foi estimado com base numa amostra seccional relativa ao ano de 2000 e constituída por 395 empresas portuguesas dos sectores do vestuário e calçado. O modelo foi estimado através do método de mínimos quadrados ordinário (MQO) com a correcção de White e, os resultados obtidos mostraram que o cash flow futuro é explicado pelas variáveis explicativas; recursos gerados na actividade operacional, dívidas de e a terceiros provenientes da actividade operacional e uma variável dummy que diferencia as empresas pelos dois sectores de actividade, todas desfasadas de um período (ano).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O problema de otimização de mínimos quadrados e apresentado como uma classe importante de problemas de minimização sem restrições. A importância dessa classe de problemas deriva das bem conhecidas aplicações a estimação de parâmetros no contexto das analises de regressão e de resolução de sistemas de equações não lineares. Apresenta-se uma revisão dos métodos de otimização de mínimos quadrados lineares e de algumas técnicas conhecidas de linearização. Faz-se um estudo dos principais métodos de gradiente usados para problemas não lineares gerais: Métodos de Newton e suas modificações incluindo os métodos Quasi-Newton mais usados (DFP e BFGS). Introduzem-se depois métodos específicos de gradiente para problemas de mínimos quadrados: Gauss-Newton e Levenberg-Larquardt. Apresenta-se uma variedade de exemplos selecionados na literatura para testar os diferentes métodos usando rotinas MATLAB. Faz-se uma an alise comparativa dos algoritmos baseados nesses ensaios computacionais que exibem as vantagens e desvantagens dos diferentes métodos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work a fast method for the determination of the total sugar levels in samples of raw coffee was developed using the near infrared spectroscopy technique and multivariate regression. The sugar levels were initially obtained using gravimety as the reference method. Later on, the regression models were built from the near infrared spectra of the coffee samples. The original spectra were pre-treated according to the Kubelka-Munk transformation and multiplicative signal correction. The proposed analytical method made possible the direct determination of the total sugar levels in the samples with an error lower by 8% with respect to the conventional methodology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work an analytical methodology for the determination of relevant physicochemical parameters of prato cheese is reported, using infrared spectroscopy (DRIFT) and partial least squares regression (PLS). Several multivariate models were developed, using different spectral regions and preprocessing routines. In general, good precision and accuracy was observed for all studied parameters (fat, protein, moisture, total solids, ashes and pH) with standard deviations comparable with those provided by the conventional methodologies. The implantation of this multivariate routine involves significant analytical advantages, including reduction of cost and time of analysis, minimization of human errors, and elimination of chemical residues.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main objective of the present work is represented by the characterization of the physical properties of industrial kraft paper (i.e. transversal and longitudinal tear resistance, transversal traction resistance, bursting or crack resistance, longitudinal and transversal compression resistance (SCT (Compressive Strength Tester) and compression resistance (RCT-Ring Crush Test)) by near infrared spectroscopy associated to partial least squares regression. Several multivariate models were developed, many of them with high prevision capacity. In general, low prevision errors were observed and regression coefficients that are comparable with those provided by conventional standard methodologies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Multivariate Curve Resolution with Alternating Least Squares (MCR-ALS) is a resolution method that has been efficiently applied in many different fields, such as process analysis, environmental data and, more recently, hyperspectral image analysis. When applied to second order data (or to three-way data) arrays, recovery of the underlying basis vectors in both measurement orders (i.e. signal and concentration orders) from the data matrix can be achieved without ambiguities if the trilinear model constraint is considered during the ALS optimization. This work summarizes different protocols of MCR-ALS application, presenting a case study: near-infrared image spectroscopy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Wood is an extremely complex biological material, which can show macroscopic similarities that make it difficult to discriminate between species. Discrimination between similar wood species can be achieved by either anatomic or instrumental methods, such as near infrared spectroscopy (NIR). Although different spectroscopy methods are currently available, few studies have applied them to discriminate between wood species. In this study, we applied a partial least squares-discriminant analysis (PLS-DA) model to evaluate the viability of using direct fluorescence measurements for discriminating between Eucalyptus grandis, Eucalyptus urograndis, and Cedrela odorata. The results show that molecular fluorescence is an efficient technique for discriminating between these visually similar wood species. With respect to calibration and the validation samples, we observed no misclassifications or outliers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objetivou-se caracterizar a variabilidade espacial da incidência de Colletotrichum truncatum (Schwein) em sementes colhidas de soja e determinar o melhor modelo e método de semivariograma que represente a incidência de C. truncatum dessas sementes. O experimento foi realizado em condições de campo na safra 2009/10, em 3 parcelas de 9,9 x 10 m, com sementes inoculadas com C.truncatum. O inóculo correspondeu a 0,8; 1,6 e 2,4% do total semeado. Foram demarcadas 3 malhas com receptores GNSS, totalizando 112 pontos em cada parcela distanciados a 1,3 m na linha. No final do ciclo da soja, realizaram-se a colheita, a secagem e a análise sanitária das sementes pelo método 'blotter test', referente aos 336 pontos demarcados. Quatro modelos de semivariogramas foram ajustados aos dados coletados utilizando os métodos mínimos quadrados ordinários (OLS), mínimos quadrados ponderados (WLS), máxima verossimilhança (ML) e máxima verossimilhança restrita (REML). A validação cruzada foi empregada para escolha final do modelo e método do semivariograma. Em seguida, efetuaram-se a krigagem e o desvio padrão da krigagem. Os mapas de krigagem ilustraram a transmissão da semente para a semente e a sua variância. Verificou-se estrutura de dependência espacial da transmissão de C. truncatum via semente. O melhor modelo de semivariograma foi o esférico e o melhor ajuste foi o REML. Houve alcance de 0,95, 4,03 e 7,05 m para as parcelas com 0,8, 1,6 e 2,4% de sementes inoculadas respectivamente. Quanto maior o inóculo primário da parcela, maior foi a transmissão para as sementes próximas à fonte de inóculo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho observa como as variáveis macroeconômicas (expectativa de inflação, juro real, hiato do produto e a variação cambial) influenciam a dinâmica da Estrutura a Termo da Taxa de Juros (ETTJ). Esta dinâmica foi verificada introduzindo a teoria de Análise de Componentes Principais (ACP) para capturar o efeito das componentes mais relevantes na ETTJ (nível, inclinação e curvatura). Utilizando-se as estimativas por mínimos quadrados ordinários e pelo método generalizado dos momentos, foi verificado que existe uma relação estatisticamente significante entre as variáveis macroeconômicas e as componentes principais da ETTJ.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A lei dos planos de saúde, elaborada pela ANS, regulamentou o reajuste nos preços dos planos de saúde individuais no Brasil, este estudo busca analisar os efeitos da mesma sobre o consumo de serviços médicos no país. A análise foi elaborada através de modelos probit e mínimos quadrados ordinários, com o método de diferenças em diferenças e utilizando as PNADs 1998 e 2008. A probabilidade de realização de consultas médicas e/ou internações hospitalares foi estimada por probit e o número de consultas e dias de internações no período de um ano através de MQO. O resultado obtido aponta para inalteração do risco moral na demanda pelos serviços médicos, no entanto, outro resultado interessante foi obtido ao analisar os beneficiários de plano de saúde individuais, sua probabilidade de realizar uma consulta médica e/ou ser internado em hospitais foi maior do que os planos de saúde corporativos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Most algorithms for state estimation based on the classical model are just adequate for use in transmission networks. Few algorithms were developed specifically for distribution systems, probably because of the little amount of data available in real time. Most overhead feeders possess just current and voltage measurements at the middle voltage bus-bar at the substation. In this way, classical algorithms are of difficult implementation, even considering off-line acquired data as pseudo-measurements. However, the necessity of automating the operation of distribution networks, mainly in regard to the selectivity of protection systems, as well to implement possibilities of load transfer maneuvers, is changing the network planning policy. In this way, some equipments incorporating telemetry and command modules have been installed in order to improve operational features, and so increasing the amount of measurement data available in real-time in the System Operation Center (SOC). This encourages the development of a state estimator model, involving real-time information and pseudo-measurements of loads, that are built from typical power factors and utilization factors (demand factors) of distribution transformers. This work reports about the development of a new state estimation method, specific for radial distribution systems. The main algorithm of the method is based on the power summation load flow. The estimation is carried out piecewise, section by section of the feeder, going from the substation to the terminal nodes. For each section, a measurement model is built, resulting in a nonlinear overdetermined equations set, whose solution is achieved by the Gaussian normal equation. The estimated variables of a section are used as pseudo-measurements for the next section. In general, a measurement set for a generic section consists of pseudo-measurements of power flows and nodal voltages obtained from the previous section or measurements in real-time, if they exist -, besides pseudomeasurements of injected powers for the power summations, whose functions are the load flow equations, assuming that the network can be represented by its single-phase equivalent. The great advantage of the algorithm is its simplicity and low computational effort. Moreover, the algorithm is very efficient, in regard to the accuracy of the estimated values. Besides the power summation state estimator, this work shows how other algorithms could be adapted to provide state estimation of middle voltage substations and networks, namely Schweppes method and an algorithm based on current proportionality, that is usually adopted for network planning tasks. Both estimators were implemented not only as alternatives for the proposed method, but also looking for getting results that give support for its validation. Once in most cases no power measurement is performed at beginning of the feeder and this is required for implementing the power summation estimations method, a new algorithm for estimating the network variables at the middle voltage bus-bar was also developed

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Amyloglucosidase enzyme was produced by Aspergillus niger NRRL 3122 from solid-state fermentation, using deffated rice bran as substrate. The effects of process parameters (pH, temperature) in the equilibrium partition coefficient for the system amyloglucosidase - resin DEAE-cellulose were investigated, aiming at obtaining the optimum conditions for a subsequent purification process. The highest partition coefficients were obtained using 0.025M Tris-HCl buffer, pH 8.0 and 25ºC. The conditions that supplied the highest partition coefficient were specified, the isotherm that better described the amyloglucosidase process of adsorption obtained. It was observed that the adsorption could be well described by Langmuir equation and the values of Qm and Kd estimated at 133.0 U mL-1 and 15.4 U mL-1, respectively. From the adjustment of the kinetic curves using the fourth-order Runge-Kutta algorithm, the adsorption (k1) and desorption (k2) constants were obtained through optimization by the least square procedure, and the values calculated were 2.4x10-3 mL U-1 min-1 for k1 and 0.037 min-1 for k2 .