900 resultados para weighted least squares
Resumo:
The glycolytic enzyme glyceraldehyde-3 -phosphate dehydrogenase (GAPDH) is as an attractive target for the development of novel antitrypanosomatid agents. In the present work, comparative molecular field analysis and comparative molecular similarity index analysis were conducted on a large series of selective inhibitors of trypanosomatid GAPDH. Four statistically significant models were obtained (r(2) > 0.90 and q(2) > 0.70), indicating their predictive ability for untested compounds. The models were then used to predict the potency of an external test set, and the predicted values were in good agreement with the experimental results. Molecular modeling studies provided further insight into the structural basis for selective inhibition of trypanosomatid GAPDH.
Exact penalties for variational inequalities with applications to nonlinear complementarity problems
Resumo:
In this paper, we present a new reformulation of the KKT system associated to a variational inequality as a semismooth equation. The reformulation is derived from the concept of differentiable exact penalties for nonlinear programming. The best theoretical results are presented for nonlinear complementarity problems, where simple, verifiable, conditions ensure that the penalty is exact. We close the paper with some preliminary computational tests on the use of a semismooth Newton method to solve the equation derived from the new reformulation. We also compare its performance with the Newton method applied to classical reformulations based on the Fischer-Burmeister function and on the minimum. The new reformulation combines the best features of the classical ones, being as easy to solve as the reformulation that uses the Fischer-Burmeister function while requiring as few Newton steps as the one that is based on the minimum.
Resumo:
A new method is presented for spectrophotometric determination of total polyphenols content in wine. The procedure is a modified CUPRAC method based on the reduction of Cu(II), in hydroethanolic medium (pH 7.0) in the presence of neocuproine (2,9-dimethyl-1,10-phenanthroline), by polyphenols, yielding a Cu(I) complexes with maximum absorption peak at 450 nm. The absorbance values are linear (r = 0.998, n = 6) with tannic acid concentrations from 0.4 to 3.6 mu mol L(-1). The limit of detection obtained was 0.41 mu mol L(-1) and relative standard deviation 1.2% (1 mu mol L(-1); n = 8). Recoveries between 80% and 110% (mean value of 95%) were calculated for total polyphenols determination in 14 commercials and 2 synthetic wine samples (with and without sulphite). The proposed procedure is about 1.5 more sensitive than the official Folin-Ciocalteu method. The sensitivities of both methods were compared by the analytical responses of several polyphenols tested in each method. (C) 2010 Elsevier Ltd. All rights reserved.
Resumo:
Molecular orbital calculations were carried out on a set of 28 non-imidazole H(3) antihistamine compounds using the Hartree-Fock method in order to investigate the possible relationships between electronic structural properties and binding affinity for H3 receptors (pK(i)). It was observed that the frontier effective-for-reaction molecular orbital (FERMO) energies were better correlated with pK(i) values than highest occupied molecular orbital (HOMO) and lowest unoccupied molecular orbital (LUMO) energy values. Exploratory data analysis through hierarchical cluster (HCA) and principal component analysis (PCA) showed a separation of the compounds in two sets, one grouping the molecules with high pK(i) values, the other gathering low pK(i) value compounds. This separation was obtained with the use of the following descriptors: FERMO energies (epsilon(FERMO)), charges derived from the electrostatic potential on the nitrogen atom (N(1)), electronic density indexes for FERMO on the N(1) atom (Sigma((FERMO))c(i)(2)). and electrophilicity (omega`). These electronic descriptors were used to construct a quantitative structure-activity relationship (QSAR) model through the partial least-squares (PLS) method with three principal components. This model generated Q(2) = 0.88 and R(2) = 0.927 values obtained from a training set and external validation of 23 and 5 molecules, respectively. After the analysis of the PLS regression equation and the values for the selected electronic descriptors, it is suggested that high values of FERMO energies and of Sigma((FERMO))c(i)(2), together with low values of electrophilicity and pronounced negative charges on N(1) appear as desirable properties for the conception of new molecules which might have high binding affinity. 2010 Elsevier Inc. All rights reserved.
Resumo:
Drinking water distribution networks risk exposure to malicious or accidental contamination. Several levels of responses are conceivable. One of them consists to install a sensor network to monitor the system on real time. Once a contamination has been detected, this is also important to take appropriate counter-measures. In the SMaRT-OnlineWDN project, this relies on modeling to predict both hydraulics and water quality. An online model use makes identification of the contaminant source and simulation of the contaminated area possible. The objective of this paper is to present SMaRT-OnlineWDN experience and research results for hydraulic state estimation with sampling frequency of few minutes. A least squares problem with bound constraints is formulated to adjust demand class coefficient to best fit the observed values at a given time. The criterion is a Huber function to limit the influence of outliers. A Tikhonov regularization is introduced for consideration of prior information on the parameter vector. Then the Levenberg-Marquardt algorithm is applied that use derivative information for limiting the number of iterations. Confidence intervals for the state prediction are also given. The results are presented and discussed on real networks in France and Germany.
Resumo:
O presente trabalho teve como objetivo a identificação de atributos relacionados à atratividade de clientes em clusters comerciais, na percepção de consumidores. Partindo-se da atratividade de clientes para lojas, desenvolveu-se um construto de avaliação de atratividade de clientes para clusters comerciais. Por meio de estudo descritivo-quantitativo junto a 240 consumidores, em dois reconhecidos clusters comerciais, utilizando-se a técnica de PLS-PM (Partial Least Squares Path Modeling), avaliou-se a relação entre a atratividade de clientes (variável reflexiva) e as dimensões do mix varejista de clusters comerciais (variáveis latentes), a partir do tratamento de indicadores de efeitos observáveis. Como principais resultados, observou-se que: (1) atratividade está associada significativamente às variáveis latentes, sugerindo robustez do modelo; (2) condições de compra e preços são dimensões com maior associação à atratividade de clientes, embora lojas, produtos e atendimento apresentem relevância; e (3) localização apresentou-se como dimensão menos correlacionada à atratividade de clientes para ambos os clusters.
Resumo:
The study aims to assess the empirical adherence of the permanent income theory and the consumption smoothing view in Latin America. Two present value models are considered, one describing household behavior and the other open economy macroeconomics. Following the methodology developed in Campbell and Schiller (1987), Bivariate Vector Autoregressions are estimated for the saving ratio and the real growth rate of income concerning the household behavior model and for the current account and the change in national cash ‡ow regarding the open economy model. The countries in the sample are considered separately in the estimation process (individual system estimation) as well as jointly (joint system estimation). Ordinary Least Squares (OLS) and Seemingly Unrelated Regressions (SURE) estimates of the coe¢cients are generated. Wald Tests are then conducted to verify if the VAR coe¢cient estimates are in conformity with those predicted by the theory. While the empirical results are sensitive to the estimation method and discount factors used, there is only weak evidence in favor of the permanent income theory and consumption smoothing view in the group of countries analyzed.
Resumo:
Estimating the parameters of the instantaneous spot interest rate process is of crucial importance for pricing fixed income derivative securities. This paper presents an estimation for the parameters of the Gaussian interest rate model for pricing fixed income derivatives based on the term structure of volatility. We estimate the term structure of volatility for US treasury rates for the period 1983 - 1995, based on a history of yield curves. We estimate both conditional and first differences term structures of volatility and subsequently estimate the implied parameters of the Gaussian model with non-linear least squares estimation. Results for bond options illustrate the effects of differing parameters in pricing.
Resumo:
Empirical evidence suggests that real exchange rate is characterized by the presence of near-unity and additive outliers. Recent studeis have found evidence on favor PPP reversion by using the quasi-differencing (Elliott et al., 1996) unit root tests (ERS), which is more efficient against local alternatives but is still based on least squares estimation. Unit root tests basead on least saquares method usually tend to bias inference towards stationarity when additive out liers are present. In this paper, we incorporate quasi-differencing into M-estimation to construct a unit root test that is robust not only against near-unity root but also against nonGaussian behavior provoked by assitive outliers. We re-visit the PPP hypothesis and found less evidemce in favor PPP reversion when non-Gaussian behavior in real exchange rates is taken into account.
Resumo:
O objetivo desse trabalho é mostrar a importância das instituições orçamentárias quando se estuda o efeito da descentralização sobre o tamanho dos governos subnacionais. No caso do Brasil, observamos que as mudanças institucionais iniciaram-se com a descentralização, oriunda de alterações determinadas pela Nova Constituição Federal de 1988, e que por sua vez possibilitou um conjunto de mudanças que determinou como resultado final a alteração do tamanho dos governos estaduais ao longo do tempo. Embora essas fossem promovidas pelo governo federal, a grande maioria delas aconteceu no sentido de tornar a restrição orçamentária dos governos estaduais mais hard, ou seja, os governos subnacionais teriam cada vez menos canais para ampliar seu endividamento, e com esse limitado, eles teriam que se adequar a uma realidade orçamentária mais rígida, em que as despesas teriam que seguir o comportamento das receitas; se essas crescessem, as despesas poderiam crescer, mas se houvesse uma diminuição, as despesas teriam que ser adequadas a esse novo montante de recurso. Das quatro mudanças nas instituições orçamentárias encontradas na literatura, três delas se mostraram importantes empiricamente na determinação do tamanho dos governos subnacionais: A Nova Constituição implantada em 1988, a mudança na forma de fazer orçamento (Efeito-Bacha) e a Lei de Responsabilidade Fiscal. Os resultados demonstraram que a primeira seguiu na direção de aumentar o tamanho dos governos subnacionais através do aumento de recursos transferidos via Fundo de Participação dos Estados; a segunda provocou uma diminuição no tamanho por impor uma nova realidade orçamentária, em que os governos deveriam trabalhar com o orçamento em termos reais de acordo com o que fosse determinado 6 em termos nominais; com relação à Lei de Responsabilidade Fiscal que apresentou um comportamento no sentido de aumentar o tamanho dos governos, há a questão da falta de observações em número suficiente para que seu resultado seja robusto, contudo já se percebe o sentido da influência que essa mudança teve. No caso da Renegociação das dívidas ocorrida entre os governos estaduais e a União, seu resultado mostrou-se mais como um choque negativo, do que como uma alteração que provocasse uma mudança de nível no tamanho dos governos. Trabalhamos com vinte e seis estados e um Distrito Federal entre os anos de 1986 e 2003 usando o modelo de Least Squares Dummy Variable (LSDV).
Resumo:
Este trabalho visa investigar o analfabetismo no Brasil a partir do uso de novas medidas de alfabetização inicialmente desenvolvidas por Basu e Foster (1998). Para tanto, primeiro se avalia o perfil de alfabetização da população brasileira de acordo com a definição de analfabetismo isolado. Entende-se por analfabetos isolados aqueles indivíduos analfabetos que não convivem com pessoas alfabetizadas em nível domiciliar. Segundo, busca-se evidências de externalidades domiciliares da alfabetização de filhos em aspectos relacionados a salários e à participação no mercado de trabalho de pais analfabetos. Devido à suspeita de causalidade reversa nas estimações por Mínimos Quadrados Ordinários (MQO) das equações que relacionam as variáveis de interesse dos pais com as alfabetizações dos filhos, utiliza-se as ofertas municipais de escolas e professores de primeiro grau como variáveis instrumentais para a alfabetização. Da investigação do perfil de alfabetização constata-se que a região Nordeste é a que apresenta os piores resultados entre as regiões do país, uma vez que é a que tem a maior parcela de analfabetos isolados do total. Tal resultado condiciona políticas públicas de alfabetização para essa região. As aplicações das medidas indicam que os rankings de alfabetização por estados são sensíveis às diferentes medidas. Os resultados encontrados das estimações por MQO indicam haver correlação positiva entre as variáveis dependentes dos pais e alfabetização dos filhos. Entretanto, a aplicação da metodologia de variáveis instrumentais não confirma os resultados das estimações por MQO. Contudo, devido à fragilidade dos resultados das estimações do primeiro estágio, não se pode afirmar que não há externalidades da alfabetização dos filhos para os pais.
Resumo:
This dissertation proposes a bivariate markov switching dynamic conditional correlation model for estimating the optimal hedge ratio between spot and futures contracts. It considers the cointegration between series and allows to capture the leverage efect in return equation. The model is applied using daily data of future and spot prices of Bovespa Index and R$/US$ exchange rate. The results in terms of variance reduction and utility show that the bivariate markov switching model outperforms the strategies based ordinary least squares and error correction models.
Resumo:
O objetivo deste trabalho é caracterizar a Curva de Juros Mensal para o Brasil através de três fatores, comparando dois tipos de métodos de estimação: Através da Representação em Espaço de Estado é possível estimá-lo por dois Métodos: Filtro de Kalman e Mínimos Quadrados em Dois Passos. Os fatores têm sua dinâmica representada por um Modelo Autorregressivo Vetorial, VAR(1), e para o segundo método de estimação, atribui-se uma estrutura para a Variância Condicional. Para a comparação dos métodos empregados, propõe-se uma forma alternativa de compará-los: através de Processos de Markov que possam modelar conjuntamente o Fator de Inclinação da Curva de Juros, obtido pelos métodos empregados neste trabalho, e uma váriavel proxy para Desempenho Econômico, fornecendo alguma medida de previsão para os Ciclos Econômicos.
Resumo:
This paper considers the general problem of Feasible Generalized Least Squares Instrumental Variables (FG LS IV) estimation using optimal instruments. First we summarize the sufficient conditions for the FG LS IV estimator to be asymptotic ally equivalent to an optimal G LS IV estimator. Then we specialize to stationary dynamic systems with stationary VAR errors, and use the sufficient conditions to derive new moment conditions for these models. These moment conditions produce useful IVs from the lagged endogenous variables, despite the correlation between errors and endogenous variables. This use of the information contained in the lagged endogenous variables expands the class of IV estimators under consideration and there by potentially improves both asymptotic and small-sample efficiency of the optimal IV estimator in the class. Some Monte Carlo experiments compare the new methods with those of Hatanaka [1976]. For the DG P used in the Monte Carlo experiments, asymptotic efficiency is strictly improved by the new IVs, and experimental small-sample efficiency is improved as well.
Resumo:
Essa tese foca em diferentes perspectivas sobre CSF (Fatores Críticos de Sucess) em implementações de ERP (Enterprise Resource Planning). A literatura atual foca nos CSF sob o ponto de vista da alta gerência da organização e classifica esses CSF baseado nessa visão. Essa tese irá apresentar a visão do time de implementação de ERP sob os principais CSF e irá utilizar um estudo de caso para avaliar se a alta gerência e o time de implementação compartilham a mesma visão. Além disso ess tese irá propor uma relação entre o sucesso na implementação de ERP e os CSF pesquisados, usando o método PLS (Partial Least Squares) para analisar as respostas do time de implementação a um questionário desenvolvido para medir sucesso na implementação de ERP.