866 resultados para Ordinary Least Squares Method
Resumo:
Sea surface gradients derived from the Geosat and ERS-1 satellite altimetry geodetic missions were integrated with marine gravity data from the National Geophysical Data Center and Brazilian national surveys. Using the least squares collocation method, models of free-air gravity anomaly and geoid height were calculated for the coast of Brazil with a resolution of 2` x 2`. The integration of satellite and shipborne data showed better statistical results in regions near the coast than using satellite data only, suggesting an improvement when compared to the state-of-the-art global gravity models. Furthermore, these results were obtained with considerably less input information than was used by those reference models. The least squares collocation presented a very low content of high-frequency noise in the predicted gravity anomalies. This may be considered essential to improve the high resolution representation of the gravity field in regions of ocean-continent transition. (C) 2010 Elsevier Ltd. All rights reserved.
Resumo:
Partition of Unity Implicits (PUI) has been recently introduced for surface reconstruction from point clouds. In this work, we propose a PUI method that employs a set of well-observed solutions in order to produce geometrically pleasant results without requiring time consuming or mathematically overloaded computations. One feature of our technique is the use of multivariate orthogonal polynomials in the least-squares approximation, which allows the recursive refinement of the local fittings in terms of the degree of the polynomial. However, since the use of high-order approximations based only on the number of available points is not reliable, we introduce the concept of coverage domain. In addition, the method relies on the use of an algebraically defined triangulation to handle two important tasks in PUI: the spatial decomposition and an adaptive polygonization. As the spatial subdivision is based on tetrahedra, the generated mesh may present poorly-shaped triangles that are improved in this work by means a specific vertex displacement technique. Furthermore, we also address sharp features and raw data treatment. A further contribution is based on the PUI locality property that leads to an intuitive scheme for improving or repairing the surface by means of editing local functions.
Resumo:
Semi-empirical weighted oscillator strengths (gf) and lifetimes presented in this work for all experimentally known electric dipole P XII spectral lines and energy levels were computed within a multiconfiguration Hartree-Fock relativistic approach. In this calculation, the electrostatic parameters were optimized by a least-squares procedure in order to improve the adjustment to experimental energy levels. The method produces lifetime and gf values that are in agreement with intensity observations used for the interpretation of spectrograms of solar and laboratory plasmas.
Exact penalties for variational inequalities with applications to nonlinear complementarity problems
Resumo:
In this paper, we present a new reformulation of the KKT system associated to a variational inequality as a semismooth equation. The reformulation is derived from the concept of differentiable exact penalties for nonlinear programming. The best theoretical results are presented for nonlinear complementarity problems, where simple, verifiable, conditions ensure that the penalty is exact. We close the paper with some preliminary computational tests on the use of a semismooth Newton method to solve the equation derived from the new reformulation. We also compare its performance with the Newton method applied to classical reformulations based on the Fischer-Burmeister function and on the minimum. The new reformulation combines the best features of the classical ones, being as easy to solve as the reformulation that uses the Fischer-Burmeister function while requiring as few Newton steps as the one that is based on the minimum.
Resumo:
This paper derives the second-order biases Of maximum likelihood estimates from a multivariate normal model where the mean vector and the covariance matrix have parameters in common. We show that the second order bias can always be obtained by means of ordinary weighted least-squares regressions. We conduct simulation studies which indicate that the bias correction scheme yields nearly unbiased estimators. (C) 2009 Elsevier B.V. All rights reserved.
Resumo:
A new method is presented for spectrophotometric determination of total polyphenols content in wine. The procedure is a modified CUPRAC method based on the reduction of Cu(II), in hydroethanolic medium (pH 7.0) in the presence of neocuproine (2,9-dimethyl-1,10-phenanthroline), by polyphenols, yielding a Cu(I) complexes with maximum absorption peak at 450 nm. The absorbance values are linear (r = 0.998, n = 6) with tannic acid concentrations from 0.4 to 3.6 mu mol L(-1). The limit of detection obtained was 0.41 mu mol L(-1) and relative standard deviation 1.2% (1 mu mol L(-1); n = 8). Recoveries between 80% and 110% (mean value of 95%) were calculated for total polyphenols determination in 14 commercials and 2 synthetic wine samples (with and without sulphite). The proposed procedure is about 1.5 more sensitive than the official Folin-Ciocalteu method. The sensitivities of both methods were compared by the analytical responses of several polyphenols tested in each method. (C) 2010 Elsevier Ltd. All rights reserved.
Resumo:
Molecular orbital calculations were carried out on a set of 28 non-imidazole H(3) antihistamine compounds using the Hartree-Fock method in order to investigate the possible relationships between electronic structural properties and binding affinity for H3 receptors (pK(i)). It was observed that the frontier effective-for-reaction molecular orbital (FERMO) energies were better correlated with pK(i) values than highest occupied molecular orbital (HOMO) and lowest unoccupied molecular orbital (LUMO) energy values. Exploratory data analysis through hierarchical cluster (HCA) and principal component analysis (PCA) showed a separation of the compounds in two sets, one grouping the molecules with high pK(i) values, the other gathering low pK(i) value compounds. This separation was obtained with the use of the following descriptors: FERMO energies (epsilon(FERMO)), charges derived from the electrostatic potential on the nitrogen atom (N(1)), electronic density indexes for FERMO on the N(1) atom (Sigma((FERMO))c(i)(2)). and electrophilicity (omega`). These electronic descriptors were used to construct a quantitative structure-activity relationship (QSAR) model through the partial least-squares (PLS) method with three principal components. This model generated Q(2) = 0.88 and R(2) = 0.927 values obtained from a training set and external validation of 23 and 5 molecules, respectively. After the analysis of the PLS regression equation and the values for the selected electronic descriptors, it is suggested that high values of FERMO energies and of Sigma((FERMO))c(i)(2), together with low values of electrophilicity and pronounced negative charges on N(1) appear as desirable properties for the conception of new molecules which might have high binding affinity. 2010 Elsevier Inc. All rights reserved.
Resumo:
Empirical evidence suggests that real exchange rate is characterized by the presence of near-unity and additive outliers. Recent studeis have found evidence on favor PPP reversion by using the quasi-differencing (Elliott et al., 1996) unit root tests (ERS), which is more efficient against local alternatives but is still based on least squares estimation. Unit root tests basead on least saquares method usually tend to bias inference towards stationarity when additive out liers are present. In this paper, we incorporate quasi-differencing into M-estimation to construct a unit root test that is robust not only against near-unity root but also against nonGaussian behavior provoked by assitive outliers. We re-visit the PPP hypothesis and found less evidemce in favor PPP reversion when non-Gaussian behavior in real exchange rates is taken into account.
Resumo:
O objetivo deste trabalho é caracterizar a Curva de Juros Mensal para o Brasil através de três fatores, comparando dois tipos de métodos de estimação: Através da Representação em Espaço de Estado é possível estimá-lo por dois Métodos: Filtro de Kalman e Mínimos Quadrados em Dois Passos. Os fatores têm sua dinâmica representada por um Modelo Autorregressivo Vetorial, VAR(1), e para o segundo método de estimação, atribui-se uma estrutura para a Variância Condicional. Para a comparação dos métodos empregados, propõe-se uma forma alternativa de compará-los: através de Processos de Markov que possam modelar conjuntamente o Fator de Inclinação da Curva de Juros, obtido pelos métodos empregados neste trabalho, e uma váriavel proxy para Desempenho Econômico, fornecendo alguma medida de previsão para os Ciclos Econômicos.
Resumo:
As fraudes contábeis representam uma grande perda para a economia global tanto na esfera pública quanto privada, destacando, assim, os prejuízos sociais ocasionados por elas. Nesta perspectiva, diversas pesquisas têm demonstrado que as denúncias são um dos principais mecanismos de detecção de fraudes nas organizações. Inspirado em Taylor e Curtis (2010), o presente trabalho tem como objetivo identificar a influência das “camadas” pessoal, organizacional, profissional na intenção individual em denunciar uma situação fraudulenta que o mesmo tenha conhecimento. Ressalta-se, porém, a inclusão de uma “camada social”, bem como a consideração de aspectos peculiares da cultura brasileira na elaboração e análise das hipóteses. Para operacionalização das camadas foram utilizadas variáveis latentes coletadas por meio de um questionário respondido por 124 contabilistas. Para mensuração da influência na intenção em denunciar foi utilizado um Modelo de Equação Estrutural (SEM) estimado pelo método dos Mínimos Quadrados Parciais (PLS). Os resultados obtidos confirmaram a importância das camadas de influência no comportamento do eventual denunciante. Destaca-se, principalmente, a importância da camada social, a qual, além de influenciar diretamente de forma significativa a Intenção de Denunciar, também media o impacto da camada profissional. A camada organizacional não afeta de forma significante a intenção de denunciar. Nota-se, também o grande impacto causado pela camada pessoal. Tais fatos corroboram alguns dos principais traços da cultura brasileira, como a prevalência de relações informais e pessoais em detrimento de relações formais, além de identificar os traços da ambiguidade moral.
Resumo:
O desenvolvimento do mercado financeiro e, principalmente, a abertura para o capital externo impulsionaram o desenvolvimento das boas práticas de governança corporativa. Um de seus benefícios é reduzir o custo de captação da empresa e, consequentemente, gerar maior valor para a companhia. Com o novo cenário, o conselho de administração tem um papel fundamental na atividade de governança corporativa, supervisionando a diretoria executiva. O presente trabalho investiga se a adoção de melhores práticas de governança corporativa diminui o risco das empresas. Adicionalmente, analisa se um grau de escolaridade mais alto entre membros do conselho de administração e da diretoria executiva impacta no risco. Para atingir o objetivo, adotou-se o método dos mínimos quadrados para regredir o risco, variável dependente, contra as variáveis independentes nível de governança corporativa e grau de escolaridade. Para o cálculo do risco, utilizaremos a metodologia apresentada por Estrada (2007), o downside beta, ou seja, risco que considera apenas os retornos negativos. Os resultados do estudo sugeriram que um nível de governança corporativa mais alto está presente nas empresas que apresentam um maior risco visto pelo mercado, indicando que as empresas que necessitam de captação, isto é, empresas mais alavancadas, são as empresas que necessitam de um nível de governança corporativa mais alto. Constatou-se, também, que empresas com nível de escolaridade mais alto entre membros do conselho de administração e da diretoria executiva apresentam maiores riscos, pois as empresas que necessitam de pessoas com maior grau de escolaridade são empresas que querem se desenvolver e, portanto, mais arriscadas.
Resumo:
Mensalmente são publicados relatórios pelo Departamento de Agricultura dos Estados Unidos (USDA) onde são divulgados dados de condições das safras, oferta e demanda globais, nível dos estoques, que servem como referência para todos os participantes do mercado de commodities agrícolas. Esse mercado apresenta uma volatilidade acentuada no período de divulgação dos relatórios. Um modelo de volatilidade estocástica com saltos é utilizado para a dinâmica de preços de milho e de soja. Não existe um modelo ‘ideal’ para tal fim, cada um dos existentes têm suas vantagens e desvantagens. O modelo escolhido foi o de Oztukel e Wilmott (1998), que é um modelo de volatilidade estocástica empírica, incrementado com saltos determinísticos. Empiricamente foi demonstrado que um modelo de volatilidade estocástica pode ser bem ajustado ao mercado de commodities, e o processo de jump-diffusion pode representar bem os saltos que o mercado apresenta durante a divulgação dos relatórios. As opções de commodities agrícolas que são negociadas em bolsa são do tipo americanas, então alguns métodos disponíveis poderiam ser utilizados para precificar opções seguindo a dinâmica do modelo proposto. Dado que o modelo escolhido é um modelo multi-fatores, então o método apropriado para a precificação é o proposto por Longstaff e Schwartz (2001) chamado de Monte Carlo por mínimos quadrados (LSM). As opções precificadas pelo modelo são utilizadas em uma estratégia de hedge de uma posição física de milho e de soja, e a eficiência dessa estratégia é comparada com estratégias utilizando-se instrumentos disponíveis no mercado.
Resumo:
No contexto de um mercado tão competitivo, ter equipes bem preparadas e alocadas adequadamente é fundamental para a sobrevivência das empresas. O presente estudo objetiva identificar o reflexo na satisfação dos clientes e nos resultados das empresas, a partir do conhecimento das pessoas que trabalham na linha de frente dessas empresas, aqueles profissionais que exercem um papel importante de negociação, identificando o que eles valorizam subjetivamente em uma negociação. Por meio da ferramenta SVI (Subjective Value Inventory), desenvolvida por Curhan et al (2006), a partir das dimensões de autoimagem independente e interdependente, busca-se identificar os valores subjetivos dos negociadores de um banco de varejo brasileiro, responsáveis por parte significativa das negociações e dos resultados da empresa, relativamente aos sentimentos sobre si mesmos (Self), aos resultados instrumentais, e ao processo e relacionamento (Rapport), utilizando a confiança interpessoal como moderadora nessa relação. Após identificados os valores subjetivos desses negociadores em negociação, relacionar os resultados encontrados com a satisfação dos clientes. Para isso, foi realizada uma pesquisa quantitativa, com a aplicação de um questionário fechado e estruturado a 532 negociadores desse banco que atuam nos estados de Santa Catarina, Rio de Janeiro e Maranhão, responsáveis pelo relacionamento, prospecção e realização de negócios com os clientes da instituição, nos segmentos pessoa física, micro e pequenas empresas e governo. Os dados foram analisados a partir de técnicas estatísticas, utilizando-se o método dos Mínimos Quadrados Parciais. Observou-se que mais de 40% da satisfação de cliente é explicada pelos valores subjetivos dos negociadores. O estudo apontou como resultados, dentre outros, que os gerentes de negócios com autoimagem independente valorizam o Self e os resultados instrumentais em uma negociação, e que a confiança interpessoal cognitiva modera negativamente essa relação. Ainda, que aqueles gerentes de negócios com autoimagem interdependente, valorizam o Rapport em uma negociação e que essa valorização está positivamente relacionada com a satisfação dos clientes.
Resumo:
Este trabalho observa como as variáveis macroeconômicas (expectativa de inflação, juro real, hiato do produto e a variação cambial) influenciam a dinâmica da Estrutura a Termo da Taxa de Juros (ETTJ). Esta dinâmica foi verificada introduzindo a teoria de Análise de Componentes Principais (ACP) para capturar o efeito das componentes mais relevantes na ETTJ (nível, inclinação e curvatura). Utilizando-se as estimativas por mínimos quadrados ordinários e pelo método generalizado dos momentos, foi verificado que existe uma relação estatisticamente significante entre as variáveis macroeconômicas e as componentes principais da ETTJ.
Resumo:
Allergic asthma represents an important public health issue, most common in the paediatric population, characterized by airway inflammation that may lead to changes in volatiles secreted via the lungs. Thus, exhaled breath has potential to be a matrix with relevant metabolomic information to characterize this disease. Progress in biochemistry, health sciences and related areas depends on instrumental advances, and a high throughput and sensitive equipment such as comprehensive two-dimensional gas chromatography–time of flight mass spectrometry (GC × GC–ToFMS) was considered. GC × GC–ToFMS application in the analysis of the exhaled breath of 32 children with allergic asthma, from which 10 had also allergic rhinitis, and 27 control children allowed the identification of several hundreds of compounds belonging to different chemical families. Multivariate analysis, using Partial Least Squares-Discriminant Analysis in tandem with Monte Carlo Cross Validation was performed to assess the predictive power and to help the interpretation of recovered compounds possibly linked to oxidative stress, inflammation processes or other cellular processes that may characterize asthma. The results suggest that the model is robust, considering the high classification rate, sensitivity, and specificity. A pattern of six compounds belonging to the alkanes characterized the asthmatic population: nonane, 2,2,4,6,6-pentamethylheptane, decane, 3,6-dimethyldecane, dodecane, and tetradecane. To explore future clinical applications, and considering the future role of molecular-based methodologies, a compound set was established to rapid access of information from exhaled breath, reducing the time of data processing, and thus, becoming more expedite method for the clinical purposes.