981 resultados para Generalized Least-squares


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The x-ray crystal structure of thiamine hydroiodide,C1ZH18N40S12' has been determined. The unit cell parameters are a = 13.84 ± 0.03, o b = 7.44 ± 0.01, c = 20.24 ± 0.02 A, 8 = 120.52 ± 0.07°, space group P2/c, z = 4. A total of 1445 reflections having ,2 > 2o(F2), 26 < 40° were collected on a Picker four-circle diffractometer with MoKa radiation by the 26 scan technique. The structure was solved by the heavy atom method. The iodine and sulphur atoms were refined anisotropically; only the positional parameters were refined for the hydrogen atoms. Successive least squares cycles yielded an unweighted R factor of 0.054. The site of protonation of the pyrimidine ring is the nitrogen opposite the amino group. The overall structure conforms very closely to the structures of other related thiamine compounds. The bonding surrounding the iodine atoms is distorted tetrahedral. The iodine atoms make several contacts with surrounding atoms most of them at or near the van der Waal's distances A thiaminium tetrachlorocobaltate salt was produced whose molecular and crystal structure was j~dged to be isomorphous to thiaminium tetrachlorocadmate.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The 3700 A - 3000 A absorption spectra of CH3CHO and its isotopic compounds such as CH3CDO, CD3CHO and CD3CDO were studied in the gas phase at room temperature and low temperatures. The low resolution spectra of the compounds were recorded by a 1.5 m Baush and Lomb grating spectrograph. The high resolution spectra were recorded by a Ebert spectrograph with the Echelle grating and the holographic grating separately. The multiple reflection cells were used to achieve the long path length. The pressure-path length used for the absorption spectrum of CH 3CHO was up to 100 mm Hg )( 91 . 43mo The emission spectrum and the excitation spectrum of CH3CHO were also recorded in this research. The calculated satellite band patterns \vhich were ob-tailied by the method of Lewis were used to compare with the observed near UV absorption spectrum of acetaldehyde. These calculated satellite band patterns belonged to two cases: namely, the barriers-in-phase case and the barriers- out-of-phase case. Each of the calculated patterns corresponded to a stable conformation of acetaldehyde in the excited state . The comparisons showed that the patterns in the observed absorption spectra corresponded to the H-H eclipsed conformations of acetaldehyde in the excited state . The least squares fitting analysis showed that the barrier heights in the excited state were higher than in the ground state. Finally, the isotopic shifts for the isotopic compounds of acetaldehyde were compared to the compounds with the similar deuterium substitution.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Jet-cooled, laser-induced phosphorescence excitation spectra (LIP) of thioacetaldehyde CH3CHS, CH3CDS, CD3CHS and CD3CDS have been observed over the region 15800 - 17300 cm"^ in a continuous pyrolysis jet. The vibronic band structure of the singlet-triplet n -* n* transition were attributed to the strong coupling of the methyl torsion and aldehydic hydrogen wagging modes . The vibronic peaks have been assigned in terms of two upper electronic state (T^) vibrations; the methyl torsion mode v^g, and the aldehydic hydrogen wagging mode v^^. The electronic origin O^a^ is unequivocally assigned as follows: CH3CHS (16294.9 cm"'' ), CH3CDS (16360.9 cm"'' ), CD3CHS (16299.7 cm"^ ), and CD3CDS (16367.2 cm"'' ). To obtain structural and dynamical information about the two electronic states, potential surfaces V(e,a) for the 6 (methyl torsion) and a (hydrogen wagging) motions were generated by ab initio quantum mechanical calculations with a 6-3 IG* basis in which the structural parameters were fully relaxed. The kinetic energy coefficients BQ(a,e) , B^(a,G) , and the cross coupling term B^(a,e) , were accurately represented as functions of the two active coordinates, a and 9. The calculations reveal that the molecule adopts an eclipsed conformation for the lower Sq electronic state (a=0°,e=0"') with a barrier height to internal rotation of 541.5 cm"^ which is to be compared to 549.8 cm"^ obtained from the microwave experiment. The conformation of the upper T^ electronic state was found to be staggered (a=24 . 68° ,e=-45. 66° ) . The saddle point in the path traced out by the aldehyde wagging motion was calculated to be 175 cm"^ above the equilibrium configuration. The corresponding maxima in the path taken by methyl torsion was found to be 322 cm'\ The small amplitude normal vibrational modes were also calculated to aid in the assignment of the spectra. Torsional-wagging energy manifolds for the two states were derived from the Hamiltonian H(a,e) which was solved variationally using an extended two dimensional Fourier expansion as a basis set. A torsionalinversion band spectrum was derived from the calculated energy levels and Franck-Condon factors, and was compared with the experimental supersonic-jet spectra. Most of the anomalies which were associated with the interpretation of the observed spectrum could be accounted for by the band profiles derived from ab initio SCF calculations. A model describing the jet spectra was derived by scaling the ab initio potential functions. The global least squares fitting generates a triplet state potential which has a minimum at (a=22.38° ,e=-41.08°) . The flatter potential in the scaled model yielded excellent agreement between the observed and calculated frequency intervals.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A simple, low-cost concentric capillary nebulizer (CCN) was developed and evaluated for ICP spectrometry. The CCN could be operated at sample uptake rates of 0.050-1.00 ml min'^ and under oscillating and non-oscillating conditions. Aerosol characteristics for the CCN were studied using a laser Fraunhofter diffraction analyzer. Solvent transport efficiencies and transport rates, detection limits, and short- and long-term stabilities were evaluated for the CCN with a modified cyclonic spray chamber at different sample uptake rates. The Mg II (280.2nm)/l\/lg 1(285.2nm) ratio was used for matrix effect studies. Results were compared to those with conventional nebulizers, a cross-flow nebulizer with a Scott-type spray chamber, a GemCone nebulizer with a cyclonic spray chamber, and a Meinhard TR-30-K3 concentric nebulizer with a cyclonic spray chamber. Transport efficiencies of up to 57% were obtained for the CCN. For the elements tested, short- and long-term precisions and detection limits obtained with the CCN at 0.050-0.500 ml min'^ are similar to, or better than, those obtained on the same instrument using the conventional nebulizers (at 1.0 ml min'^). The depressive and enhancement effects of easily ionizable element Na, sulfuric acid, and dodecylamine surfactant on analyte signals with the CCN are similar to, or better than, those obtained with the conventional nebulizers. However, capillary clog was observed when the sample solution with high dissolved solids was nebulized for more than 40 min. The effects of data acquisition and data processing on detection limits were studied using inductively coupled plasma-atomic emission spectrometry. The study examined the effects of different detection limit approaches, the effects of data integration modes, the effects of regression modes, the effects of the standard concentration range and the number of standards, the effects of sample uptake rate, and the effect of Integration time. All the experiments followed the same protocols. Three detection limit approaches were examined, lUPAC method, the residual standard deviation (RSD), and the signal-to-background ratio and relative standard deviation of the background (SBR-RSDB). The study demonstrated that the different approaches, the integration modes, the regression methods, and the sample uptake rates can have an effect on detection limits. The study also showed that the different approaches give different detection limits and some methods (for example, RSD) are susceptible to the quality of calibration curves. Multicomponents spectral fitting (MSF) gave the best results among these three integration modes, peak height, peak area, and MSF. Weighted least squares method showed the ability to obtain better quality calibration curves. Although an effect of the number of standards on detection limits was not observed, multiple standards are recommended because they provide more reliable calibration curves. An increase of sample uptake rate and integration time could improve detection limits. However, an improvement with increased integration time on detection limits was not observed because the auto integration mode was used.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Emerging markets have received wide attention from investors around the globe because of their return potential and risk diversification. This research examines the selection and timing performance of Canadian mutual funds which invest in fixed-income and equity securities in emerging markets. We use (un)conditional two- and five-factor benchmark models that accommodate the dynamics of returns in emerging markets. We also adopt the cross-sectional bootstrap methodology to distinguish between ‘skill’ and ‘luck’ for individual funds. All the tests are conducted using a comprehensive data set of bond and equity emerging funds over the period of 1989-2011. The risk-adjusted measures of performance are estimated using the least squares method with the Newey-West adjustment for standard errors that are robust to conditional heteroskedasticity and autocorrelation. The performance statistics of the emerging funds before (after) management-related costs are insignificantly positive (significantly negative). They are sensitive to the chosen benchmark model and conditional information improves selection performance. The timing statistics are largely insignificant throughout the sample period and are not sensitive to the benchmark model. Evidence of timing and selecting abilities is obtained in a small number of funds which is not sensitive to the fees structure. We also find evidence that a majority of individual funds provide zero (very few provide positive) abnormal return before fees and a significantly negative return after fees. At the negative end of the tail of performance distribution, our resampling tests fail to reject the role of bad luck in the poor performance of funds and we conclude that most of them are merely ‘unlucky’.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Digital Terrain Models (DTMs) are important in geology and geomorphology, since elevation data contains a lot of information pertaining to geomorphological processes that influence the topography. The first derivative of topography is attitude; the second is curvature. GIS tools were developed for derivation of strike, dip, curvature and curvature orientation from Digital Elevation Models (DEMs). A method for displaying both strike and dip simultaneously as colour-coded visualization (AVA) was implemented. A plug-in for calculating strike and dip via Least Squares Regression was created first using VB.NET. Further research produced a more computationally efficient solution, convolution filtering, which was implemented as Python scripts. These scripts were also used for calculation of curvature and curvature orientation. The application of these tools was demonstrated by performing morphometric studies on datasets from Earth and Mars. The tools show promise, however more work is needed to explore their full potential and possible uses.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper considers various asymptotic approximations in the near-integrated firstorder autoregressive model with a non-zero initial condition. We first extend the work of Knight and Satchell (1993), who considered the random walk case with a zero initial condition, to derive the expansion of the relevant joint moment generating function in this more general framework. We also consider, as alternative approximations, the stochastic expansion of Phillips (1987c) and the continuous time approximation of Perron (1991). We assess how these alternative methods provide or not an adequate approximation to the finite-sample distribution of the least-squares estimator in a first-order autoregressive model. The results show that, when the initial condition is non-zero, Perron's (1991) continuous time approximation performs very well while the others only offer improvements when the initial condition is zero.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Many unit root and cointegration tests require an estimate of the spectral density function at frequency zero at some process. Kernel estimators based on weighted sums of autocovariances constructed using estimated residuals from an AR(1) regression are commonly used. However, it is known that with substantially correlated errors, the OLS estimate of the AR(1) parameter is severely biased. in this paper, we first show that this least squares bias induces a significant increase in the bias and mean-squared error of kernel-based estimators.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse par articles examine les causes et conséquences économiques des politiques d'immigration du point de vue des pays receveurs. Je soutiens que les politiques d'immigration affectent la composition industrielle, et que l'immigration non-qualifiée a ralenti le développement des secteurs haute-technologie dans les pays de l'OCDE au cours des dernières décennies. Néanmoins, les gouvernements élus ont des incitatifs à accroître les niveaux d'immigration et à admettre des immigrants non-qualifiés, afin de conserver l'appui du secteur privé, et de façon à éviter les réactions négatives qui résulteraient de l'affaiblissement des industries traditionnelles. Le premier article s'appuie sur un modèle de progrès technologique endogène et soutient que les activités de recherche des entreprises croissent avec l'offre relative en travail qualifié, et se contractent avec l'offre relative en travail non-qualifié. À l'aide de données panel sur les pays de l'OCDE entre 1971 et 2003, j'estime l'élasticité des dépenses en R&D par rapport à l'offre relative de facteurs au moyen d'un modèle OLS dynamique (DOLS). Les résultats sont conséquents avec les propositions théoriques, et je démontre que l'immigration non-qualifiée a ralenti l'intensité des investissements privés en R&D. Le deuxième article examine la réponse des gouvernements fédéraux canadiens au lobbying des entreprises sur l'enjeu de l'immigration, à l'aide de données trimestrielles entre 1996 et 2011. J'argue que les gouvernements ont des incitatifs électoraux à accroître les niveaux d'immigration malgré les préférences restrictives du public sur cet enjeu, afin de s'assurer de l'appui des groupes d'intérêt corporatifs. Je teste cet argument à l'aide d'un modèle vectoriel autorégressif. Un résultat clé est la réponse positive des influx de travailleurs temporaires à l'intensité du lobbying des entreprises. Le troisième article soutient que les gouvernements ont des incitatifs à gérer la sélection des immigrants de façon à préserver la composition industrielle régionale. Je teste cet argument avec des données panel sur les provinces canadiennes entre 2001 et 2010, et un devis de recherche basé sur l'approche des doubles moindres carrés (two-stage least squares). Les résultats tendent à appuyer l'argument principal : les provinces dont l'économie repose davantage sur des industries traditionnelles sont susceptibles de recevoir une plus grande proportion d'immigrants non-qualifiés, ce qui contribue à renforcer cette spécialisation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire.