887 resultados para Sums of squares
Resumo:
We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
Cette thèse s’intéresse aux choix institutionnels des législateurs. Elle propose une analyse diachronique et comparative du développement des Chambre Nationale des Députés argentines et chiliennes des années 1940 aux années 2000. Inspiré de la théorie du Cartel (Cox et McCubbins, 1993), ce travail se concentre sur le rôle des partis politiques dans ce développement institutionnel. Il montre qu’en dépit de leurs différences, les partis uniques, coalitions, forces majoritaires ou minoritaires qui ont dirigé ces chambres ont adopté un large éventail de règles et de normes organisationnelles qui les avantagent. Ils se sont, en un mot, comportés comme des coalitions procédurales. L’analyse des modifications des règles de fonctionnement de ces chambres et de leurs systèmes de direction et de commissions montre que les partis et coalitions au pouvoir ont, pendant cette période, renforcé leur pouvoir, contrôlé l’agenda législatif, structuré les systèmes de commission et adopté des règles qui leur ont profité. Les résultats obtenus suggèrent en particulier que les coalitions qui ont dirigé la chambre Chilienne ont installé certains de leurs membres à plusieurs postes comme les présidences d’assemblée et de commissions. Ils montrent l’existence d’un pouvoir de véto sur l’agenda législative plus importante au Chili qu’en Argentine. L’étude du cas argentin montre que les partis au pouvoir ont, en particulier depuis les années 1960, conservé le contrôle de la chambre, non seulement en modifiant les règles et les structures du système de commissions, mais également en créant et distribuant à l’opposition des postes permanents mais sans réel pouvoir. Cette analyse confirme également les résultats obtenus par de récentes études concernant ce champ de recherche, notamment le professionnalisme du système de commission chilien et le caractère amateur des législateurs argentins. A l’inverse, elle met à jour des différences, négligées jusqu’alors, entre l’Argentine et le Chili concernant le contrôle de l’agenda législatif. Cette thèse est divisée en sept chapitres. Le premier introduit le sujet, l’hypothèse générale et les questions posées par la thèse, en expliquant également pourquoi les choix institutionnels des législateurs importent. Le chapitre II présente la théorie et la méthodologie. Il propose une définition du développement institutionnel et explicite les prédictions et critères permettant de tester l’hypothèse générale. Les chapitre III et IV, qui concernent respectivement l’Argentine et le Chili, décrivent le système politique de chaque pays et l’organisation des chambres durant la période étudiée. Les chapitre IV et VI, respectivement pour l’Argentine et le Chili, analysent les réformes des règles régissant les chambres, l’évolution de l’autorité qui les dirige et celle du système de commission. Ces chapitres se concluent par un résumé des différents schémas mis en évidence et une évaluation préliminaire de l’hypothèse générale. En conclusion, le chapitre VII résume les découvertes, donne un verdict global sur la fécondité de la théorie et suggère de nouvelles pistes de recherche.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Cette thèse par articles examine les causes et conséquences économiques des politiques d'immigration du point de vue des pays receveurs. Je soutiens que les politiques d'immigration affectent la composition industrielle, et que l'immigration non-qualifiée a ralenti le développement des secteurs haute-technologie dans les pays de l'OCDE au cours des dernières décennies. Néanmoins, les gouvernements élus ont des incitatifs à accroître les niveaux d'immigration et à admettre des immigrants non-qualifiés, afin de conserver l'appui du secteur privé, et de façon à éviter les réactions négatives qui résulteraient de l'affaiblissement des industries traditionnelles. Le premier article s'appuie sur un modèle de progrès technologique endogène et soutient que les activités de recherche des entreprises croissent avec l'offre relative en travail qualifié, et se contractent avec l'offre relative en travail non-qualifié. À l'aide de données panel sur les pays de l'OCDE entre 1971 et 2003, j'estime l'élasticité des dépenses en R&D par rapport à l'offre relative de facteurs au moyen d'un modèle OLS dynamique (DOLS). Les résultats sont conséquents avec les propositions théoriques, et je démontre que l'immigration non-qualifiée a ralenti l'intensité des investissements privés en R&D. Le deuxième article examine la réponse des gouvernements fédéraux canadiens au lobbying des entreprises sur l'enjeu de l'immigration, à l'aide de données trimestrielles entre 1996 et 2011. J'argue que les gouvernements ont des incitatifs électoraux à accroître les niveaux d'immigration malgré les préférences restrictives du public sur cet enjeu, afin de s'assurer de l'appui des groupes d'intérêt corporatifs. Je teste cet argument à l'aide d'un modèle vectoriel autorégressif. Un résultat clé est la réponse positive des influx de travailleurs temporaires à l'intensité du lobbying des entreprises. Le troisième article soutient que les gouvernements ont des incitatifs à gérer la sélection des immigrants de façon à préserver la composition industrielle régionale. Je teste cet argument avec des données panel sur les provinces canadiennes entre 2001 et 2010, et un devis de recherche basé sur l'approche des doubles moindres carrés (two-stage least squares). Les résultats tendent à appuyer l'argument principal : les provinces dont l'économie repose davantage sur des industries traditionnelles sont susceptibles de recevoir une plus grande proportion d'immigrants non-qualifiés, ce qui contribue à renforcer cette spécialisation.
Resumo:
Full Text / Article complet
Resumo:
One of the major concerns of scoliosis patients undergoing surgical treatment is the aesthetic aspect of the surgery outcome. It would be useful to predict the postoperative appearance of the patient trunk in the course of a surgery planning process in order to take into account the expectations of the patient. In this paper, we propose to use least squares support vector regression for the prediction of the postoperative trunk 3D shape after spine surgery for adolescent idiopathic scoliosis. Five dimensionality reduction techniques used in conjunction with the support vector machine are compared. The methods are evaluated in terms of their accuracy, based on the leave-one-out cross-validation performed on a database of 141 cases. The results indicate that the 3D shape predictions using a dimensionality reduction obtained by simultaneous decomposition of the predictors and response variables have the best accuracy.
Resumo:
A graphs G is clique irreducible if every clique in G of size at least two,has an edge which does not lie in any other clique of G and is clique reducible if it is not clique irreducible. A graph G is clique vertex irreducible if every clique in G has a vertex which does not lie in any other clique of G and clique vertex reducible if it is not clique vertex irreducible. The clique vertex irreducibility and clique irreducibility of graphs which are non-complete extended p-sums (NEPS) of two graphs are studied. We prove that if G(c) has at least two non-trivial components then G is clique vertex reducible and if it has at least three non-trivial components then G is clique reducible. The cographs and the distance hereditary graphs which are clique vertex irreducible and clique irreducible are also recursively characterized.
Resumo:
Chemistry occupies a unique middle position in the scientific arena, between physics and mathematics on the one side and biology, ecology, sociology and economics on the other [1]. Chemistry is the science of matter and of its transformations, and life is its highest expression [2]. According to reductionist thinking biology is reducible into chemistry, chemistry into physics, and ultimately physics into mathematics. Reductionism implies the ease of understanding one level in terms of another.The work presented this thesis comprises synthesis and characterization of suitably substituted thiocarbohydrazone and carbohydrazone ligand building blocks, self-assembled metallosupramolecular square grid complexes as well as some di/multinuclear complexes. The primary aim was the deliberate syntheses of some novel transition metal framework complexes, mainly metallosupramolecular coordination square grids by self-assembly and their physico-chemical characterization. The work presented, however, also include synthesis and characterization of four mononuclear Ni(II) complexes of two thiosemicarbazones, which we carried out as a preliminary and supporting study. Based on the present work we would like to conclude that the carbohydrazones, thiocarbohydrazones and their coordination framework complexes of transition metals are promising systems for wide application in science and technology varied from physics to biotechnology. Novel classes of materials and biologically important potential compounds open up further scope of researches and we hopefully welcome any sort of related research to make this work more valuable.
Resumo:
Design and study of molecular receptors capable of mimicking natural processes has found applications in basic research as well as in the development of potentially useful technologies. Of the various receptors reported, the cyclophanes are known to encapsulate guest molecules in their cavity utilizing various non–covalent interactions resulting in significant changes in their optical properties. This unique property of the cyclophanes has been widely exploited for the development of selective and sensitive probes for a variety of guest molecules including complex biomolecules. Further, the incorporation of metal centres into these systems added new possibilities for designing receptors such as the metallocyclophanes and transition metal complexes, which can target a large variety of Lewis basic functional groups that act as selective synthetic receptors. The ligands that form complexes with the metal ions, and are capable of further binding to Lewis-basic substrates through open coordination sites present in various biomolecules are particularly important as biomolecular receptors. In this context, we synthesized a few anthracene and acridine based metal complexes and novel metallocyclophanes and have investigated their photophysical and biomolecular recognition properties.
Resumo:
Econometrics is a young science. It developed during the twentieth century in the mid-1930’s, primarily after the World War II. Econometrics is the unification of statistical analysis, economic theory and mathematics. The history of econometrics can be traced to the use of statistical and mathematics analysis in economics. The most prominent contributions during the initial period can be seen in the works of Tinbergen and Frisch, and also that of Haavelmo in the 1940's through the mid 1950's. Right from the rudimentary application of statistics to economic data, like the use of laws of error through the development of least squares by Legendre, Laplace, and Gauss, the discipline of econometrics has later on witnessed the applied works done by Edge worth and Mitchell. A very significant mile stone in its evolution has been the work of Tinbergen, Frisch, and Haavelmo in their development of multiple regression and correlation analysis. They used these techniques to test different economic theories using time series data. In spite of the fact that some predictions based on econometric methodology might have gone wrong, the sound scientific nature of the discipline cannot be ignored by anyone. This is reflected in the economic rationale underlying any econometric model, statistical and mathematical reasoning for the various inferences drawn etc. The relevance of econometrics as an academic discipline assumes high significance in the above context. Because of the inter-disciplinary nature of econometrics (which is a unification of Economics, Statistics and Mathematics), the subject can be taught at all these broad areas, not-withstanding the fact that most often Economics students alone are offered this subject as those of other disciplines might not have adequate Economics background to understand the subject. In fact, even for technical courses (like Engineering), business management courses (like MBA), professional accountancy courses etc. econometrics is quite relevant. More relevant is the case of research students of various social sciences, commerce and management. In the ongoing scenario of globalization and economic deregulation, there is the need to give added thrust to the academic discipline of econometrics in higher education, across various social science streams, commerce, management, professional accountancy etc. Accordingly, the analytical ability of the students can be sharpened and their ability to look into the socio-economic problems with a mathematical approach can be improved, and enabling them to derive scientific inferences and solutions to such problems. The utmost significance of hands-own practical training on the use of computer-based econometric packages, especially at the post-graduate and research levels need to be pointed out here. Mere learning of the econometric methodology or the underlying theories alone would not have much practical utility for the students in their future career, whether in academics, industry, or in practice This paper seeks to trace the historical development of econometrics and study the current status of econometrics as an academic discipline in higher education. Besides, the paper looks into the problems faced by the teachers in teaching econometrics, and those of students in learning the subject including effective application of the methodology in real life situations. Accordingly, the paper offers some meaningful suggestions for effective teaching of econometrics in higher education
Resumo:
The classical methods of analysing time series by Box-Jenkins approach assume that the observed series uctuates around changing levels with constant variance. That is, the time series is assumed to be of homoscedastic nature. However, the nancial time series exhibits the presence of heteroscedasticity in the sense that, it possesses non-constant conditional variance given the past observations. So, the analysis of nancial time series, requires the modelling of such variances, which may depend on some time dependent factors or its own past values. This lead to introduction of several classes of models to study the behaviour of nancial time series. See Taylor (1986), Tsay (2005), Rachev et al. (2007). The class of models, used to describe the evolution of conditional variances is referred to as stochastic volatility modelsThe stochastic models available to analyse the conditional variances, are based on either normal or log-normal distributions. One of the objectives of the present study is to explore the possibility of employing some non-Gaussian distributions to model the volatility sequences and then study the behaviour of the resulting return series. This lead us to work on the related problem of statistical inference, which is the main contribution of the thesis
Resumo:
In this 1984 proof of the Bieberbach and Milin conjectures de Branges used a positivity result of special functions which follows from an identity about Jacobi polynomial sums thas was published by Askey and Gasper in 1976. The de Branges functions Tn/k(t) are defined as the solutions of a system of differential recurrence equations with suitably given initial values. The essential fact used in the proof of the Bieberbach and Milin conjectures is the statement Tn/k(t)<=0. In 1991 Weinstein presented another proof of the Bieberbach and Milin conjectures, also using a special function system Λn/k(t) which (by Todorov and Wilf) was realized to be directly connected with de Branges', Tn/k(t)=-kΛn/k(t), and the positivity results in both proofs Tn/k(t)<=0 are essentially the same. In this paper we study differential recurrence equations equivalent to de Branges' original ones and show that many solutions of these differential recurrence equations don't change sign so that the above inequality is not as surprising as expected. Furthermore, we present a multiparameterized hypergeometric family of solutions of the de Branges differential recurrence equations showing that solutions are not rare at all.
Resumo:
Summary: Productivity, botanical composition and forage quality of legume-grass swards are important factors for successful arable farming in both organic and conventional farming systems. As these attributes can vary considerably within a field, a non-destructive method of detection while doing other tasks would facilitate a more targeted management of crops, forage and nutrients in the soil-plant-animal system. This study was undertaken to explore the potential of field spectral measurements for a non destructive prediction of dry matter (DM) yield, legume proportion in the sward, metabolizable energy (ME), ash content, crude protein (CP) and acid detergent fiber (ADF) of legume-grass mixtures. Two experiments were conducted in a greenhouse under controlled conditions which allowed collecting spectral measurements which were free from interferences such as wind, passing clouds and changing angles of solar irradiation. In a second step this initial investigation was evaluated in the field by a two year experiment with the same legume-grass swards. Several techniques for analysis of the hyperspectral data set were examined in this study: four vegetation indices (VIs): simple ratio (SR), normalized difference vegetation index (NDVI), enhanced vegetation index (EVI) and red edge position (REP), two-waveband reflectance ratios, modified partial least squares (MPLS) regression and stepwise multiple linear regression (SMLR). The results showed the potential of field spectroscopy and proved its usefulness for the prediction of DM yield, ash content and CP across a wide range of legume proportion and growth stage. In all investigations prediction accuracy of DM yield, ash content and CP could be improved by legume-specific calibrations which included mixtures and pure swards of perennial ryegrass and of the respective legume species. The comparison between the greenhouse and the field experiments showed that the interaction between spectral reflectance and weather conditions as well as incidence angle of light interfered with an accurate determination of DM yield. Further research is hence needed to improve the validity of spectral measurements in the field. Furthermore, the developed models should be tested on varying sites and vegetation periods to enhance the robustness and portability of the models to other environmental conditions.
Resumo:
This study uses data from a sample survey of 200 households drawn from a mountainous commune in Vietnam’s North Central Coast region to measure and explain relative poverty. Principal components analysis is used to construct a multidimensional index of poverty outcomes from variables measuring household income and the value of domestic assets. This index of poverty is then regressed on likely causes of poverty including different forms of resource endowment and social exclusion defined by gender and ethnicity. The ordinary least squares estimates indicate that poverty is indeed influenced by ethnicity, partly through its interaction with social capital. However, poverty is most strongly affected by differences in human and social capital. Differences in the amount of livestock and high quality farmland owned also matter. Thai households are poorer than their Kinh counterparts even when endowed with the same levels of human, social, physical and natural capital considered in the study. This empirical result provides a rationale for further research on the causal relationship between ethnicity and poverty outcomes.