17 resultados para sums of squares
em Université de Montréal, Canada
Resumo:
This note investigates the adequacy of the finite-sample approximation provided by the Functional Central Limit Theorem (FCLT) when the errors are allowed to be dependent. We compare the distribution of the scaled partial sums of some data with the distribution of the Wiener process to which it converges. Our setup is purposely very simple in that it considers data generated from an ARMA(1,1) process. Yet, this is sufficient to bring out interesting conclusions about the particular elements which cause the approximations to be inadequate in even quite large sample sizes.
Resumo:
Many unit root and cointegration tests require an estimate of the spectral density function at frequency zero at some process. Kernel estimators based on weighted sums of autocovariances constructed using estimated residuals from an AR(1) regression are commonly used. However, it is known that with substantially correlated errors, the OLS estimate of the AR(1) parameter is severely biased. in this paper, we first show that this least squares bias induces a significant increase in the bias and mean-squared error of kernel-based estimators.
Resumo:
"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en droit (LL.D.)"
Resumo:
Différentes méthodes ayant pour objectif une utilisation optimale d'antennes radio-fréquences spécialisées en imagerie par résonance magnétique sont développées et validées. Dans un premier temps, il est démontré qu'une méthode alternative de combinaison des signaux provenant des différents canaux de réception d'un réseau d'antennes mène à une réduction significative du biais causé par la présence de bruit dans des images de diffusion, en comparaison avec la méthode de la somme-des-carrés généralement utilisée. Cette réduction du biais engendré par le bruit permet une amélioration de l'exactitude de l'estimation de différents paramètres de diffusion et de diffusion tensorielle. De plus, il est démontré que cette méthode peut être utilisée conjointement avec une acquisition régulière sans accélération, mais également en présence d'imagerie parallèle. Dans une seconde perspective, les bénéfices engendrés par l'utilisation d'une antenne d'imagerie intravasculaire sont étudiés. Suite à une étude sur fantôme, il est démontré que l'imagerie par résonance magnétique intravasculaire offre le potentiel d'améliorer significativement l'exactitude géométrique lors de mesures morphologiques vasculaires, en comparaison avec les résultats obtenus avec des antennes de surface classiques. Il est illustré qu'une exactitude géométrique comparable à celle obtenue grâce à une sonde ultrasonique intravasculaire peut être atteinte. De plus, plusieurs protocoles basés sur une acquisition de type balanced steady-state free-precession sont comparés dans le but de mettre en évidence différentes relations entre les paramètres utilisés et l'exactitude géométrique obtenue. En particulier, des dépendances entre la taille du vaisseau, le rapport signal-sur-bruit à la paroi vasculaire, la résolution spatiale et l'exactitude géométrique atteinte sont mises en évidence. Dans une même optique, il est illustré que l'utilisation d'une antenne intravasculaire permet une amélioration notable de la visualisation de la lumière d'une endoprothèse vasculaire. Lorsque utilisée conjointement avec une séquence de type balanced steady-state free-precession utilisant un angle de basculement spécialement sélectionné, l'imagerie par résonance magnétique intravasculaire permet d'éliminer complètement les limitations normalement engendrées par l'effet de blindage radio-fréquence de l'endoprothèse.
Resumo:
Le graffiti est depuis longtemps associé au vandalisme dans les métropoles où il prolifère. Il s’intègre au paysage urbain à un point tel que, même s’il procède d’une logique de visibilité et de promotion, nous parvenons à ne plus le remarquer. Pourtant, sa présence suscite toujours la colère des citoyens propriétaires de murs vandalisés et des autorités municipales qui, chaque année, dépensent de grosses sommes d’argent pour l’effacer. Malgré les restrictions et les amendes, le graffiti est néanmoins devenu un véritable phénomène d’art urbain : des artistes graffiteurs ont atteint la notoriété en dehors de leur sous-culture et ont pu exposer légalement leur travail, du fait d’un intérêt croissant du milieu officiel de l’art. Celui-ci contribue à faire grandir l’engouement et l’enthousiasme pour une pratique d’art urbaine. Le graffiti illustre l’expression d’une identité qui s’approprie et subvertit les surfaces urbaines de la ville, au moyen d’un nom propre fictif qui n’a aucune légitimation juridique et légale. De plus, l’application et la diffusion de la signature graffitique communiquent des valeurs qui guident et définissent toute la sous-culture du graffiti. Ces valeurs sont culturellement considérées comme masculines : le risque, le défi et la dissidence. La figure de l’artiste graffiteur apparaît ainsi comme une figure marginale et rebelle. Un tel portrait laisse alors entrevoir une culture fortement machiste, d’autant plus que les garçons qui exercent le graffiti sont beaucoup plus nombreux. Or, si les femmes artistes de la communauté graffitique représentent une minorité, c’est notamment parce que leur attrait pour une pratique illicite, nocturne et dangereuse est moindre. À partir d’une approche qui touche aux gender studies et à certains concepts traditionnels de l’histoire de l’art, nous cherchons à expliquer l’intérêt généralement plus faible des femmes pour le graffiti. Nous désirons également démontrer comment l’exercice des artistes féminines du graffiti se distingue de celui de leurs homologues masculins. De quelle manière se détermine leur expérience? Leur iconographie sert-elle à les définir? Quelles sont leurs opinions et leurs perceptions sur leur propre culture? Finalement, comment caractérisent-elles leur statut de femme artiste au sein d’une communauté "machiste"?
Resumo:
Dans ce travail, nous exploitons des propriétés déjà connues pour les systèmes de poids des représentations afin de les définir pour les orbites des groupes de Weyl des algèbres de Lie simples, traitées individuellement, et nous étendons certaines de ces propriétés aux orbites des groupes de Coxeter non cristallographiques. D'abord, nous considérons les points d'une orbite d'un groupe de Coxeter fini G comme les sommets d'un polytope (G-polytope) centré à l'origine d'un espace euclidien réel à n dimensions. Nous introduisons les produits et les puissances symétrisées de G-polytopes et nous en décrivons la décomposition en des sommes de G-polytopes. Plusieurs invariants des G-polytopes sont présentés. Ensuite, les orbites des groupes de Weyl des algèbres de Lie simples de tous types sont réduites en l'union d'orbites des groupes de Weyl des sous-algèbres réductives maximales de l'algèbre. Nous listons les matrices qui transforment les points des orbites de l'algèbre en des points des orbites des sous-algèbres pour tous les cas n<=8 ainsi que pour plusieurs séries infinies des paires d'algèbre-sous-algèbre. De nombreux exemples de règles de branchement sont présentés. Finalement, nous fournissons une nouvelle description, uniforme et complète, des centralisateurs des sous-groupes réguliers maximaux des groupes de Lie simples de tous types et de tous rangs. Nous présentons des formules explicites pour l'action de tels centralisateurs sur les représentations irréductibles des algèbres de Lie simples et montrons qu'elles peuvent être utilisées dans le calcul des règles de branchement impliquant ces sous-algèbres.
Resumo:
Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.
Resumo:
Objective To determine scoliosis curve types using non invasive surface acquisition, without prior knowledge from X-ray data. Methods Classification of scoliosis deformities according to curve type is used in the clinical management of scoliotic patients. In this work, we propose a robust system that can determine the scoliosis curve type from non invasive acquisition of the 3D back surface of the patients. The 3D image of the surface of the trunk is divided into patches and local geometric descriptors characterizing the back surface are computed from each patch and constitute the features. We reduce the dimensionality by using principal component analysis and retain 53 components using an overlap criterion combined with the total variance in the observed variables. In this work, a multi-class classifier is built with least-squares support vector machines (LS-SVM). The original LS-SVM formulation was modified by weighting the positive and negative samples differently and a new kernel was designed in order to achieve a robust classifier. The proposed system is validated using data from 165 patients with different scoliosis curve types. The results of our non invasive classification were compared with those obtained by an expert using X-ray images. Results The average rate of successful classification was computed using a leave-one-out cross-validation procedure. The overall accuracy of the system was 95%. As for the correct classification rates per class, we obtained 96%, 84% and 97% for the thoracic, double major and lumbar/thoracolumbar curve types, respectively. Conclusion This study shows that it is possible to find a relationship between the internal deformity and the back surface deformity in scoliosis with machine learning methods. The proposed system uses non invasive surface acquisition, which is safe for the patient as it involves no radiation. Also, the design of a specific kernel improved classification performance.
Resumo:
This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.
Resumo:
In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.
Resumo:
We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
Cette thèse s’intéresse aux choix institutionnels des législateurs. Elle propose une analyse diachronique et comparative du développement des Chambre Nationale des Députés argentines et chiliennes des années 1940 aux années 2000. Inspiré de la théorie du Cartel (Cox et McCubbins, 1993), ce travail se concentre sur le rôle des partis politiques dans ce développement institutionnel. Il montre qu’en dépit de leurs différences, les partis uniques, coalitions, forces majoritaires ou minoritaires qui ont dirigé ces chambres ont adopté un large éventail de règles et de normes organisationnelles qui les avantagent. Ils se sont, en un mot, comportés comme des coalitions procédurales. L’analyse des modifications des règles de fonctionnement de ces chambres et de leurs systèmes de direction et de commissions montre que les partis et coalitions au pouvoir ont, pendant cette période, renforcé leur pouvoir, contrôlé l’agenda législatif, structuré les systèmes de commission et adopté des règles qui leur ont profité. Les résultats obtenus suggèrent en particulier que les coalitions qui ont dirigé la chambre Chilienne ont installé certains de leurs membres à plusieurs postes comme les présidences d’assemblée et de commissions. Ils montrent l’existence d’un pouvoir de véto sur l’agenda législative plus importante au Chili qu’en Argentine. L’étude du cas argentin montre que les partis au pouvoir ont, en particulier depuis les années 1960, conservé le contrôle de la chambre, non seulement en modifiant les règles et les structures du système de commissions, mais également en créant et distribuant à l’opposition des postes permanents mais sans réel pouvoir. Cette analyse confirme également les résultats obtenus par de récentes études concernant ce champ de recherche, notamment le professionnalisme du système de commission chilien et le caractère amateur des législateurs argentins. A l’inverse, elle met à jour des différences, négligées jusqu’alors, entre l’Argentine et le Chili concernant le contrôle de l’agenda législatif. Cette thèse est divisée en sept chapitres. Le premier introduit le sujet, l’hypothèse générale et les questions posées par la thèse, en expliquant également pourquoi les choix institutionnels des législateurs importent. Le chapitre II présente la théorie et la méthodologie. Il propose une définition du développement institutionnel et explicite les prédictions et critères permettant de tester l’hypothèse générale. Les chapitre III et IV, qui concernent respectivement l’Argentine et le Chili, décrivent le système politique de chaque pays et l’organisation des chambres durant la période étudiée. Les chapitre IV et VI, respectivement pour l’Argentine et le Chili, analysent les réformes des règles régissant les chambres, l’évolution de l’autorité qui les dirige et celle du système de commission. Ces chapitres se concluent par un résumé des différents schémas mis en évidence et une évaluation préliminaire de l’hypothèse générale. En conclusion, le chapitre VII résume les découvertes, donne un verdict global sur la fécondité de la théorie et suggère de nouvelles pistes de recherche.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Cette thèse par articles examine les causes et conséquences économiques des politiques d'immigration du point de vue des pays receveurs. Je soutiens que les politiques d'immigration affectent la composition industrielle, et que l'immigration non-qualifiée a ralenti le développement des secteurs haute-technologie dans les pays de l'OCDE au cours des dernières décennies. Néanmoins, les gouvernements élus ont des incitatifs à accroître les niveaux d'immigration et à admettre des immigrants non-qualifiés, afin de conserver l'appui du secteur privé, et de façon à éviter les réactions négatives qui résulteraient de l'affaiblissement des industries traditionnelles. Le premier article s'appuie sur un modèle de progrès technologique endogène et soutient que les activités de recherche des entreprises croissent avec l'offre relative en travail qualifié, et se contractent avec l'offre relative en travail non-qualifié. À l'aide de données panel sur les pays de l'OCDE entre 1971 et 2003, j'estime l'élasticité des dépenses en R&D par rapport à l'offre relative de facteurs au moyen d'un modèle OLS dynamique (DOLS). Les résultats sont conséquents avec les propositions théoriques, et je démontre que l'immigration non-qualifiée a ralenti l'intensité des investissements privés en R&D. Le deuxième article examine la réponse des gouvernements fédéraux canadiens au lobbying des entreprises sur l'enjeu de l'immigration, à l'aide de données trimestrielles entre 1996 et 2011. J'argue que les gouvernements ont des incitatifs électoraux à accroître les niveaux d'immigration malgré les préférences restrictives du public sur cet enjeu, afin de s'assurer de l'appui des groupes d'intérêt corporatifs. Je teste cet argument à l'aide d'un modèle vectoriel autorégressif. Un résultat clé est la réponse positive des influx de travailleurs temporaires à l'intensité du lobbying des entreprises. Le troisième article soutient que les gouvernements ont des incitatifs à gérer la sélection des immigrants de façon à préserver la composition industrielle régionale. Je teste cet argument avec des données panel sur les provinces canadiennes entre 2001 et 2010, et un devis de recherche basé sur l'approche des doubles moindres carrés (two-stage least squares). Les résultats tendent à appuyer l'argument principal : les provinces dont l'économie repose davantage sur des industries traditionnelles sont susceptibles de recevoir une plus grande proportion d'immigrants non-qualifiés, ce qui contribue à renforcer cette spécialisation.