962 resultados para Théorie des matrices aléatoires
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.
Resumo:
L’objectif de ce mémoire est de comprendre l’impact de la justice organisationnelle sur l’engagement organisationnel des travailleurs du secteur des technologies de l’information et des communications (TIC). Afin d’étudier ce sujet, trois hypothèses de recherche ont été formulés à partir des théories suivantes : 1- la théorie des attentes d’Adams (1965), 2- la théorie de l’échange social de Blau (1964) et 3- la théorie de Leventhal (1980). La première hypothèse stipule que, toutes choses étant égales par ailleurs, la justice distributive fait augmenter l’engagement affectif des travailleurs du secteur des TIC. La seconde hypothèse indique que toutes choses étant égales par ailleurs, la justice procédurale fait augmenter l’engagement affectif des travailleurs du secteur des TIC. La dernière hypothèse énonce que toutes choses étant égales par ailleurs, la justice procédurale a un impact plus important sur l’engagement affectif des travailleurs du secteur des TIC que la justice distributive. Les données utilisées proviennent d’une enquête par questionnaires électroniques auprès de l’ensemble des nouveaux employés d’une entreprise d’envergure internationale du secteur des TIC ayant un établissement à Montréal. Les employés ont été sondés à trois reprises. Les résultats indiquent que la justice distributive fait augmenter l’engagement affectif auprès des travailleurs, ce qui appuie la première hypothèse. Ils démontrent également qu’il n’existe aucune relation statistiquement significative entre la justice procédurale et l’engagement affectif. Seule la justice distributive a un effet sur l’engagement affectif du travailleur. Les résultats montrent l’existence de relations significatives et positives entre trois des variables de contrôle et l’engagement affectif. Il s’agit de : 1- travail sous supervision, 2- soutien organisationnel perçu et 3- satisfaction intrinsèque.
Resumo:
La présente étude concerne le rôle de l’aménagement intérieur dans les centres de santé, dans une perspective thérapeutique. Il s’agit d’une recherche théorique exploratoire. Le cadre théorique à l’intérieur duquel elle s’effectue comprend la Biopolitique de Michel Foucault, du Sens de cohérence d’Aaron Antonovsky, ainsi que de La théorie des environnements reconstituants de Kaplan & Kaplan. Chacune de ces approches vise à mieux saisir le problème de la thérapeutique dans son rapport avec la santé, ainsi qu’à dégager des éléments permettant d’enrichir et d’apporter un regard autre sur le thème à l’étude, à savoir, celui des environnements thérapeutiques. C’est ainsi que nous proposons six concepts que sont l’exclusion/l’isolement, le pouvoir, les interactions sociales, le soutien social, le plaisir et la réflexion. Une étude de cas effectuée au Centre de réadaptation Estrie vise à vérifier leur validité. Cet établissement, qui fait partie du Réseau de la santé et des services sociaux du Québec, est également un membre désigné du Réseau Planetree, dont la mission est vouée au développement de pratiques gestionnaires respectueuses de la dimension humaine dans les centres de santé. La qualité de l’environnement physique étant l’une des dix composantes du modèle promu par cette organisation, l’analyse, en vue de la validation ou du rejet des concepts issus du cadre théorique, concerne leur articulation dans le concret. Nous retenons des quatre concepts que sont les interactions sociales, le soutien social, le plaisir et la réflexion, qu’ils sont valides, et rejetons l’exclusion/isolement et le pouvoir. Des propositions de remplacement pour ces deux derniers sont soumises, soit, les limites/l’’intimité et l’emprise. La principale piste de sujet de recherches futures est le développement de la notion « d’accueil », où l’aménagement intérieur joue, à ce titre, un rôle dans les milieux de santé.
Resumo:
La multiplication des formations professionnelles universitaires (FPU) a poussé plusieurs chercheurs à s’intéresser aux caractéristiques de ces formations, leur perméabilité à une multitude de pressions étant l’une des plus fréquemment relevées. Ainsi, les unités responsables de FPU sont confrontées à des pressions diverses et souvent contradictoires. Si les écrits scientifiques sur les FPU témoignent bien de cette réalité, ceux-ci nous informent moins bien de la manière dont les unités responsables de ce type de formation répondent à ces pressions. Cette thèse a donc fait appel à plusieurs concepts de l’approche institutionnelle issue de la sociologie des organisations pour analyser l’évolution récente de la FPU destinée aux directions d’établissement scolaire (DES) du Québec, un champ qui a connu d’importantes transformations au cours des vingt-cinq dernières années. Construite sur une étude de cas interprétative dite à « unités enchâssées » (Yin, 2003), cette thèse s’est intéressée à l’évolution de cette formation dans deux unités universitaires francophones : le Département d’administration et fondements de l’éducation de l’Université de Montréal et le Département de gestion de l’éducation et de la formation de l’Université de Sherbrooke. Couvrant la période allant des années universitaires 1988-1989 à 2008-2009, elle repose sur une analyse du discours produit par les deux unités sélectionnées, et, dans une moindre mesure, par les organisations qui composent le champ organisationnel de la formation des DES au Québec. Pour ce faire, trois corpus documentaires distincts ont été assemblés et une série d’entrevues (dix par unités) ont été réalisées auprès d’informateurs-clés (doyens, directeurs de département/section, responsables de formation). Les résultats montrent comment ces unités tendent à se rendre isomorphes à leur environnement, et comment cela se fait en réponse à des pressions institutionnelles et de compétition diverses émanant d’un champ organisationnel en pleine transformation. En fait, poussée par des changements plus profonds touchant l’administration scolaire, cette transformation amène un champ organisationnel plus structuré, où les attentes concernant la FPU destinée aux DES sont plus explicites. Cela n’est pas sans conséquence sur l’évolution de la formation dans les deux unités. En effet, celle-ci connaît des changements importants, dont plusieurs convergent autour d’une logique de professionnalisation, d’un archétype spécifique de formation (un continuum de formation de 2e cycle, au cœur duquel se trouve un diplôme de deuxième cycle) et d’outils conséquents (conditions d’admission et populations étudiantes élargies; flexibilité dans la structure du programme et professionnalisation des activités; équipes enseignantes plus diversifiées). Les deux unités n’apparaissent cependant pas impuissantes devant ces pressions. Les résultats témoignent d’un certain niveau d’agence des deux unités, qui déploient un éventail de stratégies en réaction à ces pressions. Ces stratégies évoluent au cours de la période observée et visent surtout à gérer la situation de « pluralisme institutionnel » à laquelle elles sont confrontées, notamment entre les pressions externes de nature plus professionnalisantes, et les pressions intraorganisationnelles de nature plus académisantes. Ainsi, plusieurs des stratégies et tactiques composant la typologie d’Oliver (1991) ont été observées, les stratégies de compromis et de manipulation occupant, dans les deux unités, une place de plus en plus importante au gré de l’évolution du champ. La mise en œuvre de ces stratégies vise surtout à maintenir la légitimité de leur offre de formation devant des pressions plurielles et parfois contradictoires. Les résultats montrent aussi que la nature de l’entrepreneuriat institutionnel en place détermine en grande partie les stratégies qu’elles déploient. Cet « entrepreneuriat » est au cœur de l’évolution de la formation. Cependant, les résultats montrent aussi comment celui-ci est en partie contraint ou, a contrario, stimulé par les choix historiques qui ont été faits par les unités et leur université, et par l’empreinte et les dépendances de sentier qui en découlent. Ces résultats apportent un éclairage « institutionnaliste » sur la manière dont deux unités universitaires ont réagi, à une période donnée, aux pressions diverses provenant de leur environnement. Ils brossent un portrait complexe et nuancé qui vient à la fois (1) approfondir notre compréhension de cette spécificité des FPU, (2) approfondir notre compréhension de l’évolution récente de la FPU destinée aux DES québécoises, et (3) confirmer la puissance d’analyse de plusieurs concepts tirés de l’approche institutionnelle.
Resumo:
Depuis plus de cinquante ans, les puissances occidentales ont créé toutes sortes de réseaux militaires internationaux, afin de renforcer leurs liens et harmoniser leurs techniques, leurs équipements et leurs façons de faire. Jusqu’à ce jour, ces regroupements sont demeurés largement ignorés de la discipline des relations internationales. Or, la mondialisation des échanges et l’essor des technologies de l’information ont ouvert les processus politiques à de nouveaux acteurs, y compris en matière de sécurité, jetant un éclairage nouveau sur le rôle, la mission et les responsabilités que les États délèguent à ces réseaux. En menant une analyse approfondie d’un réseau militaire, le Multinational Interoperability Council, cette recherche a pour objectifs de définir les réseaux militaires internationaux en tant que catégorie d’analyse des relations internationales, de documenter empiriquement leur fonctionnement et de mieux comprendre leur rôle dans le champ de la sécurité internationale. Pour ce faire, la démarche propose de recourir à l’appareil conceptuel de l’institutionnalisme relationnel, de la théorie des champs et du tournant pratiques en relations internationales. Cette combinaison permet d’aborder les dimensions institutionnelle, cognitive et pratique de l’action collective au sein du réseau étudié. L’analyse nous apprend que, malgré une influence limitée, le MIC produit une identité, des capacités, des préférences et des effets qui lui sont propres. Les acteurs du MIC ont eux-mêmes généré certaines conditions de son institutionnalisation, et sont parvenus à faire du réseau, d’abord conçu comme une structure d’échanges d’informations, un acteur intentionnel du champ de la sécurité internationale. Le MIC ne peut agir de façon autonome, sans contrôle des États. Cependant, les relations établies entre les militaires qui y participent leur offrent des capacités – le capital social, politique et d’expertise – dont ils ne disposeraient pas autrement, et qu’ils peuvent mobiliser dans leurs interactions avec les autres acteurs du champ.
Resumo:
La duplication est un des évènements évolutifs les plus importants, car elle peut mener à la création de nouvelles fonctions géniques. Durant leur évolution, les génomes sont aussi affectés par des inversions, des translocations (incluant des fusions et fissions de chromosomes), des transpositions et des délétions. L'étude de l'évolution des génomes est importante, notamment pour mieux comprendre les mécanismes biologiques impliqués, les types d'évènements qui sont les plus fréquents et quels étaient les contenus en gènes des espèces ancestrales. Afin d'analyser ces différents aspects de l'évolution des génomes, des algorithmes efficaces doivent être créés pour inférer des génomes ancestraux, des histoires évolutives, des relations d'homologies et pour calculer les distances entre les génomes. Dans cette thèse, quatre projets reliés à l'étude et à l'analyse de l'évolution des génomes sont présentés : 1) Nous proposons deux algorithmes pour résoudre des problèmes reliés à la duplication de génome entier : un qui généralise le problème du genome halving aux pertes de gènes et un qui permet de calculer la double distance avec pertes. 2) Nous présentons une nouvelle méthode pour l'inférence d'histoires évolutives de groupes de gènes orthologues répétés en tandem. 3) Nous proposons une nouvelle approche basée sur la théorie des graphes pour inférer des gènes in-paralogues qui considère simultanément l'information provenant de différentes espèces afin de faire de meilleures prédictions. 4) Nous présentons une étude de l'histoire évolutive des gènes d'ARN de transfert chez 50 souches de Bacillus.
Resumo:
L’Urgence négative est un trait caractéristique du trouble de personnalité limite. Cependant ce modèle des traits ne permet pas d’expliquer les variétés des formes d’expression ni le niveau de sévérité de gestes impulsifs, qu’ils soient dirigés contre soi ou contre autrui. L’intégration du modèle des relations d’objet à celui des traits offre une meilleure compréhension de cette variabilité. Dans la théorie des relations d’objet, la diffusion de l’identité est spécifique aux organisations limites de la personnalité. Elle est caractérisée par un manque d’intégration des représentations de soi et d’autrui à cause d’une séparation excessive des affects positifs et négatifs investis dans les images de soi et d’autrui. Elle est associée à un manque d’intégration des structures psychiques du Moi et du Surmoi. Le niveau de l’intégration de l’identité agirait en modulant la relation en un trait d’urgence négative élevé et l’expression des gestes impulsifs. Cette étude, réalisée auprès d’étudiants, était la première à tester une telle hypothèse. Bien qu’elle n’ait pas permis de démontrer une telle relation de modération, compte tenu de certaines limites, il apparaît nécessaire de réévaluer ce modèle modérateur au sein d’un d’échantillon de plus grande taille.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Thèse par articles.
Resumo:
L’objectif de ce mémoire est d’étudier l’impact différencié de la satisfaction envers les bonis individuels et les bonis collectifs sur l’intention de rester (au sein d’une entreprise donnée) des travailleurs du secteur des technologies de l’information et des communications. Afin d’étudier cette question, trois hypothèses de recherche ont été émises à l’aide des théories suivantes : 1- la théorie de l’agence, 2- la théorie des attentes et 3- la théorie de l’échange social de Blau (1964). Selon la première hypothèse, la satisfaction envers les bonis individuels contribue à accroître l’intention de rester des travailleurs du secteur des TIC. La seconde hypothèse avance que la satisfaction envers les bonis collectifs contribue à accroître l’intention de rester des travailleurs du secteur des TIC. Enfin, la dernière hypothèse soutient que la satisfaction envers les bonis individuels a un impact plus important sur l’intention de rester des travailleurs du secteur des TIC que la satisfaction envers les bonis collectifs. Les données utilisées pour valider nos hypothèses ont été recueillies dans le cadre d'une enquête portant sur « les relations entre la rémunération, la formation et le développement des compétences avec l’attraction et la rétention des employés clés ». Ces données de nature longitudinale, proviennent d'une entreprise canadienne du secteur des TIC. La population étudiée regroupe les nouveaux employés embauchés entre le 1er avril 2009 et le 30 septembre 2010. Nos résultats confirment l’Hypothèse 1 voulant que la satisfaction envers les bonis individuels contribue à accroître l’intention de rester des travailleurs du secteur des TIC. À l’inverse, ces résultats infirment l’Hypothèse 2. La satisfaction envers les bonis collectifs n’a donc pas d’impact significatif sur l’intention de rester. Malgré un problème de colinéarité, nos résultats suggèrent de confirmer l’Hypothèse 3 voulant que la satisfaction envers les bonis individuels ait un impact plus important sur l’intention de rester des travailleurs du secteur des TIC que la satisfaction envers les bonis collectifs. Les résultats indiquent également que le niveau de scolarité et l’engagement organisationnel ont un impact positif sur l’intention de rester des travailleurs. Les analyses longitudinales révèlent que les différences entre les caractéristiques des travailleurs expliquent davantage l’intention de rester, que les différences à travers les temps chez un même travailleur.
Resumo:
Cette thèse part du postulat que la crise du syndicalisme résulte d’une remise en cause des identités collectives ayant légitimé jusque dans les années 70 leur représentation des travailleurs. En témoignent les mobilisations, qui se déroulent souvent en dehors des syndicats et de façon conflictuelle avec eux, de travailleuses et travailleurs longtemps minorés par les arrangements institutionnels prévalant avec la société salariale. Différents travaux dans le renouveau syndical relèvent de leur côté que les syndicats peinent à prendre en compte les besoins et aspirations de ces travailleurs car leur identité collective les entraîne à rester dans les sentiers des orientations et représentations institutionnalisées. Cependant, les auteurs se focalisent sur la façon dont le syndicalisme, et en particulier les leaders, peuvent reconstruire une représentation des travailleurs, et non sur la façon dont les identités collectives se transforment. Les études sur le syndicalisme héritent d’un débat sur les mouvements sociaux qui a abouti à scinder les approches théoriques entre celles conceptualisant les identités collectives, mais dans le cadre de théorisations contestables de l’évolution des sociétés, et celles qui sous-théorisent les identités collectives et considèrent que les mouvements sociaux émergent des processus politique et de la mobilisation des ressources. Les travaux sur le renouveau syndical reprennent généralement cette seconde approche et assimilent les mouvements de travailleurs à des organisations en considérant, implicitement, les buts de l’action collective comme donné. Or, un mouvement social est un concept ; il n’est pas réductible à une organisation, au risque sinon de perdre sa valeur heuristique, qui est de chercher à saisir les identités collectives en conflit et les stratégies associées. À partir de l’étude du cas du mouvement de travailleurs dans l’économie solidaire brésilienne, cette thèse questionne donc le « pourquoi de nouvelles identités collectives de travailleurs émergent » et le « comment ou le pourquoi des identités syndicales se transforment ou se reproduisent », lorsqu’elles sont confrontées à l’émergence de nouvelles façons de définir les dominations à combattre et les orientations. Les identités collectives sont opérationnalisées comme des matrices cognitives et normatives, ce qui permet de rendre compte de leur caractère évolutif en fonction des modalités d’interaction. L’étude de cas met en évidence que les mobilisations autonomes des travailleurs minorés sont porteuses de nouvelles définitions des problèmes et de pratiques sociales transformatrices, qui entrent en conflit avec les significations et les pratiques syndicales institutionnalisées. Elle montre que c’est à la suite d’interactions délibératives entre ces travailleurs et les syndicalistes que les identités syndicales se transforment. Cependant, la reconstitution des trajectoires de deux syndicats (de la principale centrale brésilienne) indique que le fait d’entrer dans de telles interactions ne dépend pas d’une décision rationnelle, mais de la perception (de la part des syndicats) des capacités des travailleurs à transformer le rapport au travail et au monde lorsqu’ils agissent collectivement. Un dernier résultat, corollaire, tient dans la falsification de l’hypothèse – défendue par une partie de la littérature sur le renouveau syndical – selon laquelle les syndicats, et en particulier les leaders, peuvent conduire une transformation de la représentation collective en procédant eux-mêmes à une agrégation des multiples identités collectives. Cette hypothèse, qui revient à considérer le but de l’action collective comme donné, est contredite par les données : elles montrent que, dans un tel cas, s’il y a bien des innovations institutionnelles conduites par le syndicat, ces innovations favorisent l’adaptation du syndicalisme aux mutations du capitalisme et non la transformation des rapports sociaux de domination, parce que prédominent alors les liens sociaux avec les groupes dominants, c’est-à-dire les interprétations cognitives dominantes des problèmes.
Resumo:
Malgré que plus de 50 ans nous séparent des premières études empiriques s’attardant à la diversité dans les équipes de travail, il demeure difficile de tirer des conclusions claires et cohérentes quant à la nature et à la direction des relations qu’elle entretient avec la performance groupale. Ce constat a amené de nombreux auteurs à formuler diverses recommandations visant à sortir le domaine de recherche de l’impasse. Dans un contexte où, d’une part, les organisations tendent à s’appuyer de plus en plus sur des équipes afin d’assurer leur efficacité et, d’autre part, la diversité ne cesse de s’accroitre au rythme de l’immigration et de la spécialisation du savoir, il devient particulièrement pertinent de poursuivre les efforts de recherche en fonction de ces recommandations afin de clarifier les impacts de la diversité sur la performance. La présente thèse s’inscrit dans un courant de recherche en pleine croissance qui répond aux appels des chercheurs du domaine et qui vise à évaluer les effets de la structure de la diversité plutôt qu’uniquement ceux de la quantité de diversité dans les équipes. La théorie des vecteurs de failles (Lau & Murnighan, 1998), qui sont des lignes hypothétiques divisant les membres d’une équipe lorsque des caractéristiques de diversité concordent et créent des sous-groupes homogènes, constitue une avancée majeure à cet effet. Toutefois, certains résultats empiriques contradictoires à son sujet mettent en lumière l’importance de prendre en considération l’ensemble des recommandations qui ont été formulés à l’intention des chercheurs du domaine de la diversité. À travers la lentille des vecteurs de failles, la thèse vise à approfondir notre compréhension du rôle de la diversité sur la performance des équipes en mettant en pratique ces diverses recommandations, qui invitent à examiner le rôle des mécanismes médiateurs ainsi que des effets modérateurs pouvant intervenir dans cette relation, à préciser les typologies employées et à prendre en considération l’influence du contexte dans lequel évoluent les équipes de travail. Le premier article constitue un effort de synthèse empirique cherchant à préciser les effets différenciés que peuvent avoir divers types de failles sur divers types de performance et à évaluer le rôle modérateur que joue le type d’équipe étudié dans ces relations. Les résultats de la méta-analyse, menée à l’aide d’un échantillon de 38 études comprenant 3046 équipes, viennent nuancer ceux précédemment rapportés dans la documentation scientifique et montrent que les failles ont un effet négatif sur la performance comportementale mais pas sur la performance de résultats. De plus, le type d’équipe modère cette relation de sorte que celle-ci est plus fortement négative pour les équipes de projet et les équipes de gestion. Le deuxième article évalue empiriquement l’effet des vecteurs de faille informationnels sur une dimension spécifique de la performance, l’adaptabilité d’équipe, en examinant le rôle médiateur de la coordination implicite ainsi que l’effet modérateur de la clarté des rôles et responsabilités. Une analyse de médiation modérée auprès d’un échantillon de 14 équipes de projet révèle que la coordination implicite médie la relation négative entre les vecteurs de faille informationnels et l’adaptabilité d’équipe. De plus, cette relation est plus fortement négative lorsque les rôles et responsabilités des équipiers sont clairs ou très clairs. Les implications théoriques et pratiques des résultats obtenus sont discutées.