962 resultados para Théorie des matrices aléatoires
Resumo:
The objective of this thesis is to understand the impact of satisfaction with innovative benefits on the intention to stay of the information and communications technology industry (ICT) workers. In order to investigate this question, a general research hypothesis was presented based on a literature review and on Blau’s social exchange theory (1964) and Maslow’s theory of needs (1943). The general research hypothesis states that satisfaction with innovative benefits increases intention to stay through time. The data used in this thesis were collected as part of a larger research on the relationships between compensation, training and skills development and attracting and retaining key employees. The longitudinal data come from an office located in Montreal of a major international company from the ICT sector. The study population consists of workers newly hired between April 1st, 2009 and September 30th, 2010. The results confirm the research hypothesis showing that satisfaction with innovative benefits increase intention to stay through time. Among the various innovative benefits studied, the results indicate that it is the satisfaction with the gym at work that best predicts intention to stay of workers. Other innovative benefits significantly related to intention to stay are the games library, the lounge, the medical clinic and the library in the workplace. Also, longitudinal analyses reveal that it is mainly the differences between the individual characteristics of the employees who best explain intention to stay than the differences across time of the same worker. This thesis concludes by discussing the best way for industrial relations managers to use the results in order to retain their employees. Then, the limits of the study and some directions for further research are also presented.
Resumo:
The objective of this thesis is to understand the impact of satisfaction with innovative benefits on the intention to stay of the information and communications technology industry (ICT) workers. In order to investigate this question, a general research hypothesis was presented based on a literature review and on Blau’s social exchange theory (1964) and Maslow’s theory of needs (1943). The general research hypothesis states that satisfaction with innovative benefits increases intention to stay through time. The data used in this thesis were collected as part of a larger research on the relationships between compensation, training and skills development and attracting and retaining key employees. The longitudinal data come from an office located in Montreal of a major international company from the ICT sector. The study population consists of workers newly hired between April 1st, 2009 and September 30th, 2010. The results confirm the research hypothesis showing that satisfaction with innovative benefits increase intention to stay through time. Among the various innovative benefits studied, the results indicate that it is the satisfaction with the gym at work that best predicts intention to stay of workers. Other innovative benefits significantly related to intention to stay are the games library, the lounge, the medical clinic and the library in the workplace. Also, longitudinal analyses reveal that it is mainly the differences between the individual characteristics of the employees who best explain intention to stay than the differences across time of the same worker. This thesis concludes by discussing the best way for industrial relations managers to use the results in order to retain their employees. Then, the limits of the study and some directions for further research are also presented.
Resumo:
Dans le débat sur l’unicité ou la multiplicité de l’intelligence, Gardner prend nettement position en faveur des intelligences multiples (IM). Son approche soulève toutefois au moins neuf critiques : la confusion entre l’intelligence et le talent, une rigueur scientifique insuffisante, l’absence de réelles nouveautés, le caractère arbitraire des critères utilisés, les problèmes de l’interdépendance des IM, du réel statut des IM, l’ignorance des résultats des approches factorielles et le refus de considérer les différences entre les groupes, de la mesure des IM. La validité des applications des IM dans le milieu scolaire peut également être mise en doute. En conclusion, nous nous interrogeons sur la raison du succès de la théorie des IM.
Resumo:
Dans le débat sur l’unicité ou la multiplicité de l’intelligence, Gardner prend nettement position en faveur des intelligences multiples (IM). Son approche soulève toutefois au moins neuf critiques : la confusion entre l’intelligence et le talent, une rigueur scientifique insuffisante, l’absence de réelles nouveautés, le caractère arbitraire des critères utilisés, les problèmes de l’interdépendance des IM, du réel statut des IM, l’ignorance des résultats des approches factorielles et le refus de considérer les différences entre les groupes, de la mesure des IM. La validité des applications des IM dans le milieu scolaire peut également être mise en doute. En conclusion, nous nous interrogeons sur la raison du succès de la théorie des IM.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.
Resumo:
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.
Resumo:
La connectivité fonctionnelle est reconnue pour altérer la fréquence des rencontres entre les individus et potentiellement affecter les coûts en lien avec la recherche de partenaires sexuels. La structure du paysage peut conséquemment engendrer de la variation dans le succès reproducteur des individus et par le fait même, modifier les opportunités de sélection sexuelle. Le but de cette étude était d’identifier l’influence de la structure du paysage sur les patrons de paternités hors couple (EPP) chez l’Hirondelle bicolore (Tachycineta bicolor), un insectivore aérien en déclin depuis environ 30 ans au Québec. Plus précisément, il était question d’évaluer l’importance relative de la disponibilité spatiotemporelle des partenaires potentiels, de la perméabilité de l’environnement aux mouvements, des caractéristiques individuelles, et des interactions entre certaines de ces variables sur la probabilité qu’un mâle fertilise une femelle, sur le nombre de mâles hors couple ayant fertilisé une femelle et enfin, sur le nombre de jeunes hors couple produits par une femelle. Pour se faire, une approche spatialement explicite basée sur la théorie des circuits a été employée. La collecte de données s’est faite sur 8 saisons de reproduction au sein d’un réseau de 40 fermes (10 nichoirs/ferme) situé le long d’un gradient d’intensification agricole de manière à ce que les individus se retrouvent dans des conditions socioécologiques contrastées. Selon les résultats obtenus, la densité de partenaires potentiels non locaux (i.e. hors ferme, mais au sein d’un rayon de 15 km) a eu un effet négatif sur la probabilité que deux individus produisent des jeunes hors couple, probablement à cause de l’effet de dilution entre compétiteurs. Cette même variable a également induit une augmentation du nombre de pères hors couple non locaux et de leurs jeunes dans une couvée donnée, mais seulement lorsque la résistance aux déplacements était faible. La densité locale a pour sa part eu l’effet inverse, ce qui laisse penser que les femelles auraient tendance à se contenter de leurs voisins immédiats quand les coûts de recherche dans le paysage sont trop élevés en comparaison à ce qui est disponible à proximité. Quant aux caractéristiques individuelles, leurs effets semblent négligeables à l’exception faite de la charge parasitaire moyenne des mâles locaux, laquelle pousserait les femelles à chercher des mâles en dehors de la ferme lorsqu’elle est élevée. Ce facteur ne représente toutefois pas seulement un indice potentiel de la qualité des jeunes produits par ces mâles, mais aussi un risque direct de transmission de parasites lors de copulations hors couple. Somme toute, il semble que les patrons de EPP soient davantage affectés par les variables du paysage que par la morphologie et la condition physique des individus. Ces découvertes sont d’un intérêt particulier puisque la compréhension des effets de l’écologie sur les paternités hors couple est essentielle pour une meilleure connaissance de la sélection sexuelle, des stratégies d’appariement et par le fait même, des processus évolutifs. De plus, identifier le rôle joué par le paysage dans les stratégies sexuelles pourrait aider à élaborer des plans de conservation appropriés pour les espèces dont le déclin est attribuable à des changements dans l’environnement.
Resumo:
Les prescrits didactiques et le programme d’Histoire et éducation à la citoyenneté (Gouvernement du Québec, 2007) défendent actuellement des pratiques d’enseignement visant l’apprentissage de la pensée historique. Un apprentissage qui est défini comme une activité intellectuelle inscrite dans une démarche de résolution de problème, permettant de développer une compréhension plus approfondie des réalités sociales dans la perspective du temps (Martineau, 2010). Toutefois, les recherches indiquent que cet apprentissage serait variablement intégré aux pratiques effectives dans les classes d’histoire (Levstik, 2008), notamment au Québec (Boutonnet, 2013; Moisan, 2010). À cet égard, il semblerait y avoir un écart entre les finalités auxquelles les enseignants adhèrent et les situations d’enseignement-apprentissage qu’ils mettent en œuvre. Pour mettre en lumière cette variabilité, nous avons réalisé une recherche exploratoire visant à décrire les pratiques d’enseignement en histoire en troisième et en quatrième années du secondaire. À cette fin, nous avons eu recours aux théories des représentations sociales (Moscovici, 1976) et de l’attribution (Deschamps, 1996) permettant de recenser, dans le savoir commun des enseignants d’histoire, des éléments relatifs à l’apprentissage de la pensée historique. Ce savoir a été analysé en fonction de quatre types de variables : l’opinion, les dispositifs d’enseignement, les attributions et les attitudes individuelles à l’égard de l’apprentissage de la pensée historique. Les données ont été recueillies auprès d’un échantillon de convenance de huit enseignants, et elles ont été analysées dans le cadre d’une approche lexicométrique. La procédure de cueillette a consisté à réaliser quatre entrevues auprès de chacun de ces enseignants, lors des phases préactive et postactive de trois situations d’enseignement-apprentissage, pour identifier par la récurrence des discours des propriétés invariantes. Les données ont été interprétées en fonction de deux types de fondement théorique, relatifs aux théories de l’apprentissage, illustrant différentes manières d’apprendre à penser historiquement, et aux modèles de pratique, décrivant des dispositifs séquencés d’enseignement associés à cet apprentissage. De manière générale, les résultats révèlent la prédominance des théories de l’apprentissage de sens commun, socioconstructiviste et cognitivo-rationaliste, ainsi que des modèles de pratique fondés sur la conceptualisation et le tâtonnement empirique. Même si cette recherche ne peut être considérée représentative, elle a comme principale retombée scientifique de livrer une description de pratiques nuancée, exprimant différentes modulations de l’apprentissage de la pensée historique au niveau des pratiques. Cette recherche contribue à alimenter la réflexion auprès des chercheurs, des formateurs et des enseignants qui pourront mettre en perspective les pratiques actuelles relatives à un apprentissage des plus importants en histoire.
Resumo:
La présente étude vise à définir le processus de transaction, des différentes composantes des coûts de transaction, et des différents moyens pour les mesurer. Plus particulièrement, cette étude porte sur l'utilité de l'évaluation des gestionnaires de portefeuille de l'Université de Sherbrooke par rapport aux coûts de transaction calculés par Abel Noser. Abel Noser est une firme de consultant de New York qui se spécialise dans l'évaluation des fonds de pension. Ils ont mesuré durant deux périodes, les commissions et l'impact de marché subi par des courtiers utilisés par les gestionnaires. L'objectif principal, voulait examiner s'il y avait eu une différence au niveau de l'impact de marché subi par les courtiers pour les deux périodes. Vu que les courtiers n'ont pas été avertis qu'ils étaient mesurés, on ne devrait pas trouver de différence significative. Par contre, s'il y a une différence entre les deux périodes, alors que les courtiers n'étaient pas informés, on pourra conclure que la mesure d'Abel Noser donne des résultats aléatoires puisque les courtiers ne sont pas sensés avoir cherché à contourner le système. La synthèse des résultats de la première hypothèse n'a pas permis de vérifier la validité de la mesure d'Abel Noser. Par contre, quand on se réfère aux critiques faites par plusieurs auteurs, la mesure d'Abel Noser peut porter à confusion. En conclusion, cette étude ne recommande donc pas au comité de retraite de l'Université de Sherbrooke d'utiliser les services d'Abel Noser.
Resumo:
Le manque de motivation des ressources humaines dans les secteurs public et para-public est un aspect qui se manifeste par un plus grand désintéressement noté au niveau du personnel. Dans une période économique difficile où la productivité et la créativité sont recherchées afin de conserver une compétitivité, la motivation du personnel devient un grand sujet d'intérêt pour les directions. Cet essai présente la gestion des ressources humaines en mettant en relation les principes et théories sur la motivation au travail, sur le développement de la personne au travail et sur les besoins des collèges. Dans un premier temps, le problème de la motivation du personnel dans les collèges est abordé. Un bref survol de la naissance des collèges et de leur évolution dans le domaine des ressources humaines est fait, pour terminer avec un constat de la démotivation du personnel. Par la suite, les questions de recherche sont formulées ainsi que les objectifs poursuivis. Dans le chapitre suivant, plusieurs théories sont présentées. La théorie des besoins de A. MASLOW et la théorie des facteurs de F. HERZBERG illustrent les facteurs de motivation. Deux théories développementales sont ensuite présentées: les étapes du cheminement professionnel de Donald E. SUPER et les stades de développement de carrière de D. RIVERIN-SIMARD. Et finalement ce chapitre présente une revue de la littérature et des théories sur la planification des ressources humaines et sur l'évaluation de rendement qui y est relié. En quatrième partie, les bases méthodologiques sont présentées et illustrées par une expérience faite dans un collège régional. Finalement, une dernière partie présente une analyse des résultats suivie de recommandations.
Resumo:
[…] Cette étude débute par l'exposé des conditions spécifiques aux déficients auditifs pour l'acquisition du langage et par la présentation de nos hypothèses (Chapitre 1). Nous faisons ensuite un rappel des études antérieures et nous envisageons les implications méthodologiques de nos hypothèses (Chapitre 2). Nous présentons ensuite notre méthodologie pour le recueil et l'analyse des données (Chapitre 3). Étant données toutes les variables pouvant intervenir (émotivité des sujets, intelligence, facilité d'élocution, milieu familial...) nous vérifions l'homogénéité des corpus. Nous débutons par une analyse statistique permettant de donner les «mesures» des corpus : quantité de discours produit, complexité de ce discours, homogénéité entre les deux groupes linguistiques concernés... (Chapitre 4) Ensuite, nous observons la construction progressive des énoncés, ce qui est l'apanage de l'oral; cela implique donc l'étude de la construction du sens et de la forme grâce à des hésitations, des répétitions et des reprises; là aussi, il faut établir s'il y a homogénéité entre les sujets (Chapitre 5). Pour l'analyse «théorique» des corpus, nous privilégions la théorie des opérations énonciatives élaborée par Antoine Culioli, car elle présente l'avantage de lier un bon nombre de fonctionnements et de manifestations linguistiques, tels que la syntaxe, la sémantique et la morphologie. Nous présentons les grandes lignes de cette théorie dans le Chapitre 6. Nous nous intéressons alors à la façon dont nos sujets procèdent pour mettre en place le thème de leur énoncé. Cet aspect de l'étude concerne donc une dimension sémantique dans les corpus. Nous nous intéressons plus particulièrement aux structures utilisées pour la thématisation, ce qui nous amène à faire le lien avec la syntaxe (Chapitre 7). Enfin, nous nous intéressons au caractère homogène des «erreurs» et aux fonctionnements de la langue utilisée dans les corpus. Nous nous concentrons alors plus précisément sur les repérages effectués par les locuteurs afin de rendre leur discours référentiel (Chapitre 8) […]
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.
Resumo:
This manuscript presents three approaches : analytical, experimental and numerical, to study the behaviour of a flexible membrane tidal energy converter. This technology, developed by the EEL Energy company, is based on periodic deformations of a pre-stressed flexible structure. Energy converters, located on each side of the device, are set into motion by the wave-like motion. In the analytical model, the membrane is represented by a linear beam model at one dimension and the flow by a 3 dimensions potential fluid. The fluid forces are evaluated by the elongated body theory. Energy is dissipated all over the length of the membrane. A 20th scale experimental prototype has been designed with micro-dampers to simulate the power take-off. Trials have allowed to validate the undulating membrane energy converter concept. A numerical model has been developed. Each element of the device is represented and the energy dissipation is done by dampers element with a damping law linear to damper velocity. Comparison of the three approaches validates their ability to represent the membrane behaviour without damping. The energy dissipation applied with the analytical model is clearly different from the two other models because of the location (where the energy is dissipated) and damping law. The two others show a similar behaviour and the same order of power take off repartition but value of power take off are underestimated by the numerical model. This three approaches have allowed to put forward key-parameters on which depend the behaviour of the membrane and the parametric study highlights the complementarity and the advantage of developing three approaches in parallel to answer industrial optimization problems. To make the link between trials in flume tank and sea trials, a 1/6th prototype has been built. To do so, the change of scale was studied. The behaviour of both prototypes is compared and differences could be explained by differences of boundary conditions and confinement effects. To evaluated membrane long-term behaviour at sea, a method of ageing accelerated by temperature and fatigue tests have been carried out on prototype materials samples submerged in sea water.
Resumo:
Les travaux de ce mémoire traitent du problème d’ordonnancement et d’optimisation de la production dans un environnement de plusieurs machines en présence de contraintes sur les ressources matérielles dans une usine d’extrusion plastique. La minimisation de la somme pondérée des retards est le critère économique autour duquel s’articule cette étude car il représente un critère très important pour le respect des délais. Dans ce mémoire, nous proposons une approche exacte via une formulation mathématique capable des donner des solutions optimales et une approche heuristique qui repose sur deux méthodes de construction de solution sérielle et parallèle et un ensemble de méthodes de recherche dans le voisinage (recuit-simulé, recherche avec tabous, GRASP et algorithme génétique) avec cinq variantes de voisinages. Pour être en totale conformité avec la réalité de l’industrie du plastique, nous avons pris en considération certaines caractéristiques très fréquentes telles que les temps de changement d’outils sur les machines lorsqu’un ordre de fabrication succède à un autre sur une machine donnée. La disponibilité des extrudeuses et des matrices d’extrusion représente le goulot d’étranglement dans ce problème d’ordonnancement. Des séries d’expérimentations basées sur des problèmes tests ont été effectuées pour évaluer la qualité de la solution obtenue avec les différents algorithmes proposés. L’analyse des résultats a démontré que les méthodes de construction de solution ne sont pas suffisantes pour assurer de bons résultats et que les méthodes de recherche dans le voisinage donnent des solutions de très bonne qualité. Le choix du voisinage est important pour raffiner la qualité de la solution obtenue. Mots-clés : ordonnancement, optimisation, extrusion, formulation mathématique, heuristique, recuit-simulé, recherche avec tabous, GRASP, algorithme génétique
Resumo:
L’objectif global de cette étude est de déterminer l’impact de la crise de la dette souveraine européenne sur les titres boursiers des six banques d’importance systémique (D-Sibs) canadiennes et celles des pays PIIGS (Portugal, Irlande, Italie, Grèce & Espagne). À cet effet, nous avons échantillonné nos données entre le 1er janvier 2002 au 31 décembre 2015 pour séparer notre fenêtre temporelle en cinq sous-périodes et ce, dans le but d’isoler certains événements d’envergure systémique. Un des sous-objectifs vise à déterminer s’il y a eu un effet de contagion transfrontalier entre les institutions canadiennes et européennes. Pour chacune des cinq sous-périodes, nous avons donc construit des réseaux basés sur les relations de cointégration entre les prix hebdomadaires des titres boursiers des D-Sibs étudiées. Le second sous-objectif consiste à détecter la présence d’un comportement grégaire auprès des investisseurs, en temps de crise, à l’aide de régressions basées sur la dispersion moyenne entre les rendements de chaque titre et ceux d’un portefeuille de marché composé des D-Sibs canadiennes et des pays PIIGS. Cette étude démontre que la crise financière de 2008-2009 a davantage impacté les banques d’importance systémique intérieure canadiennes et des pays PIIGS, contrairement à la crise de la dette souveraine européenne. En effet, l’effet de contagion transfrontalier est davantage notable lors de la faillite de Lehman Brothers, alors que les turbulences de la crise européenne se sont, en général, limitées à ses frontières. De plus, le comportement grégaire est uniquement détectable lors de la crise des subprimes. Ceci implique que les investisseurs n’ont pas perçu les D-Sibs comme étant menacées par la situation financière précaire de la zone euro.