63 resultados para Prime divisors
Resumo:
La notion de vie privée, et plus précisément le droit à la protection des renseignements personnels, est reconnue aussi bien dans les textes provinciaux, régionaux, nationaux et internationaux, que dans les politiques mises en place par les sites Web. Il est admis que toutes informations identifiant ou permettant d’identifier une personne peut porter atteinte à sa vie privée, à savoir son nom, prénom, numéro de téléphone, de carte bancaire, de sécurité sociale, ou encore ses adresses électronique et Internet. Cette protection, admise dans le monde réel, doit aussi exister sur les inforoutes, étant entendu que « l ’informatique (…) ne doit porter atteinte ni à l ’identité humaine, ni aux droits de l ’homme, ni à la vie privée, ni aux libertés individuelles ou publiques » (art. 1er de la Loi française dite « Informatique et Libertés » du 6 janvier 1978). Ce principe étant admis, il est pertinent de s’interroger sur les moyens envisagés pour parvenir à le réaliser. Faut-il avoir recours à la réglementation étatique, à l’autoréglementation ou à la corégulation ? Cette dernière notion « n’est pas à proprement parler une nouvelle forme de régulation », mais elle préconise une collaboration entre les acteurs du secteur public et privé. L’idée de partenariat semble retenir l’attention du gouvernement français dans sa mission d’adaptation du cadre législatif à la société de l’information, comme nous le montre le rapport Du droit et des libertés sur l’Internet remis dernièrement au Premier ministre. Par conséquent, cet article a pour objectif de dresser un tableau de la législation française, et de ses multiples rapports, applicables à la protection de la vie privée et, plus particulièrement, aux données personnelles sur le réseau des réseaux. En prenant en considération les solutions étatiques et non étatiques retenues depuis ces deux dernières décennies, nous envisagerons une étude de l’avant-projet de loi du Gouvernement visant à transposer en droit interne la Directive européenne du 24 octobre 1995 relative à la protection des données personnelles.
Resumo:
Mon projet de thèse démontre le rôle essentiel que tient la mélancolie dans les comédies de Shakespeare. J’analyse sa présence au travers de multiples pièces, des farces initiales, en passant par les comédies romantiques, jusqu’aux tragicomédies qui ponctuent les dernières années de sa carrière. Je dénote ainsi sa métamorphose au sein du genre comique, passant d’une représentation individuelle se rapportant à la théorie des humeurs, à un spectre émotionnel se greffant aux structures théâtrales dans lesquelles il évolue. Je suggère que cette progression s’apparent au cycle de joie et de tristesse qui forme la façon par laquelle Shakespeare dépeint l’émotion sur scène. Ma thèse délaisse donc les théories sur la mélancolie se rapportant aux humeurs et à la psychanalyse, afin de repositionner celle-ci dans un créneau shakespearien, comique, et historique, où le mot « mélancolie » évoque maintes définitions sur un plan social, scientifique, et surtout théâtrale. Suite à un bref aperçu de sa prévalence en Angleterre durant la Renaissance lors de mon introduction, les chapitres suivants démontrent la surabondance de mélancolie dans les comédies de Shakespeare. A priori, j’explore les façons par lesquelles elle est développée au travers de La Comedie des Erreurs et Peines d’Amour Perdues. Les efforts infructueux des deux pièces à se débarrasser de leur mélancolie par l’entremise de couplage hétérosexuels indique le malaise que celle-ci transmet au style comique de Shakespere et ce, dès ces premiers efforts de la sorte. Le troisième chapitre soutient que Beaucoup de Bruit pour Rien et Le Marchand de Venise offrent des exemples parangons du phénomène par lequel des personnages mélancoliques refusent de tempérer leurs comportements afin de se joindre aux célébrations qui clouent chaque pièce. La mélancolie que l’on retrouve ici génère une ambiguïté émotionnelle qui complique sa présence au sein du genre comique. Le chapitre suivant identifie Comme il vous plaira et La Nuit des Rois comme l’apogée du traitement comique de la mélancolie entrepris par Shakespeare. Je suggère que ces pièces démontrent l’instant où les caractérisations corporelles de la mélancolie ne sont plus de mise pour le style dramatique vers lequel Shakespeare se tourne progressivement. Le dernier chapitre analyse donc Périclès, prince de Tyr et Le Conte d’Hiver afin de démontrer que, dans la dernière phase de sa carrière théâtrale, Shakespeare a recours aux taxonomies comiques élucidées ultérieurement afin de créer une mélancolie spectrale qui s’attardent au-delà des pièces qu’elle hante. Cette caractérisation se rapporte aux principes de l’art impressionniste, puisqu’elle promeut l’abandon de la précision au niveau du texte pour favoriser les réponses émotionnelles que les pièces véhiculent. Finalement, ma conclusion démontre que Les Deux Nobles Cousins représente la culmination du développement de la mélancolie dans les comédies de Shakespeare, où l’incarnation spectrale du chapitre précèdent atteint son paroxysme. La nature collaborative de la pièce suggère également un certain rituel transitif entre la mélancolie dite Shakespearienne et celle développée par John Fletcher à l’intérieure de la même pièce.
Resumo:
Le défi face aux changements climatiques ne consiste pas seulement à gérer les conséquences déjà existantes, mais aussi celles à venir. Les déplacements de population représentent sans aucun doute l’une de ces conséquences, pour laquelle nous devons réfléchir sans délai puisque les déplacements ont déjà débuté. Le Bangladesh est le symbole des déplacements de population reliés aux changements climatiques. Une configuration géographique propice aux désastres naturels, une densité de population élevée, une forte dépendance aux ressources naturelles et d’autres facteurs socio-économiques, constituent les raisons sous-jacentes à la vulnérabilité du Bangladesh. Les médias ont tôt fait d’alarmer la communauté sur les répercussions des changements climatiques sur la société civile et le droit international s’y attarde de façon plus sérieuse. De quelles protections bénéficient ces déplacés climatiques? Cette question fait d’ailleurs surgir de nouvelles problématiques juridiques. Nous nous rendrons vite à l’évidence que les déplacements, qu’ils soient à l’intérieur ou l’extérieur des frontières, ne sont susceptibles d’aucune protection internationale. Face à ce vide juridique, plusieurs propositions ont été envisagées et analysées par les chercheurs. Fuir ou rester : voici les deux choix de la population. Nous verrons que ces choix peuvent être largement influencés par les décisions gouvernementales. Cela nous amènera à nous questionner sur la perception du Bangladesh face à la migration climatique. Ce pays considère-t-il la migration comme une stratégie ou plutôt comme un échec à l’adaptation?
Resumo:
Plusieurs indices permettent de croire que le premier ministre Harper a pour projet de faire du Parti conservateur le parti politique dominant au Canada. À cette fin, il doit transformer l’organisation sociale et politique du pays de façon à le rendre plus conservateur. L’objectif du présent mémoire est de préciser les fondements idéologiques du projet de réforme de l’État canadien du premier ministre en m’appuyant sur les écrits des membres de l’École de Calgary. Je fais l’hypothèse que les politiques publiques mises en place par Harper sont inspirées des convictions des membres de cette école de pensée, dont il est un proche. Dans le premier chapitre, je détermine la signification du concept d’idéologie et établis la pertinence de l’analyse des idéologies pour expliquer les décisions politiques. Je définis ensuite les principaux types de conservatisme, afin de déterminer lequel inspire les membres de l’École de Calgary et le Parti conservateur. Dans le second chapitre, je dresse un portrait de la pensée de l’École de Calgary relativement à quatre thèmes, soit ceux du développement économique et social, du pouvoir judiciaire, de la politique étrangère et de l’identité nationale. Enfin, dans le troisième chapitre, je recense les décisions prises par le gouvernement Harper en relation avec ces quatre mêmes thèmes et vérifie leur concordance avec les idées portées par l’École de Calgary.
Resumo:
La partie création de ce mémoire se veut soutenue par une tension narrative reliée à la curiosité suscitée par le personnage principal, de prime abord énigmatique, qui se dévoile de façon capricieuse par un changement constant de focalisation et de temporalité. Nathan vit à une ère où l’humanité a frôlé l’extinction, et où tout est à repenser après l’annihilation du virus ramenant les morts à la vie. N’ayant pas été témoin de ces horreurs, ses plus grandes préoccupations concernent son cheminement vers l’authenticité. Saltimbanque de métier, il voyage de communauté en communauté, où chacune a fait ses choix pour recréer le monde. Sa volonté de prôner l’art dans un processus de reconstruction sociale et sa poursuite d’une image perdue le pousseront toujours plus loin dans ses pérégrinations; vers des réalités qui le conduiront à redéfinir son univers. La partie essai s’interroge sur les procédés formant la tension narrative des romans d’Émile Ajar, pseudonyme laissant deviner la plume expérimentée de Romain Gary qui se réinvente dans l’anonymat. L’attention est centrée sur les jeux de narration, le rôle actanciel des personnages et l’orchestration formelle des récits, à savoir s’ils sont assez similaires pour lier les opus et les constituer en une série unifiée. Cette réflexion à la recherche de l’essence de l’oeuvre ajarienne, touchante par ses antihéros souvent démunis dans leur quête existentielle, a été une inspiration pour la rédaction de Le jour où la Terre en avait vu d’autres. Les rêves de Nathan sont racontés à la première personne, rejoignant certaines modalités ajariennes où la psyché des protagonistes se révèle par une narration au “je”. Les questionnements sur la tension narrative ont été déclencheurs de cette première démarche d’écriture romanesque, même si elle est située dans un cadre complètement autre et use d’une plume bien différente de celle d’Ajar.
Resumo:
Depuis les années 90, les études réalisées au Canada ont permis d’identifier de nouvelles zones endémiques de l’agent de la maladie de Lyme, Borrelia burgdorferi, ou de sa tique vectrice, Ixodes scapularis. Ces régions représentent des zones privilégiées pour étudier le cycle de transmission dans son contexte environnemental. L’objectif principal de ce projet est d’étudier les relations spirochètes – tiques - hôtes et les facteurs environnementaux impliqués dans le cycle de transmission à partir des données du vecteur et de l’agent pathogène recueilli dans le Sud-Ouest du Québec de 2007 à 2008. Tout d’abord sera décrite la saisonnalité des tiques et des associations entre le vecteur et les hôtes rongeurs capturés. En effet, l’identification de la saisonnalité spécifique à chaque stade de la tique I. scapularis permet d’établir quels seront les mois propices pour effectuer les futures collectes de tiques. La saisonnalité synchrone des tiques immatures en quête peut également être un indicateur de la nature ou des souches de B. burgdorferi retrouvées. L’association des tiques immatures à différentes espèces ou à différentes classes d’hôtes (c.-à-d. âge, sexe, statut reproductif) a également été explorée. Nos résultats montrent que les souris du genre Peromyscus, principalement les mâles adultes, contribuent significativement à la survie et au développement du complexe I. scapularis - B. burgdorferi. Les tamias et les écureuils contribuent aussi à la survie et au développement des populations de la tique I. scapularis. Ensuite les associations entre le vecteur et les hôtes cervidés ont été examinées en tenant compte des facteurs environnementaux associés à leur niveau d’infestation. Ceci a permis d’évaluer l’utilisation des cerfs à titre de sentinelles pour le vecteur et les agents pathogènes. D’après nos résultats, bien qu’ils soient des sentinelles efficaces pour détecter Anaplasma phagocytophilum, les cerfs semblent des sentinelles inefficaces pour détecter les zones d’établissement du complexe I. scapularis-B. burgdorferi. Enfin, une analyse de l’impact de la diversité des hôtes et de l’habitat sur l’abondance de la tique I. scapularis et la prévalence de B. burgdorferi a été effectuée et ce, en tenant compte d’autres facteurs environnementaux. Ces analyses ont permis de déterminer les facteurs critiques pour l’établissement du complexe I. scapularis – B. burgdorferi et d’explorer la contribution relative de diverses espèces d’hôtes. D’après nos études, la diversité de la communauté d’hôte et la diversité de l’habitat influencent le complexe I. scapularis - B. burgdorferi. De plus, le climat (la température et les précipitations) joue un rôle significatif dans l’établissement, la survie et le développement des populations d’I. scapularis. Ce projet de recherche a permis d’explorer et d’identifier divers facteurs environnementaux biotiques et abiotiques influençant l’établissement du complexe I. scapularis - B. burgdorferi dans le Sud-Ouest du Québec. Ceux-ci pourraient être utilisés à titre d’indicateurs environnementaux du risque de la maladie de Lyme au Québec et possiblement ailleurs au Canada.
Resumo:
La passion est un élément central dans les œuvres d’Anne Hébert. Chez les personnages hébertiens, la passion se traduit par une rhétorique distinctive: la rhétorique du pâtir. L’Île de la Demoiselle, pièce de théâtre radiophonique diffusée en 1974, ainsi que Kamouraska, roman publié en 1970, sont des exemples de la construction textuelle du pâtir. Cette forme de souffrance est particulière dans le cas des deux œuvres, car elle semble à la fois subie et voulue par les protagonistes. Notre mémoire porte sur un outil de théâtralisation spécifique, la parole dans le texte, et ce, principalement celle des héroïnes Marguerite de Notron et Elisabeth d’Aulnières. Nous étudions comment le discours construit un pâtir en partie subi, mais aussi maîtrisé et voulu par les protagonistes par le biais de la théâtralisation de la parole. À l’image du théoricien Jean-Pierre Richard, nous effectuons pour chacune des œuvres des microlectures d’extraits, afin de montrer comment le pâtir se déploie dans la parole au fil des phrases. Ces microlectures servent de tremplin à une ouverture sur l’ensemble du texte. Nous appuyant sur la théorie du langage d’Austin, nous analysons le discours, afin de montrer comment il y a performativité de la parole chez les protagonistes, même si les personnages en proie à la passion semblent inactifs. Notre objectif est de montrer comment la mise en scène de la parole est la même dans les deux œuvres.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Le surenroulement de l’ADN est important pour tous les processus cellulaires qui requièrent la séparation des brins de l’ADN. Il est régulé par l’activité enzymatique des topoisomérases. La gyrase (gyrA et gyrB) utilise l’ATP pour introduire des supertours négatifs dans l’ADN, alors que la topoisomérase I (topA) et la topoisomérase IV (parC et parE) les éliminent. Les cellules déficientes pour la topoisomérase I sont viables si elles ont des mutations compensatoires dans un des gènes codant pour une sous-unité de la gyrase. Ces mutations réduisent le niveau de surenroulement négatif du chromosome et permettent la croissance bactérienne. Une de ces mutations engendre la production d'une gyrase thermosensible. L’activité de surenroulement de la gyrase en absence de la topoisomérase I cause l’accumulation d’ADN hyper-surenroulé négativement à cause de la formation de R-loops. La surproduction de la RNase HI (rnhA), une enzyme qui dégrade l’ARN des R-loops, permet de prévenir l’accumulation d’un excès de surenroulement négatif. En absence de RNase HI, des R-loops sont aussi formés et peuvent être utilisés pour déclencher la réplication de l’ADN indépendamment du système normal oriC/DnaA, un phénomène connu sous le nom de « constitutive stable DNA replication » (cSDR). Pour mieux comprendre le lien entre la formation de R-loops et l’excès de surenroulement négatif, nous avons construit un mutant conditionnel topA rnhA gyrB(Ts) avec l’expression inductible de la RNase HI à partir d’un plasmide. Nous avons trouvé que l’ADN des cellules de ce mutant était excessivement relâché au lieu d'être hypersurenroulé négativement en conditions de pénurie de RNase HI. La relaxation de l’ADN a été montrée comme étant indépendante de l'activité de la topoisomérase IV. Les cellules du triple mutant topA rnhA gyrB(Ts) forment de très longs filaments remplis d’ADN, montrant ainsi un défaut de ségrégation des chromosomes. La surproduction de la topoisomérase III (topB), une enzyme qui peut effectuer la décaténation de l’ADN, a corrigé les problèmes de ségrégation sans toutefois restaurer le niveau de surenroulement de l’ADN. Nous avons constaté que des extraits protéiques du mutant topA rnhA gyrB(Ts) pouvaient inhiber l’activité de surenroulement négatif de la gyrase dans des extraits d’une souche sauvage, suggérant ainsi que la pénurie de RNase HI avait déclenché une réponse cellulaire d’inhibition de cette activité de la gyrase. De plus, des expériences in vivo et in vitro ont montré qu’en absence de RNase HI, l’activité ATP-dépendante de surenroulement négatif de la gyrase était inhibée, alors que l’activité ATP-indépendante de cette enzyme demeurait intacte. Des suppresseurs extragéniques du défaut de croissance du triple mutant topA rnhA gyrB(Ts) qui corrigent également les problèmes de surenroulement et de ségrégation des chromosomes ont pour la plupart été cartographiés dans des gènes impliqués dans la réplication de l’ADN, le métabolisme des R-loops, ou la formation de fimbriae. La deuxième partie de ce projet avait pour but de comprendre les rôles des topoisomérases de type IA (topoisomérase I et topoisomérase III) dans la ségrégation et la stabilité du génome de Escherichia coli. Pour étudier ces rôles, nous avons utilisé des approches de génétique combinées avec la cytométrie en flux, l’analyse de type Western blot et la microscopie. Nous avons constaté que le phénotype Par- et les défauts de ségrégation des chromosomes d’un mutant gyrB(Ts) avaient été corrigés en inactivant topA, mais uniquement en présence du gène topB. En outre, nous avons démontré que la surproduction de la topoisomérase III pouvait corriger le phénotype Par- du mutant gyrB(Ts) sans toutefois corriger les défauts de croissance de ce dernier. La surproduction de topoisomérase IV, enzyme responsable de la décaténation des chromosomes chez E. coli, ne pouvait pas remplacer la topoisomérase III. Nos résultats suggèrent que les topoisomérases de type IA jouent un rôle important dans la ségrégation des chromosomes lorsque la gyrase est inefficace. Pour étudier le rôle des topoisomérases de type IA dans la stabilité du génome, la troisième partie du projet, nous avons utilisé des approches génétiques combinées avec des tests de « spot » et la microscopie. Nous avons constaté que les cellules déficientes en topoisomérase I avaient des défauts de ségrégation de chromosomes et de croissance liés à un excès de surenroulement négatif, et que ces défauts pouvaient être corrigés en inactivant recQ, recA ou par la surproduction de la topoisomérase III. Le suppresseur extragénique oriC15::aph isolé dans la première partie du projet pouvait également corriger ces problèmes. Les cellules déficientes en topoisomérases de type IA formaient des très longs filaments remplis d’ADN d’apparence diffuse et réparti inégalement dans la cellule. Ces phénotypes pouvaient être partiellement corrigés par la surproduction de la RNase HI ou en inactivant recA, ou encore par des suppresseurs isolés dans la première partie du projet et impliques dans le cSDR (dnaT18::aph et rne59::aph). Donc, dans E. coli, les topoisomérases de type IA jouent un rôle dans la stabilité du génome en inhibant la réplication inappropriée à partir de oriC et de R-loops, et en empêchant les défauts de ségrégation liés à la recombinaison RecA-dépendante, par leur action avec RecQ. Les travaux rapportés ici révèlent que la réplication inappropriée et dérégulée est une source majeure de l’instabilité génomique. Empêcher la réplication inappropriée permet la ségrégation des chromosomes et le maintien d’un génome stable. La RNase HI et les topoisomérases de type IA jouent un rôle majeur dans la prévention de la réplication inappropriée. La RNase HI réalise cette tâche en modulant l’activité de surenroulement ATP-dependante de la gyrase, et en empêchant la réplication à partir des R-loops. Les topoisomérases de type IA assurent le maintien de la stabilité du génome en empêchant la réplication inappropriée à partir de oriC et des R-loops et en agissant avec RecQ pour résoudre des intermédiaires de recombinaison RecA-dépendants afin de permettre la ségrégation des chromosomes.
Resumo:
Résumé Le premier article de la thèse se veut une revue systématique des données empiriques mettant en lumière les antécédents à la base de l’émergence du leadership narcissique dans les organisations, ses composantes psychologiques ainsi que ses incidences tant pour les organisations que pour leurs membres. Conséquemment, cette étude brosse initialement une recension détaillée des principaux facteurs idiosyncrasiques, culturels, environnementaux et structurels participant à la manifestation du leadership narcissique dans les organisations. Par la suite, elle en sonde la teneur en isolant l’existence de cinq composantes psychologiques, soit le charisme, l’influence intéressée, la motivation fallacieuse, l’inhibition intellectuelle et la considération simulée. Enfin, elle souligne les conséquences négatives de son actualisation dont les principales sont : la production de prises de décisions volatiles et risquées; la création d’un climat organisationnel toxique; la destruction de la confiance des subordonnés; la détérioration de l’efficacité organisationnelle; l’émergence d’une gestion dysfonctionnelle; et la manifestation de comportements non-éthiques. Le deuxième article s’avère une analyse comparative de deux types de leadership se révélant, de prime abord, trompeusement analogues. Ces deux types sont le leadership transformationnel et le leadership narcissique. Quoique se situant aux antipodes en matière de satisfaction de besoins (influence idéalisée versus influence intéressée), de promotion de visions (motivation inspirationnelle versus motivation fallacieuse), de réceptivité à la rétroaction d’autrui (stimulation intellectuelle versus inhibition intellectuelle) et de traitement des relations interpersonnelles (considération individualisée versus considération simulée), les leaderships transformationnel et narcissique partagent entre eux un élément commun : le charisme du leader. C’est précisément cette dernière caractéristique, conférant à son détenteur un puissant halo magnétisant, qui se révèle le creuset de la spéciosité du leadership narcissique opérant essentiellement lors des tout premiers contacts avec le leader. En fait, le charisme du leader narcissique sert en quelque sorte de fard, composé de charme et de fascination, masquant une décevante réalité psychologique et dont les propriétés captieuses s’étiolent rapidement. Le troisième article de la thèse est une étude conceptuelle examinant la structuration idiosyncrasique des criminels en col blanc ayant commis des fraudes financières se chiffrant à plusieurs dizaines de millions de dollars. Exploitant le croisement des deux dimensions fondamentales de l’agression, soit sa fonction (proactive ou réactive) et sa forme (directe ou indirecte), cette étude propose une taxonomie archétypique de différents types de psychopathie susceptible de mieux cerner la psychologie du criminel en col blanc d’envergure. L’agression est dite proactive lorsqu’elle est motivée par des impératifs de prédation indépendants de l’état émotionnel de l’individu. L’action de l’individu prédateur est intentionnelle et instrumentale. Elle vise l’atteinte d’objectifs préétablis avant l’actualisation de l’agression. Par contre, elle est considérée réactive lorsque la préservation de l’intégrité physique ou psychologique de l’individu est l’objet d’une menace émergeant de son environnement externe immédiat. Dans ce cas, la réaction agressive de l’individu est émotionnellement conditionnée. Par ailleurs, nonobstant la nature de sa fonction, l’agression peut s’exprimer directement ou indirectement. Elle est considérée directe lorsqu’elle a pour cible l’agressé en tant que tel. La forme physique d’agression peut être physique (sévices corporels) ou verbale (menaces et insultes). Par contre, lorsqu’elle emprunte des modes d’expression plus subtils, tels les rumeurs, l’humour malicieux et la tromperie, l’agression est dite indirecte. Le pairage des deux dimensions fondamentales de l’agression permet la construction d’un modèle d’analyse bidimensionnelle englobant quatre types de psychopathie, à savoir les psychopathies parasitique (préservation indirecte), colérique (préservation directe), cynégétique (prédation directe) et sympathique (prédation indirecte). C’est précisément cette dernière forme de psychopathie, le type sympathique caractérisé par un étaiement idiosyncrasique narcissico-machiavélique, qui traduit le mieux la psychologie des criminels en col blanc d’envergure. Enfin, le quatrième et dernier article de la présente thèse se propose d’explorer une problématique de recherche n’ayant reçu que très peu d’attention de la part des membres de la communauté scientifique, à savoir l’examen de l’adéquation d’un modèle dimensionnel du narcissisme pathologique inspiré du modèle développé par Roche, Pincus, Lukowitsky, Ménard et Conroy (2013). Au moyen d’une étude de cas exploratoire, il a été possible d’associer la vulnérabilité narcissique au segment décompensatoire (échec des stratégies inadaptées d’agrandissement de soi) du modèle théorique inspiré de celui de Roche et al. (2013) et ce, conformément à ses prescriptions. En effet, la comparaison des résultats de l’un des deux participants de l’étude, madame H, obtenus lors des deux saisies de données espacées d’un intervalle d’une année, indique une diminution de la vulnérabilité narcissique lors de la période de re-compensation. En outre, cette diminution est accompagnée de celle de la grandiosité narcissique. En somme, la relation positive entre les deux dimensions du narcissisme pathologique se révèle, sur un plan longitudinal, constante dans les deux segments – compensatoire (recours à des stratégies inadaptées d’agrandissement de soi) et décompensatoire – du modèle théorique inspiré de celui de Roche et al. (2013). Par ailleurs, les résultats obtenus auprès des deux participants à l’étude de cas, monsieur B et de madame H, s’avèrent éclairants eu égard à la prépondérance respective de chacune des dimensions (grandiosité et vulnérabilité) narcissiques en fonction des segments compensatoire et décompensatoire du modèle théorique inspiré de celui de Roche et al. (2013). Se trouvant en mode de compensation narcissique lors des deux saisies de données, monsieur B affiche une grandiosité narcissique supérieure à sa vulnérabilité narcissique. Cette constatation respecte en tous points les prescriptions théoriques du modèle. Quant à madame H, qu’elle soit en mode de compensation ou de décompensation narcissique (postulat non démontré eu égard aux prescriptions du modèle théorique utilisé), sa vulnérabilité narcissique demeure constamment plus élevée que sa grandiosité narcissique. Théoriquement, selon les prescriptions du modèle, la prépondérance devrait être observée chez la dimension « grandiosité narcissique » en période de compensation. De toute évidence, les données obtenues auprès de madame H s’écartent de ces prescriptions.
Resumo:
La création, Bois dormant, met en scène un charpentier-ébéniste qui consacre tous ses temps libres à la création de mobilier, dans un cycle de production inutile. Sa dilapidation insensée de bois incite la nature à se révolter contre lui et à propager une énergie qui donne vie à tous les objets de sa maison. Ce conte revisite plusieurs contes (La Barbe bleue, Les Aventures de Pinocchio, Otesánek, La Belle au bois dormant, Les Aventures d’Alice au pays des merveilles, Cendrillon) pour les transformer en cauchemar, en effriter les morales, en décupler les cruautés et en utiliser les motifs pour illustrer l’absurdité du monde moderne. Ce conte-Frankenstein, par son esthétique baroque où prime la parenthèse, fait de la surenchère un reflet de la surconsommation. L’essai, La réécriture féministe contemporaine de quatre contes dans Putain, de Nelly Arcan et Peau d’âne, de Christine Angot, explore comment, par les réécritures qu’ils inspirent, les contes de Perrault et des frères Grimm constituent un puissant matériau d’incarnation qui facilite la venue à l’écriture du traumatisme chez Christine Angot et Nelly Arcan, mais qui sert aussi d’outil de dénonciation féministe pour elles. Dans Putain, de Nelly Arcan, la narratrice met en lumière, par des réinterprétations des contes du Petit Chaperon rouge, de La Belle au bois dormant et de Blanche-Neige, différents aspects de sa détresse face à l’oppression du regard masculin. Quant à Christine Angot, dans Peau d’âne, elle propose, par une réécriture du conte de Peau d’âne en parallèle avec celui de La Belle au bois dormant, de révéler les répercussions perverses des dictats de la mode et de la loi du père sur l’identité de la femme. Toutes ces réécritures permettent de déjouer la logique valorisée par les contes et d’en démontrer l’absurdité et le caractère malsain d’un point de vue féministe.
Resumo:
Ce mémoire tente de présenter l’état des relations diplomatiques entre la Russie soviétique, puis l’Union des républiques socialistes soviétiques (URSS) à partir de 1922, et la Grande-Bretagne entre 1920 et 1927, à travers les documents du Foreign Office britannique. Pour cela, il présente le retour progressif des relations officielles entre les deux pays sous la gouverne du premier ministre britannique Lloyd George, de 1916 à 1922, et la mise en place d’une politique britannique à l’égard du gouvernement soviétique. Il tente ensuite d’établir les politiques des différents gouvernements qui suivent celui de Lloyd George, et de voir si ces politiques marquent une rupture avec la politique du gouvernement de Lloyd George ou si, au contraire, il existe une continuité dans ces politiques, malgré le changement de gouvernement. L’hypothèse principale que nous soutenons est que malgré les changements de gouvernements entre 1920 et 1927, la politique de la Grande-Bretagne restera identique durant toute la période, et ce malgré les différents gouvernements britanniques qui vont se succéder : un gouvernement d’union, deux gouvernements conservateurs et le premier gouvernement travailliste. Nous croyons que la prétendue « propagande soviétique » sera l’une des lignes directrices des relations entre les deux pays pendant la période étudiée, lignes établies par Lloyd George et son gouvernement au début de 1920. Nous soutenons également que cette « propagande » sera le pivot des relations entre les deux pays, et qu’elle sera un frein constant dans l’établissement de relations normalisées avec l’Union soviétique. Nous croyons que cette propagande entraînera une « paranoïa » de la part du gouvernement britannique qui, pendant toute la période que nous étudions, passera tout son temps à se plaindre au gouvernement soviétique de « sa » propagande, entraînant finalement la rupture des relations en 1927.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
À travers cette thèse, nous revisitons les différentes étapes qui ont conduit à la découverte des isolants topologiques, suite à quoi nous nous penchons sur la question à savoir si une phase topologiquement non-triviale peut coexister avec un état de symétrie brisée. Nous abordons les concepts les plus importants dans la description de ce nouvel état de la matière, et tentons de comprendre les conséquences fascinantes qui en découlent. Il s’agit d’un champ de recherche fortement alimenté par la théorie, ainsi, l’étude du cadre théorique est nécessaire pour atteindre une compréhension profonde du sujet. Le chapitre 1 comprend un retour sur l’effet de Hall quantique, afin de motiver les sections subséquentes. Le chapitre 2 présente la première réalisation d’un isolant topologique à deux dimensions dans un puits quantique de HgTe/CdTe, suite à quoi ces résultats sont généralisés à trois dimensions. Nous verrons ensuite comment incorporer des principes de topologie dans la caractérisation d’un système spécifique, à l’aide d’invariants topologiques. Le chapitre 3 introduit le premier dérivé de l’état isolant topologique, soit l’isolant topologique antiferromagnétique (ITAF). Après avoir motivé théoriquement le sujet et introduit un invariant propre à ce nouvel état ITAF, qui est couplé à l’ordre de Néel, nous explorons, dans les chapitres 4 et 5, deux candidats de choix pour la phase ITAF : GdBiPt et NdBiPt.
Resumo:
En 2007, le premier ministre Stephen Harper a annoncé que le renouvellement de l’engagement du Canada dans les Amériques était une priorité internationale pour son gouvernement. Le document qui a formalisé la nouvelle priorité accordée à l’hémisphère occidental stipule que le Canada s’est engagé à faire progresser concurremment la démocratie, l’intégration économique et la sécurité. Cette recherche a pour but de remettre en cause le discours officiel en analysant la politique du Canada à l’égard de la Colombie et du Honduras. L’étude sur le cas colombien porte sur les effets de l’intégration économique sur les droits humains et la sécurité. Elle montre que le texte de l’accord de libre-échange Canada-Colombie et les évaluations d’impact sur les droits humains n’abordent pas convenablement les risques entourant les investissements canadiens et que leurs lacunes diluent l’engagement d’Ottawa envers la protection des droits humains et la résolution du conflit. L’étude sur le cas hondurien porte sur l’impact des déficits démocratiques et de l’insécurité sur l’intégration économique. Elle montre que le virage à droite qui a suivi le coup d’État de 2009 a permis au gouvernement canadien d’entreprendre des négociations de libre-échange bilatérales et de prendre part à la réforme du code minier du Honduras, tandis que les déficits démocratiques et l’insécurité ont empêché la population hondurienne de participer d’une manière significative au processus d’intégration économique. Nous concluons que ces deux cas contredisent le discours officiel dans la mesure où l’objectif de l’intégration économique a été atteint aux dépens des autres objectifs.