513 resultados para Théorie des Formes
Resumo:
Le but de ce mémoire est de comprendre l’influence de la satisfaction intrinsèque et de la satisfaction extrinsèque sur l’intention de quitter des travailleurs. Afin d’étudier ce sujet, nous avons formulé trois hypothèses basées sur la théorie des attentes et la théorie des deux facteurs d’Herzberg. La première hypothèse stipule que la satisfaction intrinsèque fait diminuer l’intention de quitter des travailleurs. La seconde hypothèse est formulée à l’effet que la satisfaction extrinsèque fait diminuer l’intention de quitter des travailleurs. La dernière hypothèse stipule que la satisfaction intrinsèque a une influence plus importante sur l’intention de quitter des travailleurs que la satisfaction extrinsèque. Les données utilisées afin de tester nos hypothèses de recherche ont été collectées dans le cadre d’une étude plus vaste portant sur « les liens entre la rémunération, la formation et le développement des compétences et l’attraction et la rétention d’employés clés ». L’entreprise au sein de laquelle les données ont été collectées est dans le domaine des technologies de l’information et des communications (TIC) à Montréal. Les employés interrogés sont les nouveaux employés embauchés par l’entreprise. Les résultats de notre mémoire confirment deux de nos hypothèses. Ainsi, nos résultats ont démontré que la satisfaction intrinsèque fait diminuer l’intention de quitter des travailleurs d’ici six mois, un an et deux ans. De plus, nos résultats ont démontré que la satisfaction intrinsèque a une influence plus importante sur l’intention de quitter que la satisfaction extrinsèque. Par contre, une de nos hypothèses est partiellement confirmée. En effet, nos résultats ont démontré que la satisfaction extrinsèque fait seulement diminuer l’intention de quitter d’ici un an et deux ans et n’a aucune influence significative sur l’intention de quitter d’ici six mois. Le soutien organisationnel perçu est une variable qui a également une forte influence sur l’intention de quitter des travailleurs. Pour terminer, la conclusion de ce mémoire présente en quoi nos résultats peuvent être utiles aux gestionnaires des ressources humaines et des relations industrielles.
Resumo:
A partir des résultats d’une enquête effectuée en 2005 sur un échantillon de 203 dirigeants publics, une typologie floue de trois profils a été dégagée en vue de concevoir un système d’affectation des dirigeants en fonction de leur style du leadership, sens du travail, et leurs préoccupations de gestion des ressources humaines. En se basant sur cette typologie floue, des techniques empruntées à l’intelligence artificielle ont été appliquées pour apprendre des règles de classification. Ces techniques sont au nombre de quatre : le réseau neuronal (Neural Network), l’algorithme génétique (Genetic Algorithm), l’arbre de décision (Decision Tree) et la théorie des ensembles approximatifs (Rough Sets). Les résultats de l’étude ainsi que ses perspectives seront présentées et discutés tout au long de cette communication.
Resumo:
Les récepteurs couplés aux protéines GRCPG sont une des plus grandes familles de récepteur membranaire codifié par le génome humain et certainement la plus grande famille de récepteurs. Localisés au niveau des membranes plasmiques, ils sont responsables d’une grande variété de réponses cellulaires. L’activation de ces derniers par des ligands était traditionnellement associée à un changement de conformation de la protéine, passant d’un état inactif à un état actif. Toutefois, certaines observations entraient en contradiction avec cette théorie et laissaient supposer la présence de plusieurs conformations actives du récepteur. Ces différentes conformations pouvaient être actives pour certaines voies de signalisation ou de régulation et inactives pour d’autres. Ce phénomène, initialement appelé agoniste dirigé ou « biased agonism », est maintenant décrit comme étant la sélectivité fonctionnelle des ligands des RCPG. Cette sélectivité des voies de signalisation et de régulation permettrait en théorie de développer des ligands capables de cibler seulement les voies de signalisation et de régulation responsable des effets thérapeutiques sans activer les voies responsables des effets secondaires ou indésirables. Le récepteur delta opiacé (DOR) est un RCPG impliqué dans la gestion de la douleur chronique. L’action analgésique de ses ligands est toutefois soumise à un effet de tolérance produite lors de leur utilisation à long terme. Cet effet secondaire limite l’utilisation thérapeutique de ces médicaments. Cette thèse s’est donc intéressée à la sélectivité fonctionnelle des ligands du DOR afin d’évaluer la possibilité de réduire les effets de tolérance produits par ces molécules. En premier lieu, nous avons déterminé que le DOR peut être stabilisé dans plusieurs conformations actives dépendantes du ligand qui le lie et ces conformations possèdent différents profils d’activation des voies de signalisation et de régulation. En deuxième lieu, nous avons déterminé que les différents ligands du DOR stabilisent des conformations du complexe récepteur/protéine G qui ne concordent pas avec la théorie des récepteurs à deux états, suggérant plutôt la présence d’une multitude de conformations actives. Finalement, nous avons démontré que ces différentes conformations interagissaient de façon distincte avec les protéines de régulation des RCPG; le ligand favorisant le retour du récepteur à la membrane produisant moins de désensibilisation et moins de tolérance aiguë à l’analgésie que le ligand favorisant la séquestration du récepteur à l’intérieur de la cellule. Les résultats de cette thèse démontrent que la sélectivité fonctionnelle des ligands opiacés pourrait être utilisée dans le développement de nouveau analgésique produisant moins de tolérance.
Resumo:
Dans la présente recherche, nous nous sommes penchés sur le processus du transfert intra-organisationnel de connaissances au sein d’entreprises multinationales (EM). Partant du triple constat suivant : les connaissances organisationnelles constituent un avantage stratégique (Barney, 1991 ; Bartlett et Ghoshal, 1998), les transferts intra-organisationnels constituent la raison d’être des EM (Gupta et Govindarajan, 2000), lesquelles ont accès à un vaste bassin de connaissances disséminées à travers le monde par le biais de leurs filiales et les mécanismes organisationnels internes sont plus efficaces que ceux du marché (Williamson, 1987 ; Casson, 1976) pour transférer des connaissances entre unités organisationnelles; nous nous sommes intéressés aux facteurs pouvant affecter l’efficacité de ce processus de transfert. Ayant identifié, lors de notre revue des écrits théoriques, une multitude d’approches permettant d’appréhender ce phénomène, nous proposons, dans notre recherche, un modèle théorique intégrant les trois étapes propres au processus de transfert, soit : la détermination des connaissances à transférer, la sélection des mécanismes de transfert appropriés et, finalement, l’évaluation, d’une part, de l’efficacité des transferts et, d’autre part, de l’ensemble des facteurs contextuels ayant un impact sur l’efficacité de ce processus. Sur le plan théorique, cette recherche oppose deux courants dominant ce champ disciplinaire. L’approche stratégique, exprimée par la théorie des ressources, met l’accent sur l’importance prépondérante des facteurs organisationnels internes sur l’efficacité de toute action organisationnelle (Bartlett et Ghoshal, 1998 ; Barney, 1991). Cette approche s’oppose au courant institutionnel, lequel considère plutôt que les choix et les actions organisationnels sont surtout conditionnés par les contraintes de l’environnement externe (Ferner, 1997; Kostova, 1999; Scott, 1991). Les résultats de notre recherche démontrent que, malgré l’existence de contraintes de nature institutionnelle et culturelle, l’efficacité du processus de transfert des connaissances associées à la gestion des ressources humaines relève davantage des conditions organisationnelles internes et, plus particulièrement, de l’implication de la haute direction, du rôle accordé à la fonction RH et de l’alignement entre la stratégie corporative, la stratégie RH et la culture organisationnelle. Sur le plan méthodologique, il s’agit d’une recherche exploratoire qualitative menée auprès de trois EM (2 canadiennes et 1 française) oeuvrant dans les secteurs de la métallurgie et des télécommunications. Les données empiriques proviennent de 17 entrevues approfondies que nous ont accordées, au Canada, en France, en Allemagne et en Suisse des cadres responsables de la gestion des ressources humaines, affectés au siège social des EM en question ou œuvrant au sein de leurs filiales, et de sources documentaires secondaires.
Resumo:
Un phénomène de résistance au traitement pharmacologique chez les personnes souffrant de maladies psychiatriques graves et persistantes comme la schizophrénie, tel que révélé par la pratique des soins psychiatriques communautaires de première ligne, sert de point de départ pour poser une distinction fondamentale entre les notions de traitement et de soins. Conséquemment, la question du consentement selon qu’il est attribué au traitement ou aux soins suggère des formes de consentement distinctes susceptible d’affecter la façon de faire face à des problèmes particuliers sur le plan de l’éthique. L’analyse conceptuelle d’un certain modèle d’interventions psychiatriques de crise, qui regroupe des travailleurs de la santé et des policiers au sein d’une même équipe de travail, permet de circonscrire des catégories de problèmes éthiques qui conduiront éventuellement à la formalisation d’une approche de résolution de problème. Trois façons d’approcher un problème d’éthique clinique sont proposées sous la forme d’enjeux, de dilemmes, puis de défis éthiques. L’intervention de crise y est catégorisée selon quatre niveaux d’intensité de crise, donnant lieu à une appréciation subjective par le soignant de la capacité de la personne soignée d’établir et de maintenir une relation de soins en situation de crise. Des parallèles entre les soins psychiatriques et les soins palliatifs permettent d’approfondir la question de la souffrance en lien avec la douleur et de distinguer à nouveau les notions de soins et de traitement. La relation de soins est présentée comme une occasion de normaliser les rapports entre soignants et soignés, de valoriser un état de souffrance à l’origine de la rencontre de soins, tout en mettant à profit la dimension relationnelle d’une condition qui appelle à être non pas traitée mais soignée. Ces considérations permettent de dégager une responsabilité nouvelle pour le soignant : celle de se faire le gardien de la relation de soins. Une transition du primum non nocere au primum non excludere : d’abord ne pas exclure est suggérée comme une maxime pour guider la relation de soins vers un consentement aux soins plus authentique.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.
Resumo:
Ce mémoire propose de faire l’analyse épistémologique du pouvoir créateur de la sélection naturelle. L’objectif sera de déterminer en quelle mesure il est légitime ou non de lui attribuer un tel pouvoir. Pour ce faire, il sera question de savoir si l’explication sélectionniste peut répondre à la question de l’origine des formes structurelles du vivant. Au premier chapitre, nous verrons le raisonnement qui mena Darwin à accorder un pouvoir créateur à la sélection naturelle. Nous comprendrons alors qu’un cadre exclusivement darwinien n’est peut-être pas à même de répondre au problème de la nouveauté évolutionnaire. Au deuxième chapitre, nous verrons dans une perspective darwinienne qu’il est possible de conserver l’essence de la théorie darwinienne et d’accorder à la sélection naturelle un pouvoir créateur, bien que deux des piliers darwiniens fondamentaux doivent être remis en question. Au troisième chapitre, nous verrons dans une perspective postdarwinienne que le pouvoir cumulatif de la sélection naturelle n’est peut-être pas à même d’expliquer l’adaptation sur le plan individuel, ce qui remet lourdement en question le pouvoir créateur de la sélection naturelle. Nous comprendrons alors que le débat, entre partisans d’une vision positive et partisans d’une vision négative de la sélection naturelle, dépend peut-être d’un présupposé métaphysique particulier.
Resumo:
À la base, les jeux de hasard et d’argent (JHA) se révèlent pour la grande majorité des gens une activité ludique agréable. On les associe effectivement aux loisirs, puisqu’ils répondent pratiquement aux mêmes besoins, dont la curiosité, le divertissement, la détente, la socialisation et la reconnaissance (Chevalier, 2003; Chevalier & Papineau, 2007; Paradis & Courteau, 2003). En contrepartie, ils constituent tout de même un risque d’excès. Bien que personne ne soit vraiment à l’abri de la dépendance, les écrits scientifiques montrent que certains groupes se révèlent particulièrement à risque. Avec les personnes qui souffrent de troubles mentaux et toxicomaniaques (Walters, 1997), la population correctionnelle se trouve parmi les individus les plus susceptibles de présenter des problèmes liés au jeu pathologique (Abbott, McKenna, & Giles, 2005; Ashcroft, Daniels, & Hart, 2004; Lahn, 2005). Or, si plusieurs études informent sur les habitudes de jeu précarcérales des hommes condamnés à l’emprisonnement, peu renseignent sur ce qu’il advient de cette pratique à l’intérieur des établissements de détention. Malgré une interdiction formelle des services correctionnels, on reconnaît pourtant la présence des JHA en prison (Abbott et al., 2005; Lahn & Grabosky, 2003; Nixon, Leigh, & Grabosky, 2006; Williams, Royston, & Hagen, 2005; Lahn, 2005). Cependant, la plupart des études se contentent trop souvent de dresser un portrait purement descriptif des types de jeux et des formes de mises. Une meilleure compréhension de cette pratique intra-muros se révèle essentielle, ne serait-ce que si l’on tient compte de la proportion non négligeable de détenus aux prises avec une telle dépendance. Cette thèse entend donc améliorer la compréhension de cette pratique dans les établissements de détention fédéraux du Québec, en se basant sur l’opinion et l’expérience de 51 hommes qui y sont incarcérés. Des entrevues qualitatives en français ont été effectuées avec des détenus québécois de plus de 18 ans, purgeant une peine d’emprisonnement minimale de vingt-quatre mois. Les résultats obtenus suite à des analyses thématiques sont répartis dans trois articles scientifiques. Le premier article décrit le déroulement des JHA intra-muros et analyse l’influence du milieu carcéral sur l’accès à ces activités et leur signification. Contrairement à nos attentes, le règlement interdisant les paris ne s’avère pas un obstacle central à leur pratique. Des éléments liés au contexte correctionnel et à la sentence en restreignent davantage la participation. La disponibilité et les bienfaits habituellement retirés des JHA, comme le plaisir et l’excitation, s’avèrent beaucoup plus limités que ce que ces activités offrent habituellement dans la société libre. Le second article étudie les conséquences potentielles des JHA, de même que la façon dont les détenus y réagissent. À la base, le seul fait que ces activités impliquent obligatoirement un échange d’argent, de biens de valeur ou de services rendus engendre pour tous les joueurs un risque de contracter des dettes. Une analyse dynamique montre que certaines frictions se développent autour des JHA, qui s’expliquent toutefois mieux par les caractéristiques du milieu carcéral. Le dernier article aborde les motifs qui justifient la participation ou non de la population correctionnelle à des JHA durant leur incarcération. Il tient compte des habitudes de jeu au cours des douze mois qui ont précédé la détention, soit des non-joueurs, des joueurs récréatifs et des joueurs problématiques. Pour la plupart des détenus, les JHA servent d’alternative ludique à l’ennui, mais certains les utilisent également dans le but de s’intégrer, voire indirectement de se protéger. Fait encore plus intéressant, malgré la présence de joueurs dépendants parmi les hommes interviewés, aucune des motivations généralement associées au jeu pathologique n’a été rapportée pour justifier la pratique des JHA en prison. En somme, les JHA demeurent généralement sans conséquence dans les établissements de détention québécois, puisque très peu de détenus semblent dépasser leurs limites et s’endetter. Les conflits entourant ces activités apparaissent surtout sous forme de querelles, suite à des doutes sur l’intégrité d’un joueur ou une défaite non assumée. Les événements violents, comme des règlements de compte, faisant suite à des dettes impayées se révèlent exceptionnels. Les résultats de cette thèse montrent également que certains joueurs pathologiques, malgré l’opportunité de s’adonner à des JHA, s’abstiennent ou cessent de miser au cours de leur incarcération. Ces dernières données permettent de réfléchir sur le concept de dépendance et sur les éléments prometteurs pour le traitement des joueurs problématiques incarcérés.
Resumo:
La leucémie myéloïde chronique (LMC) est un modèle d’évolution tumorale dans les cancers humains. Le processus d’évolution de la LMC de la phase chronique (PC) à la phase blastique (PB) est caractérisé par un arrêt de différenciation et l’acquisition de la capacité d’autorenouvellement incontrôlé d’une cellule souche ou d’un progéniteur hématopoïétique. La LMC en PB est associée à la présence d’anomalies génétiques additionnelles à la fusion BCR-ABL1 qui résulte de la translocation chromosomique t(9;22). Contrairement aux patients en PC, les patients en PB de la LMC n’obtiennent pas une réponse moléculaire complète à long terme avec 1’Imatinib mesylate, un inhibiteur de la tyrosine kinase (ITK) BCR-ABL1. De plus, les ITKs de deuxième et troisième générations sont moins efficaces en PB de la LMC lorsque les cellules leucémiques ont acquis une résistance au traitement indépendante des mutations de BCR-ABL1. Les mécanismes moléculaires des voies de signalisation impliquées dans la progression de la LMC en PB ne sont pas entièrement élucidés. Le but de notre travail est de caractériser de nouvelles anomalies génétiques dans la PB de la LMC. Nous avons identifié en cytogénétique, quatre nouvelles translocations chromosomiques : t(1;21)(p36;q22), t(7;17)(p15;q22), t(8;17)(q11;q22) et t(2;12)(q31;p13) dans les cellules leucémiques de patients en PB de la LMC résistants au traitement. En utilisant des techniques d'hybridation in situ en fluorescence, de RT-PCR et de séquençage, nous avons délimité les régions à investiguer au niveau des points de cassure et identifié un réarrangement de plusieurs gènes codant pour des facteurs de transcription importants lors de l’hématopoïèse tels que RUNX1, ETV6, PRDM16 et HOXA. L’altération de ces gènes pourrait expliquer l’arrêt de différenciation et/ou l’acquisition de la capacité d’autorenouvellement caractéristiques de la LMC en PB. Nous avons identifié les fusions RUNX1-PRDM16, MSI2-HOXA, MSI2-SOX17 et ETV6-HOXD11, respectivement associées aux translocations chromosomiques t(1;21), t(7;17), t(8;17) et t(2;12). Ces fusions génèrent différents transcrits alternatifs qui maintiennent et altèrent le cadre ouvert de lecture. L’analyse des séquences des transcrits chimériques identifiés dans ce projet, incluant RUNX1-PRDM16, MSI2-HOXA9, MSI2-HOXA10, MSI2-HOXA11 et ETV6-HOXD11, nous a permis de prédire les domaines fonctionnels potentiellement présents au niveau des protéines chimériques prédites. Les transcrits de fusion qui respectent le cadre ouvert de lecture peuvent générer des domaines fonctionnels des deux partenaires. C’est le cas des deux transcrits identifiés pour la fusion RUNX1-PRDM16 où le domaine de liaison à l’ADN RHD (Runt homology domain) de RUNX1 est fusionné avec la quasi-totalité des domaines de PRDM16. Les transcrits de fusion qui ne respectent pas le cadre ouvert de lecture donnent des formes tronquées des transcrits RUNX1, MSI2 et ETV6. La juxtaposition des régions promotrices de ces derniers en 5’ de leurs partenaires entraîne l’activation de la forme courte oncogénique de PRDM16 dans la t(1;21) ou de différents gènes HOXA/D dans les t(7;17) et t(2;12), ainsi que l’expression aberrante d’un nouveau transcrit alternatif de SOX17 dans la t(8;17). Notre étude nous a permis d’identifier de nouveaux gènes de fusion et/ou une activation de gènes qui pourraient coopérer avec la fusion BCR-ABL1 dans la progression de la LMC et être impliqués dans la résistance au traitement de la LMC en phase avancée. La caractérisation des événements génétiques associés à la transformation blastique de la LMC est essentielle pour l’investigation des voies moléculaires impliquées dans cette phase de la maladie. Investiguer la résistance au traitement de ces patients pourrait aussi contribuer à identifier de nouvelles cibles thérapeutiques dans cette leucémie.
Resumo:
Ce travail analyse les transformations du Graal en comparant sa représentation dans les romans médiévaux et dans trois textes de théâtre modernes. Le Graal, apparu dans la littérature au Moyen Âge, reste une source d'inspiration pour les écrivains modernes au point de gagner, avec le temps, un statut légendaire. L'objet de prédilection de la littérature arthurienne a évolué de façon significative dès le Moyen Âge, où il reste cependant confiné aux formes narratives. Après le « festival scénique sacré » (Bühnenweihfestspiel), Parsifal, de Wagner présenté en 1882 à Bayreuth, des œuvres plus récentes réactualisent le mythe en cherchant à l'adapter au théâtre. Jean Cocteau, en 1937, dans Les Chevaliers de la Table Ronde, présente un Graal inaccessible, immatériel. En 1948, Julien Gracq, dans Le Roi Pêcheur, inscrit le Graal dans l'opposition entre le profane et le sacré. Jacques Roubaud et Florence Delay, dans les éditions de 1977 et 2005 de Graal Théâtre, optent pour une récriture où les représentations du mythe se côtoient et se confrontent. Ces textes de théâtre modernes, où la représentation du Graal se situe au cœur du projet d'écriture, entrent ainsi en relation directe avec les œuvres médiévales. Ils s'inscrivent dans une redéfinition de l'objet qui se renouvelle sans cesse depuis Le Conte du Graal de Chrétien de Troyes. Dans les trois cas, la représentation du Graal entretient des relations contradictoires de filiation et de rupture avec la littérature arthurienne de l'époque médiévale. L'hypothèse principale de cette recherche se situe dans la problématique de la récriture comme transformation d'un héritage. Plus précisément, il sera question de comprendre comment la représentation du Graal dans les textes de théâtre pose problème et comment cette question est modulée, travaillée par les auteurs en termes rhétoriques, stylistiques et dramaturgiques. L'utilisation de la parodie, d'anachronismes et de voix dramatiques nouvelles, par exemple, permet aux auteurs modernes de revisiter et de changer le rapport à l'objet. Le Graal se redéfinit dans des contextes historiques et dans un genre distincts de leur source du Moyen Âge.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
En rivière à lit de graviers, le transport des sédiments en charge de fond est un processus intermittent qui dépend de plusieurs variables du système fluvial dont la prédiction est encore aujourd’hui inexacte. Les modèles disponibles pour prédire le transport par charriage utilisent des variables d’écoulement moyen et la turbulence n’est généralement pas considérée malgré que les tourbillons contenus dans les écoulements possèdent une quantité d’énergie importante. L’utilisation de nouvelles approches pour étudier la problématique du transport par charriage pourrait nous permettre d’améliorer notre connaissance de ce processus déterminant en rivière alluviale. Dans ce mémoire, nous documentons ces composantes de la dynamique fluviale dans un cours d’eau graveleux en période de crue. Les objectifs du projet de recherche sont : 1) d’examiner l’effet du débit sur les variables turbulentes et les caractéristiques des structures turbulentes cohérentes, 2) d’investiguer l’effet du débit sur les caractéristiques des événements de transport de sédiments individuels détectés à l’aide d’un nouvel algorithme développé et testé et 3) de relier les caractéristiques de l’écoulement turbulent aux événements de transport de sédiments individuels. Les données de turbulence montrent qu’à haut niveau d’eau, l’écoulement décéléré est peu cohérent et a une turbulence plus isotrope où les structures turbulentes cohérentes sont de courte durée. Ces observations se distinguent de celles faites à faible niveau d’eau, en écoulement accéléré, où la plus grande cohérence de l’écoulement correspond à ce qui est généralement observé dans les écoulements uniformes en rivières graveleuses. Les distributions de fréquence des variables associées aux événements de transport individuel (intensité de transport moyenne, durée d’événement et intervalle entre événements successifs) ont des formes différentes pour chaque intensité de crue. À haut niveau d’eau, le transport est moins intermittent qu’à faible débit où les événements rares caractérisent davantage les distributions. L’accélération de l’écoulement à petite échelle de temps joue un rôle positif sur le transport, mais surtout lorsque la magnitude de la crue mobilisatrice est en dessous du niveau plein bord. Les résultats de l’étude montrent que les caractéristiques de la turbulence ainsi que les liens complexes entre l’écoulement et le transport par charriage sont fonction du débit.