962 resultados para Théorie des matrices aléatoires
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Ce travail analyse les transformations du Graal en comparant sa représentation dans les romans médiévaux et dans trois textes de théâtre modernes. Le Graal, apparu dans la littérature au Moyen Âge, reste une source d'inspiration pour les écrivains modernes au point de gagner, avec le temps, un statut légendaire. L'objet de prédilection de la littérature arthurienne a évolué de façon significative dès le Moyen Âge, où il reste cependant confiné aux formes narratives. Après le « festival scénique sacré » (Bühnenweihfestspiel), Parsifal, de Wagner présenté en 1882 à Bayreuth, des œuvres plus récentes réactualisent le mythe en cherchant à l'adapter au théâtre. Jean Cocteau, en 1937, dans Les Chevaliers de la Table Ronde, présente un Graal inaccessible, immatériel. En 1948, Julien Gracq, dans Le Roi Pêcheur, inscrit le Graal dans l'opposition entre le profane et le sacré. Jacques Roubaud et Florence Delay, dans les éditions de 1977 et 2005 de Graal Théâtre, optent pour une récriture où les représentations du mythe se côtoient et se confrontent. Ces textes de théâtre modernes, où la représentation du Graal se situe au cœur du projet d'écriture, entrent ainsi en relation directe avec les œuvres médiévales. Ils s'inscrivent dans une redéfinition de l'objet qui se renouvelle sans cesse depuis Le Conte du Graal de Chrétien de Troyes. Dans les trois cas, la représentation du Graal entretient des relations contradictoires de filiation et de rupture avec la littérature arthurienne de l'époque médiévale. L'hypothèse principale de cette recherche se situe dans la problématique de la récriture comme transformation d'un héritage. Plus précisément, il sera question de comprendre comment la représentation du Graal dans les textes de théâtre pose problème et comment cette question est modulée, travaillée par les auteurs en termes rhétoriques, stylistiques et dramaturgiques. L'utilisation de la parodie, d'anachronismes et de voix dramatiques nouvelles, par exemple, permet aux auteurs modernes de revisiter et de changer le rapport à l'objet. Le Graal se redéfinit dans des contextes historiques et dans un genre distincts de leur source du Moyen Âge.
Resumo:
«Building Blocks: Children’s Literature and the Formation of a Nation, 1750-1825» examine la façon dont la littérature pour enfants imprègne les jeunes lecteurs avec un sens de nationalisme et d'identité nationale à travers la compréhension des espaces et des relations spatiales. La thèse étudie les œuvres d’enfants par Thomas Day, Sarah Fielding, Mary Wollstonecraft, Richard Lovell et Maria Edgeworth, Charles et Mary Lamb, Sarah Trimmer, Lucy Peacock, Priscilla Wakefield, John Aikin, et Anna Laetitia Barbauld. Les différents sujets thématiques reflètent la façon dont les frontières entre les dimensions extérieures et intérieures, entre le monde physique et le domaine psychologique, sont floues. En s'appuyant sur les travaux de penseurs éducatifs, John Locke et Jean-Jacques Rousseau, les écritures pour les enfants soulignent l'importance des expériences sensorielles qui informent l’évolution interne des individus. En retour, la projection de l'imagination et l'investissement des sentiments aident à former la manière dont les gens interagissent avec le monde matériel et les uns envers les autres afin de former une nation. En utilisant une approche Foucaldienne, cette thèse montre comment la discipline est inculquée chez les enfants et les transforme en sujets réglementés. Grâce à des confessions et des discours, les enfants souscrivent à la notion de surveillance et de transparence tandis que l'appréciation de l'opinion publique encourage la pratique de la maîtrise de soi. Les enfants deviennent non seulement des ébauches, sensibles à des impressions, mais des corps d'écriture lisibles. Les valeurs et les normes de la société sont internalisées pendant que les enfants deviennent une partie intégrale du système qu'ils adoptent. L'importance de la visibilité est également soulignée dans la popularité du système de Linné qui met l'accent sur l'observation et la catégorisation. L'histoire naturelle dans la littérature enfantine renforce la structure hiérarchique de la société, ce qui souligne la nécessité de respecter les limites de classes et de jouer des rôles individuels pour le bien-être de la collectivité. Les connotations religieuses dans l'histoire naturelle peuvent sembler justifier l'inégalité des classes, mais elles diffusent aussi des messages de charité, de bienveillance et d'empathie, offrant une alternative ou une forme d’identité nationale «féminine» qui est en contraste avec le militarisme et le nationalisme patricien. La seconde moitié de la thèse examine comment la théorie des « communautés imaginées » de Benedict Anderson devient une possibilité à travers le développement du goût national et une compréhension de l'interconnexion entre les individus. Le personnage du barde pointe à la centralité de l'esprit communautaire dans l'identité nationale. Parallèlement à la commercialisation croissante de produits culturels et nationaux durant cette période, on retrouve l’augmentation de l’attachement affectif envers les objets et la nécessité de découvrir l'authentique dans la pratique de la réflexion critique. La propriété est redéfinie à travers la question des «vrais» droits de propriété et devient partagée dans l'imaginaire commun. Des cartes disséquées enseignent aux enfants comment visualiser des espaces et des frontières et conceptualisent la place de l’individu dans la société. Les enfants apprennent que des actions disparates effectuées dans la sphère domestique ont des répercussions plus importantes dans le domaine public de la nation.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
Ce mémoire entend mettre en lumière la solution au problème du mal développée par Philippe le Chancelier dans la Summa de bono (1225-1228). À cet effet, notre analyse se polarise sur la notion du mal qui occupe à la fois le système des transcendantaux et la division du bien créé découlant du principe du souverain bien. La somme est bâtie d’après la primauté de la notion du bien transcendantal, et fut rédigée par opposition avec la doctrine manichéenne des Cathares, en vogue au XIIIe siècle, qui s’appuyait sur la prééminence de deux principes métaphysiques causant le bien et le mal, d’où devaient procéder toutes les choses de la Création. Ceci explique que nous ayons privilégié de seulement examiner les notions du bien et du mal en un sens général, car c’est au stade universel de l’ontologie du bien que l’auteur défait la possibilité du mal de nature, en amont des ramifications du bien créé, déployées, à l’envi, dans les questions de la somme où les réponses sont assignées à des problèmes spécifiques. Nous offrons ici, pour la première fois, une traduction en français d’une série de questions ayant permis de mener à bien ce projet.
Resumo:
Le Coran et la Sunna (la tradition du prophète Muḥammad) relatée dans les aḥâdîth (les traditions orales du Prophète) représentent la source éternelle d’inspiration et de savoir à laquelle les Musulmans se réfèrent pour agir, réagir et interagir. Par le fait même, tout au long de l’histoire musulmane, ces sources sacrées ont été à la base des relations des Musulmans avec autrui, incluant les Chrétiens. Les trois éléments majeurs de différenciation entre l’islam et le christianisme sont : la nature divine de Jésus, la trinité ainsi que la crucifixion et la mort de Jésus sur la croix. La position tranchée du Coran quant aux deux premiers points ne laisse place à aucun débat académique. Cependant, l’ambiguïté du texte coranique quant à la crucifixion de Jésus et sa mort a favorisé de nombreux débats entre mufassirûn (les exégètes du Coran). Cette thèse est une analyse textuelle des deux passages coraniques qui traitent de cette troisième différence. Pour cette étude textuelle et intertextuelle, les tafâsîr (interprétations du Coran) de huit mufassirûn appartenant à différentes madhâhib (écoles d’interprétation) et périodes de l’histoire des relations musulmanes-chrétiennes sont utilisés en combinaison avec certaines approches et méthodes récentes telles que : historico-critique et critique rédactionnelle. De plus, trois nouvelles théories développées dans la thèse enrichissent les outils herméneutiques de la recherche : la « théorie des cinq couches de sens », la « théorie des messages coraniques doubles » et la « théorie de la nature humaine tripartite ». À la lumière de ces théories et méthodes, il apparaît que l’ambiguïté coranique au sujet de la crucifixion et de la mort de Jésus est une invitation claire de la part du Coran incitant les Musulmans et les Chrétiens à vivre avec cette ambiguïté insoluble. La conclusion de cette thèse contribue directement à de meilleures relations musulmanes-chrétiennes, renforçant l’appel coranique (Coran 3:64, 103) à ces deux communautés leurs demandant de se cramponner aux points communs majeurs, d’intégrer leurs différences mineures et de consacrer leurs énergies pour une vie harmonieuse entre eux et laisser le reste dans les mains du Dieu qu’ils ont en commun.
Resumo:
En 2012, la traduction au Québec d'ouvrages littéraires d'auteurs issus de l'Amérique hispanique est encore un phénomène marginal. Pourtant, les entreprises de traduction de tels ouvrages se sont faites plus nombreuses au cours des vingt dernières années, et deux maisons d'édition québécoises leur ont fait la part belle : Les Écrits des Forges et Les Allusifs. La première a publié en français de nombreux canons de la poésie mexicaine tandis que la seconde possède à son catalogue (maintenant chez Leméac) bon nombre d'auteurs hispano-américains. Les efforts de ces éditeurs ont été précédés d'un premier mouvement d'accueil de la littérature hispano-américaine, mouvement principalement lié à la venue au Canada d'auteurs hispano-américains immigrants, souvent des réfugiés qui avaient fui la guerre ou la dictature dans leur pays d'origine. À partir de la théorie des champs de Pierre Bourdieu et de l’application de cette théorie à l’espace littéraire international par Pascale Casanova, ce mémoire cherche à expliquer plus en détail les conditions et logiques qui sous-tendent la traduction et l’édition des littératures hispano-américaines au Québec. Pour ce faire, il analyse la trajectoire de trois auteurs dont chacun a vu au moins un de ses titres publié en français. Ces auteurs sont le Salvadorien Horacio Castellanos Moya, dont le roman intitulé Le Dégoût a été publié aux Allusifs en 2003, le Mexicain Jaime Sabines, dont Poemas del peatón/Poèmes du piéton a été publié aux Écrits des Forges en 1997, et la Colombienne québécoise Yvonne América Truque, dont le recueil de poèmes Proyección de los silencios/Projection des silences a été publié au CÉDAH en 1986. Chacune des trajectoires illustre un modèle de production et de diffusion particulier de la littérature hispano-américaine en traduction qui s’est manifesté durant les vingt dernières années. Ensemble, elles permettent de dégager le parcours évolutif de l’édition vers une intégration de plus en plus mondialisée des mécanismes de diffusion des biens symboliques.
Resumo:
Mon projet de thèse démontre le rôle essentiel que tient la mélancolie dans les comédies de Shakespeare. J’analyse sa présence au travers de multiples pièces, des farces initiales, en passant par les comédies romantiques, jusqu’aux tragicomédies qui ponctuent les dernières années de sa carrière. Je dénote ainsi sa métamorphose au sein du genre comique, passant d’une représentation individuelle se rapportant à la théorie des humeurs, à un spectre émotionnel se greffant aux structures théâtrales dans lesquelles il évolue. Je suggère que cette progression s’apparent au cycle de joie et de tristesse qui forme la façon par laquelle Shakespeare dépeint l’émotion sur scène. Ma thèse délaisse donc les théories sur la mélancolie se rapportant aux humeurs et à la psychanalyse, afin de repositionner celle-ci dans un créneau shakespearien, comique, et historique, où le mot « mélancolie » évoque maintes définitions sur un plan social, scientifique, et surtout théâtrale. Suite à un bref aperçu de sa prévalence en Angleterre durant la Renaissance lors de mon introduction, les chapitres suivants démontrent la surabondance de mélancolie dans les comédies de Shakespeare. A priori, j’explore les façons par lesquelles elle est développée au travers de La Comedie des Erreurs et Peines d’Amour Perdues. Les efforts infructueux des deux pièces à se débarrasser de leur mélancolie par l’entremise de couplage hétérosexuels indique le malaise que celle-ci transmet au style comique de Shakespere et ce, dès ces premiers efforts de la sorte. Le troisième chapitre soutient que Beaucoup de Bruit pour Rien et Le Marchand de Venise offrent des exemples parangons du phénomène par lequel des personnages mélancoliques refusent de tempérer leurs comportements afin de se joindre aux célébrations qui clouent chaque pièce. La mélancolie que l’on retrouve ici génère une ambiguïté émotionnelle qui complique sa présence au sein du genre comique. Le chapitre suivant identifie Comme il vous plaira et La Nuit des Rois comme l’apogée du traitement comique de la mélancolie entrepris par Shakespeare. Je suggère que ces pièces démontrent l’instant où les caractérisations corporelles de la mélancolie ne sont plus de mise pour le style dramatique vers lequel Shakespeare se tourne progressivement. Le dernier chapitre analyse donc Périclès, prince de Tyr et Le Conte d’Hiver afin de démontrer que, dans la dernière phase de sa carrière théâtrale, Shakespeare a recours aux taxonomies comiques élucidées ultérieurement afin de créer une mélancolie spectrale qui s’attardent au-delà des pièces qu’elle hante. Cette caractérisation se rapporte aux principes de l’art impressionniste, puisqu’elle promeut l’abandon de la précision au niveau du texte pour favoriser les réponses émotionnelles que les pièces véhiculent. Finalement, ma conclusion démontre que Les Deux Nobles Cousins représente la culmination du développement de la mélancolie dans les comédies de Shakespeare, où l’incarnation spectrale du chapitre précèdent atteint son paroxysme. La nature collaborative de la pièce suggère également un certain rituel transitif entre la mélancolie dite Shakespearienne et celle développée par John Fletcher à l’intérieure de la même pièce.
Resumo:
Les résultats ont été obtenus avec le logiciel "Insight-2" de Accelris (San Diego, CA)
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
L’objet de cette thèse est l’élaboration d’un modèle logique de mesure du maintien des valeurs, ainsi que son opérationnalisation afin d’entreprendre l’évaluation de la performance des systèmes de santé. Le maintien des valeurs est l’une des quatre fonctions de la théorie de l’action sociale de T.Parsons permettant d’analyser les systèmes d’action. Les autres fonctions sont l’adaptation, la production et l’atteinte des buts. Cette théorie est la base du modèle EGIPSS (évaluation globale et intégrée de la performance des systèmes de santé), dans lequel cette thèse s’insère. La fonction étudiée correspond, dans l’oeuvre de T.Parsons, au sous-système culturel. Elle renvoie à l’intangible, soit à l’univers symbolique par lequel l’action prend son sens et les fonctions du système s’articulent. Le modèle logique de mesure du maintien des valeurs est structuré autour de deux concepts principaux, les valeurs individuelles et organisationnelles et la qualité de vie au travail. À travers les valeurs individuelles et organisationnelles, nous mesurons la hiérarchie et l’intensité des valeurs, ainsi que le niveau de concordance interindividuelle et le degré de congruence entre les valeurs individuelles et organisationnelles. La qualité de vie au travail est composée de plusieurs concepts permettant d’analyser et d’évaluer l’environnement de travail, le climat organisationnel, la satisfaction au travail, les réactions comportementales et l’état de santé des employés. La mesure de ces différents aspects a donné lieu à la conception de trois questionnaires et de trente indicateurs. Ma thèse présente, donc, chacun des concepts sélectionnés et leurs articulations, ainsi que les outils de mesure qui ont été construits afin d’évaluer la dimension du maintien des valeurs. Enfin, nous exposons un exemple d’opérationnalisation de ce modèle de mesure appliqué à deux hôpitaux dans la province du Mato Grosso du Sud au Brésil. Cette thèse se conclut par une réflexion sur l’utilisation de l’évaluation comme outil de gestion soutenant l’amélioration de la performance et l’imputabilité. Ce projet comportait un double enjeu. Tout d’abord, la conceptualisation de la dimension du maintien des valeurs à partir d’une littérature abondante, mais manquant d’intégration théorique, puis la création d’outils de mesure permettant de saisir autant les aspects objectifs que subjectifs des valeurs et de la qualité de vie au travail. En effet, on trouve dans la littérature de nombreuses disciplines et de multiples courants théoriques tels que la psychologie industrielle et organisationnelle, la sociologie, les sciences infirmières, les théories sur le comportement organisationnel, la théorie des organisations, qui ont conçu des modèles pour analyser et comprendre les perceptions, les attitudes et les comportements humains dans les organisations. Ainsi, l’intérêt scientifique de ce projet découle de la création d’un modèle dynamique et intégrateur offrant une synthèse des différents champs théoriques abordant la question de l’interaction entre les perceptions individuelles et collectives au travail, les conditions objectives de travail et leurs influences sur les attitudes et les comportements au travail. D’autre part, ce projet revêt un intérêt opérationnel puisqu’il vise à fournir aux décideurs du système de santé des connaissances et données concernant un aspect de la performance fortement négligé par la plupart des modèles internationaux d’évaluation de la performance.
Resumo:
La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
Le déploiement optimal de l’étendue de la pratique infirmière, qui traduit la mise en œuvre du rôle professionnel, est essentiel à l’accessibilité, à la continuité, à la qualité ainsi qu’à la sécurité des soins, dont ceux dispensés aux enfants et à leur famille. Or, il semble que les infirmières éprouvent certaines difficultés à déployer pleinement leur étendue de pratique, ce qui pourrait également compromettre la satisfaction professionnelle, un enjeu majeur pour la rétention du personnel dans les organisations de soins de santé. Le but de cette étude est de mesurer l’étendue effective de la pratique d’infirmières en pédiatrie, ses déterminants et son influence sur la satisfaction professionnelle. Le cadre de référence, un modèle original développé dans cette thèse, prend appui sur la théorie des caractéristiques de l’emploi (Hackman & Oldham, 1974), le modèle tension-autonomie (Karasek, 1985), la théorie du rôle (Biddle, 1979) et les travaux de D’Amour et al. (2012) portant sur l’étendue de la pratique infirmière. Afin d’atteindre le but de cette étude, le modèle développé met en relation les caractéristiques du travail et les caractéristiques individuelles d’influence potentielle sur le déploiement de l’étendue de la pratique infirmière. Il présuppose également un lien entre l’étendue de la pratique infirmière et la satisfaction professionnelle. Un devis corrélationnel descriptif a été retenu pour cette étude. Une enquête par questionnaire auprès d’infirmières de cinq secteurs d’activités d’un centre hospitalier pédiatrique universitaire du Québec a été réalisée (N=301). Les associations entre les variables ont été examinées en utilisant des analyses bivariées, multivariées et un modèle d’équations structurelles. Les analyses effectuées révèlent une bonne concordance du modèle développé (ratio x²/dl= 1,68; RMSEA = ,049; CFI = ,985). Au total, le modèle explique 32,5 % de la variance de l’étendue de la pratique infirmière et 11,3% de la variance de la satisfaction professionnelle. Les résultats font état d’un déploiement non-optimal de l’étendue de la pratique infirmière (3,21/6; É.T.= ,707). Les variables significativement associées au déploiement de l’étendue de la pratique infirmière sont: la latitude décisionnelle (β = ,319; p <0,01), la surcharge de rôle (β = ,201; p <0,05), l’ambiguïté de rôle (β = ,297; p <0,05), le besoin de croissance individuelle de l’infirmière (β = ,151; p <0,05) et le niveau de formation (β = ,128; p <0,05). Il est également démontré que l’étendue de la pratique infirmière est associée positivement à la satisfaction professionnelle (β = ,118; p <0,01). Une description plus détaillée des résultats de l’étendue de la pratique infirmière en fonction du niveau de formation et du poste occupé met en lumière que les infirmières bachelières ont une étendue de pratique significativement plus élevée (3,35; É.T =,746) que les infirmières collégiales (3,12; É.T =,669). L’occupation d’un poste de clinicienne est aussi associée à une plus grande étendue de pratique infirmière. Précisément, les infirmières qui occupent un poste d’infirmière obtiennent un score de 3,13/6 (É.T =,664) alors que le score des infirmières qui occupent un poste de clinicienne s’élève à 3,48/6 (É.T =,798). Cette étude innove en présentant un modèle de référence qui a le potentiel de générer des connaissances importantes en sciences infirmières en lien avec le déploiement optimal de l’étendue de pratique infirmière. Prenant appui sur ce modèle novateur, les résultats révèlent les caractéristiques du travail sur lesquelles il y a urgence d’agir afin d’accroître le déploiement de l’étendue de la pratique infirmière et par le fait même la satisfaction professionnelle.
Resumo:
Les calculs numériques ont été effectués à l'aide du logiciel SAGE.