1000 resultados para [JEL:C79] Mathématiques et méthodes quantitatives - Théorie des jeux et négociation - Divers
Resumo:
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.
Resumo:
Les systèmes statistiques de traduction automatique ont pour tâche la traduction d’une langue source vers une langue cible. Dans la plupart des systèmes de traduction de référence, l'unité de base considérée dans l'analyse textuelle est la forme telle qu’observée dans un texte. Une telle conception permet d’obtenir une bonne performance quand il s'agit de traduire entre deux langues morphologiquement pauvres. Toutefois, ceci n'est plus vrai lorsqu’il s’agit de traduire vers une langue morphologiquement riche (ou complexe). Le but de notre travail est de développer un système statistique de traduction automatique comme solution pour relever les défis soulevés par la complexité morphologique. Dans ce mémoire, nous examinons, dans un premier temps, un certain nombre de méthodes considérées comme des extensions aux systèmes de traduction traditionnels et nous évaluons leurs performances. Cette évaluation est faite par rapport aux systèmes à l’état de l’art (système de référence) et ceci dans des tâches de traduction anglais-inuktitut et anglais-finnois. Nous développons ensuite un nouvel algorithme de segmentation qui prend en compte les informations provenant de la paire de langues objet de la traduction. Cet algorithme de segmentation est ensuite intégré dans le modèle de traduction à base d’unités lexicales « Phrase-Based Models » pour former notre système de traduction à base de séquences de segments. Enfin, nous combinons le système obtenu avec des algorithmes de post-traitement pour obtenir un système de traduction complet. Les résultats des expériences réalisées dans ce mémoire montrent que le système de traduction à base de séquences de segments proposé permet d’obtenir des améliorations significatives au niveau de la qualité de la traduction en terme de le métrique d’évaluation BLEU (Papineni et al., 2002) et qui sert à évaluer. Plus particulièrement, notre approche de segmentation réussie à améliorer légèrement la qualité de la traduction par rapport au système de référence et une amélioration significative de la qualité de la traduction est observée par rapport aux techniques de prétraitement de base (baseline).
Resumo:
Réalisé en cotutelle internationale avec l'Université de Toulouse II-Le Mirail
Resumo:
Ce travail analyse les transformations du Graal en comparant sa représentation dans les romans médiévaux et dans trois textes de théâtre modernes. Le Graal, apparu dans la littérature au Moyen Âge, reste une source d'inspiration pour les écrivains modernes au point de gagner, avec le temps, un statut légendaire. L'objet de prédilection de la littérature arthurienne a évolué de façon significative dès le Moyen Âge, où il reste cependant confiné aux formes narratives. Après le « festival scénique sacré » (Bühnenweihfestspiel), Parsifal, de Wagner présenté en 1882 à Bayreuth, des œuvres plus récentes réactualisent le mythe en cherchant à l'adapter au théâtre. Jean Cocteau, en 1937, dans Les Chevaliers de la Table Ronde, présente un Graal inaccessible, immatériel. En 1948, Julien Gracq, dans Le Roi Pêcheur, inscrit le Graal dans l'opposition entre le profane et le sacré. Jacques Roubaud et Florence Delay, dans les éditions de 1977 et 2005 de Graal Théâtre, optent pour une récriture où les représentations du mythe se côtoient et se confrontent. Ces textes de théâtre modernes, où la représentation du Graal se situe au cœur du projet d'écriture, entrent ainsi en relation directe avec les œuvres médiévales. Ils s'inscrivent dans une redéfinition de l'objet qui se renouvelle sans cesse depuis Le Conte du Graal de Chrétien de Troyes. Dans les trois cas, la représentation du Graal entretient des relations contradictoires de filiation et de rupture avec la littérature arthurienne de l'époque médiévale. L'hypothèse principale de cette recherche se situe dans la problématique de la récriture comme transformation d'un héritage. Plus précisément, il sera question de comprendre comment la représentation du Graal dans les textes de théâtre pose problème et comment cette question est modulée, travaillée par les auteurs en termes rhétoriques, stylistiques et dramaturgiques. L'utilisation de la parodie, d'anachronismes et de voix dramatiques nouvelles, par exemple, permet aux auteurs modernes de revisiter et de changer le rapport à l'objet. Le Graal se redéfinit dans des contextes historiques et dans un genre distincts de leur source du Moyen Âge.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
Le Coran et la Sunna (la tradition du prophète Muḥammad) relatée dans les aḥâdîth (les traditions orales du Prophète) représentent la source éternelle d’inspiration et de savoir à laquelle les Musulmans se réfèrent pour agir, réagir et interagir. Par le fait même, tout au long de l’histoire musulmane, ces sources sacrées ont été à la base des relations des Musulmans avec autrui, incluant les Chrétiens. Les trois éléments majeurs de différenciation entre l’islam et le christianisme sont : la nature divine de Jésus, la trinité ainsi que la crucifixion et la mort de Jésus sur la croix. La position tranchée du Coran quant aux deux premiers points ne laisse place à aucun débat académique. Cependant, l’ambiguïté du texte coranique quant à la crucifixion de Jésus et sa mort a favorisé de nombreux débats entre mufassirûn (les exégètes du Coran). Cette thèse est une analyse textuelle des deux passages coraniques qui traitent de cette troisième différence. Pour cette étude textuelle et intertextuelle, les tafâsîr (interprétations du Coran) de huit mufassirûn appartenant à différentes madhâhib (écoles d’interprétation) et périodes de l’histoire des relations musulmanes-chrétiennes sont utilisés en combinaison avec certaines approches et méthodes récentes telles que : historico-critique et critique rédactionnelle. De plus, trois nouvelles théories développées dans la thèse enrichissent les outils herméneutiques de la recherche : la « théorie des cinq couches de sens », la « théorie des messages coraniques doubles » et la « théorie de la nature humaine tripartite ». À la lumière de ces théories et méthodes, il apparaît que l’ambiguïté coranique au sujet de la crucifixion et de la mort de Jésus est une invitation claire de la part du Coran incitant les Musulmans et les Chrétiens à vivre avec cette ambiguïté insoluble. La conclusion de cette thèse contribue directement à de meilleures relations musulmanes-chrétiennes, renforçant l’appel coranique (Coran 3:64, 103) à ces deux communautés leurs demandant de se cramponner aux points communs majeurs, d’intégrer leurs différences mineures et de consacrer leurs énergies pour une vie harmonieuse entre eux et laisser le reste dans les mains du Dieu qu’ils ont en commun.
Resumo:
"Les juristes partout dans le monde peuvent maintenant, de leur poste informatique personnel, accéder aux données « publiques » (la part des règles juridiques y est majeure) que les États mettent à la disposition de chacun. En plus de modifier les méthodes de travail des praticiens du droit, l’usage des technologies de l’information influera sur l’évolution du droit et de la justice. D’une part, les États ne pourront renoncer à se doter des moyens technologiques requis pour diffuser l’information et, d’autre part, l’institution judiciaire devra répondre à cette nouvelle forme d’exigence de démocratisation. Les technologies de l’information feront surgir un nouveau rapport entre le citoyen et le droit. Dans le domaine judiciaire, il faudra consentir à une réflexion en profondeur sur la manière dont les juridictions sont saisies. Le « dialogue par formulaire » est un exercice de la pensée différent de ceux que les juristes pratiquent habituellement ; dans le domaine judiciaire ou parajudiciaire, la pratique des téléprocédures est, en France, balbutiante. L’utilisation des technologies de l’information et de la communication dans les procédures assurera une meilleure efficacité (effectivité et célérité) de la réponse judiciaire et fera apparaître de nouvelles exigences, en particulier quant à la communication des décisions de justice. Le droit évoluera : la communauté des juristes devient mondiale, les droits internes sont quotidiennement à l’épreuve des autres droits, toutes sortes de comparaisons sont possibles entre les différentes juridictions, entre les législations existantes et entre les solutions théoriquement possibles pour régler tel ou tel cas. On ne peut imaginer que le législateur, que les juridictions suprêmes, que les chercheurs et les théoriciens du droit, que l’ensemble des praticiens se désintéressent des pistes ouvertes par les technologies de l’information."
Resumo:
La présente étude concerne le rôle de l’aménagement intérieur dans les centres de santé, dans une perspective thérapeutique. Il s’agit d’une recherche théorique exploratoire. Le cadre théorique à l’intérieur duquel elle s’effectue comprend la Biopolitique de Michel Foucault, du Sens de cohérence d’Aaron Antonovsky, ainsi que de La théorie des environnements reconstituants de Kaplan & Kaplan. Chacune de ces approches vise à mieux saisir le problème de la thérapeutique dans son rapport avec la santé, ainsi qu’à dégager des éléments permettant d’enrichir et d’apporter un regard autre sur le thème à l’étude, à savoir, celui des environnements thérapeutiques. C’est ainsi que nous proposons six concepts que sont l’exclusion/l’isolement, le pouvoir, les interactions sociales, le soutien social, le plaisir et la réflexion. Une étude de cas effectuée au Centre de réadaptation Estrie vise à vérifier leur validité. Cet établissement, qui fait partie du Réseau de la santé et des services sociaux du Québec, est également un membre désigné du Réseau Planetree, dont la mission est vouée au développement de pratiques gestionnaires respectueuses de la dimension humaine dans les centres de santé. La qualité de l’environnement physique étant l’une des dix composantes du modèle promu par cette organisation, l’analyse, en vue de la validation ou du rejet des concepts issus du cadre théorique, concerne leur articulation dans le concret. Nous retenons des quatre concepts que sont les interactions sociales, le soutien social, le plaisir et la réflexion, qu’ils sont valides, et rejetons l’exclusion/isolement et le pouvoir. Des propositions de remplacement pour ces deux derniers sont soumises, soit, les limites/l’’intimité et l’emprise. La principale piste de sujet de recherches futures est le développement de la notion « d’accueil », où l’aménagement intérieur joue, à ce titre, un rôle dans les milieux de santé.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
L’objet de cette thèse est l’élaboration d’un modèle logique de mesure du maintien des valeurs, ainsi que son opérationnalisation afin d’entreprendre l’évaluation de la performance des systèmes de santé. Le maintien des valeurs est l’une des quatre fonctions de la théorie de l’action sociale de T.Parsons permettant d’analyser les systèmes d’action. Les autres fonctions sont l’adaptation, la production et l’atteinte des buts. Cette théorie est la base du modèle EGIPSS (évaluation globale et intégrée de la performance des systèmes de santé), dans lequel cette thèse s’insère. La fonction étudiée correspond, dans l’oeuvre de T.Parsons, au sous-système culturel. Elle renvoie à l’intangible, soit à l’univers symbolique par lequel l’action prend son sens et les fonctions du système s’articulent. Le modèle logique de mesure du maintien des valeurs est structuré autour de deux concepts principaux, les valeurs individuelles et organisationnelles et la qualité de vie au travail. À travers les valeurs individuelles et organisationnelles, nous mesurons la hiérarchie et l’intensité des valeurs, ainsi que le niveau de concordance interindividuelle et le degré de congruence entre les valeurs individuelles et organisationnelles. La qualité de vie au travail est composée de plusieurs concepts permettant d’analyser et d’évaluer l’environnement de travail, le climat organisationnel, la satisfaction au travail, les réactions comportementales et l’état de santé des employés. La mesure de ces différents aspects a donné lieu à la conception de trois questionnaires et de trente indicateurs. Ma thèse présente, donc, chacun des concepts sélectionnés et leurs articulations, ainsi que les outils de mesure qui ont été construits afin d’évaluer la dimension du maintien des valeurs. Enfin, nous exposons un exemple d’opérationnalisation de ce modèle de mesure appliqué à deux hôpitaux dans la province du Mato Grosso du Sud au Brésil. Cette thèse se conclut par une réflexion sur l’utilisation de l’évaluation comme outil de gestion soutenant l’amélioration de la performance et l’imputabilité. Ce projet comportait un double enjeu. Tout d’abord, la conceptualisation de la dimension du maintien des valeurs à partir d’une littérature abondante, mais manquant d’intégration théorique, puis la création d’outils de mesure permettant de saisir autant les aspects objectifs que subjectifs des valeurs et de la qualité de vie au travail. En effet, on trouve dans la littérature de nombreuses disciplines et de multiples courants théoriques tels que la psychologie industrielle et organisationnelle, la sociologie, les sciences infirmières, les théories sur le comportement organisationnel, la théorie des organisations, qui ont conçu des modèles pour analyser et comprendre les perceptions, les attitudes et les comportements humains dans les organisations. Ainsi, l’intérêt scientifique de ce projet découle de la création d’un modèle dynamique et intégrateur offrant une synthèse des différents champs théoriques abordant la question de l’interaction entre les perceptions individuelles et collectives au travail, les conditions objectives de travail et leurs influences sur les attitudes et les comportements au travail. D’autre part, ce projet revêt un intérêt opérationnel puisqu’il vise à fournir aux décideurs du système de santé des connaissances et données concernant un aspect de la performance fortement négligé par la plupart des modèles internationaux d’évaluation de la performance.
Resumo:
Depuis plus de cinquante ans, les puissances occidentales ont créé toutes sortes de réseaux militaires internationaux, afin de renforcer leurs liens et harmoniser leurs techniques, leurs équipements et leurs façons de faire. Jusqu’à ce jour, ces regroupements sont demeurés largement ignorés de la discipline des relations internationales. Or, la mondialisation des échanges et l’essor des technologies de l’information ont ouvert les processus politiques à de nouveaux acteurs, y compris en matière de sécurité, jetant un éclairage nouveau sur le rôle, la mission et les responsabilités que les États délèguent à ces réseaux. En menant une analyse approfondie d’un réseau militaire, le Multinational Interoperability Council, cette recherche a pour objectifs de définir les réseaux militaires internationaux en tant que catégorie d’analyse des relations internationales, de documenter empiriquement leur fonctionnement et de mieux comprendre leur rôle dans le champ de la sécurité internationale. Pour ce faire, la démarche propose de recourir à l’appareil conceptuel de l’institutionnalisme relationnel, de la théorie des champs et du tournant pratiques en relations internationales. Cette combinaison permet d’aborder les dimensions institutionnelle, cognitive et pratique de l’action collective au sein du réseau étudié. L’analyse nous apprend que, malgré une influence limitée, le MIC produit une identité, des capacités, des préférences et des effets qui lui sont propres. Les acteurs du MIC ont eux-mêmes généré certaines conditions de son institutionnalisation, et sont parvenus à faire du réseau, d’abord conçu comme une structure d’échanges d’informations, un acteur intentionnel du champ de la sécurité internationale. Le MIC ne peut agir de façon autonome, sans contrôle des États. Cependant, les relations établies entre les militaires qui y participent leur offrent des capacités – le capital social, politique et d’expertise – dont ils ne disposeraient pas autrement, et qu’ils peuvent mobiliser dans leurs interactions avec les autres acteurs du champ.
Resumo:
Les facteurs de transcription sont des protéines spécialisées qui jouent un rôle important dans différents processus biologiques tel que la différenciation, le cycle cellulaire et la tumorigenèse. Ils régulent la transcription des gènes en se fixant sur des séquences d’ADN spécifiques (éléments cis-régulateurs). L’identification de ces éléments est une étape cruciale dans la compréhension des réseaux de régulation des gènes. Avec l’avènement des technologies de séquençage à haut débit, l’identification de tout les éléments fonctionnels dans les génomes, incluant gènes et éléments cis-régulateurs a connu une avancée considérable. Alors qu’on est arrivé à estimer le nombre de gènes chez différentes espèces, l’information sur les éléments qui contrôlent et orchestrent la régulation de ces gènes est encore mal définie. Grace aux techniques de ChIP-chip et de ChIP-séquençage il est possible d’identifier toutes les régions du génome qui sont liées par un facteur de transcription d’intérêt. Plusieurs approches computationnelles ont été développées pour prédire les sites fixés par les facteurs de transcription. Ces approches sont classées en deux catégories principales: les algorithmes énumératifs et probabilistes. Toutefois, plusieurs études ont montré que ces approches génèrent des taux élevés de faux négatifs et de faux positifs ce qui rend difficile l’interprétation des résultats et par conséquent leur validation expérimentale. Dans cette thèse, nous avons ciblé deux objectifs. Le premier objectif a été de développer une nouvelle approche pour la découverte des sites de fixation des facteurs de transcription à l’ADN (SAMD-ChIP) adaptée aux données de ChIP-chip et de ChIP-séquençage. Notre approche implémente un algorithme hybride qui combine les deux stratégies énumérative et probabiliste, afin d’exploiter les performances de chacune d’entre elles. Notre approche a montré ses performances, comparée aux outils de découvertes de motifs existants sur des jeux de données simulées et des jeux de données de ChIP-chip et de ChIP-séquençage. SAMD-ChIP présente aussi l’avantage d’exploiter les propriétés de distributions des sites liés par les facteurs de transcription autour du centre des régions liées afin de limiter la prédiction aux motifs qui sont enrichis dans une fenêtre de longueur fixe autour du centre de ces régions. Les facteurs de transcription agissent rarement seuls. Ils forment souvent des complexes pour interagir avec l’ADN pour réguler leurs gènes cibles. Ces interactions impliquent des facteurs de transcription dont les sites de fixation à l’ADN sont localisés proches les uns des autres ou bien médier par des boucles de chromatine. Notre deuxième objectif a été d’exploiter la proximité spatiale des sites liés par les facteurs de transcription dans les régions de ChIP-chip et de ChIP-séquençage pour développer une approche pour la prédiction des motifs composites (motifs composés par deux sites et séparés par un espacement de taille fixe). Nous avons testé ce module pour prédire la co-localisation entre les deux demi-sites ERE qui forment le site ERE, lié par le récepteur des œstrogènes ERα. Ce module a été incorporé à notre outil de découverte de motifs SAMD-ChIP.
Resumo:
Le déploiement optimal de l’étendue de la pratique infirmière, qui traduit la mise en œuvre du rôle professionnel, est essentiel à l’accessibilité, à la continuité, à la qualité ainsi qu’à la sécurité des soins, dont ceux dispensés aux enfants et à leur famille. Or, il semble que les infirmières éprouvent certaines difficultés à déployer pleinement leur étendue de pratique, ce qui pourrait également compromettre la satisfaction professionnelle, un enjeu majeur pour la rétention du personnel dans les organisations de soins de santé. Le but de cette étude est de mesurer l’étendue effective de la pratique d’infirmières en pédiatrie, ses déterminants et son influence sur la satisfaction professionnelle. Le cadre de référence, un modèle original développé dans cette thèse, prend appui sur la théorie des caractéristiques de l’emploi (Hackman & Oldham, 1974), le modèle tension-autonomie (Karasek, 1985), la théorie du rôle (Biddle, 1979) et les travaux de D’Amour et al. (2012) portant sur l’étendue de la pratique infirmière. Afin d’atteindre le but de cette étude, le modèle développé met en relation les caractéristiques du travail et les caractéristiques individuelles d’influence potentielle sur le déploiement de l’étendue de la pratique infirmière. Il présuppose également un lien entre l’étendue de la pratique infirmière et la satisfaction professionnelle. Un devis corrélationnel descriptif a été retenu pour cette étude. Une enquête par questionnaire auprès d’infirmières de cinq secteurs d’activités d’un centre hospitalier pédiatrique universitaire du Québec a été réalisée (N=301). Les associations entre les variables ont été examinées en utilisant des analyses bivariées, multivariées et un modèle d’équations structurelles. Les analyses effectuées révèlent une bonne concordance du modèle développé (ratio x²/dl= 1,68; RMSEA = ,049; CFI = ,985). Au total, le modèle explique 32,5 % de la variance de l’étendue de la pratique infirmière et 11,3% de la variance de la satisfaction professionnelle. Les résultats font état d’un déploiement non-optimal de l’étendue de la pratique infirmière (3,21/6; É.T.= ,707). Les variables significativement associées au déploiement de l’étendue de la pratique infirmière sont: la latitude décisionnelle (β = ,319; p <0,01), la surcharge de rôle (β = ,201; p <0,05), l’ambiguïté de rôle (β = ,297; p <0,05), le besoin de croissance individuelle de l’infirmière (β = ,151; p <0,05) et le niveau de formation (β = ,128; p <0,05). Il est également démontré que l’étendue de la pratique infirmière est associée positivement à la satisfaction professionnelle (β = ,118; p <0,01). Une description plus détaillée des résultats de l’étendue de la pratique infirmière en fonction du niveau de formation et du poste occupé met en lumière que les infirmières bachelières ont une étendue de pratique significativement plus élevée (3,35; É.T =,746) que les infirmières collégiales (3,12; É.T =,669). L’occupation d’un poste de clinicienne est aussi associée à une plus grande étendue de pratique infirmière. Précisément, les infirmières qui occupent un poste d’infirmière obtiennent un score de 3,13/6 (É.T =,664) alors que le score des infirmières qui occupent un poste de clinicienne s’élève à 3,48/6 (É.T =,798). Cette étude innove en présentant un modèle de référence qui a le potentiel de générer des connaissances importantes en sciences infirmières en lien avec le déploiement optimal de l’étendue de pratique infirmière. Prenant appui sur ce modèle novateur, les résultats révèlent les caractéristiques du travail sur lesquelles il y a urgence d’agir afin d’accroître le déploiement de l’étendue de la pratique infirmière et par le fait même la satisfaction professionnelle.
Resumo:
Les calculs numériques ont été effectués à l'aide du logiciel SAGE.
Resumo:
Ce document traite premièrement des diverses tentatives de modélisation et de simulation de la nage anguilliforme puis élabore une nouvelle technique, basée sur la méthode de la frontière immergée généralisée et la théorie des poutres de Reissner-Simo. Cette dernière, comme les équations des fluides polaires, est dérivée de la mécanique des milieux continus puis les équations obtenues sont discrétisées afin de les amener à une résolution numérique. Pour la première fois, la théorie des schémas de Runge-Kutta additifs est combinée à celle des schémas de Runge-Kutta-Munthe-Kaas pour engendrer une méthode d’ordre de convergence formel arbitraire. De plus, les opérations d’interpolation et d’étalement sont traitées d’un nouveau point de vue qui suggère l’usage des splines interpolatoires nodales en lieu et place des fonctions d’étalement traditionnelles. Enfin, de nombreuses vérifications numériques sont faites avant de considérer les simulations de la nage.