299 resultados para Modélisation discrète


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s'intéresse à l'étude des propriétés et applications de quatre familles des fonctions spéciales associées aux groupes de Weyl et dénotées $C$, $S$, $S^s$ et $S^l$. Ces fonctions peuvent être vues comme des généralisations des polynômes de Tchebyshev. Elles sont en lien avec des polynômes orthogonaux à plusieurs variables associés aux algèbres de Lie simples, par exemple les polynômes de Jacobi et de Macdonald. Elles ont plusieurs propriétés remarquables, dont l'orthogonalité continue et discrète. En particulier, il est prouvé dans la présente thèse que les fonctions $S^s$ et $S^l$ caractérisées par certains paramètres sont mutuellement orthogonales par rapport à une mesure discrète. Leur orthogonalité discrète permet de déduire deux types de transformées discrètes analogues aux transformées de Fourier pour chaque algèbre de Lie simple avec racines des longueurs différentes. Comme les polynômes de Tchebyshev, ces quatre familles des fonctions ont des applications en analyse numérique. On obtient dans cette thèse quelques formules de <>, pour des fonctions de plusieurs variables, en liaison avec les fonctions $C$, $S^s$ et $S^l$. On fournit également une description complète des transformées en cosinus discrètes de types V--VIII à $n$ dimensions en employant les fonctions spéciales associées aux algèbres de Lie simples $B_n$ et $C_n$, appelées cosinus antisymétriques et symétriques. Enfin, on étudie quatre familles de polynômes orthogonaux à plusieurs variables, analogues aux polynômes de Tchebyshev, introduits en utilisant les cosinus (anti)symétriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’instar de plusieurs systèmes de santé, les centres hospitaliers québécois ont amorcé l’informatisation du dossier patient sous forme papier pour la transition vers un dossier clinique informatisé (DCI). Ce changement complexe s’est parfois traduit par des répercussions sur les pratiques de soins, la sécurité et la qualité des soins offerts. L’adoption de la part des utilisateurs de technologies de l’information (TI) est considérée comme un facteur critique de succès pour la réalisation de bénéfices suite au passage à un DCI. Cette étude transversale multicentrique avait pour objectifs d’examiner des facteurs explicatifs de l’adoption, de l’utilisation réelle d’un DCI, de la satisfaction des infirmières et de comparer les résultats au regard du sexe, de l’âge, de l’expérience des infirmières et des stades de déploiement du DCI. Un modèle théorique s’appuyant sur la Théorie unifiée de l’adoption et de l’utilisation de la technologie a été développé et testé auprès d’un échantillon comptant 616 infirmières utilisant un DCI hospitalier dans quatre milieux de soins différents. Plus particulièrement, l’étude a testé 20 hypothèses de recherche s’intéressant aux relations entre huit construits tels la compatibilité du DCI, le sentiment d’auto-efficacité des infirmières, les attentes liées à la performance, celles qui sont liées aux efforts à déployer pour adopter le DCI, l'influence sociale dans l’environnement de travail, les conditions facilitatrices mises de l’avant pour soutenir le changement et ce, relativement à l’utilisation réelle du DCI et la satisfaction des infirmières. Au terme des analyses de modélisation par équations structurelles, 13 hypothèses de recherche ont été confirmées. Les résultats tendent à démontrer qu’un DCI répondant aux attentes des infirmières quant à l’amélioration de leur performance et des efforts à déployer, la présence de conditions facilitatrices dans l’environnement de travail et un DCI compatible avec leur style de travail, leurs pratiques courantes et leurs valeurs sont les facteurs les plus déterminants pour influencer positivement l’utilisation du DCI et leur satisfaction. Les facteurs modélisés ont permis d’expliquer 50,2 % de la variance des attentes liées à la performance, 52,9 % des attentes liées aux efforts, 33,6 % de l’utilisation réelle du DCI et 54,9 % de la satisfaction des infirmières. La forte concordance du modèle testé avec les données de l’échantillon a notamment mis en lumière l’influence des attentes liées à la performance sur l’utilisation réelle du DCI (r = 0,55 p = 0,006) et sur la satisfaction des infirmières (r = 0,27 p = 0,010), des conditions facilitatrices sur les attentes liées aux efforts (r = 0,45 p = 0,009), de la compatibilité du DCI sur les attentes liées à la performance (r = 0,39 p = 0,002) et sur celles qui sont liées aux efforts (r = 0,28 p = 0,009). Les nombreuses hypothèses retenues ont permis de dégager l’importance des effets de médiation captés par le construit des attentes liées à la performance et celui des attentes liées aux efforts requis pour utiliser le DCI. Les comparaisons fondées sur l’âge, l’expérience et le sexe des répondants n’ont décelé aucune différence statistiquement significative quant à l’adoption, l’utilisation réelle du DCI et la satisfaction des infirmières. Par contre, celles qui sont fondées sur les quatre stades de déploiement du DCI ont révélé des différences significatives quant aux relations modélisées. Les résultats indiquent que plus le stade de déploiement du DCI progresse, plus on observe une intensification de certaines relations clés du modèle et une plus forte explication de la variance de la satisfaction des infirmières qui utilisent le DCI. De plus, certains résultats de l’étude divergent des données empiriques produites dans une perspective prédictive de l’adoption des TI. La présente étude tend à démontrer l’applicabilité des modèles et des théories de l’adoption des TI auprès d’infirmières œuvrant en centre hospitalier. Les résultats indiquent qu’un DCI répondant aux attentes liées à la performance des infirmières est le facteur le plus déterminant pour influencer positivement l’utilisation réelle du DCI et leur satisfaction. Pour la gestion du changement, l’étude a relevé des facteurs explicatifs de l’adoption et de l’utilisation d’un DCI. La modélisation a aussi mis en lumière les interrelations qui évoluent en fonction de stades de déploiement différents d’un DCI. Ces résultats pourront orienter les décideurs et les agents de changement quant aux mesures à déployer pour optimiser les bénéfices d’une infostructure entièrement électronique dans les systèmes de santé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une perspective d’analyse des risques pour la santé publique, l’estimation de l’exposition revêt une importance capitale. Parmi les approches existantes d’estimation de l’exposition, l’utilisation d’outils, tels que des questionnaires alimentaires, la modélisation toxicocinétique ou les reconstructions de doses, en complément de la surveillance biologique, permet de raffiner les estimations, et ainsi, de mieux caractériser les risques pour la santé. Ces différents outils et approches ont été développés et appliqués à deux substances d’intérêt, le méthylmercure et le sélénium en raison des effets toxiques bien connus du méthylmercure, de l’interaction entre le méthylmercure et le sélénium réduisant potentiellement ces effets toxiques, et de l’existence de sources communes via la consommation de poisson. Ainsi, l’objectif général de cette thèse consistait à produire des données cinétiques et comparatives manquantes pour la validation et l’interprétation d’approches et d’outils d’évaluation de l’exposition au méthylmercure et au sélénium. Pour ce faire, l’influence du choix de la méthode d’évaluation de l’exposition au méthylmercure a été déterminée en comparant les apports quotidiens et les risques pour la santé estimés par différentes approches (évaluation directe de l’exposition par la surveillance biologique combinée à la modélisation toxicocinétique ou évaluation indirecte par questionnaire alimentaire). D’importantes différences entre ces deux approches ont été observées : les apports quotidiens de méthylmercure estimés par questionnaires sont en moyenne six fois plus élevés que ceux estimés à l’aide de surveillance biologique et modélisation. Ces deux méthodes conduisent à une appréciation des risques pour la santé divergente puisqu’avec l’approche indirecte, les doses quotidiennes estimées de méthylmercure dépassent les normes de Santé Canada pour 21 des 23 volontaires, alors qu’avec l’approche directe, seulement 2 des 23 volontaires sont susceptibles de dépasser les normes. Ces différences pourraient être dues, entre autres, à des biais de mémoire et de désirabilité lors de la complétion des questionnaires. En outre, l’étude de la distribution du sélénium dans différentes matrices biologiques suite à une exposition non alimentaire (shampoing à forte teneur en sélénium) visait, d’une part, à étudier la cinétique du sélénium provenant de cette source d’exposition et, d’autre part, à évaluer la contribution de cette source à la charge corporelle totale. Un suivi des concentrations biologiques (sang, urine, cheveux et ongles) pendant une période de 18 mois chez des volontaires exposés à une source non alimentaire de sélénium a contribué à mieux expliciter les mécanismes de transfert du sélénium du site d’absorption vers le sang (concomitance des voies régulées et non régulées). Ceci a permis de montrer que, contrairement au méthylmercure, l’utilisation des cheveux comme biomarqueur peut mener à une surestimation importante de la charge corporelle réelle en sélénium en cas de non contrôle de facteurs confondants tels que l’utilisation de shampoing contenant du sélénium. Finalement, une analyse exhaustive des données de surveillance biologique du sélénium issues de 75 études publiées dans la littérature a permis de mieux comprendre la cinétique globale du sélénium dans l’organisme humain. En particulier, elle a permis le développement d’un outil reliant les apports quotidiens et les concentrations biologiques de sélénium dans les différentes matrices à l’aide d’algorithmes mathématiques. Conséquemment, à l’aide de ces données cinétiques exprimées par un système d’équations logarithmiques et de leur représentation graphique, il est possible d’estimer les apports quotidiens chez un individu à partir de divers prélèvements biologiques, et ainsi, de faciliter la comparaison d’études de surveillance biologique du sélénium utilisant des biomarqueurs différents. L’ensemble de ces résultats de recherche montre que la méthode choisie pour évaluer l’exposition a un impact important sur les estimations des risques associés. De plus, les recherches menées ont permis de mettre en évidence que le sélénium non alimentaire ne contribue pas de façon significative à la charge corporelle totale, mais constitue un facteur de confusion pour l’estimation de la charge corporelle réelle en sélénium. Finalement, la détermination des équations et des coefficients reliant les concentrations de sélénium entre différentes matrices biologiques, à l’aide d’une vaste base de données cinétiques, concourt à mieux interpréter les résultats de surveillance biologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le rôle des deux paires de bases universelles inverse Hoogsteen U : A ( RHUAs ) présentent chez les ARNt standards , une dans la boucle T et l'autre dans le noyau de la forme en L , a été étudiée. Pour chacun des RHUAs , un criblage génétique spécialisé in vivo chez les bactéries , le système suppresseur ambre ( pour l'étude de la RHUA dans la boucle T ) et le système d'ARNt de la sélénocystéine ( tRNASec ) ( pour l'étude de la RHUA dans le noyau ) , ont été utilisé pour générer des variants fonctionnels à partir de multiples librairies combinatoires . Ces variants ont ensuite été séquencé et soumis à une analyse systématique qui comprend la modélisation informatique et un type d'analyse phylogénétique. Les résultats du système suppresseur ambre ont montré un ensemble de variants fonctionnels qui ne nécessitent pas le motif RHUA dans la boucle T et qui ont remplacé la méthode standard de l'interaction entre les boucles D et T avec une double hélice interboucle , ILDH . D'autres études ont abouti à la détermination d'un modèle In silico de l'alternative à la norme standard de la boucle T, sous le nom de type III . Les résultats du système tRNASec ont révélé que pour cette ARNt exceptionnel, l'absence de RHUA ( dans le noyau ) assure une flexibilité accrue qui est spécifiquement nécessaire pour la fonction de tRNASec . Ainsi, les ARNt standards , à la différence de tRNASec , avec la présence universelle de RHUA dans le noyau , a été naturellement sélectionnée pour être rigide . Pris ensemble, la RHUA joue un rôle essentiel dans la stabilisation des interactions tertiaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La formation est une stratégie clé pour le développement des compétences. Les entreprises continuent à investir dans la formation et le développement, mais elles possèdent rarement des données pour évaluer les résultats de cet investissement. La plupart des entreprises utilisent le modèle Kirkpatrick/Phillips pour évaluer la formation en entreprise. Cependant, il ressort de la littérature que les entreprises ont des difficultés à utiliser ce modèle. Les principales barrières sont la difficulté d’isoler l’apprentissage comme un facteur qui a une incidence sur les résultats, l’absence d’un système d’évaluation utile avec le système de gestion de l’apprentissage (Learning Management System - LMS) et le manque de données standardisées pour pouvoir comparer différentes fonctions d’apprentissage. Dans cette thèse, nous proposons un modèle (Analyse, Modélisation, Monitoring et Optimisation - AM2O) de gestion de projets de formation en entreprise, basée sur la gestion des processus d’affaires (Business Process Management - BPM). Un tel scénario suppose que les activités de formation en entreprise doivent être considérées comme des processus d’affaires. Notre modèle est inspiré de cette méthode (BPM), à travers la définition et le suivi des indicateurs de performance pour gérer les projets de formation dans les organisations. Elle est basée sur l’analyse et la modélisation des besoins de formation pour assurer l’alignement entre les activités de formation et les objectifs d’affaires de l’entreprise. Elle permet le suivi des projets de formation ainsi que le calcul des avantages tangibles et intangibles de la formation (sans coût supplémentaire). En outre, elle permet la production d’une classification des projets de formation en fonction de critères relatifs à l’entreprise. Ainsi, avec assez de données, notre approche peut être utilisée pour optimiser le rendement de la formation par une série de simulations utilisant des algorithmes d’apprentissage machine : régression logistique, réseau de neurones, co-apprentissage. Enfin, nous avons conçu un système informatique, Enterprise TRaining programs Evaluation and Optimization System - ETREOSys, pour la gestion des programmes de formation en entreprise et l’aide à la décision. ETREOSys est une plateforme Web utilisant des services en nuage (cloud services) et les bases de données NoSQL. A travers AM2O et ETREOSys nous résolvons les principaux problèmes liés à la gestion et l’évaluation de la formation en entreprise à savoir : la difficulté d’isoler les effets de la formation dans les résultats de l’entreprise et le manque de systèmes informatiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’étude des œuvres et de la correspondance de Johann Joachim Winckelmann, produites entre 1755 et 1768, offre un regard nouveau sur l’amour entre hommes au 18e siècle et sur sa relation à la construction de la masculinité. Le cas de Winckelmann illustre le caractère construit et changeant de l’érotisme. En effet, l’influence de l’exemple hellénique est visible dans le fantasme homoérotique qu’il élabora dans ses œuvres dans le but de s’expliquer ses désirs. L’Antiquité, par son autorité culturelle, représenta un espace relativement sécuritaire où Winckelmann put exprimer sa sensibilité homoérotique à laquelle le contexte occidental était alors très défavorable : la littérature antique exaltait l’affection entre hommes et sa statuaire, le corps masculin nu. Le fantasme que fit Winckelmann fut capital pour sa compréhension et la justification de ses relations avec d’autres hommes, surtout après son arrivée en Italie en 1755. Loin de se cantonner à la répression de l’homoérotisme par la société européenne des Lumières, le cas de Winckelmann en illustre le potentiel d’intégration partielle. En effet, l’originalité de Winckelmann tient à sa façon de communiquer ses idéaux homoérotiques dans des textes savants, tout en rendant sa perception du beau masculin et son amour des hommes socialement acceptables. Enfin, plusieurs indices dans les œuvres et la correspondance de Winckelmann portent à penser qu’il était conscient de sa différence et qu’il se constitua entre 1755 et 1768 une communauté discrète d’hommes aussi sensibles aux désirs homoérotiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une variété de modèles sur le processus de prise de décision dans divers contextes présume que les sujets accumulent les évidences sensorielles, échantillonnent et intègrent constamment les signaux pour et contre des hypothèses alternatives. L'intégration continue jusqu'à ce que les évidences en faveur de l'une des hypothèses dépassent un seuil de critère de décision (niveau de preuve exigé pour prendre une décision). De nouveaux modèles suggèrent que ce processus de décision est plutôt dynamique; les différents paramètres peuvent varier entre les essais et même pendant l’essai plutôt que d’être un processus statique avec des paramètres qui ne changent qu’entre les blocs d’essais. Ce projet de doctorat a pour but de démontrer que les décisions concernant les mouvements d’atteinte impliquent un mécanisme d’accumulation temporelle des informations sensorielles menant à un seuil de décision. Pour ce faire, nous avons élaboré un paradigme de prise de décision basée sur un stimulus ambigu afin de voir si les neurones du cortex moteur primaire (M1), prémoteur dorsal (PMd) et préfrontal (DLPFc) démontrent des corrélats neuronaux de ce processus d’accumulation temporelle. Nous avons tout d’abord testé différentes versions de la tâche avec l’aide de sujets humains afin de développer une tâche où l’on observe le comportement idéal des sujets pour nous permettre de vérifier l’hypothèse de travail. Les données comportementales chez l’humain et les singes des temps de réaction et du pourcentage d'erreurs montrent une augmentation systématique avec l'augmentation de l'ambigüité du stimulus. Ces résultats sont cohérents avec les prédictions des modèles de diffusion, tel que confirmé par une modélisation computationnelle des données. Nous avons, par la suite, enregistré des cellules dans M1, PMd et DLPFc de 2 singes pendant qu'ils s'exécutaient à la tâche. Les neurones de M1 ne semblent pas être influencés par l'ambiguïté des stimuli mais déchargent plutôt en corrélation avec le mouvement exécuté. Les neurones du PMd codent la direction du mouvement choisi par les singes, assez rapidement après la présentation du stimulus. De plus, l’activation de plusieurs cellules du PMd est plus lente lorsque l'ambiguïté du stimulus augmente et prend plus de temps à signaler la direction de mouvement. L’activité des neurones du PMd reflète le choix de l’animal, peu importe si c’est une bonne réponse ou une erreur. Ceci supporte un rôle du PMd dans la prise de décision concernant les mouvements d’atteinte. Finalement, nous avons débuté des enregistrements dans le cortex préfrontal et les résultats présentés sont préliminaires. Les neurones du DLPFc semblent beaucoup plus influencés par les combinaisons des facteurs de couleur et de position spatiale que les neurones du PMd. Notre conclusion est que le cortex PMd est impliqué dans l'évaluation des évidences pour ou contre la position spatiale de différentes cibles potentielles mais assez indépendamment de la couleur de celles-ci. Le cortex DLPFc serait plutôt responsable du traitement des informations pour la combinaison de la couleur et de la position des cibles spatiales et du stimulus ambigu nécessaire pour faire le lien entre le stimulus ambigu et la cible correspondante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université de Grenoble.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est une recherche théorique qui tire son origine du constat selon lequel il est difficile d’analyser la réalisation du projet professionnel des candidats à l’enseignement. Tel est le cas en raison des particularités contextuelles et des pluralités théoriques relatives aux notions de formation et d’insertion. À partir de ce constat, ce mémoire propose un cadre d’analyse permettant de comprendre comment les jeunes enseignants du Québec appréhendent le « rapport entre » leur formation et leur insertion face aux différentes contraintes (i.e. rigidité du système institutionnel de la formation, marché de l’insertion fluctuant et saturé, etc.) et aux ressources disponibles (i.e. programme d’études, cours, etc.) pour réaliser leur projet professionnel. Il repose sur l’hypothèse selon laquelle, pour réaliser leur projet professionnel, les candidats à l’enseignement mobilisent des stratégies afin de négocier les contraintes et ressources de leurs contextes respectifs. Dans cette optique, la démarche de cette recherche théorique s’inscrit dans une perspective interactionniste, telle qu’elle est véhiculée par la tradition de Chicago (Chapoulie, 2001). Quelques postulats sont mobilisés pour baliser les différentes étapes d’élaboration du cadre d’analyse. Le premier postulat considère que le « point de vue » de l’acteur est prépondérant pour comprendre ses conduites (Morrissette, Guignon & Demaziére, 2011). Cela amène à articuler les ancrages théoriques nécessaires à l’élaboration du cadre d’analyse en croisant une sociologie interactionniste avec une sociologie de l’action. Plus particulièrement, les concepts de « définition de la situation » de Thomas (1923) et de la « représentation de soi » de Goffman (1969) sont mis à profit. Les notions de coopération, d’incertitude et de rationalité, tirées du modèle de l’acteur stratégique de Crozier et Friedberg (1981), viennent compléter les assises de la modélisation d’une trame de négociation (Strauss & Baszanger, 1992). Le deuxième postulat considère que les contextes, sont prépondérants pour expliquer les conduites humaines (Abbott, 1999). Ces contextes, dits «éloignés» et «rapprochés» de l’acteur, constituent le « contexte d’action » (Strauss & Baszanger, 1992). Ce faisant, ils influent sur les stratégies mobilisées par l’acteur candidat à l’enseignement. Le troisième postulat considère que le monde social est animé par des processus (re)créés au travers des interactions entre acteurs (Morrissette & Guignon, 2014). Il amène à envisager la formation et l’insertion comme des processus sujets à des redéfinitions continues. Cela conduit à repenser la réalisation du projet professionnel des candidats à l’enseignement sous l’angle du « rapport entre ». Ces trois postulats structurent le cadre d’analyse qui se présente comme une « trame de négociation ». Il est développé pour éventuellement éclairer les stratégies de négociation mobilisées en contexte par les candidats québécois à l’enseignement pour réaliser leur projet professionnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’intéresse à la modélisation magnétohydrodynamique des écoulements de fluides conducteurs d’électricité multi-échelles en mettant l’emphase sur deux applications particulières de la physique solaire: la modélisation des mécanismes des variations de l’irradiance via la simulation de la dynamo globale et la reconnexion magnétique. Les variations de l’irradiance sur les périodes des jours, des mois et du cycle solaire de 11 ans sont très bien expliquées par le passage des régions actives à la surface du Soleil. Cependant, l’origine ultime des variations se déroulant sur les périodes décadales et multi-décadales demeure un sujet controversé. En particulier, une certaine école de pensée affirme qu’une partie de ces variations à long-terme doit provenir d’une modulation de la structure thermodynamique globale de l’étoile, et que les seuls effets de surface sont incapables d’expliquer la totalité des fluctuations. Nous présentons une simulation globale de la convection solaire produisant un cycle magnétique similaire en plusieurs aspects à celui du Soleil, dans laquelle le flux thermique convectif varie en phase avec l’ ́energie magnétique. La corrélation positive entre le flux convectif et l’énergie magnétique supporte donc l’idée qu’une modulation de la structure thermodynamique puisse contribuer aux variations à long-terme de l’irradiance. Nous analysons cette simulation dans le but d’identifier le mécanisme physique responsable de la corrélation en question et pour prédire de potentiels effets observationnels résultant de la modulation structurelle. La reconnexion magnétique est au coeur du mécanisme de plusieurs phénomènes de la physique solaire dont les éruptions et les éjections de masse, et pourrait expliquer les températures extrêmes caractérisant la couronne. Une correction aux trajectoires du schéma semi-Lagrangien classique est présentée, qui est basée sur la solution à une équation aux dérivées partielles nonlinéaire du second ordre: l’équation de Monge-Ampère. Celle-ci prévient l’intersection des trajectoires et assure la stabilité numérique des simulations de reconnexion magnétique pour un cas de magnéto-fluide relaxant vers un état d’équilibre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire concerne la modélisation mathématique de l’érythropoïèse, à savoir le processus de production des érythrocytes (ou globules rouges) et sa régulation par l’érythropoïétine, une hormone de contrôle. Nous proposons une extension d’un modèle d’érythropoïèse tenant compte du vieillissement des cellules matures. D’abord, nous considérons un modèle structuré en maturité avec condition limite mouvante, dont la dynamique est capturée par des équations d’advection. Biologiquement, la condition limite mouvante signifie que la durée de vie maximale varie afin qu’il y ait toujours un flux constant de cellules éliminées. Par la suite, des hypothèses sur la biologie sont introduites pour simplifier ce modèle et le ramener à un système de trois équations différentielles à retard pour la population totale, la concentration d’hormones ainsi que la durée de vie maximale. Un système alternatif composé de deux équations avec deux retards constants est obtenu en supposant que la durée de vie maximale soit fixe. Enfin, un nouveau modèle est introduit, lequel comporte un taux de mortalité augmentant exponentiellement en fonction du niveau de maturité des érythrocytes. Une analyse de stabilité linéaire permet de détecter des bifurcations de Hopf simple et double émergeant des variations du gain dans la boucle de feedback et de paramètres associés à la fonction de survie. Des simulations numériques suggèrent aussi une perte de stabilité causée par des interactions entre deux modes linéaires et l’existence d’un tore de dimension deux dans l’espace de phase autour de la solution stationnaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse se base sur les principes de la théorisation ancrée (Strauss & Corbin, 1998) afin de répondre au manque de documentation concernant les stratégies adoptées par des « agents intermédiaires » pour promouvoir l’utilisation des connaissances issues de la recherche auprès des intervenants en éducation. Le terme « agent intermédiaire » réfère aux personnes qui sont positionnées à l’interface entre les producteurs et les utilisateurs des connaissances scientifiques et qui encouragent et soutiennent les intervenants scolaires dans l’application des connaissances scientifiques dans leur pratique. L’étude s’inscrit dans le cadre d’un projet du ministère de l’Éducation, du Loisir et du Sport du Québec visant à améliorer la réussite scolaire des élèves du secondaire provenant de milieux défavorisés. Des agents intermédiaires de différents niveaux du système éducatif ayant obtenu le mandat de transférer des connaissances issues de la recherche auprès des intervenants scolaires dans les écoles visées par le projet ont été sollicités pour participer à l’étude. Une stratégie d’échantillonnage de type « boule-de-neige » (Biernacki & Waldorf, 1981; Patton, 1990) a été employée afin d’identifier les personnes reconnues par leurs pairs pour la qualité du soutien offert aux intervenants scolaires quant à l’utilisation de la recherche dans leur pratique. Seize entrevues semi-structurées ont été réalisées. L’analyse des données permet de proposer un modèle d’intervention en transfert de connaissances composé de 32 stratégies d’influence, regroupées en 6 composantes d’intervention, soit : relationnelle, cognitive, politique, facilitatrice, évaluative, de même que de soutien et de suivi continu. Les résultats suggèrent que les stratégies d’ordre relationnelle, cognitive et politique sont interdépendantes et permettent d’établir un climat favorable dans lequel les agents peuvent exercer une plus grande influence sur l’appropriation du processus de l’utilisation des connaissances des intervenants scolaire. Ils montrent en outre que la composante de soutien et de suivi continu est importante pour maintenir les changements quant à l’utilisation de la recherche dans la pratique chez les intervenants scolaires. Les implications théoriques qui découlent du modèle, ainsi que les explications des mécanismes impliqués dans les différentes composantes, sont mises en perspective tant avec la documentation scientifique en transfert de connaissances dans les secteurs de la santé et de l’éducation, qu’avec les travaux provenant de disciplines connexes (notamment la psychologie). Enfin, des pistes d’action pour la pratique sont proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Québec, le policier a l’autorité de faire respecter plusieurs lois et d’assurer le maintien de l’ordre. Puisque le policier peut être confronté à une multiplicité de problématiques, il est, dans certaines circonstances, contraint à employer une force pour se protéger lui-même ou pour protéger toute autre personne contre la mort ou contre des lésions corporelles graves. Cependant, bien que l’usage de la force par la police soit l’un des éléments les plus visibles et les plus controversés de l’intervention policière, les connaissances sur ce sujet spécifique demeurent limitées. Afin de pallier à certaines lacunes de la recherche et de la théorie, l’objectif général de ce mémoire vise à identifier les facteurs individuels, situationnels et contextuels liés au niveau de force utilisé par la police lors d’une intervention dans les postes de quartier et dans les secteurs de recensement. Les données dans le cadre de cette étude proviennent des rapports d’incidents déclarés d’usage de la force d’un service de police canadien pour une période couvrant les années 2007 à 2011, les données issues du recensement canadien de 2006 et les données criminelles issues du Programme de déclaration uniforme de la criminalité (DUC). La stratégie analytique privilégiée est la modélisation hiérarchique qui permettra de tester les liens entre les différents niveaux d’analyse. Au terme des analyses multiniveaux, les résultats indiquent que plusieurs facteurs ont un impact sur le niveau de force utilisé par le policier. Au niveau des déterminants individuels du sujet, c’est le fait d’être un homme, de résister physiquement à l’intervention et de posséder une arme qui est associé à des niveaux plus élevés de force. Au niveau des facteurs contextuels, on découvre que la proportion de minorité visible et le désavantage social ont un impact appréciable sur le niveau de force utilisé par le policier. Ces résultats nous amènent donc à conclure que les policiers tiennent surtout compte de la situation immédiate (facteurs individuels et situationnels) pour évaluer le degré de dangerosité ou de menace, mais qu’ils sont également influencés par l’endroit où ils se trouvent. D’autres études sont toutefois nécessaires pour vérifier la constance de nos résultats.