15 resultados para automatiserade tester

em Université Laval Mémoires et thèses électroniques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’estimation temporelle de l’ordre des secondes à quelques minutes requiert des ressources attentionnelles pour l’accumulation d’information temporelle pendant l’intervalle à estimer (Brown, 2006; Buhusi & Meck, 2009; Zakay & Block, 2004). Ceci est démontré dans le paradigme de double tâche, où l’exécution d’une tâche concurrente pendant l’estimation d’un intervalle mène à un effet d’interférence, soit une distorsion de la durée perçue se traduisant par des productions temporelles plus longues et plus variables que si l’estimation de l’intervalle était effectuée seule (voir Brown, 1997; 2010). Un effet d’interférence est également observé lorsqu’une interruption est attendue pendant l’intervalle à estimer, l’allongement étant proportionnel à la durée d’attente de l’interruption (Fortin & Massé, 2000). Cet effet a mené à l’hypothèse que la production avec interruption serait sous-tendue par un mécanisme de partage attentionnel similaire à la double tâche (Fortin, 2003). Afin d’étudier cette hypothèse, deux études empiriques ont été effectuées dans des contextes expérimentaux associés respectivement à une augmentation et à une diminution de l’effet d’interférence, soit le vieillissement (Chapitre II) et l’entraînement cognitif (Chapitre III). Dans le Chapitre II, la tâche de production avec interruption est étudiée chez des participants jeunes et âgés à l’aide de la spectroscopie proche infrarouge fonctionnelle (SPIRf). Les résultats montrent que l’attente de l’interruption est associée à des coûts comportementaux et fonctionnels similaires à la double tâche. Au niveau comportemental, un allongement des productions proportionnel à la durée d’attente de l’interruption est observé chez l’ensemble des participants, mais cet effet est plus prononcé chez les participants âgés que chez les jeunes. Ce résultat est compatible avec les observations réalisées dans le paradigme de double tâche (voir Verhaegen, 2011 pour une revue). Au niveau fonctionnel, la production avec et sans interruption est associée à l’activation du cortex préfrontal droit et des régions préfrontales dorsolatérales connues pour leur rôle au niveau de l’estimation temporelle explicite (production d’intervalle) et implicite (processus préparatoires). En outre, l’attente de l’interruption est associée à l’augmentation de l’activation corticale préfrontale dans les deux hémisphères chez l’ensemble des participants, incluant le cortex ventrolatéral préfrontal associé au contrôle attentionnel dans la double tâche. Finalement, les résultats montrent que les participants âgés se caractérisent par une activation corticale bilatérale lors de la production sans et avec interruption. Dans le cadre des théories du vieillissement cognitif (Park & Reuter-Lorenz, 2009), cela suggère que l’âge est associé à un recrutement inefficace des ressources attentionnelles pour la production d’intervalle, ceci nuisant au recrutement de ressources additionnelles pour faire face aux demandes liées à l’attente de l’interruption. Dans le Chapitre III, la tâche de production avec interruption est étudiée en comparant la performance de participants assignés à l’une ou l’autre de deux conditions d’exécution extensive (cinq sessions successives) de double tâche ou de production avec interruption. Des sessions pré et post-test sont aussi effectuées afin de tester le transfert entre les conditions. Les résultats montrent un effet d’interférence et de durée d’interférence tant en production avec double tâche qu’en production avec interruption. Ces effets sont toutefois plus prononcés lors de la production avec interruption et tendent à augmenter au fil des sessions, ce qui n’est pas observé en double tâche. Cela peut être expliqué par l’influence des processus préparatoires pendant la période pré-interruption et pendant l’interruption. Finalement, les résultats ne mettent pas en évidence d’effets de transfert substantiels entre les conditions puisque les effets de la pratique concernent principalement la préparation temporelle, un processus spécifique à la production avec interruption. Par la convergence que permet l’utilisation d’un même paradigme avec des méthodologies distinctes, ces travaux approfondissent la connaissance des mécanismes attentionnels associés à l’estimation temporelle et plus spécifiquement à la production avec interruption. Les résultats supportent l’hypothèse d’un partage attentionnel induit par l’attente de l’interruption. Les ressources seraient partagées entre les processus d’estimation temporelle explicite et implicite, une distinction importante récemment mise de l’avant dans la recherche sur l’estimation du temps (Coull, Davranche, Nazarian & Vidal, 2013). L’implication de processus dépendant des ressources attentionnelles communes pour le traitement de l’information temporelle peut rendre compte de l’effet d’interférence robuste et systématique observé dans la tâche de production avec interruption.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche s’inscrit dans le domaine de la dosimétrie à scintillation en radiothérapie, plus précisément en curiethérapie à haut débit de dose (HDR). Lors de ce type de traitement, la dose est délivrée localement, ce qui implique de hauts gradients de dose autour de la source. Le but de ce travail est d’obtenir un détecteur mesurant la dose en 2 points distincts et optimisé pour la mesure de dose en curiethérapie HDR. Pour ce faire, le projet de recherche est séparé en deux études : la caractérisation spectrale du détecteur à 2-points et la caractérisation du système de photodétecteur menant à la mesure de la dose. D’abord, la chaine optique d’un détecteur à scintillation à 2-points est caractérisée à l’aide d’un spectromètre afin de déterminer les composantes scintillantes optimales. Cette étude permet de construire quelques détecteurs à partir des composantes choisies pour ensuite les tester avec le système de photodétecteur multi-point. Le système de photodétecteur est aussi caractérisé de façon à évaluer les limites de sensibilité pour le détecteur 2-points choisi précédemment. L’objectif final est de pouvoir mesurer le débit de dose avec précision et justesse aux deux points de mesure du détecteur multi-point lors d’un traitement de curiethérapie HDR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Environ 90% des composés produits industriellement sont fabriqués à l’aide de catalyseurs. C’est pourquoi la conception de catalyseurs toujours plus performants pour améliorer les procédés industriels actuels est toujours d’intérêt. De la grande variété de complexes avec des métaux de transition rapportés jusqu’à présent, les complexes zwitterioniques attirent notre attention par leurs activités catalytiques souvent supérieures aux complexes cationiques normaux. Un complexe métallique zwitterionique est un fragment métal-ligand neutre où la charge positive est située sur le centre métallique et où la charge négative est délocalisée sur un des ligands liés au métal. Nous proposons la synthèse de ligands anioniques phosphine comportant des groupements borates et boratabenzènes. Cette dernière espèce est un cycle à 6 membres où l’un des atomes de carbone est remplacé par un atome de bore et qui est négativement chargé. La capacité de ces phosphines anioniques à se lier à un centre métallique à l’aide de la paire libre du phosphore est due à la nature du lien P-B qui défavorise l’interaction entre la paire libre du phosphore et l’orbitale p vide du bore. Les propriétés de di-tert-butylphosphido-boratabenzène (DTBB) comme ligand phosphine anionique hautement donneur et encombré ainsi que la découverte de ses modes de coordination inhabituels pour stabiliser les métaux de transition insaturés ont été étudiés au cours de ce travail. De nouvelles perspectives sur les modes de coordination de phosphido-boratabenzène et la force de l’interaction du lien P-B seront discutées ainsi que les applications catalytiques. Nous avons d’abord étudié la coordination η1 avec des complexes de fer, ce qui nous a fourni des données quantitatives précieuses sur la capacité du DTBB d’agir comme ligand très donneur par rapport aux autres ligands donneurs bien connus. La capacité du DTBB à changer de mode de coordination pour soutenir les besoins électroniques du métal a été démontrée par la découverte d’une nouvelle espèce ferrocenyl phosphido-boratabenzène et sa nucléophilie a été étudiée. Au meilleur de notre connaissance, aucun exemple d’un ligand boratabenzène coordonné aux métaux du groupe 11 n’existe dans la littérature. Voilà pourquoi nous avons décidé d’explorer les modes de coordination du ligand DTBB avec Cu(I), Ag(I) et Au(I). A notre grande surprise, le ligand DTBB est capable de stabiliser les métaux du groupe 11 aux états d’oxydation faibles par une liaison MP qui est une coordination du type η1, un mode de coordination guère observé pour les ligands boratabenzène. Pendant nos travaux, notre attention s’est tournée vers la synthèse d’un complexe de rhodium(I) afin de tester son utilité en catalyse. A notre grande satisfaction, le complexe Rh-DTBB agit comme un précatalyseur pour l’hydrogénation des alcènes et alcynes à la température ambiante et à pression atmosphérique et son activité est comparable à celle du catalyseur de Wilkinson. Dans un désir d’élargir les applications de notre recherche, notre attention se tourna vers l’utilisation des composés du bore autres que le boratabenzène. Nous avons décidé de synthétiser une nouvelle espèce phosphido-borate encombrée. Lorsqu’elle réagit avec des métaux, l’espèce phosphido-borate subit un clivage de la liaison P-B. Toutefois, cette observation met en évidence la singularité et les avantages de la stabilité de la liaison P-B lors de l’utilisation du fragment boratabenzène. Ces observations enrichissent notre compréhension des conditions dans lesquelles la liaison P-B du ligand DTBB peut être clivée. Ces travaux ont mené à la découverte d’un nouveau ligand ansa-boratabenzène avec une chimie de coordination prometteuse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre de médecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail des médecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité des médecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre de médecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction des médecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité des médecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération des médecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement des médecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse des médecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité des médecins. Cela a une importante implication sur le recrutement des médecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges des médecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu des médecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance des médecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité des médecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre de médecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La photocatalyse est un procédé d’oxydation avancé très intéressant puisqu’il ne nécessite l’ajout d’aucun réactif chimique. Beaucoup de compagnies souhaitent utiliser ce procédé pour le traitement des gaz et des eaux. Les services Exp inc. est une compagnie qui s’intéresse à la dégradation des composés organiques volatils en milieu aqueux. Ils ont comme objectif d’améliorer leurs technologies et d’en développer de nouvelles comme la photocatalyse. L’objectif ce de projet de maîtrise est de développer un matériau capable d‘oxyder le méthanol en phase aqueuse. Le développement d’un tel photocatalyseur permet d’évaluer systématiquement l’impact de toutes les modifications apportées à un matériau de base et d’en comprendre les bénéfices. Le matériau préparé est basé sur des nanotiges de WO3 synthétisées par voie hydrothermale où l’on ajoute des nanoparticules de TiO2 pour former un composé mixte. Un co-catalyseur de réduction, le platine, est ajouté par photodéposition sur le composé TiO2/WO3. Le produit est finalement traité à l’hydrogène pour en augmenter l’activité catalytique. Pour tester les matériaux, un réacteur photocatalytique a été conçu. Le réacteur possède deux configurations, soit une avec une lampe ultraviolette plongée dans l’eau et une avec une bande de diodes électroluminescentes bleues autour du réacteur. Les modifications, telles que le traitement sous hydrogène et l’ajout de platine, augmentent considérablement l’activité des photocatalyseurs. Les nanotiges de WO3 possèdent une faible surface spécifique offrant donc une activité inférieure à un autre composé avec plus de surface. L’activité des photocatalyseurs est plus faible que celles desprocédés utilisant du peroxyde. Cependant, plusieurs avantages sont remarqués. La photocatalyse se fait à pH neutre et il est possible d’utiliser de la lumière visible. Un matériau photocatalytique basé sur des nanoparticules de WO3 à haute surface spécifique avec du TiO2, du platine et traité à l’hydrogène pourrait offrir une avenue intéressante pour Exp inc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les jeux vidéo, bien que souvent associés au divertissement, sont de plus en plus utilisés à des fins pratiques en raison de leurs aptitudes à soutenir la motivation intrinsèque des joueurs. Afin de bien répondre aux préférences des joueurs, il devient important de comprendre quels facteurs permettent de soutenir ce type de motivation. Malgré la vaste littérature sur le sujet, aucune étude n’a avancé un modèle des motivations pour les jeux vidéo accepté de façon unanime. D’une part, plusieurs modèles fréquemment recensés dans les écrits ne sont supportés par aucune étude empirique. D’une autre part, les modèles ayant reçu un appui empirique sont souvent spécifiques à un type de jeu, ou divergent les uns des autres en raison d’une interprétation restreinte des analyses factorielles. Par conséquent, la présente étude cherche à proposer un modèle des motivations pour les jeux vidéo unifiant les différents modèles présents dans les écrits. Un questionnaire portant sur les comportements et les préférences des joueurs a été développé afin de tester la validité d’un modèle théorique récent des motivations pour les jeux vidéo et d’explorer les motivations des joueurs dans la population générale. Cent cinquante-six participants (41 Femmes; Mage = 25.95) ont complétés le questionnaire dans le cadre d’une expérience portant sur les jeux vidéo ou en ligne. Une analyse factorielle confirmatoire n’a pas permis de confirmer la structure du modèle théorique étudié. Plutôt, une analyse en composantes principales exploratoire a révélé la présence de sept composantes. Enfin, sept facteurs récurrents à travers les modèles supportés empiriquement ont été identifiés : la socialisation, la compétition, l’accomplissement, l’immersion, l’échappement, l’autonomie, et l’auto-actualisation. Ce modèle propose une base sur laquelle les études futures pourront bâtir, ainsi qu’un modèle préliminaire pouvant contribuer au développement de jeux favorisant la motivation intrinsèque des joueurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente 2 types de méthodes pour effectuer la réorientation d’un robot sériel en chute libre en utilisant les mouvements internes de celui-ci. Ces mouvements sont prescrits à partir d’algorithmes de planification de trajectoire basés sur le modèle dynamique du robot. La première méthode tente de réorienter le robot en appliquant une technique d’optimisation locale fonctionnant avec une fonction potentielle décrivant l’orientation du système, et la deuxième méthode applique des fonctions sinusoïdales aux articulations pour réorienter le robot. Pour tester les performances des méthodes en simulation, on tente de réorienter le robot pour une configuration initiale et finale identiques où toutes les membrures sont alignées mais avec le robot ayant complété une rotation de 180 degrés sur lui-même. Afin de comparer les résultats obtenus avec la réalité, un prototype de robot sériel plan flottant possédant trois membrures et deux liaisons rotoïdes est construit. Les expérimentations effectuées montrent que le prototype est capable d’atteindre les réorientations prescrites si peu de perturbations extérieures sont présentes et ce, même si le contrôle de l’orientation est effectué en boucle ouverte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les espèces végétales exotiques peuvent devenir envahissantes une fois naturalisées sur un nouveau territoire. La méthode de lutte la plus efficace étant la prévention, il est primordial de pouvoir prédire à l’avance si une nouvelle espèce introduite deviendra envahissante. Afin d’en arriver à un outil d’aide à la décision facile d’utilisation, il importe de développer des modèles plus simples, ayant peut-être un pouvoir explicatif moins grand, mais qui seront par contre plus faciles à comprendre et à utiliser. Il est possible de simplifier un modèle en utilisant moins de variables mais en les choisissant mieux, sur une base théorique. Le but de ce mémoire est donc de tester la force de la relation liant l’aire de répartition d’origine eurasiatique avec l’abondance et l’étendue de l’aire de répartition d’introduction en Amérique du Nord. La variable explicative principale, l’aire de répartition d’origine eurasiatique, a été utilisée avec deux autres covariables, soit le temps de résidence sur le continent nord-américain et le cycle de vie des espèces afin de bâtir un modèle statistique. Ce dernier a été testé à deux échelles géographiques, soit à l’échelle d’un pays entier, les États-Unis, et à une échelle plus régionale. L’utilisation de spécimens d’herbier et d’autres sources de données disponibles en ligne a permis de construire une base de données comportant un grand nombre d’espèces (N = 481). Les modèles ont révélé qu’avec peu de variables explicatives, il est possible d’expliquer une proportion importante du phénomène d’envahissement et d’abondance (> 40 %) dans certaines régions des États-Unis. Cette recherche contribue au développement d’un outil d’aide à la décision simple et démontre qu’il est possible d’expliquer une partie importante le phénomène d’abondance et d’étendue des espèces exotiques grâce à des données disponibles et à un petit nombre de variables bien sélectionnées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fin du traitement actif et le début de la phase de survie correspondent à une période de transition qui présente de nombreux défis pour la personne survivante au cancer, les soignants et le système de santé. La phase de survie au cancer est une phase distincte mais négligée du continuum de soins. Pour faciliter la transition de la fin du traitement actif vers la survie et optimiser la coordination des soins de suivi, la mise en place d’un plan de soins de suivi (PSS) est proposée. Le but de cette recherche est de développer, de mettre en place et d’évaluer si un plan de soins de suivi (PSS) permet de répondre aux besoins globaux, de diminuer la détresse émotionnelle et de favoriser les comportements d’autogestion de santé de femmes atteintes du cancer de l’endomètre (FACE) lors de la transition de la fin du traitement actif vers la survie au cancer. Elle comprend deux phases distinctes. La première phase visait d’abord le développement d’un plan de soins de suivi (PSS) pour des femmes atteintes du cancer de l’endomètre avec traitements adjuvants. La sélection du contenu du PSS a été faite à partir de la recension des écrits et des données recueillies lors d’entrevues individuelles avec 19 FACE, 24 professionnels de la santé travaillant avec cette clientèle et quatre gestionnaires de proximité en oncologie. Cette première phase avait également pour but la validation du contenu du PSS auprès de dix professionnels de la santé impliqués dans l’étude. La seconde phase consistait à évaluer la faisabilité, l’acceptabilité du PSS et à en pré-tester l’utilité à répondre aux besoins globaux, à diminuer la détresse émotionnelle (peur de la récidive) et à favoriser l’autogestion de santé auprès d’un groupe de 18 femmes atteintes du cancer de l’endomètre avec traitements adjuvants à la fin du traitement actif vers la survie. Sur le plan de la faisabilité, les résultats suggèrent que la mise en place du PSS comporte des défis en termes de temps, de ressources et de coordination pour l’infirmière pivot en oncologie (IPO). Concernant l’acceptabilité du PSS, les FACE le perçoivent comme un outil d’information utile qui favorise la communication avec le médecin de famille ou d’autres professionnels de la santé. Les IPO soutiennent sa valeur ajoutée à la fin du traitement et soulignent que la discussion du contenu du PSS fait ressortir des éléments de surveillance et de suivi essentiels à prendre en compte pour la phase de survie et permet de mettre l’emphase sur l’autogestion de sa santé. Pour les médecins de famille, le PSS est un outil d’information pour les survivantes qui favorise la réassurance, la communication et la continuité des soins entre professionnels de la santé. Enfin, pour ce qui est de l’utilité du PSS à répondre aux besoins globaux, les résultats suggèrent que l’ensemble des besoins sont plus satisfaits trois mois après la fin des traitements pour le groupe ayant reçu un PSS. Bien que la peur de récidive du cancer (PRC) s’améliore au suivi de trois mois pour le groupe exposé au PSS, 55% des FACE conservent un score cliniquement significatif de 13 à la sous-échelle de sévérité de peur de récidive à la fin du traitement et 42% au suivi de trois mois. Les comportements d’autogestion de santé s’améliorent entre la fin du traitement et le suivi de trois mois pour le groupe exposé un PSS. Considérant ces résultats, la démarche soutient la pertinence de mettre en place un PSS à la fin du traitement actif pour les FACE pour répondre à des besoins d’information, favoriser la communication et la continuité des soins avec les professionnels de la santé et les comportements d’autogestion de santé dans la phase de survie. Cependant, des contraintes de temps, de ressources et de coordination doivent être prises en compte pour sa mise en place dans le milieu clinique. Mots-clés : Transition, fin du traitement actif, besoins, survie au cancer, plan de soins de suivi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet de recherche a été réalisé dans le but premier de mettre à niveau, d’adapter et de rendre opérationnelle la méthode de Newmark pour les types de barrages et les types de séismes habituellement rencontrés au Québec. Pour ce faire, une Banque de Signaux Sismiques pour l’Est du Canada (BDSSEC), contenant 451 accélérogrammes, a été produite de même qu’un code de calcul permettant de calculer les déplacements permanents, par double intégration numérique, selon la méthode de Newmark. À partir d’analyses statistiques, des modèles prédictifs applicables au contexte sismologique de l’Est canadien ont été développés en considérant un comportement rigide-plastique (méthode dite du « bloc rigide ») et un comportement viscoélastique linéaire équivalent (méthode dite « flexible »). La comparaison entre le nouveau modèle rigide-plastique pour l’Est avec ceux existants développés à partir de signaux de l’Ouest américain a montré que les déplacements permanents évalués pour l’Est peuvent être significativement inférieurs à ceux de l’Ouest pour des magnitudes et des distances épicentrales comparables compte tenu de leur contenu fréquentiel plus fort en hautes fréquences. Le modèle prédictif flexible a montré qu’il pouvait prédire des déplacements permanents du même ordre de grandeur que Makdisi et Seed (1977) et de Rathje et Antonakos (2011). Les déplacements permanents sont amplifiés par la méthode flexible comparativement à la méthode rigide principalement lorsque le ratio entre la période prédominante de l’ouvrage et la période moyenne de la sollicitation se situe autour de 1. Le second but consistait à tester l’applicabilité de la méthode du bruit de fond ambiant (H/V) comme outil expérimental pour estimer la période prédominante des barrages en remblai et en enrochement (Tp). Les études comparatives ont montré, de façon générale, une bonne concordance entre les calculs analytiques et les mesures expérimentales tant et aussi longtemps que les hypothèses à la base des modèles sont respectées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Méthodologie: Test de Johansen, Test économétrique de cointégration, Modèle à variable latente

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Méthodologie: Modèle binomial-négatif à effet aléatoire

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche vise à étudier l’impact d’interventions réalisées par les parents dans l’unité néonatale de soins intensifs. Plus spécifiquement, le premier objectif est de documenter les effets différentiels de la Méthode Mère Kangourou « MMK » accompagnée ou non du Massage en incubateur «MI » ou du Massage en Position Kangourou « MPK » et des Soins Traditionnels «ST » accompagnés ou non du massage dans l’incubateur sur la croissance physique mesurée par le poids, la taille et le périmètre crânien pendant une période de 5 et 15 jours dans l’unité néonatale et l’impact à 40 semaines d’âge gestationnel. Le second objectif est de comparer, chez des enfants qui bénéficient de la « MMK » la valeur ajoutée du « MPK » ou du «MI » sur le neuro-développement à 6 et 12 mois d’âge corrigé de l’enfant. Un échantillon total de 198 enfants et leur famille a été recruté de la façon suivante dans trois hôpitaux de Bogota. Dans chaque hôpital, 66 sujets ont été répartis aléatoirement à deux conditions. Ces hôpitaux ont été choisis afin de tester les effets de diverses conditions expérimentales et de diminuer les bais de sélection. Dans chaque hôpital, deux techniques ont été assignées aléatoirement. Il s’agit, dans le premier, de la « MMK & MPK » vs « MMK & MI ». Dans le second, « MMK sans massage » vs « MMK & MI ». Dans le troisième, « MI » a été comparé aux « ST » ce qui implique une absence de contact physique continu des bébés avec leurs parents. Les résultats rapportés dans le premier article sont à l’effet que, dans le premier hôpital, il y a un effet compensatoire de l’intervention « MMK & MPK » sur la perte physiologique du poids de l’enfant prématuré dans les 15 premiers jours de vie avec un impact sur le poids à 40 semaines d’âge gestationnel, sur la durée du portage kangourou et sur la durée d’hospitalisation totale. Aucun effet sur le périmètre crânien ou la taille n’est apparu. Dans le deuxième hôpital, aucune différence significative n’est rapportée pour le poids sauf quand l’intervention est commencée après le 10ième jours de vie alors que l’enfant « MPK» semble grossir mieux que le «MMK avec MI». Finalement, dans le troisième hôpital il n’y a aucun effet du massage sur les variables anthropométriques, le groupe avec MI grossissant moins vite avec un léger impact sur le poids à 40 semaines. Cela pourrait être dû à la perte de chaleur due à l’ouverture de l’incubateur quand l’enfant est très immature. Dans le second article, les 66 enfants de l’hôpital sont répartis aléatoirement dans le groupe « MMK & MPK» vs le groupe « MMK & MI», ont complété, à 6 et 12 mois d’âge corrigé, un test de neuro-développement, le Griffiths. Les résultats à 6 mois ne montrent aucune différence entre les 2 interventions, mais a 12 mois le IQ semble dépendant du nombre de jours d’hospitalisation de l’enfant, cette durée d’hospitalisation correspond au temps que met l’enfant à se stabiliser physiquement et correspond également au temps que mettent la mère et l’enfant à s’adapter à la méthode kangourou. Une fois, l’adaptation kangourou réussie, la dyade mère enfant sort avec l’enfant toujours en position kangourou. Le temps d’hospitalisation correspond au temps que met l’enfant à être éligible à l’apprentissage de la MMK par la mère. À 12 mois les deux groupes montrent des résultats équivalents, mais des différences positives sont apparues pour le groupe « MMK & MPK» dans les sous échelle Coordination Oculo Manuelle et Audition et Langage du test Griffiths. Dans l’ensemble, les résultats suggèrent que la pratique des deux interventions non traditionnelles peut contribuer à une meilleure croissance physique dans nos cohortes. Le gain de poids du bébé, notamment, est affecté par l’intervention MPK (Hôpital 1) ou sans l’ajout du Massage (Hôpital 2). Par ailleurs, le massage en incubateur n’a pas de différence significative en comparaison aux soins traditionnels, ces interventions ont toutefois un impact mineur (tendances) sur le neuro développement à 6 et 12 mois d’âge corrigé dans cette étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire s’est intéressé à la contribution respective de la gravité des traumas vécus en enfance, des traits de la personnalité, du fonctionnement réflexif et de l’ajustement conjugal des survivants, à la sensibilité et à la négativité (i.e., hostilité et intrusion) des pratiques parentales adoptées et à la prédiction de la désorganisation de l’attachement de leur enfant à 17 mois. Dans cette perspective, 100 mères ayant vécu des mauvais traitements en enfance et de faible statut socio-économique ont été recrutées à l’hôpital Rosemont-Maisonneuve de Montréal à l’aide du Parental Bonding Instrument. Des analyses corrélationnelles menées sur l’ensemble des variables ont permis de mettre en évidence des associations significatives entre la sensibilité maternelle et l’ajustement conjugal et le FR-G ainsi qu’entre les comportements maternels négatifs et la gravité du trauma subi en enfance, le FR-G et la désorganisation de l’attachement de l’enfant. De plus, les variables corrélées à la désorganisation de l’attachement à 17 mois ont été incluses dans un modèle de régression logistique hiérarchique afin de tester leur contribution à sa prédiction. Les résultats indiquent qu’un modèle significatif de prédiction de l’organisation de l’attachement de l’enfant inclut le FR-T et l’insensibilité maternelle et explique environ 43 % de la variance de cette dernière. Selon ce modèle, l’augmentation de 1 point de FR-T diminue de 1,7 fois le risque que l’attachement de l’enfant soit désorganisé et l’augmentation de 1 de l’indice d’insensibilité maternelle augmente de 1,4 fois ce même risque. Ces résultats s’inscrivent dans le raffinement de la compréhension des pratiques maternelles sensibles et négatives dans un contexte d’historique de trauma en enfance ainsi que de la désorganisation de l’attachement de l’enfant et ils sont discutés en fonction de la littérature à ce sujet.