234 resultados para Calcul informatisé fiable
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
Contexte & Objectifs : La manométrie perfusée conventionnelle et la manométrie haute résolution (HRM) ont permis le développement d’une variété de paramètres pour mieux comprendre la motilité de l'œsophage et quantifier les caractéristiques de la jonction œsophago-gastrique (JOG). Cependant, l'anatomie de la JOG est complexe et les enregistrements de manométrie détectent à la fois la pression des structures intrinsèques et des structures extrinsèques à l'œsophage. Ces différents composants ont des rôles distincts au niveau de la JOG. Les pressions dominantes ainsi détectées au niveau de la JOG sont attribuables au sphincter œsophagien inférieur (SOI) et aux piliers du diaphragme (CD), mais aucune des technologies manométriques actuelles n’est capable de distinguer ces différents composants de la JOG. Lorsqu’on analyse les caractéristiques de la JOG au repos, celle ci se comporte avant tout comme une barrière antireflux. Les paramètres manométriques les plus couramment utilisés dans ce but sont la longueur de la JOG et le point d’inversion respiratoire (RIP), défini comme le lieu où le pic de la courbe de pression inspiratoire change de positif (dans l’abdomen) à négatif (dans le thorax), lors de la classique manœuvre de « pull-through ». Cependant, l'importance de ces mesures reste marginale comme en témoigne une récente prise de position de l’American Gastroenterology Association Institute (AGAI) (1) qui concluait que « le rôle actuel de la manométrie dans le reflux gastro-œsophagien (RGO) est d'exclure les troubles moteurs comme cause des symptômes présentés par la patient ». Lors de la déglutition, la mesure objective de la relaxation de la JOG est la pression de relaxation intégrée (IRP), qui permet de faire la distinction entre une relaxation normale et une relaxation anormale de la JOG. Toutefois, puisque la HRM utilise des pressions moyennes à chaque niveau de capteurs, certaines études de manométrie laissent suggérer qu’il existe une zone de haute pression persistante au niveau de la JOG même si un transit est mis en évidence en vidéofluoroscopie. Récemment, la manométrie haute résolution « 3D » (3D-HRM) a été développée (Given Imaging, Duluth, GA) avec le potentiel de simplifier l'évaluation de la morphologie et de la physiologie de la JOG. Le segment « 3D » de ce cathéter de HRM permet l'enregistrement de la pression à la fois de façon axiale et radiale tout en maintenant une position fixe de la sonde, et évitant ainsi la manœuvre de « pull-through ». Par conséquent, la 3D-HRM devrait permettre la mesure de paramètres importants de la JOG tels que sa longueur et le RIP. Les données extraites de l'enregistrement fait par 3D-HRM permettraient également de différencier les signaux de pression attribuables au SOI des éléments qui l’entourent. De plus, l’enregistrement des pressions de façon radiaire permettrait d’enregistrer la pression minimale de chaque niveau de capteurs et devrait corriger cette zone de haute pression parfois persistante lors la déglutition. Ainsi, les objectifs de ce travail étaient: 1) de décrire la morphologie de la JOG au repos en tant que barrière antireflux, en comparant les mesures effectuées avec la 3D-HRM en temps réel, par rapport à celle simulées lors d’une manœuvre de « pull-through » et de déterminer quelles sont les signatures des pressions attribuables au SOI et au diaphragme; 2) d’évaluer la relaxation de la JOG pendant la déglutition en testant l'hypothèse selon laquelle la 3D-HRM permet le développement d’un nouveau paradigme (appelé « 3D eSleeve ») pour le calcul de l’IRP, fondé sur l’utilisation de la pression radiale minimale à chaque niveau de capteur de pression le long de la JOG. Ce nouveau paradigme sera comparé à une étude de transit en vidéofluoroscopie pour évaluer le gradient de pression à travers la JOG. Méthodes : Nous avons utilisé un cathéter 3D-HRM, qui incorpore un segment dit « 3D » de 9 cm au sein d’un cathéter HRM par ailleurs standard. Le segment 3D est composé de 12 niveaux (espacés de 7.5mm) de 8 capteurs de pression disposés radialement, soit un total de 96 capteurs. Neuf volontaires ont été étudiés au repos, où des enregistrements ont été effectués en temps réel et pendant une manœuvre de « pull-through » du segment 3D (mobilisation successive du cathéter de 5 mm, pour que le segment 3D se déplace le long de la JOG). Les mesures de la longueur du SOI et la détermination du RIP ont été réalisées. La longueur de la JOG a été mesurée lors du « pull-through » en utilisant 4 capteurs du segment 3D dispersés radialement et les marges de la JOG ont été définies par une augmentation de la pression de 2 mmHg par rapport à la pression gastrique ou de l’œsophage. Pour le calcul en temps réel, les limites distale et proximale de la JOG ont été définies par une augmentation de pression circonférentielle de 2 mmHg par rapport à la pression de l'estomac. Le RIP a été déterminée, A) dans le mode de tracé conventionnel avec la méthode du « pull-through » [le RIP est la valeur moyenne de 4 mesures] et B) en position fixe, dans le mode de représentation topographique de la pression de l’œsophage, en utilisant l’outil logiciel pour déterminer le point d'inversion de la pression (PIP). Pour l'étude de la relaxation de la JOG lors de la déglutition, 25 volontaires ont été étudiés et ont subi 3 études de manométrie (10 déglutitions de 5ml d’eau) en position couchée avec un cathéter HRM standard et un cathéter 3D-HRM. Avec la 3D-HRM, l’analyse a été effectuée une fois avec le segment 3D et une fois avec une partie non 3D du cathéter (capteurs standard de HRM). Ainsi, pour chaque individu, l'IRP a été calculée de quatre façons: 1) avec la méthode conventionnelle en utilisant le cathéter HRM standard, 2) avec la méthode conventionnelle en utilisant le segment standard du cathéter 3D-HRM, 3) avec la méthode conventionnelle en utilisant le segment « 3D » du cathéter 3D-HRM, et 4) avec le nouveau paradigme (3D eSleeve) qui recueille la pression minimale de chaque niveau de capteurs (segment 3D). Quatorze autres sujets ont subi une vidéofluoroscopie simultanée à l’étude de manométrie avec le cathéter 3D-HRM. Les données de pression ont été exportés vers MATLAB ™ et quatre pressions ont été mesurées simultanément : 1) la pression du corps de l’œsophage, 2cm au-dessus de la JOG, 2) la pression intragastrique, 3) la pression radiale moyenne de la JOG (pression du eSleeve) et 4) la pression de la JOG en utilisant la pression minimale de chaque niveau de capteurs (pression du 3D eSleeve). Ces données ont permis de déterminer le temps permissif d'écoulement du bolus (FPT), caractérisé par la période au cours de laquelle un gradient de pression existe à travers la JOG (pression œsophagienne > pression de relaxation de la JOG > pression gastrique). La présence ou l'absence du bolus en vidéofluoroscopie et le FPT ont été codés avec des valeurs dichotomiques pour chaque période de 0,1 s. Nous avons alors calculé la sensibilité et la spécificité correspondant à la valeur du FPT pour la pression du eSleeve et pour la pression du 3D eSleeve, avec la vidéofluoroscopie pour référence. Résultats : Les enregistrements avec la 3D-HRM laissent suggérer que la longueur du sphincter évaluée avec la méthode du « pull-through » était grandement exagéré en incorporant dans la mesure du SOI les signaux de pression extrinsèques à l’œsophage, asymétriques et attribuables aux piliers du diaphragme et aux structures vasculaires. L’enregistrement en temps réel a permis de constater que les principaux constituants de la pression de la JOG au repos étaient attribuables au diaphragme. L’IRP calculé avec le nouveau paradigme 3D eSleeve était significativement inférieur à tous les autres calculs d'IRP avec une limite supérieure de la normale de 12 mmHg contre 17 mmHg pour l’IRP calculé avec la HRM standard. La sensibilité (0,78) et la spécificité (0,88) du 3D eSleeve étaient meilleurs que le eSleeve standard (0,55 et 0,85 respectivement) pour prédire le FPT par rapport à la vidéofluoroscopie. Discussion et conclusion : Nos observations suggèrent que la 3D-HRM permet l'enregistrement en temps réel des attributs de la JOG, facilitant l'analyse des constituants responsables de sa fonction au repos en tant que barrière antireflux. La résolution spatiale axiale et radiale du segment « 3D » pourrait permettre de poursuivre cette étude pour quantifier les signaux de pression de la JOG attribuable au SOI et aux structures extrinsèques (diaphragme et artéfacts vasculaires). Ces attributs du cathéter 3D-HRM suggèrent qu'il s'agit d'un nouvel outil prometteur pour l'étude de la physiopathologie du RGO. Au cours de la déglutition, nous avons évalué la faisabilité d’améliorer la mesure de l’IRP en utilisant ce nouveau cathéter de manométrie 3D avec un nouveau paradigme (3D eSleeve) basé sur l’utilisation de la pression radiale minimale à chaque niveau de capteurs de pression. Nos résultats suggèrent que cette approche est plus précise que celle de la manométrie haute résolution standard. La 3D-HRM devrait certainement améliorer la précision des mesures de relaxation de la JOG et cela devrait avoir un impact sur la recherche pour modéliser la JOG au cours de la déglutition et dans le RGO.
Resumo:
Les modèles animaux d’arthrose sont utilisés sur le rat depuis des décennies pour évaluer l’efficacité analgésique de nombreux composés. Cependant, la méthodologie utilisée, en particulier les protocoles d’évaluation de la douleur, est très différente d’une étude à une autre, rendant difficile la comparaison entre chaque projet. Afin d'améliorer le transfert des résultats précliniques vers la recherche clinique, ce projet propose d'établir un protocole d'évaluation de la douleur fiable et pertinent, et de le valider à l’aide du modèle d’arthrose expérimental le plus populaire, soit l’injection intra-articulaire de mono-iodoacétate de sodium (MIA). La répétabilité et la fiabilité inter-évaluateur de diverses méthodes d’évaluation de la douleur ont été évaluées, et le protocole d'acclimatation le plus fiable a été déterminé. Ensuite, les méthodes les plus intéressantes ont été testées pour leur sensibilité à détecter les altérations douloureuses induites par l’injection de MIA, ainsi que leur réponse au traitement analgésique, soit une injection intra-articulaire de lidocaïne. Une période d'acclimatation adéquate associée à un protocole d'évaluation combinant des mesures réflexes, des comportements spontanés ainsi que des tests opérants ont témoigné avec succès des changements douloureux liés à l'injection de MIA. Le test opérant fut la méthode la plus sensible pour détecter l'effet analgésique de la lidocaïne. Cette étude a permis d’établir le protocole d’acclimatation et les méthodes de l’évaluation de la douleur les plus fiables et sensibles. Aussi, il a démontré la pertinence du test opérant pour détecter la composante affective de la douleur chez les rongeurs.
Resumo:
Thèse réalisée en co-tutelle avec l'Université Claude Bernard de Lyon 1, en France.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
La programmation linéaire en nombres entiers est une approche robuste qui permet de résoudre rapidement de grandes instances de problèmes d'optimisation discrète. Toutefois, les problèmes gagnent constamment en complexité et imposent parfois de fortes limites sur le temps de calcul. Il devient alors nécessaire de développer des méthodes spécialisées afin de résoudre approximativement ces problèmes, tout en calculant des bornes sur leurs valeurs optimales afin de prouver la qualité des solutions obtenues. Nous proposons d'explorer une approche de reformulation en nombres entiers guidée par la relaxation lagrangienne. Après l'identification d'une forte relaxation lagrangienne, un processus systématique permet d'obtenir une seconde formulation en nombres entiers. Cette reformulation, plus compacte que celle de Dantzig et Wolfe, comporte exactement les mêmes solutions entières que la formulation initiale, mais en améliore la borne linéaire: elle devient égale à la borne lagrangienne. L'approche de reformulation permet d'unifier et de généraliser des formulations et des méthodes de borne connues. De plus, elle offre une manière simple d'obtenir des reformulations de moins grandes tailles en contrepartie de bornes plus faibles. Ces reformulations demeurent de grandes tailles. C'est pourquoi nous décrivons aussi des méthodes spécialisées pour en résoudre les relaxations linéaires. Finalement, nous appliquons l'approche de reformulation à deux problèmes de localisation. Cela nous mène à de nouvelles formulations pour ces problèmes; certaines sont de très grandes tailles, mais nos méthodes de résolution spécialisées les rendent pratiques.
Resumo:
La prévalence de l’arthrose féline augmente fortement avec l’âge atteignant plus de 80% des chats de plus de 11 ans. L'arthrose induit une douleur chronique s’exprimant par des changements de comportements et une diminution de la mobilité. Il n'existe aucun outil validé pour évaluer la douleur chronique associée à l’arthrose chez le chat. Conséquemment, aucun traitement ciblant cette douleur n’a pu être validé. Notre hypothèse de recherche est que la douleur arthrosique chez le chat induit des handicaps fonctionnels, des changements neurophysiologiques et un état d'hypersensibilité qu'il faut évaluer pour quantifier de manière fiable cette douleur et ses répercussions sur la qualité de vie de l'animal. Nos objectifs étaient 1) de développer des outils adaptés aux chats mesurant les handicaps fonctionnels grâce à des outils cinématiques, cinétiques et de suivi de l'activité motrice ; 2) de caractériser les changements fonctionnels et neurophysiologiques secondaires à la douleur arthrosique et de tester avec ces outils un traitement analgésique à base d'anti-inflammatoire non stéroïdien ; 3) de développer une technique adaptée aux chats pouvant caractériser la présence du phénomène de sensibilisation centrale à l'aide d'une évaluation de la sommation temporelle mécanique ; 4) de tester la possibilité de mesurer le métabolisme glucidique cérébral par tomographie d’émission par positrons comme marqueur des changements supraspinaux secondaires à la chronicisation de la douleur. Grâce au développement d’outils de mesure de douleur chronique objectifs, sensibles et répétables nous avons caractérisé la douleur chez les chats arthrosiques. Ils présentent des signes de boiterie quantifiée par une diminution de l’amplitude de l’articulation ou par une diminution de la force verticale d’appui au sol et une diminution de l’activité motrice quotidienne. Ces deux derniers outils ont permis de démontrer qu’un anti-inflammatoire non stéroïdien (le méloxicam) administré pendant quatre semaines réduit la douleur arthrosique. De plus, grâce au développement de tests sensoriels quantitatifs et à l'utilisation d'imagerie cérébrale fonctionnelle, nous avons démontré pour la première fois que la douleur arthrosique conduisait à des modifications du système nerveux central chez le chat. Particulièrement, les chats arthrosiques développent le phénomène de sensibilisation centrale mis en évidence par un seuil de retrait aux filament de von Frey diminué (mesure réflexe) mais aussi par une facilitation de la sommation temporelle mécanique (mesure tenant compte de la composante cognitive et émotionnelle de la douleur). L'augmentation du métabolisme cérébral dans le cortex somatosensoriel secondaire, le thalamus et la substance grise périaqueducale, souligne aussi l'importance des changements liés à la chronicisation de la douleur. Un traitement analgésique adapté à l’arthrose permettra d’améliorer la qualité de vie des chats atteints, offrira une option thérapeutique valide aux praticiens vétérinaires, et profitera aux propriétaires qui retrouveront un chat actif et sociable. La découverte de l'implication du phénomène de sensibilisation central combiné à l'investigation des changements cérébraux secondaires à la douleur chronique associée à l'arthrose par imagerie fonctionnelle ouvre de nouvelles avenues de recherche chez le chat (développement et/ou validation de traitements adaptés à l'état d'hypersensibilité) et les humains (potentiel modèle naturel de douleur chronique associée à l'arthrose).
Resumo:
Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.
Resumo:
Ce mémoire tente d’établir la position sociale et culturelle de la communauté villageoise du XVᵉ siècle du site Droulers dans l’espace iroquoien du Saint-Laurent. À partir d’une analyse morpho-stylistique de la poterie, et particulièrement les vases décorés au dentelé, ce mémoire examine la variabilité culturelle du site et sa participation au sein de la sphère d’interactions des Iroquoiens du Saint-Laurent. La comparaison des tendances stylistiques de Droulers et des communautés voisines contribue ainsi à cerner la position chronologique ainsi que l’apparentement culturel du site au sein de sa région immédiate et des régions occidentale et centrale. Les caractères stylistiques à la fois conservateurs et progressistes relevés sur le site Droulers lui sont propres et expriment à la fois l’homogénéité du site et une certaine indépendance stylistique au sein de sa région. Sur cette base, nous avons déterminé que l’usage du dentelé n’a pas une valeur chronologique fiable à des fins de sériation dans le cas spécifique de Droulers, mais qu’il peut toutefois servir comme marqueur régional distinctif. Cet attribut ainsi que d’autres tendances régionales significatives nous ont ainsi servi à mieux cerner les similarités stylistiques entre les sites et à déterminer que Droulers s’apparente plus particulièrement aux sites Mandeville et Lanoraie, et dans une moindre mesure au site McIvor. De plus, nous avons pu établir que le site Droulers s’intègre dans un réseau d’interactions complexe, le rapprochant de communautés situées autant à l’Est qu’à l’Ouest le long de la vallée du Saint-Laurent. Finalement, l’ensemble des tendances morpho-stylistiques confirme la position chronologique du site, soit à la fin du XVᵉ siècle, et ce malgré une proportion importante du décor au dentelé, traditionnellement considéré comme une caractéristique des sites plus anciens.
Resumo:
Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.
Resumo:
L’oxyde nitreux (N2O), un puissant gaz à effet de serre (GES) ayant plus de 300 fois le potentiel de réchauffement du dioxyde de carbone (CO2), est produit par des processus microbiens du cycle de l’azote (N). Bien que les eaux de surface continentales soient reconnues comme des sites actifs de transformations de l’azote, leur intégration dans les budgets globaux de N2O comporte de nombreuses incertitudes, dont l’absence des lacs dans ces modèles. Le biome boréal est caractérisé par une des plus grandes densités d’eaux douces au monde, pourtant aucune évaluation exhaustive des émissions aquatiques de N2O n’a à date été conduite dans cette région. Dans la présente étude, nous avons mesuré les concentrations de N2O à travers une large gamme de lacs, rivières, et étangs, dans quatre régions boréales du Québec (Canada), et nous avons calculé les flux eau-air résultants. Les flux nets fluctuent entre -23.1 et 177.9 μmol m-2 J-1, avec une grande variabilité inter-système, inter-régionale, et saisonnière. Étonnamment, 40% des systèmes échantillonnés agissaient en tant que puits de N2O durant l’été, et le réseau d’eaux de surfaces d’une des régions était un net consommateur de N2O. Les concentrations maximales de N2O ont été mesurées en hiver dû à l’accumulation de ce gaz sous la glace. Nous avons estimé que l’émission qui en résulte lors de la fonte des glaces représente 20% des émissions annuelles des eaux douces. Parmi les types d’eaux douces échantillonnées, les lacs sont les principaux responsables du flux aquatique net (jusqu’à 90%), et doivent donc être intégrés dans les budgets globaux de N2O. En se basant sur les données empiriques de la littérature, nous avons éstimé l’émission globale de N2O des eaux douces à 0.78 Tg N (N2O) an-1. Ce chiffre est influencé par les émissions des régions de hautes latitudes (tel que le biome boréal) dont les flux nets varient de positif à négatif constituant -9 à 27 % du total.
Resumo:
Contexte : De manière générale, on considère que le processus de validation d’un instrument de mesure porte sur la validité et la fiabilité. Or, la nature dynamique et évolutive de certaines problématiques, comme la stigmatisation des personnes vivant avec le VIH (PVVIH), laisse croire qu’il est particulièrement important de réinvestir rapidement dans la pratique, les résultats produits par les mesures ainsi validées. Objectifs : La présente thèse vise à développer et valider une échelle de mesure des attitudes stigmatisantes envers les PVVIH en intégrant un dispositif participatif. La thèse utilise en partie les données d’une enquête de surveillance des attitudes envers les PVVIH au Québec, elle comporte trois études qui répondent aux trois objectifs spécifiques suivants : (1) valider la version révisée d’un instrument de mesure des attitudes favorables à la stigmatisation dans la population générale du Québec envers les PVVIH; (2) analyser la relation entre la mesure des attitudes favorables à la stigmatisation et le recours au dépistage du VIH dans la population générale du Québec; (3) décrire et analyser les processus de circulation et d’utilisation des connaissances produites par l’instrument de mesure dans les réseaux professionnels des membres d’un comité consultatif. Méthodes : Un comité consultatif réunissant plusieurs partenaires issus de différents milieux a été constitué dès l’obtention de la subvention. Il a été consulté et informé avant, pendant et après l’enquête téléphonique populationnelle (n=1500) ayant permis de colliger les données. L’Échelle des Attitudes Stigmatisantes envers les Personnes Vivant avec le VIH (EASE-PVVIH) a été validée au moyen de plusieurs analyses psychométriques : analyses factorielles exploratoires et confirmatives, corrélations, régression linéaire multiple, test-t, tests d’hypothèses d’invariance de la structure factorielle et alphas de Cronbach (objectif 1). L’association entre les attitudes favorables à la stigmatisation et le recours au dépistage du VIH a été testée à l’aide de régressions logistiques hiérarchiques (objectif 2). Quant aux processus de circulation et d’utilisation des connaissances dans les réseaux professionnels, ils ont été analysés au moyen d’une étude de cas rétrospective (objectif 3). Résultats : Les analyses ont révélé trois résultats importants. Premièrement, d’un point de vue psychométrique, l’EASE-PVVIH est un outil fiable et valide pour mesurer les attitudes stigmatisantes envers les personnes vivant avec le VIH. Deuxièmement, sous une certaine forme caractérisée par l’inquiétude éprouvée lors de rencontres occasionnelles, les attitudes stigmatisantes par rapport aux personnes vivant avec le VIH semblent nuire au recours au test de dépistage dans la population générale au Québec. Troisièmement, un dispositif participatif en particulier, soit un comité consultatif, semble être un moyen pour favoriser le réinvestissement rapide et étendre la portée des résultats produits par la recherche dans des actions concrètes de santé publique. Conclusion : Ces résultats mettent en lumière la portée d’un dispositif participatif pour la validation d’instrument de mesure. L’arrimage entre les préoccupations scientifiques et pratiques apparaît être une avenue prometteuse pour améliorer la qualité et la pertinence sociale des données produites par les mesures.
Resumo:
Ce mémoire vise à retracer les carrières des escortes indépendantes montréalaises et les tensions qui les traversent, afin de rendre compte de la complexité du « drame social » que constitue cette activité. Nos résultats montrent que cette profession présente de nombreuses similarités avec d’autres professions, en même temps que sa position particulière dans une matrice sociale stigmatisante et dans une relation de service intime lui confère toute sa singularité. Partie de la question « Comment commence-t-on et poursuit-on dans l’activité d’escorte, alors que celle-ci est stigmatisée ? », nous avons réalisé une enquête de terrain auprès d’escortes indépendantes, composée essentiellement de sept entrevues approfondies et de l’observation de leur environnement professionnel informatisé. Nous avons décidé de nous écarter du débat actuel, tant scientifique que militant, qui divise sur le sujet du travail du sexe. Notre cadre conceptuel est, dans un perspective interactionniste, à la croisée des sociologies des professions, de la déviance et du stigmate. Nous rendons compte de nos résultats sous la forme de quatre actes, afin de poursuivre la métaphore théâtrale engagée par Hughes, qui suivent les étapes d’une carrière d’escorte et qui mettent l’accent sur leur complexité intrinsèque. Ces étapes sont ancrées dans une ambivalence entre un effort de professionnalisation de leur pratique et une tentative de rester dans la norme en se distanciant de cette activité. Cette ambivalence, causée par la matrice sociale dans laquelle évoluent ces escortes et à l’intimité des relations de service, contribue à la pérennité de la stigmatisation de cette activité.
Resumo:
L'épaule est souvent affectée par des troubles musculo-squelettiques. Toutefois, leur évaluation est limitée à des mesures qualitatives qui nuisent à la spécificité et justesse du diagnostic. L'analyse de mouvement tridimensionnel pourrait complémenter le traitement conventionnel à l'aide de mesures quantitatives fonctionnelles. L'interaction entre les articulations de l'épaule est estimée par le rythme scapulo-huméral, mais la variabilité prononcée qu'il affiche nuit à son utilisation clinique. Ainsi, l'objectif général de cette thèse était de réduire la variabilité de la mesure du rythme scapulo-huméral. L'effet de la méthode de calcul du rythme scapulo-huméral et des conditions d'exécution du mouvement (rotation axiale du bras, charge, vitesse, activité musculaire) ont été testées. La cinématique des articulations de l'épaule a été calculé par chaîne cinématique et filtre de Kalman étendu sur des sujets sains avec un système optoélectronique. La méthode usuelle de calcul du rythme scapulo-huméral extrait les angles d'élévation gléno-humérale et de rotation latérale scapulo-thoracique. Puisque ces angles ne sont pas co-planaires au thorax, leur somme ne correspond pas à l'angle d'élévation du bras. Une nouvelle approche de contribution articulaire incluant toutes les rotations de chaque articulation est proposée et comparée à la méthode usuelle. La méthode usuelle surestimait systématiquement la contribution gléno-humérale par rapport à la méthode proposée. Ce nouveau calcul du rythme scapulo-huméral permet une évaluation fonctionnelle dynamique de l'épaule et réduit la variabilité inter-sujets. La comparaison d'exercices de réadaptation du supra-épineux contrastant la rotation axiale du bras a été réalisée, ainsi que l'effet d'ajouter une charge externe. L'exercice «full-can» augmentait le rythme scapulo-huméral et la contribution gléno-humérale ce qui concorde avec la fonction du supra-épineux. Au contraire, l'exercice «empty-can» augmentait la contribution scapulo-thoracique ce qui est associé à une compensation pour éviter la contribution gléno-humérale. L'utilisation de charge externe lors de la réadaptation du supra-épineux semble justifiée par un rythme scapulo-huméral similaire et une élévation gléno-humérale supérieure. Le mouvement de l'épaule est souvent mesuré ou évalué en condition statique ou dynamique et passive ou active. Cependant, l'effet de ces conditions sur la coordination articulaire demeure incertain. La comparaison des ces conditions révélait des différences significatives qui montrent l'importance de considérer les conditions de mouvement pour l'acquisition ou la comparaison des données.
Resumo:
Nurse Managers need today more than ever instruments that can be used to justify the billions of dollars that are invested in the healthcare sector annually. The objective of the study was to establish the validity and reliability of the Nursing Intensity Critical Care Questionnaire (NICCQ) in a cardiac surgery intensive care unit (CSICU) of a tertiary hospital. An expert panel evaluated the questionnaire’s content validity while generalizability theory was used to estimate the G and D coefficients. Decision studies enabled the investigators to determine if the current ward functioning of having one nurse rate one patient is adequate. Also, exploratory factorial analyses (EFA) preceded by principal component analyses (PCA) looked at establishing the factorial structure for the NICCQ. Finally, the NICCQ was correlated with a severity of illness score known as the Acute Physiology And Chronic Health Evaluation II (APACHE II) to estimate the correlation between patient illness and nursing intensity of care. The NICCQ was used by nurses using a sample of patients who had undergone cardiac surgery and were hospitalized on a CSICU of a tertiary teaching hospital. A convenience sample of nurses and patients on the CSICU was used to reflect the procedures and usual functioning of the unit. Each item on the questionnaire measured nursing intensity of care using a three point ordinal scale (Light, Moderate, and Severe) for the first 11 items, and a five point ordinal scale for the global assessment item (including the intermediate categories light/moderate and moderate/severe). The questionnaire proved to be both valid and able to be generalized to all nurses working in the CSICU. Overall results showed that 94.4% of the item generalizability coefficients indicated acceptable to excellent reliability, with most (86.1%) being larger than .90. The EFA established a simple 4 factor structure that explained little of the variance (32%). A correlation coefficient of 0.36 indicated that patient’ severity of illness is somewhat correlated with nursing intensity of care. The study showed that the NICCQ is a valid questionnaire with a generalizability coefficient that is large enough to be used by nurses’ managers for administrative purposes. Further research using larger samples would be needed to further test the factor structure of the NICCQ.