12 resultados para Plug Flow With Axial Dispersion Model
em Université de Montréal, Canada
Resumo:
Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.
Resumo:
Lors du phénomène d’hémostase primaire ou de thrombose vasculaire, les plaquettes sanguines doivent adhérer aux parois afin de remplir leur fonction réparatrice ou pathologique. Pour ce faire, certains facteurs rhéologiques et hémodynamiques tels que l’hématocrite, le taux de cisaillement local et les contraintes de cisaillement pariétal, entrent en jeu afin d’exclure les plaquettes sanguines de l’écoulement principal et de les transporter vers le site endommagé ou enflammé. Cette exclusion pourrait aussi être influencée par l’agrégation de globules rouges qui est un phénomène naturel présent dans tout le système cardiovasculaire selon les conditions d’écoulement. La dérive de ces agrégats de globules rouges vers le centre des vaisseaux provoque la formation de réseaux d’agrégats dont la taille et la complexité varient en fonction de l’hématocrite et des conditions de cisaillement présentes. Il en résulte un écoulement bi-phasique avec un écoulement central composé d’agrégats de globules rouges avoisinés par une région moins dense en particules où l’on peut trouver des globules rouges singuliers, des petits rouleaux de globules rouges et une importante concentration en plaquettes et globules blancs. De ce fait, il est raisonnable de penser que plus la taille des agrégats qui occupent le centre du vaisseau augmente, plus il y aura de plaquettes expulsées vers les parois vasculaires. L'objectif du projet est de quantifier, in vitro, la migration des plaquettes sanguines en fonction du niveau d’agrégation érythrocytaire présent, en faisant varier l’hématocrite, le taux de cisaillement et en promouvant l’agrégation par l’ajout d’agents tels que le dextran à poids moléculaire élevé. Cependant, le comportement non Newtonien du sang dans un écoulement tubulaire peut être vu comme un facteur confondant à cause de son impact sur l’organisation spatiale des agrégats de globules rouges. De ce fait, les études ont été réalisées dans un appareil permettant de moduler, de façon homogène, la taille et la structure de ces agrégats et de quantifier ainsi leur effet sur la migration axiale des plaquettes. Du sang de porc anti coagulé a été ajusté à différents taux d’hématocrite et insérer dans un appareil à écoulement de Couette, à température ambiante. Les plaquettes sanguines, difficilement isolables in vitro sans en activer certains ligands membranaires, ont été remplacées par des fantômes en polystyrène ayant un revêtement de biotine. La quantification de la migration de ces fantômes de plaquettes a été réalisée grâce à l’utilisation de membranes biologiques fixées sur les parois internes de l’entrefer du rhéomètre de Couette. Ces membranes ont un revêtement de streptavidine assurant une très forte affinité d’adhésion avec les microparticules biotynilées. À 40% d’hématocrite, à un cisaillement de 2 s-1, 566 ± 53 microparticules ont été comptées pour un protocole préétabli avec du sang non agrégeant, comparativement à 1077 ± 229 pour du sang normal et 1568 ± 131 pour du sang hyper agrégeant. Les résultats obtenus suggèrent une nette participation de l’agrégation érythrocytaire sur le transport des fantômes de plaquettes puisque l’adhésion de ces derniers à la paroi du rhéomètre de Couette augmente de façon quasi exponentielle selon le niveau d’agrégation présent.
Resumo:
Cette thèse présente une série d'études qui visent la compréhension de la structure électronique de complexes de métaux de transition en employant diverses méthodes de spectroscopie. L'information sur la structure électronique aide à comprendre et développer des nouveaux matériaux, des nouvelles voies de synthèses, ainsi que des nouveaux modèles théoriques. Habituellement, afin d'explorer la structure électronique d'un système qui comporte en son centre un métal de transition, l'information fournie par les spectres d'un seul composé n'est pas suffisante. On étudie une série de composés similaires, qui ont le même métal de transition à un degré d'oxydation donné, ainsi que des ligands qui forment des liaisons de différentes forces et caractéristiques avec le métal. Cependant, ces changements, bien qu'on les désire de faible impact, créent une grande perturbation de la structure électronique visée par les études. Afin d'étudier en profondeur une seule structure électronique, nous employons une stratégie d'analyse moins perturbante. Nous appliquons une pression hydrostatique sur les complexes de métaux de transition. Cette pression perturbe le système suffisamment pour nous livrer davantage d'informations sur la structure électronique, sans la « dénaturer ». Afin d'étudier précisément ces systèmes perturbés, la technique d'application de pression est conjuguée, dans la littérature, aux diverses techniques de spectroscopie d'absorption UV-visible, de luminescence, ainsi que de diffusion Raman. Pour extraire un maximum d'informations de ces expériences, on emploie des techniques de calculs de structure électronique ainsi que de dynamique des noyaux. Dans cette thèse, on tente de mettre en lumière la structure électronique de composés de molybdène(IV), de platine(II) et palladium(II) à l'aide de la technique de pression couplée aux spectroscopies de luminescence et de diffusion Raman. Dans le chapitre 3, on observe un déplacement de la bande de luminescence de +12 cm-1/kbar entre la pression ambiante et 25 kbar pour le complexe trans-[MoOCl(CN-t-Bu)4]BPh4, dont le centre métallique molybdène(IV)est de configuration électronique 4d2. Il s'agit de la première variation positive observée pour un complexe de type métal-oxo. À des pressions plus élevées, la tendance s'inverse. Le maximum d'énergie de la bande de luminescence se déplace de -8 cm-1/kbar. Ce changement de variation présage d'une compétition interne entre les ligands situés sur les différents axes de l'octaèdre. À l'aide de calculs basés sur la théorie de la fonctionnelle de la densité, on propose un mécanisme pour expliquer ce phénomène. Au cours du chapitre 4, on étudie des complexes de palladium(II) et de platine(II) qui ont les mêmes ligands. Un de ces ligands est le 1,4,7-trithiacyclononane (ttcn). On constate qu'à basse pression le ligand est bidentate. Par contre, lorsque la pression augmente, on constate, par exemple à l'aide du complexe [Pt(ttcn)Cl2], qu'une interaction anti-liante supplémentaire se produit entre le ligand ttcn et le métal, ce qui change la nature de l'orbitale HOMO. On observe un déplacement de la bande de luminescence de -19 cm-1/kbar. Tel que pour le complexe de molybdène(IV), le déplacement de la bande de luminescence dépend de la compétition entre les ligands situés sur les différents axes de l'octaèdre. L'interaction liante entre l'ion platine(II) et l'atome de soufre axial est l'effet le plus plausible qui peut induire un déplacement de la bande de luminescence vers les basses énergies. Ceci nous indique que cette interaction domine. Par contre, pour ce qui est du complexe palladium(II), la compétition est remportée par d'autres effets, car le déplacement de la bande de luminescence est de +6 cm-1/kbar. Encore une fois, des calculs, basés sur la théorie de la fonctionnelle de la densité, aident à explorer les causes de ces observations en suggérant des explications corroborées simultanément par les diverses expériences de spectroscopie. Lors du chapitre 5, une étude plus exacte de la structure électronique ainsi que de la dynamique des noyaux de complexes de métaux de transition est présentée. En effet, les complexes de palladium(II) et de platine(II), de type [M(X)4]2-, ont une structure simple, très symétrique. Le premier état excité de ces molécules subit la distorsion Jahn-Teller. On veut établir un protocole de travail pour les expérimentateurs afin d'analyser des spectres de molécules pour lesquelles l'approximation de Born-Oppenheimer n'est pas valide. On utilise la théorie de la fonctionnelle de la densité dépendante du temps ainsi que le modèle de Heidelberg afin de décrire des effets non adiabatique. On tente d'établir l'influence des effets non adiabatiques sur les spectres de ce type de complexe.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
La thèse examine les liens entre la vision pluraliste de la science et l’éthique de la médecine tibétaine et les nouvelles pratiques en médecine occidentale, soit la longévité et la recherche sur la génétique amélioratrice. Elle cherche à cerner l’apport que la médecine tibétaine peut apporter aux recherches occidentales sur la longévité et la génétique humaine amélioratrice. Elle traite donc d’un enjeu social clé et du débat qui s’y rattache. La découverte et la description sont centrales à la méthodologie et informent l’analyse. Nous avons examiné dans un premier temps, les travaux de recherche sur la longévité reliée à la génétique amélioratrice (mémoire et muscles). Nous nous sommes penchés également sur les fondements de la médecine tibétaine en tant que système intégré. Pour ce faire, nous avons traité des notions telles que la santé, l’identité, la perfection et l’immortalité. Notre cadre conceptuel repose sur la théorie bouddhiste de l’interdépendance qui se caractérise par la formulation de catégories qui ensuite sont synthétisées dans l’essence; les deux niveaux d’interprétation de la théorie sont décrits en détail avant de passer à une comparaison avec la notion de complexité occidentale. La médecine tibétaine de fait présente un système où l’éthique et la science sont intégrées et se prête bien à une comparaison avec la vision pluraliste de la science à partir d’une perspective éthique/bioéthique. Les commentaires recueillis auprès des experts nous ont permis de cerner comment la science, l’éthique et l’amélioration de la longévité sont définies au sein des deux paradigmes de l’Est et de l’Ouest. Nos résultats montrent six points qui se dégagent au terme de cette recherche permettent de jeter un pont sur la vision pluraliste de ces paradigmes. Ceux-ci transcendent les points de vue doctrinaux individuels de religions ainsi que du monde scientifique occidental. Plus que tout, ils laissent entrevoir un cadre de références novatrices qui contribuera à la prise de décision à l’égard de questionnements bioéthiques.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Cette étude a pour but de tester si l’ajout de variables biomécaniques, telles que celles associées à la morphologie, la posture et l’équilibre, permet d’améliorer l’efficacité à dissocier 29 sujets ayant une scoliose progressive de 45 sujets ayant une scoliose non progressive. Dans une étude rétrospective, un groupe d’apprentissage (Cobb: 27,1±10,6°) a été utilisé avec cinq modèles faisant intervenir des variables cliniques, morphologiques, posturales et d’équilibre et la progression de la scoliose. Un groupe test (Cobb: 14,2±8,3°) a ensuite servit à évaluer les modèles dans une étude prospective. Afin d’établir l’efficacité de l’ajout de variables biomécaniques, le modèle de Lonstein et Carlson (1984) a été utilisé à titre d’étalon de mesures. Le groupe d’apprentissage a été utilisé pour développer quatre modèles de classification. Le modèle sans réduction fut composé de 35 variables tirées de la littérature. Dans le modèle avec réduction, une ANCOVA a servit de méthode de réduction pour passer de 35 à 8 variables et l’analyse par composantes principales a été utilisée pour passer de 35 à 7 variables. Le modèle expert fut composé de huit variables sélectionnées d’après l’expérience clinque. L’analyse discriminante, la régression logistique et l’analyse par composantes principales ont été appliquées afin de classer les sujets comme progressifs ou non progressifs. La régression logistique utilisée avec le modèle sans réduction a présenté l’efficience la plus élevée (0,94), tandis que l’analyse discriminante utilisée avec le modèle expert a montré l’efficience la plus faible (0,87). Ces résultats montrent un lien direct entre un ensemble de paramètres cliniques et biomécaniques et la progression de la scoliose idiopathique. Le groupe test a été utilisé pour appliquer les modèles développés à partir du groupe d’apprentissage. L’efficience la plus élevée (0,89) fut obtenue en utilisant l’analyse discriminante et la régression logistique avec le modèle sans réduction, alors que la plus faible (0,78) fut obtenue en utilisant le modèle de Lonstein et Carlson (1984). Ces valeurs permettent d’avancer que l’ajout de variables biomécaniques aux données cliniques améliore l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Afin de vérifier la précision des modèles, les aires sous les courbes ROC ont été calculées. L’aire sous la courbe ROC la plus importante (0,93) fut obtenue avec l’analyse discriminante utilisée avec le modèle sans réduction, tandis que la plus faible (0,63) fut obtenue avec le modèle de Lonstein et Carlson (1984). Le modèle de Lonstein et Carlson (1984) n’a pu séparer les cas positifs des cas négatifs avec autant de précision que les modèles biomécaniques. L’ajout de variables biomécaniques aux données cliniques a permit d’améliorer l’efficacité de la dissociation entre des sujets scoliotiques progressifs et non progressifs. Ces résultats permettent d’avancer qu’il existe d’autres facteurs que les paramètres cliniques pour identifier les patients à risque de progresser. Une approche basée sur plusieurs types de paramètres tient compte de la nature multifactorielle de la scoliose idiopathique et s’avère probablement mieux adaptée pour en prédire la progression.
Resumo:
La tolérance orale permet la modulation de la réponse immunitaire à l’égard des antigènes exogènes présents dans la lumière intestinale. Essentiels à l’établissement d’une relation symbiotique entre le système immunitaire et la flore intestinale, l’induction et le maintien de la tolérance orale reposent sur différents mécanismes immunologiques. Parmi eux, l’induction de cellules T régulatrices par les cellules dendritiques et de mécanismes apoptotiques. Or, la glycoprotéine membranaire CD47 est impliquée, en périphérie, dans ces mécanismes. Cependant, le rôle de CD47 dans la tolérance orale n’est pas connu. À l’aide d’un modèle murin déficient en CD47, nous avons démontré principalement, que l’absence de CD47 est associée à une diminution de 50 % de la proportion de cellules dendrites myéloïdes CD11b+CD103- retrouvées dans les ganglions mésentériques. Suite au transfert adoptif de cellules T antigènes spécifiques dans nos différents modèles expérimentaux, on a, aussi, observé une diminution de 45 % de leur niveau d’activation dans les ganglions mésentériques. Malgré les effets observés, le CD47 n’est pas impliqué dans l’induction d’une réaction de tolérance orale secondaire à l’administration intragastrique de fortes doses d’ovalbumine. Cependant, nous avons démontré que CD47 est impliquée au niveau de la migration des cellules dendritiques de la peau et de certaines sous-populations retrouvées dans les ganglions mésentériques.
Resumo:
La prise optimale d’un traitement antirétroviral est la clé du succès de ces traitements. Cette prise devrait être d’au moins 95 % des médicaments antirétroviraux prescrits afin de supprimer à long terme la réplication virale et donc de restaurer et de préserver la fonction immunologique. Cependant, les personnes vivant avec le virus de l’immunodéficience humaine (PVVIH) éprouvent des difficultés à adopter et à maintenir ce niveau de prise dans le temps. Bien que certaines interventions aient démontré leur capacité à faciliter ce comportement, au Québec il n’y a pas d’intervention systématique pour soutenir ces personnes dans la prise quotidienne de ces traitements. Le but de cette étude était donc de développer et d’évaluer une intervention pour faciliter le comportement de prise optimale d’un traitement antirétroviral chez des personnes vivant avec le VIH. Pour guider le développement de l’intervention, la démarche appelée « intervention mapping » a été suivie. Le cadre théorique proposé par Godin et ses collègues (2005) qui inclut le sentiment d’efficacité personnelle et les attitudes positives face à la prise optimale d’un traitement antirétroviral a été ainsi utilisé non seulement pour prédire et expliquer le comportement de prise, mais aussi pour élaborer l’intervention. Selon ce modèle, le soutien social, la satisfaction envers les professionnels et le fait de ne pas ressentir d’effets indésirables sont autant de facteurs modifiables associés au sentiment d’efficacité personnelle et aux attitudes positives. L’intervention développée visait l’acquisition et la mobilisation des habiletés nécessaires pour influencer ces facteurs en vue de rehausser le sentiment d’efficacité personnelle et les attitudes positives ainsi que pour faciliter ce comportement. Cette intervention comportait quatre rencontres d’une durée de 45 à 75 minutes, s’échelonnant sur 12 semaines, avec une infirmière iii possédant une expertise en VIH. L’évaluation de l’effet de cette intervention sur le comportement et les variables explicatives a été effectuée à l’aide d’un essai clinique avec répartition aléatoire. La principale variable résultat a été mesurée à l’aide d’un questionnaire autoadministré, de la charge virale et du nombre de CD4. Autant la variable résultat principale que les variables explicatives ont été mesurées avant l’intervention et après celle-ci, soit à 12 et 24 semaines. L’échantillon était constitué de 51, personnes vivant avec le VIH et suivies dans une clinique à Montréal : 23 dans le groupe contrôle et 28 dans le groupe expérimental. Des analyses de variance (ANOVA) à mesures répétées ont été réalisées afin d’analyser l’effet de l’intervention sur la prise optimale d’un traitement antirétroviral et les autres variables intermédiaires dans le temps. Les résultats montrent une tendance positive (p = 0,056) quant à l’obtention d’une charge virale indétectable dans le groupe intervention. Ainsi, 43,8 % plus de personnes du groupe expérimental comparativement au groupe contrôle (78,6 % versus 34,8 %) avaient une charge virale indétectable à 12 semaines et 32,8 % de plus à 24 semaines (89,3 % versus 56,5 %). Bien qu’aucun effet significatif ait été trouvé en regard des variables explicatives, probablement à cause d’un manque de puissance statistique, les légères augmentations observées dans le groupe expérimental sont cohérentes avec le modèle théorique utilisé (Godin & al., 2005). Cette étude contribue à l’avancement des connaissances en proposant une intervention pour faciliter la prise optimale d’un traitement antirétroviral chez des personnes vivant avec le VIH.
Resumo:
Thèse réalisée en cotutelle avec la Freie Universität Berlin. La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Ce mémoire s’inscrit dans le domaine de l’architecture du paysage et du design urbain. La recherche se construit autour d’un questionnement sur le sens pouvant être attribué au parc La Fontaine par ses usagers en tant que cadre de vie urbain montréalais. Ce parc est un lieu emblématique de la ville par le caractère historique de son aménagement. Il est aussi un lieu populaire par sa situation géographique centrale au sein de l’arrondissement du Plateau-Mont-Royal. Par l’analyse de ce parc, nous cherchons à porter un regard sur la manière dont se construit l’expérience d’un parc urbain dans les particularités de son aménagement, de son contexte social et culturel. Notre étude semble pertinente dans la mesure où cet espace n’a jamais été abordé selon l’analyse de l’expérience paysagère. Notre réflexion se construit à partir d’un modèle socioculturel soutenu par une revue de littérature en architecture de paysage. Les travaux menés à la Chaire en paysage et environnement de l’Université de Montréal ont particulièrement été sollicités. Ce modèle considère le paysage comme une qualification sociale et culturelle d’un territoire. Il engage l’analyse vers des perspectives pluridimensionnelle, expérientielle et polysensorielle, tout en considérant le caractère formel (attributs physiques) du paysage. Nous avons également joint à ce cadre théorique les recherches menées en design et en anthropologie des sens. Ces axes de recherche éclairent les notions de l’expérience esthétique et sensorielle particulièrement en regard de la compréhension du vécu d’un espace ordinaire et quotidien. Selon ce cadre conceptuel, notre recherche fait appel à une approche compréhensive. Ainsi, nous abordons l’expérience du parc par un modèle d’analyse mettant l’emphase sur les usages, l’interprétation et la représentation de l’aménagement du parc La Fontaine. La méthodologie s’appuie sur une démarche de recherche qualitative. Elle se fonde sur une observation non participante des usagers du parc, sur des entretiens semi-dirigés et sur une étude physico-spatiale du lieu. Ce mémoire a pour finalité de conduire une première lecture du parc La Fontaine en abordant les dimensions composant le vécu de ses usagers. Nous espérons pouvoir contribuer à notre échelle à l’avancée des connaissances de cet espace du point de vue expérientiel et de la perspective paysagère sur la compréhension des parcs urbains.
Resumo:
Nous avons choisi de focaliser nos analyses sur les inégalités sociales de mortalité spécifiquement aux grands âges. Pour ce faire, l'utilisation de l'âge modal au décès combiné à la dispersion des décès au-delà de cet âge s'avère particulièrement adapté pour capter ces disparités puisque ces mesures ne sont pas tributaires de la mortalité prématurée. Ainsi, à partir de la distribution des âges au décès selon le niveau de défavorisation, au Québec au cours des périodes 2000-2002 et 2005-2007, nous avons déterminé l'âge le plus commun au décès et la dispersion des durées de vie au-delà de celui-ci. L'estimation de la distribution des décès selon l'âge et le niveau de défavorisation repose sur une approche non paramétrique de lissage par P-splines développée par Nadine Ouellette dans le cadre de sa thèse de doctorat. Nos résultats montrent que l'âge modal au décès ne permet pas de détecter des disparités dans la mortalité des femmes selon le niveau de défavorisation au Québec en 2000-2002 et en 2005-2007. Néanmoins, on assiste à un report de la mortalité vers des âges plus avancés alors que la compression de la mortalité semble s'être stabilisée. Pour les hommes, les inégalités sociales de mortalité sont particulièrement importantes entre le sous-groupe le plus favorisé et celui l'étant le moins. On constate un déplacement de la durée de vie la plus commune des hommes vers des âges plus élevés et ce, peu importe le niveau de défavorisation. Cependant, contrairement à leurs homologues féminins, le phénomène de compression de la mortalité semble toujours s'opérer.