999 resultados para Tournées de véhicules avec fenêtres de temps


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le neurofeedback (NF) suscite actuellement un vif intérêt dans la prise en charge du trouble déficitaire de l’attention avec hyperactivité (TDAH) chez l’enfant. Proposée comme méthode alternative à la médication par de nombreux cliniciens, notamment aux États-Unis, le NF est une intervention non-invasive de type électrophysiologique qui repose sur l’apprentissage par conditionnement opérant de l’autorégulation d’ondes cérébrales déviantes. Les études empiriques qui étayent cette pratique font toutefois l’objet de virulentes critiques de la part de spécialistes dans le domaine du TDAH en raison de résultats systématiquement positifs mais non spécifiques, auxquels s’ajoutent de nombreuses lacunes méthodologiques. Les travaux de cette thèse visent à appliquer une méthodologie stricte de type essai clinique contrôlé avec assignation aléatoire afin d’isoler les effets particuliers du NF, en appliquant un protocole d’entraînement propre au déficit primaire sous-tendant le TDAH, soit l’inhibition motrice, dans le but d’évaluer la spécificité de cette intervention. Dans un premier temps, les connaissances relatives à la nosologie du TDAH, à ses principaux traitements, au NF et aux capacités d’inhibition chez l’enfant ayant un TDAH sont présentées (Chapitre 1). Ensuite, les études réalisées dans le cadre de cette thèse sont exposées. Dans l’étude initiale, la spécificité du NF est évaluée sur les capacités d’inhibition grâce à des mesures subjectives, soit des questionnaires de comportements complétés par les parents, ainsi que des mesures objectives, à savoir des tâches neuropsychologiques (Chapitre 2). Afin de préciser davantage les conséquences d’un entraînement à l’autorégulation d’ondes cérébrales, l’étude subséquente s’est intéressée à l’impact neurophysiologiques de l’amélioration des capacités d’inhibition, par le biais d’une étude en potentiels évoqués employant une tâche de performance continue de type Stop-signal (Chapitre 3). Les principaux résultats reflètent un recrutement sous optimal, avec une puissance statistique insuffisante pour réaliser des statistiques quantitatives de groupe. Néanmoins, l’appréciation des données selon une approche d’étude de cas multiples permet de mettre en évidence la présence d’une réponse placebo sur les capacités d’inhibition suite à un entraînement en NF. Finalement, les implications de la taille de l’échantillon, ainsi que les limites et les critiques de ces études sont discutées au Chapitre 4.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les chutes chez les personnes âgées représentent un problème majeur. Il n’est donc pas étonnant que l’identification des facteurs qui en accroissent le risque ait mobilisé autant d’attention. Les aînés plus fragiles ayant besoin de soutien pour vivre dans la communauté sont néanmoins demeurés le parent pauvre de la recherche, bien que, plus récemment, les autorités québécoises en aient fait une cible d’intervention prioritaire. Les études d’observation prospectives sont particulièrement indiquées pour étudier les facteurs de risque de chutes chez les personnes âgées. Leur identification optimale est cependant compliquée par le fait que l’exposition aux facteurs de risque peut varier au cours du suivi et qu’un même individu peut subir plus d’un événement. Il y a 20 ans, des chercheurs ont tenté de sensibiliser leurs homologues à cet égard, mais leurs efforts sont demeurés vains. On continue aujourd’hui à faire peu de cas de ces considérations, se concentrant sur la proportion des personnes ayant fait une chute ou sur le temps écoulé jusqu’à la première chute. On écarte du coup une quantité importante d’information pertinente. Dans cette thèse, nous examinons les méthodes en usage et nous proposons une extension du modèle de risques de Cox. Nous illustrons cette méthode par une étude des facteurs de risque susceptibles d’être associés à des chutes parmi un groupe de 959 personnes âgées ayant eu recours aux services publics de soutien à domicile. Nous comparons les résultats obtenus avec la méthode de Wei, Lin et Weissfeld à ceux obtenus avec d’autres méthodes, dont la régression logistique conventionnelle, la régression logistique groupée, la régression binomiale négative et la régression d’Andersen et Gill. L’investigation est caractérisée par des prises de mesures répétées des facteurs de risque au domicile des participants et par des relances téléphoniques mensuelles visant à documenter la survenue des chutes. Les facteurs d’exposition étudiés, qu’ils soient fixes ou variables dans le temps, comprennent les caractéristiques sociodémographiques, l’indice de masse corporelle, le risque nutritionnel, la consommation d’alcool, les dangers de l’environnement domiciliaire, la démarche et l’équilibre, et la consommation de médicaments. La quasi-totalité (99,6 %) des usagers présentaient au moins un facteur à haut risque. L’exposition à des risques multiples était répandue, avec une moyenne de 2,7 facteurs à haut risque distincts par participant. Les facteurs statistiquement associés au risque de chutes incluent le sexe masculin, les tranches d’âge inférieures, l’histoire de chutes antérieures, un bas score à l’échelle d’équilibre de Berg, un faible indice de masse corporelle, la consommation de médicaments de type benzodiazépine, le nombre de dangers présents au domicile et le fait de vivre dans une résidence privée pour personnes âgées. Nos résultats révèlent cependant que les méthodes courantes d’analyse des facteurs de risque de chutes – et, dans certains cas, de chutes nécessitant un recours médical – créent des biais appréciables. Les biais pour les mesures d’association considérées proviennent de la manière dont l’exposition et le résultat sont mesurés et définis de même que de la manière dont les méthodes statistiques d’analyse en tiennent compte. Une dernière partie, tout aussi innovante que distincte de par la nature des outils statistiques utilisés, complète l’ouvrage. Nous y identifions des profils d’aînés à risque de devenir des chuteurs récurrents, soit ceux chez qui au moins deux chutes sont survenues dans les six mois suivant leur évaluation initiale. Une analyse par arbre de régression et de classification couplée à une analyse de survie a révélé l’existence de cinq profils distinctifs, dont le risque relatif varie de 0,7 à 5,1. Vivre dans une résidence pour aînés, avoir des antécédents de chutes multiples ou des troubles de l’équilibre et consommer de l’alcool sont les principaux facteurs associés à une probabilité accrue de chuter précocement et de devenir un chuteur récurrent. Qu’il s’agisse d’activité de dépistage des facteurs de risque de chutes ou de la population ciblée, cette thèse s’inscrit dans une perspective de gain de connaissances sur un thème hautement d’actualité en santé publique. Nous encourageons les chercheurs intéressés par l’identification des facteurs de risque de chutes chez les personnes âgées à recourir à la méthode statistique de Wei, Lin et Weissfeld car elle tient compte des expositions variables dans le temps et des événements récurrents. Davantage de recherches seront par ailleurs nécessaires pour déterminer le choix du meilleur test de dépistage pour un facteur de risque donné chez cette clientèle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sommaire L’oxygène fait partie intégrante de l’environnement et ceci jusqu’au fonctionnement même des structures cellulaires qui composent le corps humain. Deux systèmes sont intimement liés à la distribution de l’oxygène, ce sont les systèmes cardiovasculaire et respiratoire. La transparence du système optique de l’œil peut être exploitée afin de mesurer de façon non invasive la concentration en oxyhémoglobine du sang qui alimente le système nerveux central. L’oxygénation capillaire de l’œil a été mesurée par spectro-réflectométrie dans deux régions de l’œil: d’une part les capillaires de la zone du nerf optique qui représentent principalement la circulation rétinienne; d’autre part, les capillaires du limbe cornéen. Cinq sujets volontaires, non fumeurs, sains, âgés de 20 à 45 ans et cinq sujets volontaires, fumeurs, sains, âgés de 20 à 40 ans ont participé à cette étude. Tous ces sujets ont été exposés à des conditions d’hyper et d’hypo oxygénation. Une séance d’expérimentations était composée d’un enregistrement continu de 360 secondes. Durant la première étape de 60 secondes, le sujet respirait de l’air ambiant. Durant une deuxième étape de 180 secondes, le sujet était exposé soit à une condition d’hyper (60% O2) soit, à une condition d’hypo oxygénation (15% O2), tandis que les 120 dernières secondes de la séance de mesure permettait d’exposer le sujet, une fois de plus à l’air ambiant. Le rythme cardiaque et les changements d’oxygénation artérielle au niveau du doigt étaient mesurés pendant ce temps vec le sphygmo-oxymètre. Les variations du taux d’oxyhémoglobine du sang au niveau capillaire de l’œil (nerf optique ou sclérotique) étaient toujours en corrélation directe avec les variations du taux d’oxyhémoglobine artériel. Toutefois, les capillaires du nerf optique offrent plus de précision pour les mesures d’oxygénation, relativement aux mesures d’oxygénation du sang contenu dans les capillaires de la sclérotique. La précision de la mesure de la concentration d’oxyhémoglobine obtenue dans cette étude par spectro-réflectométrie de l’œil, en fait un instrument utile au diagnostic d’une grande partie des pathologies pulmonaires ou oculaires.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La prise optimale d’un traitement antirétroviral est la clé du succès de ces traitements. Cette prise devrait être d’au moins 95 % des médicaments antirétroviraux prescrits afin de supprimer à long terme la réplication virale et donc de restaurer et de préserver la fonction immunologique. Cependant, les personnes vivant avec le virus de l’immunodéficience humaine (PVVIH) éprouvent des difficultés à adopter et à maintenir ce niveau de prise dans le temps. Bien que certaines interventions aient démontré leur capacité à faciliter ce comportement, au Québec il n’y a pas d’intervention systématique pour soutenir ces personnes dans la prise quotidienne de ces traitements. Le but de cette étude était donc de développer et d’évaluer une intervention pour faciliter le comportement de prise optimale d’un traitement antirétroviral chez des personnes vivant avec le VIH. Pour guider le développement de l’intervention, la démarche appelée « intervention mapping » a été suivie. Le cadre théorique proposé par Godin et ses collègues (2005) qui inclut le sentiment d’efficacité personnelle et les attitudes positives face à la prise optimale d’un traitement antirétroviral a été ainsi utilisé non seulement pour prédire et expliquer le comportement de prise, mais aussi pour élaborer l’intervention. Selon ce modèle, le soutien social, la satisfaction envers les professionnels et le fait de ne pas ressentir d’effets indésirables sont autant de facteurs modifiables associés au sentiment d’efficacité personnelle et aux attitudes positives. L’intervention développée visait l’acquisition et la mobilisation des habiletés nécessaires pour influencer ces facteurs en vue de rehausser le sentiment d’efficacité personnelle et les attitudes positives ainsi que pour faciliter ce comportement. Cette intervention comportait quatre rencontres d’une durée de 45 à 75 minutes, s’échelonnant sur 12 semaines, avec une infirmière iii possédant une expertise en VIH. L’évaluation de l’effet de cette intervention sur le comportement et les variables explicatives a été effectuée à l’aide d’un essai clinique avec répartition aléatoire. La principale variable résultat a été mesurée à l’aide d’un questionnaire autoadministré, de la charge virale et du nombre de CD4. Autant la variable résultat principale que les variables explicatives ont été mesurées avant l’intervention et après celle-ci, soit à 12 et 24 semaines. L’échantillon était constitué de 51, personnes vivant avec le VIH et suivies dans une clinique à Montréal : 23 dans le groupe contrôle et 28 dans le groupe expérimental. Des analyses de variance (ANOVA) à mesures répétées ont été réalisées afin d’analyser l’effet de l’intervention sur la prise optimale d’un traitement antirétroviral et les autres variables intermédiaires dans le temps. Les résultats montrent une tendance positive (p = 0,056) quant à l’obtention d’une charge virale indétectable dans le groupe intervention. Ainsi, 43,8 % plus de personnes du groupe expérimental comparativement au groupe contrôle (78,6 % versus 34,8 %) avaient une charge virale indétectable à 12 semaines et 32,8 % de plus à 24 semaines (89,3 % versus 56,5 %). Bien qu’aucun effet significatif ait été trouvé en regard des variables explicatives, probablement à cause d’un manque de puissance statistique, les légères augmentations observées dans le groupe expérimental sont cohérentes avec le modèle théorique utilisé (Godin & al., 2005). Cette étude contribue à l’avancement des connaissances en proposant une intervention pour faciliter la prise optimale d’un traitement antirétroviral chez des personnes vivant avec le VIH.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans cette thèse, nous proposons de nouveaux résultats de systèmes superintégrables séparables en coordonnées polaires. Dans un premier temps, nous présentons une classification complète de tous les systèmes superintégrables séparables en coordonnées polaires qui admettent une intégrale du mouvement d'ordre trois. Des potentiels s'exprimant en terme de la sixième transcendante de Painlevé et de la fonction elliptique de Weierstrass sont présentés. Ensuite, nous introduisons une famille infinie de systèmes classiques et quantiques intégrables et exactement résolubles en coordonnées polaires. Cette famille s'exprime en terme d'un paramètre k. Le spectre d'énergie et les fonctions d'onde des systèmes quantiques sont présentés. Une conjecture postulant la superintégrabilité de ces systèmes est formulée et est vérifiée pour k=1,2,3,4. L'ordre des intégrales du mouvement proposées est 2k où k ∈ ℕ. La structure algébrique de la famille de systèmes quantiques est formulée en terme d'une algèbre cachée où le nombre de générateurs dépend du paramètre k. Une généralisation quasi-exactement résoluble et intégrable de la famille de potentiels est proposée. Finalement, les trajectoires classiques de la famille de systèmes sont calculées pour tous les cas rationnels k ∈ ℚ. Celles-ci s'expriment en terme des polynômes de Chebyshev. Les courbes associées aux trajectoires sont présentées pour les premiers cas k=1, 2, 3, 4, 1/2, 1/3 et 3/2 et les trajectoires bornées sont fermées et périodiques dans l'espace des phases. Ainsi, les résultats obtenus viennent renforcer la possible véracité de la conjecture.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur le rapport université/entreprise au Mexique après 1990. Il s’agit d’une étude de cas sur l’Université Nationale Autonome du Mexique (UNAM), la plus grande université mexicaine et la plus importante institution productrice de connaissances scientifiques au pays. À partir de 1988, l’introduction au Mexique d’une économie du marché a été le point de départ des nombreux changements politiques et économiques qui ont modifié les conditions d’exploitation des organisations et des institutions au pays. Ainsi, depuis 1990, le nouveau contexte politique et économique du Mexique a modifié les politiques gouvernementales vers les institutions publiques y compris celles de la santé et de l’éducation. Pour ce qui est des universités publiques mexicaines, ces politiques ont réduit leur financement et leur ont demandé une participation plus active à l’économie nationale, par la production de connaissances pouvant se traduire en innovation dans le secteur de la production. Ces nouvelles conditions économiques et politiques constituent des contingences auxquelles les universitaires font face de diverses façons, y compris l’établissement des relations avec les entreprises, comme le prescrivent les politiques du gouvernement fédéral élaborées sur la base des recommandations de l’OCDE. En vue de contribuer à la connaissance des relations université/entreprise développées au Mexique, nous avons réalisé notre étude de cas fondée sur une approche méthodologique qualitative à caractère exploratoire qui a recueilli des données provenant de sources documentaires et perceptuelles. Nous avons encadré notre recherche du point de vue de l’organisation par la théorie de la contingence, et pour l’analyse de la production de la connaissance sur la base des modèles de la Triple hélice et du Mode 2. Différents documents de sources diverses, y compris l’Internet, ont été consultés pour l’encadrement des rapports université/entreprise au Mexique et à l’UNAM. Les sources perceptuelles ont été 51 entrevues semi-structurées auprès de professeurs et de chercheurs à temps plein ayant établi des rapports avec des entreprises (dans les domaines de la biomédecine, la biotechnologie, la chimie et l’ingénierie) et de personnes ayant un rôle de gestion dans les rapports des entreprises avec l’institution. Les données recueillies ont montré que la politique de l’UNAM sur les rapports université/entreprise a été aussi flottante que la structure organisationnelle soutenant sa création et formalisation. Toutes sortes d’entreprises, publiques ou privées collaborent avec les chercheurs de l’UNAM, mais ce sont les entreprises parastatales et gouvernementales qui prédominent. À cause du manque d’infrastructure scientifique et technologique de la plupart des entreprises au Mexique, les principales demandes adressées à l’UNAM sont pour des services techniques ou professionnels qui aident les entreprises à résoudre des problèmes ponctuels. Le type de production de connaissance à l’UNAM continue d’être celui du Mode 1 ou traditionnel. Néanmoins, particulièrement dans le domaine de la biotechnologie, nous avons identifié certains cas de collaboration plus étroite qui pointaient vers l’innovation non linéaire proposée par le Mode 2 et la Triple hélice. Parmi les principaux avantages découlant des rapports avec les entreprises les interviewés ont cité l’obtention de ressources additionnelles pour la recherche, y compris de l’équipement et des fonds pour les bourses d’étudiants, mais souvent ils ont observé que l’un des plus gros avantages était la connaissance qu’ils obtenaient des contacts avec les firmes et le sens du réel qu’ils pouvaient intégrer dans la formation des étudiants. Les programmes gouvernementaux du CONACYT pour la science, la technologie et l’innovation ne semblent pas réussir à renforcer les rapports entre les institutions génératrices de la connaissance et le secteur de la production du Mexique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente étude avait pour objectif de décrire comment est enseignée (si elle l’est effectivement) la distinction d’emploi entre le passé composé et l’imparfait, une distinction aspectuelle posant problème aux apprenants du français langue seconde, dans trois classes de 3e à 5e années en immersion française précoce aux Territoires du Nord-Ouest et de décrire l’utilisation que font les enseignantes de ces temps verbaux. À partir de dix-neuf heures d’observation en classe et d’entretiens menés avec deux enseignantes, nous avons élaboré une proposition didactique basée sur la réflexion guidée avec exemples positifs et négatifs de Nadeau et Fisher (2006) mettant en évidence le contraste d’emploi entre le passé composé et l’imparfait. Cette proposition didactique fournit aux enseignantes une façon de l’enseigner alors qu’elles ne le font pas à ces niveaux, et aux apprenants, un intrant où la fréquence des emplois atypiques est plus grande que dans le discours de leur enseignante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le cancer occupe le premier rang parmi les causes de décès au Québec. Les taux de mortalité diffèrent cependant à travers les régions du Québec. En considérant les territoires des Centres de santé et de services sociaux (CSSS), ce mémoire propose dans un premier temps d’étudier la distribution des taux de mortalité pour les principaux sièges de cancer, d’identifier les régions où une différence significative du taux avec le reste du Québec est perceptible et d’approfondir des éléments impliqués dans la mortalité, soit l’incidence et la létalité. D’autre part, dans le but d’expliquer les variations des taux de mortalité, des variables socio-économiques liées aux territoires retenus serviront de variables explicatives au modèle de régression utilisé. Les résultats ont permis de constater que c’est pour le cancer du poumon que les écarts significatifs sont les plus nombreux. Quant au cancer colorectal, un seul territoire présentait un écart significatif. Pour ce qui est du cancer de la prostate et du sein, aucun écart n’est perceptible dans les taux de mortalité. Concernant la partie explicative de la mortalité, dans le cas du cancer du poumon, les taux d’incidence sont fortement corrélés aux taux de mortalité. On ne peut cependant faire le même constat pour les cancers colorectal, du sein et de la prostate. De plus, les variables socio-économiques considérées pour les territoires de CSSS ne permettaient pas d’arriver à un modèle explicatif convaincant. Ces résultats montrent la nécessité d’avoir des données longitudinales permettant de suivre les individus dès le moment où le diagnostic de cancer est établi afin d’être en mesure de mieux mesurer les liens entre l’incidence, la survie, le niveau socio-économique et la mortalité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Carte du bailliage en fichier complémentaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Outre les facteurs métaboliques et hémodynamiques, l’inflammation est actuellement considérée comme un facteur pathogénique potentiel de la néphropathie diabétique (ND), pouvant contribuer à l’initiation et à la progression de la maladie. Les mécanismes menant au développement de l’inflammation rénale dans la ND sont encore peu connus, bien qu’une augmentation d’activité des systèmes rénine angiotensine (RAS) et de l’endothéline (ET) semble y contribuer. L’objectif général de cette étude mono-centre, à double aveugle, randomisée et incluant un groupe placebo était de démontrer que l’inhibition simultanée du RAS et du système de l’ET chez des patients avec ND induisait des effets rénoprotecteurs et anti-inflammatoires supérieurs à ceux observés par blocage du RAS seul. L’objectif spécifique de notre étude était d’évaluer la possibilité que l’administration d’un bloqueur des récepteurs de l’ET-1, le bosentan, à des patients atteints de ND et traités par bloqueurs des récepteurs de l’angiotensine II (BRA), réduisait, chez ces derniers, la protéinurie et les marqueurs inflammatoires systémiques et rénaux. Ce travail constitue un rapport d’un cas clinique et illustre les résultats obtenus suite à l’administration pendant 16 semaines du bosentan chez un patient diabétique de type 2 avec néphropathie clinique traité au long cours par BRA. Le protocole de recherche comprenait 6 visites médicales à 4 semaines d’intervalle, la première visite (V1) correspondant au recrutement du patient, la deuxième visite (V2) constituant le temps 0 de l’étude et la dernière visite (V6) représentant la fin de l’étude. Des échantillons de sang et d’urine étaient prélevés à 3 reprises soit à V2, V4 c’est-à-dire 8 semaines après le début du traitement et à V6 soit 16 semaines après le début du traitement pour mesure des taux sériques et urinaires de divers facteurs pro-inflammatoires incluant l’ET-1, le facteur de nécrose tumorale alpha (TNF-α), l’interleukine-6 (IL-6), le facteur chémoattractant des monocytes-1 (MCP-1), la molécule d’adhésion intracellulaire-1 (ICAM-1), la molécule d’adhésion vasculaire-1 (VCAM-1) et la protéine C-réactive (CRP). Un profil lipidique était aussi déterminé au début et à la fin de l’étude. La fonction rénale était mesurée aux visites V1, V2, V4 et V6 par détermination du taux de filtration glomérulaire (TFG) et de l’excrétion urinaire d’albumine (UAE). Des tests biochimiques de routine étaient aussi faits à chaque visite. La corrélation entre les paramètres inflammatoires et rénaux sous étude et la filtration glomérulaire était enfin déterminée. Nos résultats chez ce sujet ont démontré que le bosentan réduisait l’UAE de 32 % et 35% aux semaines 8 et 16, et ce, sans affecter la pression artérielle ou la filtration glomérulaire. L'effet anti-protéinurique du bosentan était associé à une réduction des concentrations urinaires de VCAM-1, ICAM-1, IL-6, TNF-α et d’ET-1 ainsi qu’à une diminution des concentrations sériques de TNF-α. Le changement dans la protéinurie était corrélé de manière positive avec les changements des niveaux urinaires de VCAM-1 (r=0.86), ICAM-1 (r=0.88), ET-1 (r=0.94), et du TNF-α (r=0.96) ainsi qu’avec les changements des niveaux sériques de TNF-α (r=0.98). Ces données suggèrent que l’inhibition du système de l’ET induit dans la ND des effets rénoprotecteurs additifs à ceux observés par blocage du RAS seul. Ils supportent le concept que l’activation du système de l’ET au niveau rénal, par ses effets inflammatoires, puisse jouer un rôle important dans la pathogenèse de la ND. L’effet anti-inflammatoire et anti-protéinurique du bosentan constitue une découverte intéressante susceptible d’engendrer dans le futur une alternative thérapeutique et préventive dans la prise en charge de la ND.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectifs: Observer l’évolution de la stomatite prothétique dans le temps quant à la fréquence et la sévérité ainsi que son association avec de potentiels facteurs de risque au cours d’un suivi longitudinal de 2 ans. Matériels et méthodes : Cent trente-cinq patients âgés complètement édentés et en bonne santé ont été sélectionnés pour participer à cette étude et ont été divisés de façon randomisée en deux groupes. Ils ont tous reçu une prothèse dentaire amovible totale conventionnelle au maxillaire supérieur. La moitié d’entre eux a reçu une prothèse totale mandibulaire implanto-portée retenue par deux attachements boule et l’autre moitié une prothèse conventionnelle. Ils ont été suivis sur une période de deux ans. Les données sociodémographiques, d’habitudes de vie, d’hygiène et de satisfaction des prothèses ont été amassées à l’aide de questionnaires. Les patients ont aussi subi un examen oral complet lors duquel une évaluation de la stomatite prothétique, basée sur la classification de Newton, a été effectuée ainsi qu’un prélèvement de la plaque prothétique. Les analyses microbiologiques pertinentes afin de détecter la présence de Candida ont ensuite été effectuées. Des tests Chi-carré de Pearson et McNemar ont été utilisés pour analyser la fréquence de la stomatite, son association avec de possibles facteurs de risque ainsi que son évolution dans le temps. Des rapports de cotes (odds ratio) et leurs intervalles de confiance (95%) ont été effectués afin de déterminer la force d’association entre les facteurs de risque et la stomatite prothétique. Résultats : La prévalence de la stomatite a augmenté entre la première (63,6%) et la deuxième année de suivi (88,7%) avec une incidence de 78,8%. Les patients souffrant d’une stomatite de type 2 ou 3 et qui brossent leur palais ont environ 6 fois plus de chance de voir la sévérité de leur stomatite diminuer [p = 0,04 OR 5,88 CI (1,1-32,2)]. Il n’y a pas d’association statistiquement significative entre la fréquence de la stomatite et les facteurs de risque investigués. La prévalence de la candidose est demeurée stable dans le temps (45,8% et 49,2% à la première et deuxième année de suivi respectivement, p > 0,05). Il n’y a pas d’association entre la présence d’une candidose orale, la stomatite prothétique et les facteurs de risque étudiés. Conclusion : Les résultats de cette étude suggèrent que la stomatite prothétique progresse dans le temps indépendamment de la présence d’une candidose. Le brossage du palais pourrait être une approche simple à conseiller aux patients souffrant d’une stomatite prothétique de type 2 ou 3.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire en recherche création débute par un récit poétique rédigé par fragments et intitulé Ma mère est une porte. Ce texte met en abyme les ruines afin de démontrer leur lien de contiguïté avec l’absence, l’empreinte, la mémoire et la mort. D’ailleurs, leur aspect ruiniforme rappelle le fragment, ce qui permet d’appuyer l’esthétique formelle de l’œuvre. La deuxième partie intitulée Approche génétique : un monument à la mémoire des disparus emportés par le temps de l’écriture, propose une réflexion sur l’imaginaire des ruines en lien avec les archives littéraires et la mémoire. Divisé en trois sections, cet essai pose un regard inquiet sur l’avenir de l’objet d’étude de la critique génétique, soit le manuscrit moderne. Depuis l’avènement de l’informatique et du traitement de texte, que conserverons-nous de la mémoire scripturale et du processus d’écriture de l’écrivain de demain?