158 resultados para Méthode ethnonursing


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le paysage sonore est une forme de perception de notre environnement qui nous permet d’identifier les composantes sonores de notre quotidien. Ce projet de recherche porte sur une thématique particulière, les sons produits par les végétaux et leurs rôles dans les ambiances sonores paysagères. C’est la perspective que nous avons explorée in situ, en comparant les différentes espèces végétales; cette collection d’informations nous permet de proposer une typologie d’ambiances sonores des végétaux. Dans la première partie, des notions rattachées au « monde sonore » telles que l’objet sonore, le paysage sonore et les effets sonores justifient d’établir, dans la méthodologie, une grille d’analyse comportant différentes échelles d’écoute. Une lecture multidisciplinaire propose, d’une part, de réunir de l’information sur le son et les végétaux, la morphologie de ces derniers, l’aménagement au site, les conditions climatiques et, d’autre part, de retrouver ce qui a trait au son dans l’histoire des jardins, dont les jardins sensoriels, thérapeutiques, technologiques, et des sentiers d’interprétation sonore, sous l’angle du son comme projet. De plus, une liste de végétaux recevant les chants et cris de la faune vient introduire la notion de biodiversité sonore. Une enquête sociale de terrain, par la méthode des parcours commentés, et une enquête « experte » ont été réalisées au Jardin botanique de Montréal. Ces deux enquêtes nous ont permis de constituer une grille d’analyse croisée comprenant plusieurs échelles d’écoute : textures, actions sonores, effets sonores... De là, des générateurs d’ambiance (morphologie, organisation, climat) ont été relevés pour déterminer les aspects de récurrences et de différenciations d’un type d’ambiance sonore à l’autre. Des associations se sont formées en fonction de onze types de végétaux, chacun comprenant plusieurs sous-catégories. Celles-ci proposent des ambiances sonores spécifiques, des échelles d’écoute à considérer pour chaque type d’ambiance et l’énumération d’espèces à utiliser. Cette recherche ouvre la voie à un autre type de lecture sonore, par thématique d’ambiance (les sons du végétal dans notre cas), afin d’offrir de nouveaux outils de conception pour les professionnels, en profonde relation avec les perceptions sonores d’usagers sur le terrain et l’agencement spécifique d’un site.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche a pour objet la pratique orthophonique en suppléance à la communication (SC) auprès de personnes qui ont une déficience intellectuelle (DI). Des recherches ont montré que les aides à la communication à sortie vocale (ACSV) pouvaient améliorer la communication des personnes ayant une DI. Cependant, la plupart de ces recherches ont été menées dans des conditions idéales qui ne reflètent pas nécessairement celles que l’on retrouve dans les milieux cliniques typiques. On connaît peu de choses sur les pratiques professionnelles en SC auprès des personnes ayant une DI. Le but de cette recherche est de décrire la pratique orthophonique, de documenter les perspectives des utilisateurs sur les résultats des interventions et de décrire l’implication des parents et leurs habiletés à soutenir leur enfant dans l’utilisation d’une ACSV afin de proposer un modèle d’intervention en SC auprès de cette clientèle qui tienne compte de ces différentes perspectives. Une méthode qualitative a été choisie pour réaliser la recherche. Des entrevues individuelles semi-structurées ont été réalisées avec onze orthophonistes francophones et avec des parents ou familles d’accueil de dix utilisateurs d’ACSV et des entrevues structurées ont été menées avec huit utilisateurs d’ACSV. Un outil d’entrevue a été conçu à l’aide de pictogrammes pour permettre aux utilisateurs d’ACSV de répondre à des questions portant sur leur appréciation et utilisation de leur ACSV, leur satisfaction et priorités de communication. Un cadre conceptuel a été conçu à partir des guides de pratique clinique et un codage semi-ouvert a été utilisé pour réaliser les analyses thématiques des données provenant des orthophonistes. Un codage ouvert a servi à analyser les données provenant des parents. Des analyses descriptives ont servi à examiner les réponses des utilisateurs. Diverses procédures ont assuré la crédibilité des analyses. Entre autres, les analyses des entrevues des orthophonistes ont été validées lors d’un groupe de discussion avec sept participantes orthophonistes. Les résultats montrent que les ACSV sont utilisées surtout dans le milieu scolaire. Elles sont parfois utilisées lors des loisirs et dans la communauté, mais ces contextes sont ceux où les utilisateurs ont exprimé le plus d’insatisfaction et où se situe la majeure partie des priorités qu’ils ont identifiées. Les analyses ont permis d’identifier les facteurs qui rendent compte de ces résultats. Les orthophonistes manquent d’outils pour réaliser des évaluations exhaustives des capacités des clients et elles manquent de procédures pour impliquer les parents et obtenir d’eux une description complète des besoins de communication de leur enfant. Conséquemment, l’ACSV attribuée et le vocabulaire programmé ne répondent pas à l’ensemble des besoins de communication. Certaines orthophonistes manquent de connaissances sur les ACSV ou n’ont pas le matériel pour faire des essais avec les clients. Il en résulte un appariement entre la personne et l’ACSV qui n’est pas toujours parfait. À cause d’un manque de ressources en orthophonie, les parents sont parfois laissés sans soutien pour apporter les changements à la programmation lors des transitions dans la vie de leur enfant et certains ne reçoivent pas d’entraînement visant à soutenir l’utilisation de l’ACSV. Un modèle d’intervention en SC est proposé afin d’améliorer la pratique orthophonique auprès de cette population.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'arbitrage a joué un rôle majeur dans l'élaboration d'un droit international ou «transnational», surtout par l'effort fourni au sein des institutions arbitrales qui se trouvent de nos jours partout dans le monde, et les conventions arbitrales qui jouent un rôle extraordinaire dans le domaine de la codification des principes et des dispositions internationales. Celles-ci visent entre autres à résoudre les problèmes liés aux désignations et récusations des arbitres. Il résulte que plusieurs ordres normatifs ont créé des règles pour régir les questions de nomination et de récusation des arbitres. Elles ont une importance proportionnelle qui dépend de l'organisme qui les établit, de sa réputation et de sa crédibilité parmi les commerçants. Nous pouvons trouver des règles sur des questions de nomination et de récusation des arbitres dans les lois étatiques, les conventions internationales, les lois types, et dans les règlements d'arbitrage. L'analyse de ces divers ordres normatifs qui ont disposé des règles pour résoudre les problèmes de désignation et de récusation des arbitres nous permet d'évaluer leur efficacité pour rendre des solutions appropriées aux problèmes rencontrés lors de la constitution du tribunal arbitral. Par ailleurs, nous savons que la finalité espérée de la sentence arbitrale est la possibilité d'être exécutoire, et que cette étape de la procédure est régie par la convention des Nations Unies de 1958, dite « convention de New York de 1958 » pour la reconnaissance et l'exécution des sentences arbitrales. Cette convention établit les conditions qu'on doit respecter - entre autres - lors de la constitution du tribunal arbitral pour qu'une sentence arbitrale puisse obtenir une force exécutoire, d'où nous observons que l'influence de l'irrégularité de la désignation des arbitres peut être très pénible, car, par l'application de l'article V de la convention de New York, la sentence peut être refusée par le juge étatique. En fait, quand les parties contractantes dans des contrats internationaux favorisent le choix de l'institution arbitrale pour régler les différends qui pourraient naître entre eux, cela veut dire que ces parties ont confiance envers cette institution de justice. Mais les problèmes rencontrés lors de la constitution du tribunal arbitral peuvent perturber la confiance de ces parties en cette institution de justice, d'où il sera nécessaire de trouver des solutions efficaces pour rendre l'étape de la constitution du tribunal sécuritaire pour pouvoir solliciter le recours à cette méthode de règlement de différends sans éprouver de crainte sur l'efficacité de la procédure de désignation, de récusation et de remplacement des arbitres. En somme, il est primordial d'assurer la nature privée et contractuelle du contrat d'arbitrage, et d'éviter les risques d'insécurité et d'imprévisibilité qui nuisent au bon développement des relations contractuelles internationales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L‘obésité constitue un problème de santé publique au Canada, particulièrement chez les populations autochtones où les prévalences les plus élevées ont été rapportées. D’après les écrits recensés, plusieurs méthodes ont été essayées pour étudier la relation entre l’alimentation et l’obésité, mais les résultats sont inconstants. Le but de cette thèse est d’identifier, en termes quantitatif et qualitatif, les différences dans l’alimentation des obèses et non-obèses. Pour y parvenir, nous avons développé une nouvelle méthode à l’aide d’une banque de données portant sur les enfants Mohawk de Kahnawake afin d’identifier les différences dans les choix alimentaires. Cette même méthode a été ensuite appliquée à deux autres banques de données (celle des adultes cris de la Baie James et celle des autochtones de l’enquête ESCC 2.2). Globalement, les résultats n’ont pas montré de différences significatives dans l’alimentation des participants selon les catégories d’IMC en considérant les indicateurs reliés à la quantité et à la qualité de l’alimentation comme l’apport énergétique total, l’apport énergétique en provenance des lipides, les fibres alimentaires, la densité énergétique et la diversité alimentaire. Par contre, les résultats de la nouvelle méthode fondée sur la sélection des items alimentaires fréquemment consommés par au moins 10 % des participants ont révélé que les enfants de Kahnawake à risque d’excès de poids consommaient plus fréquemment de croustilles (p=0.001) et moins fréquemment de craquelins que les enfants avec excès de poids ou ceux ayant un poids normal (p=0.015). Ensuite, en prenant la catégorie de poids normal comme référence, le rapport de côte (Odds ratio : OR) d’être à risque d’excès de poids était de 2.16 (95 % IC : 1.14 - 4.09) fois plus élevé chez les enfants de Kahnawake qui consommaient plus fréquemment de croustilles comparativement aux non-consommateurs de croustilles, et ce, après ajustement pour l’âge. Par contre, le rapport de côte d’être à risque d’excès de poids diminuait de 79 % (OR = 0.21; 95 % IC : 0.06 – 0.72) chez les enfants consommateurs de craquelins comparativement à leurs homologues non-consommateurs. Après avoir corrigé les quantités pour l’âge, on note que les enfants avec excès de poids consommaient plus de frites que les enfants à risque d’excès de poids ou ceux ayant un poids normal (p = 0.027). Chez les femmes cries, les résultats de la nouvelle méthode ont montré que le colorant à café était associé à un risque élevé d’obésité (OR = 4.64, 95 % IC : 1.04 - 0.54); alors que le lait faible en matières grasses était associé à un moindre risque d’embonpoint (OR = 0.38, 95 % IC : 0.17 - 0.82), après ajustement pour l’âge. Quant aux hommes cris, le lait entier était associé à un moindre risque d’avoir de l’embonpoint (OR ajusté pour l’âge = 0.38, 95 % IC : 0.20 - 0.71) et, en termes de quantité corrigée pour l’âge, les hommes obèses buvaient plus de boissons sucrées aux fruits comparativement aux hommes de poids normal ou ceux ayant de l’embonpoint (p=0.015). Selon les résultats de cette méthode appliquée aux données de l’enquête ESCC 2.2, les garçons à risque d’excès de poids ou avec excès de poids consommaient moins fréquemment de pain blanc que ceux de poids normal (p=0.048). En termes de quantité toutefois, ils consommaient plus de pain blanc (p=0.040), utilisaient plus de farine de blé (p=0.006) et de levure (p=0.002). Après avoir ajusté les quantités consommées pour l’âge et l’indice d’activité physique, les femmes avec embonpoint ou obèses utilisaient plus de farine de blé (p< 0.001) que leurs homologues de poids normal. Chez les hommes, il n'y avait pas de différences ni dans les fréquences de consommation ni dans les quantités consommées. Concernant les filles, leurs apports alimentaires n'étaient pas valides (facteur d'activité de Goldberg < 1.2 dans la catégorie embonpoint / obèse). Les résultats de cette méthode innovatrice pourraient d’une part, permettre d’axer la sensibilisation sur des aliments particuliers en plus des recommandations générales du Guide Alimentaire Canadien. D’autre part, ils nous renvoient aux données biologiques de laboratoire afin d’identifier les composantes des items susceptibles de contribuer au développement de l’obésité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La qualification est centrale à l'activité du juriste. Les règles de droit positif ne reçoivent application qu'au moment où les faits reçoivent une certaine qualification. Cette réalité prend une dimension particulière face au contrat, lequel est l'objet de multiples dispositions législatives. Le législateur a cru bon au fil du temps, de réglementer diverses formes contractuelles, les contrats nommés. On oppose à ceux-ci les contrats innommés, pure création extra-législative. La détermination de la nature du contrat passe par un processus de qualification indépendant de notions connexes et qui doit s'éloigner d'une méthode intuitive. La qualification du contrat passera principalement par l’analyse des obligations en vue d'identifier l'obligation fondamentale ou la prestation caractéristique du contrat. Il s'agit d'une analyse qu'on veut objective. Les parties auront peu d'influence sur la qualification qui sera ultérieurement donnée à leur contrat, celle-ci étant une question de droit en principe réservée au juge. Le juriste tentera d'abord de lier le contrat aux modèles nommés connus et prévus par le législateur, soit en lui donnant un seul nom ou en reconnaissant la nature mixte de la convention. Dans l'éventualité où ces tentatives ne sont pas concluantes, une qualification innommée devra être choisie. La distinction entre les différentes qualifications possible sera réalisée en fonction de la hiérarchie des obligations au contrat et par l'écart de celle-ci avec les modèles connus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une époque de changements des moyens de représentation et communication en architecture, cette recherche porte sur l’enseignement de la conception architecturale et plus spécifiquement sur l’apport que l’informatique pourrait avoir dans ce processus. En nous basant sur une méthodologie qualitative, exploratoire et participative, nous y procédons par enchainement de questions, celle de départ étant la suivante: Comment l’enseignement de la conception architecturale pourrait tirer avantage des moyens numériques? Notre objectif est de proposer des méthodes et des outils d’apprentissage aux étudiants en architecture pour enrichir leurs démarches de conception grâce à l’ordinateur. Après une revue de la littérature dans le domaine, et un approfondissement de l’étude sur le rôle des référents architecturaux et sur la conception intégrée, nous avons procédé à une observation exploratoire du travail des étudiants en atelier d’architecture. Ces premières étapes de la recherche ont permis de dégager des discordances entre les positions théoriques et la pratique en l’atelier, pour concrétiser ultérieurement la question de recherche. Dans le but de discerner des méthodes efficaces et innovatrices pour répondre aux discordances identifiées, nous avons engagé une étude de la littérature sur les théories cognitives par rapport aux connaissances, l’apprentissage et la conception. Certaines stratégies ont pu être définies, notamment la nécessité de représentation multimodale des référents architecturaux, l’importance de représenter le processus et non seulement le résultat, ainsi que l’avantage d’inciter les étudiants à travailler dans leur ‘zone proximale’ de développement. Suite à ces recherches, une méthode d’enseignement complémentaire a été définie. Elle propose aux étudiants des explorations de l’objet en conception basées sur la manipulation des savoir-faire architecturaux. Cette méthode a été opérationnalisée d’un point de vue pédagogique ainsi que didactique et mise à l’épreuve auprès des étudiants en atelier. Un prototype de librairie de référents architecturaux interactifs (LibReArchI) a été créé dans ce but. Elle a été conçue en tant qu’environnement de conception et espace de partage de savoir-faire entre étudiants et enseignants. Les principaux résultats de cette recherche démontrent le rôle positif de la méthode proposée pour le transfert des savoir-faire architecturaux lors de l’apprentissage en atelier. Son potentiel d’assister la conception intégrée et de stimuler l’émergence d’idées a été constaté. Au niveau théorique, un modèle d’un cycle du processus de design avec le numérique a été esquissé. En conclusion, des avenues de développements futurs de cette recherche sont proposées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dépression postnatale (DP) est un problème de santé publique très fréquent dans différentes cultures (Affonso et al, 2000). En effet, entre 10% à 15% des mères souffrent d’une symptomatogie dépressive ainsi que l’indiquent Gorman et al. (2004). La prévention de la DP est l’objectif de différents programmes prénatals et postnatals (Dennis, 2005; Lumley et al, 2004). Certains auteurs notent qu’il est difficile d’avoir accès aux femmes à risque après la naissance (Evins et al, 2000; Georgiopoulos et al, 2001). Mais, les femmes fréquentent les centres de santé pendant la grossesse et il est possible d’identifier les cas à risque à partir des symptômes prénataux dépressifs ou somatiques (Riguetti-Veltema et al, 2006); d’autant plus qu’un grand nombre de facteurs de risque de la DP sont présents pendant la grossesse (O’Hara et Gorman, 2004). C’est pourquoi cette étude fut initiée pendant le premier trimestre de la grossesse à partir d’une détection précoce du risque de DP chez n= 529 femmes de classes moyenne et défavorisée, et, cela, au moyen d’un questionnaire validé utilisé à l’aide d’une entrevue. L’étude s’est effectuée dans trois villes : Barcelone, Figueres, et Béziers au cours des années 2003 à 2005. Objectif général : La présente étude vise à évaluer les effets d’un programme prénatal de groupes de rencontre appliqué dans la présente étude chez des couples de classe socioéconomique non favorisée dont les femmes sont considérées comme à risque de dépression postnatale. L’objectif spécifique est de comparer deux groupes de femmes (un groupe expérimental et un groupe témoin) par rapport aux effets du programme prénatal sur les symptômes de dépression postnatale mesurés à partir de la 4ème semaine après l’accouchement avec l’échelle EPDS. Hypothèse: Les femmes participant au programme prénatal de groupe adressé aux couples parentaux, composé de 10 séances hebdomadaires et inspiré d’une orientation psychosomatique présenteront, au moins, un taux de 6% inférieur de cas à risque de dépression postnatale que les femmes qui ne participent pas, et cela, une fois évaluées avec l’échelle EPDS (≥12) 4 semaines après leur accouchement. Matériel et méthode: La présente étude évaluative est basée sur un essai clinique randomisé et longitudinal; il s’étend de la première ou deuxième visite d’échographie pendant la grossesse à un moment situé entre la 4ème et la 12ème semaine postnatale. Les participants à l’étude sont des femmes de classes moyenne et défavorisée identifiées à risque de DP et leur conjoint. Toutes les femmes répondant aux critères d’inclusion à la période du recrutement ont effectué une entrevue de sélection le jour de leur échographie prénatale à l’hôpital (n=529). Seules les femmes indiquant un risque de DP furent sélectionnées (n= 184). Par la suite, elles furent distribuées de manière aléatoire dans deux groupes: expérimental (n=92) et témoin (n=92), au moyen d’un programme informatique appliqué par un statisticien considérant le risque de DP selon le questionnaire validé par Riguetti-Veltema et al. (2006) appliqué à l’aide d’une entrevue. Le programme expérimental consistait en dix séances hebdomadaires de groupe, de deux heures et vingt minutes de durée ; un appel téléphonique entre séances a permis d’assurer la continuité de la participation des sujets. Le groupe témoin a eu accès aux soins habituels. Le programme expérimental commençait à la fin du deuxième trimestre de grossesse et fut appliqué par un médecin et des sages-femmes spécialement préparées au préalable; elles ont dirigé les séances prénatales avec une approche psychosomatique. Les variables associées à la DP (non psychotique) comme la symptomatologie dépressive, le soutien social, le stress et la relation de couple ont été évaluées avant et après la naissance (pré-test/post-test) chez toutes les femmes participantes des deux groupes (GE et GC) utilisant : l’échelle EPDS (Cox et al,1987), le Functional Social Support Questionnaire (Broadhead et al, 1988), l’évaluation du stress de Holmes et Rahe (1967) et, l’échelle d’ajustement dyadique de Spanier (1976). La collecte des données prénatales a eu lieu à l’hôpital, les femmes recevaient les questionnaires à la fin de l’entrevue, les complétaient à la maison et les retournaient au rendez-vous suivant. Les données postnatales ont été envoyées par les femmes utilisant la poste locale. Résultats: Une fois évalués les symptômes dépressifs postnatals avec l’échelle EPDS entre la 4ème et la 12ème semaine postnatale et considérant le risque de DP au point de césure ≥ 12 de l’échelle, le pourcentage de femmes à risque de DP est de 39,34%; globalement, les femmes étudiées présentent un taux élevé de symptomatologie dépressive. Les groupes étant comparables sur toutes les variables prénatales, notons une différence dans l’évaluation postnatale de l’EPDS (≥12) de 11,2% entre le groupe C et le groupe E (45,5% et 34,3%). Et la différence finale entre les moyennes de l’EPDS postnatal est de 1,76 ( =11,10 ±6,05 dans le groupe C et =9,34 ±5,17 dans le groupe E) ; cette différence s’aproche de la limite de la signification (p=0,08). Ceci est dû à un certain nombre de facteurs dont le faible nombre de questionnaires bien complétés à la fin de l’étude. Les femmes du groupe expérimental présentent une diminution significative des symptômes dépressifs (t=2,50 / P= 0,01) comparativement au pré-test et indiquant une amélioration au contraire du groupe témoin sans changement. Les analyses de régression et de covariance montrent que le soutien social postnatal, les symptômes dépressifs prénatals et le stress postnatal ont une relation significative avec les symptômes dépressifs postnatals (P<0,0001 ; P=0.003; P=0.004). La relation du couple n’a pas eu d’impact sur le risque de DP dans la présente étude. Par contre, on constate d’autres résultats secondaires significatifs: moins de naissances prématurées, plus d’accouchements physiologiques et un plus faible taux de somatisations non spécifiques chez les mères du groupe expérimental. Recommandations: Les résultats obtenus nous suggèrent la considération des aspects suivants: 1) il faudrait appliquer les mesures pour détecter le risque de DP à la période prénatale au moment des visites d’échographie dont presque toutes les femmes sont atteignables; il est possible d’utiliser à ce moment un questionnaire de détection validé car, son efficacité semble démontrée; 2) il faudrait intervenir auprès des femmes identifiées à risque à la période prénatale à condition de prolonger le programme préventif après la naissance, tel qu’indiqué par d’autres études et par la demande fréquente des femmes évaluées. L’intervention prénatale de groupe n’est pas suffisante pour éviter le risque de DP chez la totalité des femmes. C’est pourquoi une troisième recommandation consisterait à : 3) ajouter des interventions individuelles pour les cas les plus graves et 4) il paraît nécessaire d’augmenter le soutien social chez des femmes défavorisées vulnérables car cette variable s’est révélée très liée au risque de dépression postnatale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanosciences et les nanotechnologies (NST) s’inscrivent dans un champ technoscientifique, le nanomonde, qui a pour socle l’hybridation autant conceptuelle que pratique entre le domaine de la nature et celui de la technique. Dans ce mémoire nous nous intéressons au basculement de la distinction entre le naturel et l’artificiel qui s’ensuit. Un retour socio-historique sur la construction du dualisme nature/artifice propre aux sociétés modernes nous aide alors à saisir les enjeux socio-culturels impliqués dans sa remise en question. La déconstruction, à travers la méthode d’analyse de discours, d’entretiens réalisés avec les principaux chercheurs en NST au Québec illustre empiriquement, tout en le systématisant, le double processus d’artificialisation de la nature et de naturalisation de la technique, pointé théoriquement comme caractéristique de la remise en cause de la distinction entre nature et artifice qu’opère le nanomonde. Nous suggérons que l’artificialisation de la nature et la naturalisation de la technique, loin d’être contradictoires, constituent des éléments d’une dynamique synergique dont le résultat est une désontologisation de la nature comme catégorie de la pensée et une déqualification du monde qui distingue l’activité humaine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’atteinte de la fonction endothéliale représente une phase précoce de l’athérosclérose, un stade où les patients sont généralement asymptomatiques. Il existe donc un intérêt certain à détecter la dysfonction endothéliale. Nous avons développé une technique de mesure des variations de flot artériel au niveau des membres supérieurs, basée sur la spectroscopie proche infrarouge (NIRS). Cette approche permettrait d’étudier le niveau d’atteinte vasculaire et probablement de quantifier le degré de dysfonction endothéliale périphérique lors d’une hyperémie réactive. L'expérience a été exécutée sur deux cohortes de 13 et de 15 patients et a été comparée à la pléthysmographie par jauge de contrainte (SGP) qui est considérée comme une méthode de référence. Par la suite, nous avons caractérisé la réponse endothéliale par modélisation de la courbe hyperémique du flot artériel. Des études préliminaires avaient démontré que la réponse hyperémique adoptait majoritairement une forme bi-modale. Nous avons tenté de séparer les composantes endothéliales-dépendantes et endothéliales-indépendantes de l’hyperémie. La quantification des deux composantes de la réaction hyperémique permet de calculer un indice de la ‘santé’ du système endothélial local. Cet indice est nommé le ηfactor. Les résultats montrent une forte corrélation des mesures de flots entre la technique développée et la méthode de référence (r=0.91). Nous avons conclu que NIRS est une approche précise pour la mesure non-invasive du flot artériel. Nous avons obtenu une bonne répétabilité (ICC = 0.9313) pour le ηfactor indiquant sa robustesse. Cependant des études supplémentaires sont nécessaires pour valider la valeur de diagnostic du facteur défini. Mots clés: hyperémie réactive, réponse myogénique, oxyde nitrique, athérosclérose, spectroscopie proche infrarouge

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dihydrofolate réductase humaine (DHFRh) est une enzyme essentielle à la prolifération cellulaire, ce qui en fait une cible de choix pour le traitement de différents cancers. À cet effet, plusieurs inhibiteurs spécifiques de la DHFRh, les antifolates, ont été mis au point : le méthotrexate (MTX) et le pemetrexed (PMTX) en sont de bons exemples. Malgré l’efficacité clinique certaine de ces antifolates, le développement de nouveaux traitements s’avère nécessaire afin de réduire les effets secondaires liés à leur utilisation. Enfin, dans l’optique d’orienter la synthèse de nouveaux composés inhibiteurs des DHFRh, une meilleure connaissance des interactions entre les antifolates et leur enzyme cible est primordiale. À l’aide de l’évolution dirigée, il a été possible d’identifier des mutants de la DHFRh pour lesquels l’affinité envers des antifolates cliniquement actifs se voyait modifiée. La mutagenèse dite ¬¬de saturation a été utilisée afin de générer des banques de mutants présentant une diversité génétique au niveau des résidus du site actif de l’enzyme d’intérêt. De plus, une nouvelle méthode de criblage a été mise au point, laquelle s’est avérée efficace pour départager les mutations ayant entrainé une résistance aux antifolates et/ou un maintient de l’activité enzymatique envers son substrat natif, soient les phénotypes d’activité. La méthode de criblage consiste dans un premier temps en une sélection bactérienne à haut débit, puis dans un second temps en un criblage sur plaques permettant d’identifier les meilleurs candidats. Plusieurs mutants actifs de la DHFRh, résistants aux antifolates, ont ainsi pu être identifiés et caractérisés lors d’études de cinétique enzymatique (kcat et IC50). Sur la base de ces résultats cinétiques, de la modélisation moléculaire et des données structurales de la littérature, une étude structure-activité a été effectuée. En regardant quelles mutations ont les effets les plus significatif sur la liaison, nous avons commencé à construire un carte moléculaire des contacts impliqués dans la liaison des ligands. Enfin, des connaissances supplémentaires sur les propriétés spécifiques de liaison ont put être acquises en variant l’inhibiteur testé, permettant ainsi une meilleure compréhension du phénomène de discrimination du ligand.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transcription, la maturation d’ARN, et le remodelage de la chromatine sont tous des processus centraux dans l'interprétation de l'information contenue dans l’ADN. Bien que beaucoup de complexes de protéines formant la machinerie cellulaire de transcription aient été étudiés, plusieurs restent encore à identifier et caractériser. En utilisant une approche protéomique, notre laboratoire a purifié plusieurs composantes de la machinerie de transcription de l’ARNPII humaine par double chromatographie d’affinité "TAP". Cette procédure permet l'isolement de complexes protéiques comme ils existent vraisemblablement in vivo dans les cellules mammifères, et l'identification de partenaires d'interactions par spectrométrie de masse. Les interactions protéiques qui sont validées bioinformatiquement, sont choisies et utilisées pour cartographier un réseau connectant plusieurs composantes de la machinerie transcriptionnelle. En appliquant cette procédure, notre laboratoire a identifié, pour la première fois, un groupe de protéines, qui interagit physiquement et fonctionnellement avec l’ARNPII humaine. Les propriétés de ces protéines suggèrent un rôle dans l'assemblage de complexes à plusieurs sous-unités, comme les protéines d'échafaudage et chaperonnes. L'objectif de mon projet était de continuer la caractérisation du réseau de complexes protéiques impliquant les facteurs de transcription. Huit nouveaux partenaires de l’ARNPII (PIH1D1, GPN3, WDR92, PFDN2, KIAA0406, PDRG1, CCT4 et CCT5) ont été purifiés par la méthode TAP, et la spectrométrie de masse a permis d’identifier de nouvelles interactions. Au cours des années, l’analyse par notre laboratoire des mécanismes de la transcription a contribué à apporter de nouvelles connaissances et à mieux comprendre son fonctionnement. Cette connaissance est essentielle au développement de médicaments qui cibleront les mécanismes de la transcription.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de la recherche d’appui à la phase III du projet huile de palme rouge (HPR) au Burkina Faso, une étude de base a porté sur 150 femmes de la zone de production échantillonnées par la méthode aléatoire géographique. Leur statut en vitamine A (VA) a été évalué par HPLC et leurs apports alimentaires par un questionnaire de fréquence de consommation. Les connaissances, les perceptions, les habitudes d’utilisation et de consommation de l’HPR ont été explorées par un questionnaire pré-testé administré au domicile des participantes. Une étude comparative sur la qualité nutritionnelle, physico-chimique, microbiologique et sensorielle de 13 échantillons d’HPR de différentes provenances a été également réalisée. La prévalence de faibles rétinolémies était de 10,7% et les apports en VA provenaient à 90% des aliments d’origine végétale. Seules 5,9% des femmes productrices présentaient une faible rétinolémie, comparativement à 20,8% des femmes non-productrices d’HPR. Les échantillons d’HPR présentaient un profil satisfaisant mais quelques-uns étaient limites au plan microbiologique. En outre, aucun échantillon ne se distinguait nettement selon tous les paramètres de qualité étudiés. Cette étude démontre que les aliments d’origine végétale riches en caroténoïdes provitaminiques A, dont l’HPR qui en est la meilleure source, peuvent permettre d’avoir un statut adéquat en VA. Les risques de contamination de l’HPR au stade de la vente au détail impliquent une sensibilisation et une formation aux pratiques exemplaires de manipulation. Mots clés : Huile de palme rouge, vitamine A, diversification alimentaire, qualité, Burkina Faso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le p-tert-octylphénol est un produit présent dans l’environnement et issu de la dégradation des alkylphénols éthoxylés. Ce composé a la capacité de se lier au récepteur œstrogénique et d’exercer ainsi un léger effet œstrogénique. Les objectifs de cette étude étaient de 1) développer une méthode d'identification de l'octylphénol dans le sang et les tissus à l'aide de la chromatographie en phase gazeuse jumelée à la spectrométrie de masse, 2) caractériser la toxicocinétique sanguine et tissulaire de l’octylphénol chez le rat Sprague-Dawley mâle et femelle et 3) développer un modèle toxicocinétique à base physiologique permettant de décrire la cinétique sanguine et tissulaire de l’octylphénol inchangé. Pour ce faire, des rats mâle et femelle Sprague-Dawley ont reçu des doses uniques d’octylphénol par les voies intraveineuse, orale et sous-cutanée. Deux autres groupes ont reçu des doses répétées d'octylphénol par voie orale pour une durée de 35 jours consécutifs pour les femelles ou 60 jours pour les mâles. Les concentrations sanguines et tissulaires d’octylphénol ont été mesurées à différents moments après administration à partir d’une méthode d’analyse développée dans nos laboratoires dans le cadre de ce projet. Les expériences impliquant des administrations uniques ont montré que les concentrations sanguines et tissulaires d'octylphénol étaient en général plus élevées chez les femelles que chez les mâles. Des expériences réalisées avec des microsomes hépatiques ont confirmé que ces différences étaient vraisemblablement reliées au métabolisme de l'octylphénol. Les expériences impliquant des administrations répétées ont montré qu'il n'y avait pas d'accumulation d'octylphénol dans l'organisme aux doses étudiées. Les résultats obtenus expérimentalement ont servi à développer et valider un modèle toxicocinétique à base physiologique. Ce modèle a permis de simuler adéquatement les concentrations sanguines et tissulaires d'octylphénol suite à des expositions intraveineuses, orales et sous-cutanées. En conclusion, cette étude a fourni des données essentielles sur la toxicocinétique de l'octylphénol. Ces données sont nécessaires pour établir la relation entre la dose externe et la dose interne et vont contribuer à une meilleure évaluation des risques liés à l'octylphénol.