992 resultados para Méthode des cibles obscures


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contrairement à la plupart des eucaryotes non-photosynthétiques, les végétaux doivent assurer la stabilité d’un génome additionnel contenu dans le plastide, un organite d’origine endosymbiotique. Malgré la taille modeste de ce génome et le faible nombre de gènes qu’il encode, celui-ci est absolument essentiel au processus de photosynthèse. Pourtant, même si ce génome est d’une importance cruciale pour le développement de la plante, les principales menaces à son intégrité, ainsi que les conséquences d’une déstabilisation généralisée de sa séquence d’ADN, demeurent largement inconnues. Dans l’objectif d’élucider les conséquences de l’instabilité génomique chloroplastique, nous avons utilisé le mutant why1why3polIb d’Arabidopsis thaliana, qui présente d’importants niveaux de réarrangements génomiques chloroplastiques, ainsi que la ciprofloxacine, un composé induisant des brisures double-brins dans l’ADN des organites. Ceci nous a permis d’établir qu’une quantité importante de réarrangements génomiques provoque une déstabilisation de la chaîne de transport des électrons photosynthétique et un grave stress oxydatif associé au processus de photosynthèse. Étonnamment, chez why1why3polIb, ces hautes concentrations d’espèces oxygénées réactives ne mènent ni à la perte de fonction des chloroplastes affectés, ni à la mort cellulaire des tissus. Bien au contraire, ce déséquilibre rédox semble être à l’origine d’une reprogrammation génique nucléaire permettant de faire face à ce stress photosynthétique et conférant une tolérance aux stress oxydatifs subséquents. Grâce à une nouvelle méthode d’analyse des données de séquençage de nouvelle génération, nous montrons également qu’un type particulier d’instabilité génomique, demeuré peu caractérisé jusqu’à maintenant, constitue une des principales menaces au maintien de l’intégrité génomique des organites, et ce, tant chez Arabidopsis que chez l’humain. Ce type d’instabilité génomique est dénommé réarrangement de type U-turn et est vraisemblablement associé au processus de réplication. Par une approche génétique, nous démontrons que les protéines chloroplastiques WHY1, WHY3 et RECA1 empêchent la formation de ce type d’instabilité génomique, probablement en favorisant la stabilisation et le redémarrage des fourches de réplication bloquées. Une forte accumulation de réarrangements de type U-turn semble d’ailleurs être à l’origine d’un sévère trouble développemental chez le mutant why1why3reca1. Ceci soulève de nombreuses questions quant à l’implication de ce type d’instabilité génomique dans de nombreux troubles et pathologies possédant une composante mitochondriale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est maintenant commun de soumettre les projets à une analyse de durabilité avant qu’ils ne soient autorisés, et ce, malgré la diversité de sens que peut prendre ce type d’analyse. Cette démarche, grandement inspirée de l’évaluation d’impact, a pour principal objectif d’évaluer ex ante les enjeux sociaux, écologiques et économiques des projets au travers du prisme du développement durable. À cet effet, les principes comme l’efficacité économique, la prévention des dommages, l’acceptabilité sociale et l’équité intergénérationnelle, peuvent servir de guide après leur préalable traduction en indicateurs opérationnels. L’objectif de la recherche est de trouver comment le développement durable peut s’intégrer dans le processus décisionnel menant aux choix des stratégies de décontamination des sols et de proposer une démarche propre à l’évaluation de tels projets. La méthode développée devra permettre plus spécifiquement d’intégrer systématiquement les principes du développement durable dans le processus décisionnel; d’orienter les parties prenantes dans une démarche commune; de minimiser les effets négatifs sur l’environnement et les populations touchées et réduire les risques économiques; et finalement, d’adopter une vision holistique des projets.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif de cette étude est de réaliser une analyse comparative de la pauvreté et de la structure de consommation des ménages des capitales des Etats membres de l’Union Economique et Monétaire Ouest Africaine (UEMOA) à partir des données des enquêtes dépenses des ménages (EDM) réalisées en 2008 dans ces agglomérations. En s’appuyant sur l’approche monétaire de la pauvreté mise en oeuvre par la méthode du coût des besoins essentiels, il ressort que plus d’un ménage sur 10, soit 10,5% de l’ensemble de la population étudiée vit sous le seuil de pauvreté estimé à 277450 F CFA de dépenses annuelles par unité de consommation. Le test de dominance stochastique de 1er ordre confirme que l’ampleur du phénomène est en moyenne plus importante dans les villes sahéliennes (Bamako, Niamey, Ouagadougou) que dans les grandes villes côtières (Abidjan, Dakar, Lomé). Par ailleurs, l’analyse économétrique révèle que la taille du ménage et le capital humain du chef de ménage sont des déterminants importants du niveau de vie monétaire des ménages. En effet, tandis que le risque de pauvreté est plus élevé chez les ménages de grande taille, le niveau de vie d’un ménage est d’autant plus élevé que le niveau d’instruction du chef est important. En outre, on observe que dans les agglomérations où le taux de pauvreté est le plus élevé, les ménages accordent un poids plus élevé aux dépenses alimentaires. Enfin, l’estimation des élasticités dépenses totales de la demande à l’aide d’une régression linéaire suggère qu’en moyenne, les besoins de consommation insatisfaits par les ménages portent sur les services (les transports, la communication, la santé, l’éducation et les loisirs).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de cette thèse était d’étudier la dynamique de croissance par pulvérisation par plasma RF magnétron des couches minces à base d’oxyde de zinc destinées à des applications électroniques, optoélectroniques et photoniques de pointe. Dans ce contexte, nous avons mis au point plusieurs diagnostics permettant de caractériser les espèces neutres et chargées dans ce type de plasmas, notamment la sonde électrostatique, la spectroscopie optique d’émission et d’absorption, ainsi que la spectrométrie de masse. Par la suite, nous avons tenté de corréler certaines caractéristiques physiques de croissance des couches de ZnO, en particulier la vitesse de dépôt, aux propriétés fondamentales du plasma. Nos résultats ont montré que l’éjection d’atomes de Zn, In et O au cours de la pulvérisation RF magnétron de cibles de Zn, ZnO et In2O3 n’influence que très peu la densité d’ions positifs (et donc la densité d’électrons en supposant la quasi-neutralité) ainsi que la fonction de distribution en énergie des électrons (populations de basse et haute énergie). Cependant, le rapport entre la densité d’atomes d’argon métastables (3P2) sur la densité électronique décroît lorsque la densité d’atomes de Zn augmente, un effet pouvant être attribué à l’ionisation des atomes de Zn par effet Penning. De plus, dans les conditions opératoires étudiées (plasmas de basse pression, < 100 mTorr), la thermalisation des atomes pulvérisés par collisions avec les atomes en phase gazeuse demeure incomplète. Nous avons montré que l’une des conséquences de ce résultat est la présence d’ions Zn+ suprathermiques près du substrat. Finalement, nous avons corrélé la quantité d’atomes de Zn pulvérisés déterminée par spectroscopie d’émission avec la vitesse de dépôt d’une couche mince de ZnO mesurée par ellipsométrie spectroscopique. Ces travaux ont permis de mettre en évidence que ce sont majoritairement les atomes de Zn (et non les espèces excitées et/ou ioniques) qui gouvernent la dynamique de croissance par pulvérisation RF magnétron des couches minces de ZnO.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les plantes envahissantes menacent la biodiversité ainsi que les activités humaines. Afin de les maîtriser, la pulvérisation d'herbicides est une méthode fréquemment employée en Amérique du Nord. Cette approche ne fait pas toujours consensus et est même parfois interdite ou restreinte, ce qui justifie le recours à d'autres options. Les alternatives peuvent toutefois s'avérer rares, comporter d'importantes limitations ou sont peu documentées. Cette étude vise à tester l’efficacité de méthodes permettant de maîtriser et de prévenir les invasions de roseau commun (Phragmites australis), l'une des plantes envahissantes les plus problématiques sur le continent nord-américain, tout en limitant au minimum l'utilisation d'herbicides. Le potentiel de quatre méthodes de lutte aux petites populations de roseau bien établies a d'abord été évalué : l’excavation avec enfouissement sur place, le bâchage, l’excavation avec enfouissement sur place combinée au bâchage, et la fauche répétée. Les résultats ont montré que l'excavation avec enfouissement sur place, avec ou sans bâchage, a entraîné une élimination presque totale des populations visées, ce qui est comparable ou supérieur à l'effet généralement obtenu avec la pulvérisation d'herbicide. Le bâchage avec des toiles opaques, maintenues pendant un an, a pour sa part entraîné une maîtrise partielle du roseau, suggérant qu'une application prolongée serait nécessaire pour l'éradication de la plante. La fauche répétée, exécutée à raison de cinq fauches par été pendant deux ans, a fourni une efficacité mitigée. Les résultats suggèrent néanmoins que la fauche pendant plusieurs années contribue à affaiblir la plante, ce qui pourrait aider à son confinement. Une méthode additionnelle a été expérimentée afin de traiter les tiges éparses de roseau tout en limitant les risques d'effets hors cibles, soit le badigeonnage manuel d’herbicide. Suite à ces tests, les résultats ont montré une diminution importante de la densité des tiges, ce qui suggère que la méthode est efficace afin d'éliminer les repousses après un traitement initial, et pourrait également être employée sur de jeunes populations clairsemées. L'effet d'un ensemencement préventif de plantes herbacées sur l'établissement de semis de roseau a également été étudié, suite à des traitements sur de vastes parcelles de sol nu. Les résultats suggèrent que la méthode est efficace afin de limiter la propagation du roseau par semences et qu'un suivi périodique suite à l'intervention serait suffisant afin de maintenir l'effet préventif.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche vise à explorer la satisfaction à l’égard des services reçus par les militaires diagnostiqués d’un trouble de stress post-traumatique (TSPT) et leur conjointe, ainsi qu’à comprendre leurs besoins et le sens donné au TSPT. Nous utilisons l’analyse qualitative exploratoire comme méthode d’analyse de données. Nous découvrons d’une part que les militaires et les conjointes rencontrées souhaitent recevoir des services adaptés à leur situation particulière (cas par cas) et d’autre part, que tous les répondants ont le besoin commun que l’on reconnaisse leurs sacrifices. Pour les militaires, une manière de reconnaitre ces sacrifices serait de respecter leurs souhaits et leurs demandes en ce qui concerne les soins. Une prise en charge complète de l’aspect administratif du rétablissement et de la libération serait également souhaitable lorsqu’indiquée. Nous trouvons également des différences entre les militaires ayant reçu un diagnostic de TSPT il y a plus de 5 ans et ceux qui l’ont reçu récemment. Nous proposons des hypothèses liées à ces différences. Finalement, les lacunes importantes en ce qui concerne les services offerts aux conjointes sont le manque de connaissance de ces dits services par les conjointes, la stigmatisation et la perception négative qu’ont les conjointes à l’égard du principal prestataire de service, les centres de ressources pour les familles des militaires. Cette étude nous permet de faire des recommandations en lien avec les résultats trouvés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les introns sont des portions de gènes transcrites dans l’ARN messager, mais retirées pendant l’épissage avant la synthèse des produits du gène. Chez les eucaryotes, on rencontre les introns splicéosomaux, qui sont retirés de l’ARN messager par des splicéosomes. Les introns permettent plusieurs processus importants, tels que l'épissage alternatif, la dégradation des ARNs messagers non-sens, et l'encodage d'ARNs fonctionnels. Leurs rôles nous interrogent sur l'influence de la sélection naturelle sur leur évolution. Nous nous intéressons aux mutations qui peuvent modifier les produits d'un gène en changeant les sites d'épissage des introns. Ces mutations peuvent influencer le fonctionnement d'un organisme, et constituent donc un sujet d'étude intéressant, mais il n'existe actuellement pas de logiciels permettant de les étudier convenablement. Le but de notre projet était donc de concevoir une méthode pour détecter et analyser les changements des sites d'épissage des introns splicéosomaux. Nous avons finalement développé une méthode qui repère les évènements évolutifs qui affectent les introns splicéosomaux dans un jeu d'espèces données. La méthode a été exécutée sur un ensemble d'espèces d'oomycètes. Plusieurs évènements détectés ont changé les sites d’épissage et les protéines, mais de nombreux évènements trouvés ont modifié les introns sans affecter les produits des gènes. Il manque à notre méthode une étape finale d'analyse approfondie des données récoltées. Cependant, la méthode actuelle est facilement reproductible et automatise l'analyse des génomes pour la détection des évènements. Les fichiers produits peuvent ensuite être analysés dans chaque étude pour répondre à des questions spécifiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous avons cherché des relations empiriques entre l’abondance des macrophytes submergés et le développement résidentiel du bassin versant, les propriétés du lac et la présence de milieux humides dans 34 lacs de la région des Laurentides et de Lanaudière sélectionnés à travers un gradient de développement résidentiel. Les macrophytes submergés ont été échantillonnés par méthode d’échosondage à l’intérieur de la zone littorale. L’abondance moyenne des macrophytes a ensuite été estimée à l’intérieur de quatre zones de croissance optiquement définies (profondeur maximale = 75 %, 100 %, 125 % et 150 % de la profondeur de Secchi) ainsi qu’à l’intérieur de toute la zone littorale. L’occupation humaine a été considérée selon trois échelles spatiales : celle présente 1- dans un rayon de 100 mètres autour du lac, 2- dans la fraction du bassin versant qui draine directement vers le lac et 3- dans le bassin versant en entier. Nous avons aussi testé, lac par lac, l’effet de la pente locale sur l’abondance des macrophytes. Nous avons observé des corrélations positives et significatives entre l’abondance des macrophytes submergés et l’occupation humaine de l’aire de drainage direct (r > 0.51). Toutefois, il n’y a pas de relation entre l’abondance des macrophytes submergés et l’occupation humaine de la bande de 100 mètres entourant le lac et du bassin versant entier. Les analyses de régression multiple suggèrent que l’abondance des macrophytes submergés est faiblement corrélée avec l’aire du lac (+) et avec la présence de milieux humides dans le bassin versant entier (-). Localement, l’abondance des macrophytes est reliée à la pente et à la profondeur qui expliquent 21% de la variance. Les profondeurs de colonisation maximale et optimale des macrophytes submergés sont corrélées positivement au temps de résidence et à la profondeur de Secchi et négativement à l’occupation humaine et à l’importance des milieux humides.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente thèse poursuit l'objectif général de mieux comprendre l'expérience de la transplantation d'organe de la perspective de dyades comprenant un donneur et un receveur d'une donation vivante de rein. Pour ce faire, nous proposons une exploration en profondeur de la trajectoire de transplantation et des enjeux relationnels des donneurs et des receveurs. Un second objectif, qui s'est développé au cours de la recherche, est de contribuer à une meilleure compréhension des enjeux entourant la recherche qualitative impliquant des dyades. Cette thèse est présentée sous la forme de trois articles. Le premier article vise, par le biais de la méthode du méta-résumé, à dresser un portrait le plus complet possible du processus de donation tel qu'il avait été examiné à ce jour par les écrits empiriques qualitatifs disponibles, et à mettre en lumière les aspects qui avaient encore peu été appréhendés par les chercheurs, notamment l'importance de considérer conjointement au sein d'une même recherche des donneurs et des receveurs d'une donation vivante de rein. Le deuxième article a pour but d'explorer en profondeur l'expérience vécue pour des dyades de donneurs et de receveurs en contexte de donation vivante de rein, et en particulier la trajectoire de transplantation ainsi que les enjeux relationnels. Des entrevues qualitatives ont été menées auprès de cinq dyades (donc cinq donneurs et cinq receveurs). L'analyse phénoménologique interprétative des données recueillies propose un portrait de la trajectoire de transplantation, soit (a) l'expérience de la maladie du receveur, (b) l'expérience d'offrir et d'accepter un rein, (c) la période des tests, (d) la transplantation d'organe à proprement parler et finalement (e) la période post-transplantation. Un apport particulièrement significatif de l'analyse et de l'interprétation de nos données est la mise en relief que le processus de transplantation est mieux compris lorsque l'on considère le contexte social et interpersonnel plus large dans lequel évolue chaque dyade donneur-receveur, et en ce sens, la décision de donner ou d'accepter un rein peut être appréhendée comme un prolongement du rôle social auquel la personne adhère par rapport à autrui dans sa vie quotidienne. Le troisième article, qui a émergé des leçons acquises en réalisant la recherche effectuée dans l'article précédent, vise à décrire et discuter des défis éthiques et des impacts des décisions méthodologiques dans le cadre de recherches qualitatives impliquant des dyades de personnes se connaissant. Sur la base de nos propres défis empiriques et des écrits scientifiques disponibles, des réflexions et recommandations sont suggérées à différents stades d'un processus typique de recherche qualitative, soit (a) le recrutement, (b) le consentement à participer, (c) la collecte de données, (d) la validation des transcriptions par les participants, (e) l'analyse de données, et (f) la dissémination des résultats. Une réflexion en amont des enjeux entourant ces étapes est susceptible de faciliter l'entreprise de recherches qualitatives impliquant des dyades. En conclusion, les résultats de notre analyse soulignent l'importance du rôle social et du contexte interpersonnel plus large dans lequel évoluent les donneurs et les receveurs dans la façon dont ils parviennent à donner une signification à leur expérience. Enfin, si la recherche qualitative impliquant des dyades est en émergence, des défis éthiques et des décisions méthodologiques rigoureuses doivent être considérés en amont.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les cellules myéloïdes incluant les monocytes, les macrophages et les cellules dendritiques (DCs, dendritic cells) contribuent à la pathogénèse de l’infection à VIH-1 en participant à la dissémination du virus, mais également en représentant des réservoirs viraux potentiels. Leurs fonctions sont exploitées par le VIH-1 afin d’assurer sa propagation à travers l’organisme. Notamment, une infection à VIH-1 est associée à une altération de la présentation antigénique et la perte de lymphocytes T CD4+ spécifiques à des antigènes. L’autophagie est un processus catabolique universel impliqué dans la régulation de la présentation antigénique subséquente à la neutralisation/destruction du pathogène. Des études récentes suggèrent que le VIH-1 altère le mécanisme d’autophagie afin d’assurer sa survie. Le premier volet de ce projet de maîtrise a visé la caractérisation des effets du VIH-1 sur l’autophagie dans les DCs dérivées de monocytes circulants (MDDC, monocyte-derived dendritic cells) et l’identification des stratégies thérapeutiques pour contrecarrer ces effets. Les objectifs spécifiques ont été de : (i) caractériser l’expression de marqueurs de maturation sur des MDDC exposées au VIH-1 in vitro, (ii) quantifier l’expression des protéines liées à la régulation positive (i.e., ATG5, LC3, p62) et négative (i.e., mTOR) de l’autophagie dans les MDDC exposées au VIH, (iii) déterminer le rôle de l’autophagie dans la trans infection du VIH-1 aux lymphocytes T CD4+ et (iv) explorer l’impact de l’autophagie sur la présentation antigénique par les MDDC infectées à VIH-1 in vitro. Nos résultats démontrent qu’une exposition des MDDC au VIH-1 in vitro altère dramatiquement leur maturation et leur habileté à induire la prolifération des cellules T autologues en réponse à Staphylococcus aureus et Cytomegalovirus (CMV) mais pas la réponse induite par Staphylococcal enterotoxin B (SEB). Nous démontrons que l’exposition des MDDC au VIH s’associe à une augmentation de l’expression de la protéine mTOR totale et de sa forme phosphorylée (phospho-mTOR) et de la protéine p62. Le traitement des MDDC à la rapamycine diminue l’expression de mTOR et réduit la capacité de trans infection du VIH-1 par les MDDC, sans toutefois restaurer leur potentiel immunogène. En effet, nous observons que la rapamycine réduit l’expression de CD83 par les MDDC et augmente l’expression de CCR7, indiquant ainsi que l’effet immunosuppresseur documenté de la rapamycine est associé à une défaillance de maturation des MDDC. Le second volet de ce projet de recherche s’est intéressé à la contribution des cellules myéloïdes à la persistance virale chez les sujets infectés par le VIH-1 sous thérapie antirétrovirale. Les objectifs spécifiques ont été : (i) d’évaluer la présence de différentes formes d’ADN viral dans les monocytes circulants de patients infectés par le VIH-1 et (ii) de mesurer l’intégration et la réplication virale dans des macrophages dérivés de monocytes (MDM) de patients infectés sous ART. Nos résultats indiquent que les monocytes portent des formes précoces de transcription virale inverse (ADN du VIH RU5) et que, malgré une charge virale plasmatique indétectable sous ART, les MDM supportent la réplication virale. Ces données très préliminaires apportent des évidences en faveur de la contribution des cellules myéloïdes à la persistance virale sous ART et représentent une ouverture pour un projet de recherche plus complexe dans le futur. En somme, nos résultats démontrent que le VIH-1 altère le potentiel immunogène des MDDC et que la rapamycine peut être employée pour limiter la trans infection des lymphocytes T CD4+ par les MDDC. Néanmoins, l’incapacité de la rapamycine à rétablir le potentiel immunogène des MDDC incite à identifier de nouvelles stratégies manipulant l’autophagie pour une restauration optimale de la compétence immunitaire chez les sujets infectés à VIH-1. Les cellules myéloïdes jouent un rôle primordial dans la dissémination et la persistance virale et doivent donc être ciblées par les stratégies actuelles d’éradication des réservoirs du VIH sous ART.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La pléthymographie pénienne est considérée comme la méthode la plus objective pour évaluer les intérêts sexuels d'hommes adultes. Par contre, un nombre grandissant de chercheurs déplorent le manque de correspondance qui existe entre les stimuli présentés dans ce type d'évaluation et la réalité. Il est proposé de tenter de remédier à cette lacune en utilisant des personnages virtuels générés par ordinateur et présentant une variété de dispositions affectives lors d'évaluations pléthysmographiques. Ces stimuli n'ont jamais été utilisés dans l'évaluation des intérêts sexuels auprès d’agresseurs sexuels d'enfants. Cette thèse est composée de deux articles qui visent à soutenir le recours à ce type de stimuli lors d'évaluations pléthysmographiques. Afin d'atteindre cet objectif, des hommes ayant eu ou non des contacts sexuels avec des enfants ont été recrutés dans le but de les comparer. Une première étude empirique est bipartite. Elle vise en premier lieu à déterminer auprès d'une population étudiante si les dispositions affectives simulées par les personnages virtuels sont identifiables. Elle cherche ensuite à déterminer la capacité des personnages virtuels à générer un profil d'excitation sexuelle propre à un groupe d'individus n'ayant pas de problématique sexuelle. La seconde étude expérimentale porte sur la comparaison des profils de réponses érectiles issus de la présentation des personnages virtuels et évalue leur capacité à discriminer les individus selon qu'ils possèdent ou non des antécédents en matière de délinquance sexuelle envers les enfants. Dans l'ensemble, les résultats soutiennent l'utilisation de ces stimuli lors d'évaluations pléthysmographiques. Ils démontrent que les personnages virtuels simulent les dispositions affectives prévues et qu'ils génèrent des profils d'excitation sexuelle et des indices de déviance permettant de discriminer entre les groupes à l'étude. Ce projet de recherche présente les avantages associés à la présentation des personnages virtuels simulant différentes dispositions affectives lors de l'évaluation des intérêts sexuels chez les agresseurs d'enfants et propose des avenues intéressantes en termes d'évaluation et de traitement auprès de cette population.