993 resultados para Lipoprotéines de faible densité
Resumo:
Les thiols à faible masse moléculaire (FMM) peuvent affecter la biodisponibilité du mercure et mener à une plus grande production de méthylmercure par les microorganismes méthylants. Les résultats d’une étude réalisée au sein de la matrice extracellulaire du périphyton de la zone littorale d’un lac des Laurentides ont démontré que les concentrations en thiols à FMM retrouvées dans cette matrice sont jusqu’à 1000 fois supérieures à celles de la colonne d’eau avoisinante. Ces thiols sont significativement corrélés à la chlorophylle a du périphyton, suggérant une production par les algues. Le mercure de la matrice extracellulaire, plus spécifiquement dans la fraction colloïdale mobile, est aussi corrélé aux thiols d’origine algale. Ces résultats suggèrent qu’une accumulation de thiols s’opère dans l’espace extracellulaire du périphyton et qu’ils peuvent favoriser le transfert du mercure vers les microorganismes produisant le méthylmercure. Les résultats d’une seconde étude menée sur les méthodes de préservation d’échantillons d’eau pour la conservation des thiols à FMM ont démontré que la température optimale d’entreposage était de -80 °C et que la lyophilisation menait à une sous-estimation des concentrations mesurées. Les taux de dégradation étaient plus rapides lors de la conservation à -20 °C et variables selon la chimie de l’eau utilisée et les espèces de thiols observées. Suivant ces résultats, nous proposons un cadre de recherche pour de futures études sur la spéciation du mercure dans le périphyton et nous suggérons des précautions lors de la manipulation et de la conservation des thiols à FMM d’échantillons naturels.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
L’avancement en âge est associé à plusieurs modifications cognitives, dont un déclin des capacités à mémoriser et/ou à rappeler les événements vécus personnellement. Il amène parallèlement une augmentation des faux souvenirs, c.-à-d. le rappel d’événements qui ne se sont pas réellement déroulés. Les faux souvenirs peuvent avoir d’importantes répercussions dans la vie quotidienne des personnes âgées et il importe donc de mieux comprendre ce phénomène en vieillissement normal. Des études ont démontré l’importance de la fonction des lobes temporaux médians (FTM)/mémoire et de la fonction des lobes frontaux (FF)/fonctions exécutives dans l’effet de faux souvenirs. Ainsi, la première étude de la thèse visait à valider en français une version adaptée d’une méthode proposée par Glisky, Polster, & Routhieaux (1995), permettant de mesurer ces fonctions cognitives (Chapitre 2). L’analyse factorielle de cette étude démontre que les scores neuropsychologiques associés à la mémoire se regroupent en un facteur, le facteur FTM/mémoire, alors que ceux associés aux fonctions exécutives se regroupent en un deuxième facteur, le facteur FF/fonctions exécutives. Des analyses « bootstrap » effectuées avec 1 000 ré-échantillons démontrent la stabilité des résultats pour la majorité des scores. La deuxième étude de cette thèse visait à éclairer les mécanismes cognitifs (FTM/mémoire et FF/fonctions exécutives) ainsi que théoriques de l’effet de faux souvenirs accru en vieillissement normal (Chapitre 3). La Théorie des Traces Floues (TTF; Brainerd & Reyna, 1990) propose des explications de l’effet de faux souvenirs pour lesquelles la FTM/mémoire semble davantage importante, alors que celles proposées par la Théorie de l’Activation et du Monitorage (TAM; Roediger, Balota, & Watson, 2001) sont davantage reliées à la FF/fonctions exécutives. Les tests neuropsychologiques mesurant la FTM/mémoire ainsi que ceux mesurant la FF/fonctions exécutives ont été administrés à 52 participants âgés (moyenne de 67,81 ans). Basé sur l’étude de validation précédente, un score composite de la FTM/mémoire et un score composite de la FF/fonctions exécutives ont été calculés pour chaque participant. Ces derniers ont d’abord été séparés en deux sous-groupes, un premier au score FTM/mémoire élevé (n = 29, âge moyen de 67,45 ans) et un deuxième au score FTM/mémoire faible (n = 23, âge moyen de 68,26 ans) en s’assurant de contrôler statistiquement plusieurs variables, dont le score de la FF/fonctions exécutives. Enfin, ces participants ont été séparés en deux sous-groupes, un premier au score FF/fonctions exécutives élevé (n = 26, âge moyen 68,08 ans) et un deuxième au score FF/fonctions exécutives faible (n = 25, âge moyen de 67,36 ans), en contrôlant les variables confondantes, dont le score de la FTM/mémoire. Les proportions de vraie et de fausse mémoire (cibles et leurres associatifs) ont été mesurées à l’aide d’un paradigme Deese-Roediger et McDermott (DRM; Deese, 1959; Roediger & McDermott, 1995), avec rappel et reconnaissance jumelée à une procédure « Je me souviens / Je sais » (Tulving, 1985) chez les 52 participants âgés ainsi que chez 22 jeunes (âge moyen de 24,59 ans), apparié pour les années de scolarité. D’abord, afin de tester l’hypothèse de la TTF (Brainerd & Reyna, 1990), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FTM/mémoire. Ensuite, afin de tester l’hypothèse de la TAM (Roediger et al., 2001), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FF/fonctions exécutives. Il s’agit de la première étude qui compare directement ces hypothèses à travers de nombreuses mesures de vraie et de fausse mémoire. Les résultats démontrent que seule la FTM/mémoire modulait l’effet d’âge en vraie mémoire, et de manière quelque peu indirecte, en fausse mémoire et dans la relation entre la vraie et la fausse remémoration. Ensuite, les résultats démontrent que seule la FF/fonctions exécutives jouerait un rôle dans la fausse reconnaissance des leurres associatifs. Par ailleurs, en des effets d’âge sont présents en faux rappel et fausse remémorations de leurres associatifs, entre les jeunes adultes et les personnes âgées au fonctionnement cognitif élevé, peu importe la fonction cognitive étudiée. Ces résultats suggèrent que des facteurs autres que la FTM/mémoire et la FF/fonctions exécutives doivent être identifiés afin d’expliquer la vulnérabilité des personnes âgées aux faux souvenirs. Les résultats de cette thèse sont discutés à la lumière des hypothèses théoriques et cognitives en faux souvenirs (Chapitre 4).
Resumo:
L’objectif général de la thèse était d’élargir les connaissances scientifiques sur le sommeil des enfants. La thèse est composée de quatre articles empiriques. Le premier visait à estimer la validité de l’actigraphie comme mesure de sommeil chez les enfants d’âge préscolaire en la comparant à la polysomnographie, et à examiner si son emplacement influence sa validité. 12 enfants âgés de 2 à 5 ans ont porté simultanément un actigraphe à la cheville et un au poignet pendant une nuit d’enregistrement polysomnographique. Les résultats démontrent que l’actigraphie permet une bonne détection du sommeil, mais qu’elle détecte moins bien l’éveil. Cet article suggère également que les jeunes enfants nécessitent un algorithme adapté à leur niveau d’activité nocturne. Enfin, la validité de l'actigraphie semble similaire pour le poignet et la cheville. Le deuxième article visait à comparer trois mesures de sommeil souvent utilisées avec de jeunes enfants, soit les agendas de sommeil, l’échelle des problèmes de sommeil du Child Behavior Checklist (CBCL) et l’actigraphie, afin de déterminer leurs similarités et leurs divergences quant aux variables de sommeil qui en sont dérivées. 80 familles ont participé à cette étude lorsque les enfants étaient âgés de 2 ans. Les enfants ont porté un actigraphe durant 72 heures consécutives et les mères ont complété un agenda de sommeil durant cette même période. Les deux parents ont aussi rempli le CBCL. Les résultats démontrent que ces mesures de sommeil évaluent des aspects différents du sommeil de l’enfant, et suggèrent une concordance particulièrement faible entre les mesures subjectives et objectives. Le troisième article visait à évaluer l’apport unique de la sécurité d’attachement dans la prédiction du sommeil de l’enfant. 62 dyades mère-enfant ont été rencontrées à deux reprises. La sécurité d’attachement et la dépendance ont été évaluées par observation à l’aide du Q-Sort d’attachement lorsque l’enfant avait 15 mois. À l’âge de 2 ans, les enfants ont porté un actigraphe durant 3 jours consécutifs. Les résultats indiquent que la sécurité d'attachement a une contribution unique à la prédiction de la durée du sommeil nocturne et de l'efficacité du sommeil nocturne. Ainsi, cette étude suggère que plus les enfants ont un attachement sécurisant envers leur mère, plus grandes sont la durée et la qualité de leur sommeil quelques mois plus tard. Le quatrième article visait à examiner la relation entre le sommeil et les comportements extériorisés. 64 familles ont participé à cette étude. À l’âge de 2 ans, les enfants ont porté un actigraphe durant 72 heures consécutives et les parents ont complété le CBCL. Lorsque les enfants étaient âgés de 4 ans, les parents ainsi que l’éducateur(trice) de garderie ont rempli le CBCL. Les résultats démontrent que le sommeil de l’enfant est associé aux comportements extériorisés concomitants et à l’augmentation de ceux-ci à travers le temps. Par ailleurs, les relations entre la qualité de sommeil et les comportements extériorisés étaient modérées par le sexe de l’enfant, c’est-à-dire significatives seulement chez les garçons. Les résultats des quatre articles sont finalement intégrés dans la discussion générale.
Resumo:
Le but de cette thèse était d’étudier la dynamique de croissance par pulvérisation par plasma RF magnétron des couches minces à base d’oxyde de zinc destinées à des applications électroniques, optoélectroniques et photoniques de pointe. Dans ce contexte, nous avons mis au point plusieurs diagnostics permettant de caractériser les espèces neutres et chargées dans ce type de plasmas, notamment la sonde électrostatique, la spectroscopie optique d’émission et d’absorption, ainsi que la spectrométrie de masse. Par la suite, nous avons tenté de corréler certaines caractéristiques physiques de croissance des couches de ZnO, en particulier la vitesse de dépôt, aux propriétés fondamentales du plasma. Nos résultats ont montré que l’éjection d’atomes de Zn, In et O au cours de la pulvérisation RF magnétron de cibles de Zn, ZnO et In2O3 n’influence que très peu la densité d’ions positifs (et donc la densité d’électrons en supposant la quasi-neutralité) ainsi que la fonction de distribution en énergie des électrons (populations de basse et haute énergie). Cependant, le rapport entre la densité d’atomes d’argon métastables (3P2) sur la densité électronique décroît lorsque la densité d’atomes de Zn augmente, un effet pouvant être attribué à l’ionisation des atomes de Zn par effet Penning. De plus, dans les conditions opératoires étudiées (plasmas de basse pression, < 100 mTorr), la thermalisation des atomes pulvérisés par collisions avec les atomes en phase gazeuse demeure incomplète. Nous avons montré que l’une des conséquences de ce résultat est la présence d’ions Zn+ suprathermiques près du substrat. Finalement, nous avons corrélé la quantité d’atomes de Zn pulvérisés déterminée par spectroscopie d’émission avec la vitesse de dépôt d’une couche mince de ZnO mesurée par ellipsométrie spectroscopique. Ces travaux ont permis de mettre en évidence que ce sont majoritairement les atomes de Zn (et non les espèces excitées et/ou ioniques) qui gouvernent la dynamique de croissance par pulvérisation RF magnétron des couches minces de ZnO.
Resumo:
La greffe de cellules souches hématopoïétiques est parfois le seul traitement efficace contre les cancers hématologiques ainsi que plusieurs autres désordres reliés au système hématopoïétique. La greffe autologue est souvent le traitement de choix pour les patients atteints de lymphome ou de myélome. Dans ce cas, les cellules souches hématopoïétiques (CSH) du patient sont récoltées et congelées. Le patient subit ensuite des traitements de chimiothérapie et/ou radiothérapie qui éliminent les cellules malignes, mais détruisent aussi son système hématopoïétique. Ce dernier sera ensuite reconstitué par la greffe de CSH. Ces traitements ont pour conséquence de plonger le patient en état d’aplasie pour une période variant de 2 à 4 semaines. La thrombocytopénie (faible taux de plaquettes) est une complication majeure nécessitant des transfusions plaquettaires répétées et associée à une augmentation de la mortalité hémorragique post-transplantation. Il serait particulièrement intéressant de développer une thérapie accélérant la reconstitution des mégacaryocytes (MK), ce qui aurait pour effet de raccourcir la période de thrombopénie et donc de diminuer les besoins transfusionnels en plaquettes et potentiellement augmenter la survie. HOXB4 est un facteur de transcription qui a déjà démontré sa capacité à expandre les CSH et les progéniteurs multipotents (CFU-GEMM) donnant naissance aux MK. Il est donc un bon candidat pour l’expansion des progéniteurs MK. Comme la protéine HoxB4 a par contre une courte demi-vie (~1.1h), des protéines HoxB4 de deuxième génération avec une plus grande stabilité intracellulaire ont été créées (1423 (HoxB4L7A), 1426 (HoxB4Y23A) et 1427 (HoxB4Y28A)). Nous avons donc étudié la capacité d’HoxB4 sauvage et de deuxième génération à expandre les CSH, ainsi que les MK donnant naissance aux plaquettes. La surexpression rétrovirale de ces protéines HoxB4Y23A et HoxB4Y28A conduit à une expansion des progéniteurs MK murins in vitro supérieure à HoxB4-wt, 1423 et au contrôle GFP. La reconstitution plaquettaire in vivo dans un modèle murin a ensuite été évaluée par des transplantations primaires et secondaires. Les résultats révèlent que la surexpression rétrovirale des différents HoxB4 n’apporte pas de bénéfice significatif à la reconstitution plaquettaire des souris. Lorsque cultivées dans un milieu favorisant la différenciation mégacaryocytaire, le traitement de cellules CD34+ dérivées du sang de cordon ombilical avec les protéines recombinantes TATHoxB4WT ou de seconde génération n’a pas augmenté la production plaquettaire. Par contre, de manière intéressante, les cellules CD34+ provenant de sang mobilisé de patients atteints de myélome et mises en culture dans un milieu favorisant l’expansion des CSH ont montré des différences significatives dans la différenciation des progéniteurs MK en présence de la protéine recombinante TATHoxB4. La protéine HOXB4 possède donc un avenir prometteur quant à une amélioration de l’état thrombocytopénique chez les patients.
Resumo:
Les plantes envahissantes menacent la biodiversité ainsi que les activités humaines. Afin de les maîtriser, la pulvérisation d'herbicides est une méthode fréquemment employée en Amérique du Nord. Cette approche ne fait pas toujours consensus et est même parfois interdite ou restreinte, ce qui justifie le recours à d'autres options. Les alternatives peuvent toutefois s'avérer rares, comporter d'importantes limitations ou sont peu documentées. Cette étude vise à tester l’efficacité de méthodes permettant de maîtriser et de prévenir les invasions de roseau commun (Phragmites australis), l'une des plantes envahissantes les plus problématiques sur le continent nord-américain, tout en limitant au minimum l'utilisation d'herbicides. Le potentiel de quatre méthodes de lutte aux petites populations de roseau bien établies a d'abord été évalué : l’excavation avec enfouissement sur place, le bâchage, l’excavation avec enfouissement sur place combinée au bâchage, et la fauche répétée. Les résultats ont montré que l'excavation avec enfouissement sur place, avec ou sans bâchage, a entraîné une élimination presque totale des populations visées, ce qui est comparable ou supérieur à l'effet généralement obtenu avec la pulvérisation d'herbicide. Le bâchage avec des toiles opaques, maintenues pendant un an, a pour sa part entraîné une maîtrise partielle du roseau, suggérant qu'une application prolongée serait nécessaire pour l'éradication de la plante. La fauche répétée, exécutée à raison de cinq fauches par été pendant deux ans, a fourni une efficacité mitigée. Les résultats suggèrent néanmoins que la fauche pendant plusieurs années contribue à affaiblir la plante, ce qui pourrait aider à son confinement. Une méthode additionnelle a été expérimentée afin de traiter les tiges éparses de roseau tout en limitant les risques d'effets hors cibles, soit le badigeonnage manuel d’herbicide. Suite à ces tests, les résultats ont montré une diminution importante de la densité des tiges, ce qui suggère que la méthode est efficace afin d'éliminer les repousses après un traitement initial, et pourrait également être employée sur de jeunes populations clairsemées. L'effet d'un ensemencement préventif de plantes herbacées sur l'établissement de semis de roseau a également été étudié, suite à des traitements sur de vastes parcelles de sol nu. Les résultats suggèrent que la méthode est efficace afin de limiter la propagation du roseau par semences et qu'un suivi périodique suite à l'intervention serait suffisant afin de maintenir l'effet préventif.
Resumo:
Certains chercheurs veulent que les gouvernements modifient les déterminants de l’environnement urbain du transport actif dans des régions à bas statut socioéconomique pour réduire les inégalités en activité physique et santé. Mais, des individus de différents sousgroupes de la population pourraient réagir différemment à l’environnement urbain. Plusieurs chercheurs ont examiné si l’influence d’un environnement urbain propice aux piétons sur le transport actif diffère entre les personnes ayant un statut socioéconomique de quartier différent et ont obtenu des résultats mixtes. Ces résultats équivoques pourraient être dus à la façon dont les mesures de l’environnement urbain étaient déterminées. Plus spécifiquement, la plupart des études ont examiné l’effet de la propicité à la marche des lieux résidentiels et n’ont pas pris en compte les destinations non-résidentielles dans leurs mesures. Cette étude a examiné le statut socioéconomique du quartier comme modérateur de la relation entre l’environnement urbain et le transport actif en utilisant des mesures d’environnement urbain qui proviennent de toute la trajectoire spatiale estimé des individus. Les trois variables de l’environnement urbain, la connectivité, la densité des commerces et services et la diversité du territoire avaient une plus grande influence sur le transport actif de ceux avec un haut statut socioéconomique. Nos résultats suggèrent que même quand la configuration de l’environnement urbain est favorable pour le transport actif, il peut y avoir des barrières sociales ou physiques qui empêchent les gens qui habitent dans un quartier à bas statut socioéconomique de bénéficier d’un environnement urbain favorable au transport actif.
Resumo:
Introduction. Le VIH-1 évolue en fonction de la réponse immunitaire spécifique de l’hôte. La pression sélective exercée par la réponse immunitaire VIH-spécifique de l’hôte entraine l’évolution des gènes viraux et à terme détermine l’évolution de la maladie. Cette évolution du virus à l’échelle d’un individu façonne également l’évolution du virus à l’échelle de la population et détermine le devenir de l’épidémie. Le VIH utilise les corécepteurs d’entrée CCR5 (virus R5) et CXCR4 (virus X4) afin d’infecter la cellule cible, et l’évolution du tropisme du virus de R5 vers X4, appelé switch du tropisme, est associé à la progression de la maladie. Les virus R5 sont rencontrés en début d’infection tandis que les virus X4 apparaissent en fin de maladie chez un certain de nombre de patients et sont considérés comme plus virulents. La pression sélective immunitaire exercée sur le gène de l’enveloppe (env) peut donc entrainer l’évolution du tropisme du VIH. La grossesse est un état immunitaire particulier considéré comme étant principalement caractérisé par un biais Th2 nécessaire à l’établissement de la tolérance materno-fétale. Le switch de tropisme de R5 vers X4 en grossesse n’a jamais été documenté, de même que l’évolution des déterminants du tropisme à l’échelle de la population. Hypothèses. Les changements immunitaires associés à l’initiation et la progression de la grossesse engendrent des changements dans la pression immunitaire exercée sur l’enveloppe et peuvent favoriser le switch du tropisme. L’évolution du tropisme du VIH-1 peut être observé à l’échelle de la population au même titre que l’évolution de l’enveloppe virale. Objectifs. Analyser l’évolution du tropisme et décrire la pression sélective sur l’enveloppe des femmes enceintes infectées par le VIH-1. Analyser l’évolution des déterminants du tropisme à l’échelle de la population. Méthodes. Nous avons dans un premier temps analysé l’évolution des déterminants du tropisme et déterminé le génotype et phénotype du VIH-1 chez 19 femmes enceintes issues de la cohorte du centre maternel et infantile sur le SIDA de l’hôpital Sainte-Justine (CMIS). Nous avons ensuite caractérisé et comparé la pression sélective exercée sur env, par une méthode bayésienne, chez 31 femmes enceinte et 29 femmes non-enceintes. Enfin, nous avons analysé et comparé des déterminants du tropisme entre des séquences d’enveloppe contemporaines et anciennes, issues des bases de données du NCBI. Résultats. Nos résultats montrent la présence de virus X4 chez la moitié de notre cohorte, et un switch de tropisme de R5 vers X4 chez 5/19 sujets. Les séquences des femmes enceintes présentaient des taux de substitutions plus élevées que celles des femmes non-enceintes. La pression sélective dans la région C2 était plus faible chez les femmes enceintes que chez les femmes non-enceintes, et différait dans 4 positions entre ces 2 groupes. Cette sélection diminuait au cours de la grossesse chez les patientes traitées. Enfin, une accumulation de mutations X4 a été observée dans les séquences R5 contemporaines par rapport aux séquences R5 anciennes. Conclusion. Les changements immunitaires associés à la grossesse semblent induire des modifications subtiles dans la pression sélective exercée sur env, suffisant à influencer l’évolution du tropisme de R5 vers X4. Un switch du tropisme à l’échelle de la population impliquerait une épidémie évoluant vers une plus grande virulence du virus. Nos résultats sont d’importance en ce qui concerne la prophylaxie antirétrovirale pour la santé de la mère et la prévention de la transmission mère-enfant du VIH-1. Ils sont aussi importants concernant l’avenir de la thérapie antirétrovirale dans le contexte d’une épidémie évoluant vers une plus grande virulence
Resumo:
Campylobacter est l’agent pathogène zoonotique responsable de la majorité des gastro-entérites d’origine bactérienne chez l’homme. Les produits de volaille représentent la principale source d’infection; toutefois, l’exposition peut également découler de contacts directs avec les animaux ou avec l’eau. Une forte variation saisonnière est présente dans les cas rapportés, qui n’est toujours pas élucidée : les eaux environnementales, sources d’infection connues, sont soupçonnées. Cette étude transversale a été réalisée dans la région Sud-Est du Québec (Canada) où Campylobacter fut quantifié et génotypé à partir de différentes sources d’eau (eaux de captage, récréatives et usées) et de cas cliniques afin d’évaluer les risques potentiels posé par l’eau environnementale. Différents essais PCR en temps réel furent appliqués à l’eau environnementale et comparés: 2 ont été sélectionnés pour leur spécificité et sensibilité de quantification. Les courbes standards ont été calibrées en utilisant la PCR digitale pour déterminer précisément les concentrations. Les isolats environnementaux et cliniques furent comparés génétiquement en utilisant le CGF (« comparative genomic fingerprinting »). Les eaux usées étaient plus contaminées que les eaux de captage et récréatives (3.9Log, 1.7Log et 1.0Log cellules/L en moyenne, respectivement). Six pour cent des isolats d’eaux environnementales étaient génétiquement similaires (100 % homologie) aux isolats cliniques. Les cas cliniques de campylobactériose d’été montraient des isolats avec davantage de similarités génétiques avec les isolats retrouvés dans l’eau environnementale comparativement aux autres saisons (p<0.01). Les faibles concentrations et similarités génétiques entre les isolats d’eau et cliniques suggèrent un risque de transmission possible, mais faible.
Resumo:
La protéomique est un sujet d'intérêt puisque l'étude des fonctions et des structures de protéines est essentiel à la compréhension du fonctionnement d'un organisme donné. Ce projet se situe dans la catégorie des études structurales, ou plus précisément, la séquence primaire en acides aminés pour l’identification d’une protéine. La détermination des protéines commence par l'extraction d'un mélange protéique issu d'un tissu ou d'un fluide biologique pouvant contenir plus de 1000 protéines différentes. Ensuite, des techniques analytiques comme l’électrophorèse en gel polyacrylamide en deux dimensions (2D-SDS-PAGE), qui visent à séparer ce mélange en fonction du point isoélectrique et de la masse molaire des protéines, sont utilisées pour isoler les protéines et pour permettre leur identification par chromatographie liquide and spectrométrie de masse (MS), typiquement. Ce projet s'inspire de ce processus et propose que l'étape de fractionnement de l'extrait protéique avec la 2D-SDS-PAGE soit remplacé ou supporté par de multiples fractionnements en parallèle par électrophorèse capillaire (CE) quasi-multidimensionnelle. Les fractions obtenues, contenant une protéine seule ou un mélange de protéines moins complexe que l’extrait du départ, pourraient ensuite être soumises à des identifications de protéines par cartographie peptidique et cartographie protéique à l’aide des techniques de séparations analytiques et de la MS. Pour obtenir la carte peptidique d'un échantillon, il est nécessaire de procéder à la protéolyse enzymatique ou chimique des protéines purifiées et de séparer les fragments peptidiques issus de cette digestion. Les cartes peptidiques ainsi générées peuvent ensuite être comparées à des échantillons témoins ou les masses exactes des peptides enzymatiques sont soumises à des moteurs de recherche comme MASCOT™, ce qui permet l’identification des protéines en interrogeant les bases de données génomiques. Les avantages exploitables de la CE, par rapport à la 2D-SDS-PAGE, sont sa haute efficacité de séparation, sa rapidité d'analyse et sa facilité d'automatisation. L’un des défis à surmonter est la faible quantité de masse de protéines disponible après analyses en CE, due partiellement à l'adsorption des protéines sur la paroi du capillaire, mais due majoritairement au faible volume d'échantillon en CE. Pour augmenter ce volume, un capillaire de 75 µm était utilisé. Aussi, le volume de la fraction collectée était diminué de 1000 à 100 µL et les fractions étaient accumulées 10 fois; c’est-à-dire que 10 produits de séparations étaient contenu dans chaque fraction. D'un autre côté, l'adsorption de protéines se traduit par la variation de l'aire d'un pic et du temps de migration d'une protéine donnée ce qui influence la reproductibilité de la séparation, un aspect très important puisque 10 séparations cumulatives sont nécessaires pour la collecte de fractions. De nombreuses approches existent pour diminuer ce problème (e.g. les extrêmes de pH de l’électrolyte de fond, les revêtements dynamique ou permanent du capillaire, etc.), mais dans ce mémoire, les études de revêtement portaient sur le bromure de N,N-didodecyl-N,N-dimethylammonium (DDAB), un surfactant qui forme un revêtement semi-permanent sur la paroi du capillaire. La grande majorité du mémoire visait à obtenir une séparation reproductible d'un mélange protéique standard préparé en laboratoire (contenant l’albumine de sérum de bovin, l'anhydrase carbonique, l’α-lactalbumine et la β-lactoglobulin) par CE avec le revêtement DDAB. Les études portées sur le revêtement montraient qu'il était nécessaire de régénérer le revêtement entre chaque injection du mélange de protéines dans les conditions étudiées : la collecte de 5 fractions de 6 min chacune à travers une séparation de 30 min, suivant le processus de régénération du DDAB, et tout ça répété 10 fois. Cependant, l’analyse en CE-UV et en HPLC-MS des fractions collectées ne montraient pas les protéines attendues puisqu'elles semblaient être en-dessous de la limite de détection. De plus, une analyse en MS montrait que le DDAB s’accumule dans les fractions collectées dû à sa désorption de la paroi du capillaire. Pour confirmer que les efforts pour recueillir une quantité de masse de protéine étaient suffisants, la méthode de CE avec détection par fluorescence induite par laser (CE-LIF) était utilisée pour séparer et collecter la protéine, albumine marquée de fluorescéine isothiocyanate (FITC), sans l'utilisation du revêtement DDAB. Ces analyses montraient que l'albumine-FITC était, en fait, présente dans la fraction collecté. La cartographie peptidique a été ensuite réalisée avec succès en employant l’enzyme chymotrypsine pour la digestion et CE-LIF pour obtenir la carte peptidique.
Resumo:
Depuis plusieurs décennies, des études empiriques réalisées sur plusieurs pays développés ou en émergence ont montré que la baisse de la taille de la famille favorise l’investissement dans l’éducation des enfants, expliquant qu’un nombre élevé d’enfants a un effet d’amenuisement des ressources familiales. Les retombées positives de la baisse de la fécondité sur l’éducation sont largement étudiées et connues. En dépit des résultats controversés des premières études portant sur les pays de l’Afrique de l’Ouest, les récentes études empiriques tendent à confirmer l’effet positif de la baisse de la taille de la famille dans le contexte africain, du moins en milieu urbain. Par contre, jusqu’à présent, très peu d’études semblent intéressées à analyser la répartition de ces retombées entre les enfants, et encore moins à comprendre comment ces dernières affecteraient la structure des inégalités éducatives existantes. Notre étude s’intéresse à explorer la potentielle dimension démographique des inégalités socioéconomiques, notamment les inégalités éducatives dans le contexte de la baisse de la fécondité. Elle vise à apporter des évidences empiriques sur le lien entre la réduction de la taille de la famille et les inégalités éducatives au sein des ménages dans le contexte d’Ouagadougou, Capitale du Burkina Faso, qui connait depuis quelques décennies la chute de la fécondité. Elle analyse aussi l’effet de cette réduction sur la transmission intergénérationnelle des désavantages éducatifs. Pour ce faire, nous proposons un cadre conceptuel pour comprendre les mécanismes par lesquels la relation entre la réduction de la taille de la famille et les inégalités éducatives se tisse. Ce cadre conceptuel s’appuie sur une recension des écrits de divers auteurs à ce sujet. Par la suite, nous procédons à des analyses empiriques permettant de tester ces liens en utilisant les données du projet Demtrend collectées. Les résultats empiriques sont présentés sous forme d’articles scientifiques. Les conclusions du premier article indiquent que la relation entre le nombre d’enfants de la famille et l’éducation varie selon le contexte socioéconomique. En effet, pour les générations qui ont grandi dans un contexte socioéconomique colonial et postcolonial, où le mode de production était essentiellement agricole et l’éducation formelle n’était pas encore valorisée sur le marché du travail, la relation est très faible et positive. Par contre, pour les récentes générations, nous avons observé que la relation devient négative et fortement significative. De plus, les résultats de cet article suggèrent aussi que la famille d’origine des femmes a une incidence significative sur leur comportement de fécondité. Les femmes dont la mère avait un niveau de scolarité élevé (et étaient de statut socioéconomique aisé) ont moins d’enfants comparativement à celles dont leurs parents avaient un faible niveau de scolarité (et pauvres). En retour, leurs enfants sont aussi les plus éduqués. Ce qui sous-tend à un éventuel effet de levier de la réduction de la taille de la famille dans le processus de transmission intergénérationnelle des désavantages éducatifs. Le second article fait une comparaison entre les ménages de grande taille et ceux de petite taille en matière d’inégalités éducatives entre les enfants au sein des ménages familiaux, en considérant le sexe, l’ordre de naissance et les termes d’interaction entre ces deux variables. Les résultats de cet article montrent que généralement les enfants des familles de petite taille sont plus scolarisés et atteignent un niveau d’éducation plus élevé que ceux des grandes familles. Toutefois, les filles ainées des petites familles s’avèrent moins éduquées que leurs pairs. Ce déficit persiste après avoir considéré seulement les ménages familiaux monogames ou encore après le contrôle de la composition de la fratrie. L’émancipation des femmes sur le marché du travail résultant de la réduction de la taille de la famille et la faible contribution des pères dans les activités domestiques expliqueraient en partie cette situation. Malheureusement, nous n’avons pas pu contrôler l’activité économique des mères dans les analyses. Finalement, dans le cadre du troisième et dernier article, nous avons examiné l’effet d’avoir été confié par le passé sur les inégalités éducatives au sein de la fratrie, en comparant ceux qui ont été confiés aux autres membres de leur fratrie qui n’ont jamais été confiés. Dans cet article, nous avons considéré l’aspect hétérogène du confiage en le différenciant selon le sexe, la relation de la mère avec le chef du ménage d’accueil et l’âge auquel l’enfant a été confié. Les résultats montrent qu’avoir été confié dans le passé influence négativement le parcours scolaire des enfants. Cependant, cet effet négatif reste fort et significatif que pour les filles qui ont été confiées après leurs 10 ans d’âge. Un profil qui correspond à la demande de main-d’œuvre en milieu urbain pour l’accomplissement des tâches domestiques, surtout dans le contexte de la baisse de la taille de la famille et l’émancipation des femmes sur le marché du travail.
Resumo:
Les immunités législatives pour bonne foi sont une composante importante des règles spécifiques s’appliquant à la responsabilité civile des administrations publiques. Apparues dans les années 1940 au Québec, elles visent à insuffler à la responsabilité civile les considérations propres à l’action étatique (difficulté des tâches, pouvoir discrétionnaire, liberté d’action, etc.). Or, la notion principale de ces immunités, la bonne foi, est d’une nature fragile. Tiraillée entre une vision subjective et objective, elle souffre de nombreuses lacunes. Originalement fondée sur l’évaluation de l’état d’esprit d’une personne, la bonne foi reproduit dorénavant le concept de faute lourde présent en responsabilité civile. Il en résulte un système qui crée de la confusion sur l’état mental nécessaire pour entrainer la responsabilité d’une administration publique. Au surplus, le régime de la bonne foi est variable et change selon les fonctions exercées par les administrations publiques. Ces attributs mettent en exergue le peu d’utilité de cette notion : la bonne foi dédouble plusieurs éléments déjà présents en responsabilité civile québécoise et partant de là, affaiblit sa place comme règle particulière applicable aux administrations publiques. Bref, par son caractère adaptable, la bonne foi est un calque de la responsabilité civile québécoise et son faible apport embrouille le régime de cette dernière.
Resumo:
L’action humaine dans une séquence vidéo peut être considérée comme un volume spatio- temporel induit par la concaténation de silhouettes dans le temps. Nous présentons une approche spatio-temporelle pour la reconnaissance d’actions humaines qui exploite des caractéristiques globales générées par la technique de réduction de dimensionnalité MDS et un découpage en sous-blocs afin de modéliser la dynamique des actions. L’objectif est de fournir une méthode à la fois simple, peu dispendieuse et robuste permettant la reconnaissance d’actions simples. Le procédé est rapide, ne nécessite aucun alignement de vidéo, et est applicable à de nombreux scénarios. En outre, nous démontrons la robustesse de notre méthode face aux occultations partielles, aux déformations de formes, aux changements d’échelle et d’angles de vue, aux irrégularités dans l’exécution d’une action, et à une faible résolution.
Resumo:
Directeur(s) de thèse : Alain Marchand. M. Sc. Université de Montréal 2015. Comprend un résumé en anglais et en français. Disponible en format Adobe PDF.