113 resultados para Carte de débit
Resumo:
Les récepteurs couplés aux protéines G forment des complexes multimériques comprenant protéines G et effecteurs. Nous cherchons à caractériser de tels complexes comprenant les récepteurs opioïdes delta (DOR) et les canaux Kir3, qui nous sont d’intérêt vu leur implication dans l’analgésie des opioïdes. Des expériences d’immunopurification, de BRET et de liaison GTPgS ont été réalisées à l’intérieur de cellules HEK293 transfectées. Les canaux Kir3 ont été co-immunopurifiés avec les DOR, suggérant une interaction spontanée entre récepteur et effecteur. Des essais BRET ont corroboré que l’interaction était présente dans des cellules vivantes et nous ont permis d’identifier une interaction spontanée et spécifique entre DOR/Gg et Gg/Kir3, indiquant leur coexistence en un même complexe. Puisque l’activation du récepteur implique la présence de changements conformationnels à l’intérieur de celui-ci, nous étions intéressés à vérifier si l’information conformationnelle circule à partir du récepteur lié au ligand jusqu’à l’effecteur en aval. Ainsi, nous avons déterminé l’effet de différents ligands sur le signal BRET généré par les paires suivantes : DOR/Gbg, DOR/Kir3 et Kir3/Gbg. Nous avons constaté une modulation de l’interaction DOR/Gbg et Gbg/Kir3 suivant l’ordre d’efficacité des ligands à stimuler la protéine G, ce que nous n’avons pas observé entre DOR et Kir3. Donc, nous concluons que l’information conformationnelle circule du récepteur au canal Kir3 via la protéine Gbg. Ces résultats nous ont permis de développer un biosenseur BRET (EYFP-Gg2/Kir3.1-Rluc) qui pourrait être utilisé dans le criblage à haut débit afin de détecter de nouvelles molécules ayant une grande efficacité à activer les canaux Kir3.
Resumo:
Le nœud auriculoventriculaire (AV) joue un rôle vital dans le cœur normal et pathologique. Il connecte les oreillettes aux ventricules et, grâce à sa conduction lente, génère un délai entre les contractions auriculaire et ventriculaire permettant d’optimiser le pompage sanguin. Sa conduction lente et sa longue période réfractaire font du nœud AV un filtre d’impulsions auriculaires lors de tachyarythmies assurant ainsi une fréquence ventriculaire plus lente favorable au débit cardiaque. L’optimisation de ce filtrage est une cible dans le traitement de ces arythmies. Malgré ce rôle vital et de nombreuses études, le nœud AV demeure l’objet de plusieurs controverses qui en rendent la compréhension laborieuse. Nos études expérimentales sur des préparations isolées de cœurs de lapin visent à apporter des solutions à certains des problèmes qui limitent la compréhension des propriétés fréquentielles du nœud AV. Le premier problème concerne la définition de la propriété de récupération nodale. On s’accorde généralement sur la dépendance du temps de conduction nodale (intervalle auriculo-Hissien, AH) du temps de récupération qui le précède mais un débat presque centenaire persiste sur la façon de mesurer ce temps de récupération. Selon que l’on utilise à cette fin la longueur du cycle auriculaire (AA) ou l’intervalle His-auriculaire précédent (HA), la même réponse nodale montre des caractéristiques différentes, un paradoxe à ce jour inexpliqué. Le temps de conduction nodale augmente aussi avec le degré et la durée d'une fréquence rapide, un phénomène appelé fatigue. Or, les caractéristiques de la fatigue mesurée varient avec l’indice de récupération utilisé (AA vs. HA). De plus, une troisième propriété appelée facilitation qui entraîne un raccourcissement du temps de conduction diffère aussi avec l’indice de récupération utilisé. Pour établir l’origine de ce problème, nous avons déterminé les différences entre les courbes de récupération (AH compilé en fonction du AA ou HA) pour 30 états fonctionnels nodaux différents. Ces conditions étaient obtenues à l’aide de protocoles permettant la variation du cycle de base (BCL) et du cycle prétest (PTCL), deux paramètres connus pour altérer la fonction nodale. Nous avons pu établir que pour chaque état fonctionnel, la forme de la courbe de récupération et le niveau de fatigue étaient les mêmes pour les deux indices de récupération. Ceci s’applique aussi aux données obtenues à des BCL et PTCL égaux comme dans les protocoles de stimulation prématurée conventionnels couramment utilisés. Nos résultats ont établi pour la première fois que les propriétés nodales de récupération et de fatigue sont indépendantes de l’indice de récupération utilisé. Nos données montrent aussi que les différences entre les courbes de récupération en fonction de l’indice utilisé proviennent d’effets associés aux variations du PTCL. Notre deuxième étude établit à partir des mêmes données pourquoi les variations du PTCL altèrent différemment les courbes de récupération selon l’indice utilisé. Nous avons démontré que ces différences augmentaient en proportion directe avec l’augmentation du temps de conduction au battement prétest. Cette augmentation cause un déplacement systématique de la courbe construite avec l’intervalle AA vers la droite et de celle construite avec l’intervalle HA vers la gauche. Ce résultat met en évidence l’importance de tenir compte des changements du temps de conduction prétest dans l’évaluation de la fonction nodale, un paramètre négligé dans la plupart des études. Ce résultat montre aussi que chacun des deux indices a des limites dans sa capacité d’évaluer le temps de récupération nodale réel lorsque le temps de conduction prétest varie. Lorsque ces limites sont ignorées, comme c’est habituellement le cas, elles entraînent un biais dans l’évaluation des effets de fatigue et de facilitation. Une autre grande difficulté dans l’évaluation des propriétés fréquentielles du nœud AV concerne son état réfractaire. Deux indices sont utilisés pour évaluer la durée de la période réfractaire nodale. Le premier est la période réfractaire efficace (ERPN) définie comme l’intervalle AA le plus long qui n’est pas conduit par le nœud. Le deuxième est la période réfractaire fonctionnelle (FRPN) qui correspond à l’intervalle minimum entre deux activations mesurées à la sortie du nœud. Paradoxalement et pour des raisons obscures, l’ERPN augmente alors que la FRPN diminue avec l’augmentation de la fréquence cardiaque. De plus, ces effets varient grandement avec les sujets, les espèces et l’âge. À partir des mêmes données que pour les deux autres études, nous avons cherché dans la troisième étude l’origine des variations fréquentielles de l’ERPN et de la FRPN. Le raccourcissement du BCL prolonge l’ERPN mais n’affecte pas la FRPN. L’allongement de l’ERPN provient principalement d’un allongement du temps de conduction prétest. Un PTCL court en comparaison avec un BCL court allonge encore plus substantiellement le temps de conduction prétest mais raccourcit en même temps l’intervalle His-auriculaire, ces deux effets opposés s’additionnent pour produire un allongement net de l’ERPN. Le raccourcissement de l’intervalle His-auriculaire par le PTCL court est aussi entièrement responsable pour le raccourcissement de la FRPN. Nous avons aussi établi que, lorsque la composante du temps de conduction prétest est retirée de l’ERPN, un lien linéaire existe entre la FRPN et l’ERPN à cause de leur dépendance commune de l’intervalle His-auriculaire. Le raccourcissement combiné du BCL et du PTCL produit des effets nets prévisibles à partir de leurs effets individuels. Ces effets reproduisent ceux obtenus lors de protocoles prématurés conventionnels. Ces observations supportent un nouveau schème fonctionnel des variations fréquentielles de l’ERPN et de la FRPN à partir des effets distincts du BCL et du PTCL. Elles établissent aussi un nouveau lien entre les variations fréquentielles de l’ERPN et de la FRPN. En conclusion, la modulation fréquentielle de la fonction du nœud AV provient de la combinaison d’effets concurrents cumulatifs liés au cycle de base et non-cumulatifs liés au cycle prétest. Ces effets peuvent être interprétés de façon consistante indépendamment de l’indice de récupération en tenant compte des changements du temps de conduction au battement prétest. Les effets fréquentiels disparates sur l’ERPN et la FRPN sont aussi grandement liés aux changements du temps de conduction prétest. Lorsque l’analyse tient compte de ce facteur, l’ERPN et la FRPN montrent des variations parallèles fortement liées à celles de l’intervalle His-auriculaire. Le nouveau schème fonctionnel des propriétés fréquentielles du nœud AV supporté par nos données aidera à mieux cibler les études sur les mécanismes cellulaires contrôlant la modulation fréquentielle nodale. Nos données pourraient aider à l’interprétation et au contrôle des réponses nodales diverses associées aux tachyarythmies supraventriculaires et à leur traitement pharmacologique. En bref, nos travaux supportent une compréhension factuelle améliorée du comportement fréquentiel du nœud AV, un domaine aux applications multiples en rythmologie cardiaque.
Resumo:
L’embranchement Hemichordata regroupe les classes Enteropneusta et Pterobranchia. Hemichordata constitue, avec l’embranchement Echinodermata, le groupe-frère des chordés. Les entéropneustes sont des organismes vermiformes solitaires qui vivent sous ou à la surface du substrat et s’alimentent généralement par déposivorie, alors que les ptérobranches sont des organismes coloniaux filtreurs habitant dans un réseau de tubes appelé coenecium. Ce mémoire présente trois études dont le point commun est l’utilisation des hémichordés actuels pour répondre à des questions concernant l’évolution des hémichordés, des chordés, et du super-embranchement qui les regroupe, Deuterostomia. Notre première étude démontre que les fentes pharyngiennes, l’organe pré-oral cilié (POCO) et le pharynx de l’entéropneuste Protoglossus graveolens sont utilisés pour l’alimentation par filtration. Le système de filtration de P. graveolens permet la capture de particules jusqu’à 1.3 um, à un débit de 4.05 mm.s-1, pour une demande énergétique de 0.009 uW. Les similarités structurales et fonctionnelles avec le système de filtration des céphalochordés suggèrent que la filtration pharyngienne est ancestrale aux deutérostomes. Lors de notre deuxième étude, nous avons exploré l’hypothèse selon laquelle le POCO des entéropneustes, une structure ciliée pré-buccale au rôle possiblement chémorécepteur, serait homologue au « wheel organ » des céphalochordés et à l’adénohypophyse des vertébrés. Pour cela, nous avons déterminé par immunohistochimie l’expression de Pit-1, un facteur de transcription spécifique à ces deux structures, chez l’entéropneuste Saccoglossus pusillus. Pit-1 est exprimé dans des cellules sensorielles du POCO, mais aussi dans des cellules épithéliales distribuées dans le proboscis, collet et tronc. Ce patron d’expression ne permet pas de confirmer ou rejeter l’homologie du POCO et de l’adénohypophyse des vertébrés. Lors de notre troisième étude, nous avons caractérisé l’ultrastructure du coenecium des ptérobranches Cephalodiscus hodgsoni, Cephalodiscus nigrescens et Cephalodiscus densus par microscopie électronique à transmisison et à balayage. Cephalodiscus est le groupe frère de Graptolithina, un groupe qui inclut les graptolithes éteints ainsi que les ptérobranches du genre Rhabdopleura. Nous avons décrit les types de fibrilles de collagène présents, leur taille et leur organisation, ainsi que l’organisation globale du coenecium. Nous avons ainsi démontré la présence chez Cephalodiscus d’une organisation similaire au paracortex, pseudocortex et eucortex des graptolithes. La présence chez Cephalodiscus de ce type d’organisation suggère que le cortex est ancestral à la classe Pterobranchia. Ces trois études illustrent plusieurs axes importants de la recherche sur les hémichordés, qui en intégrant des données morphologiques, fonctionnelles et moléculaires permet de reconstruire certains évènements clés de l’évolution des deutérostomes.
Resumo:
Carte du bailliage en fichier complémentaire.
Resumo:
La phagocytose est un processus cellulaire par lequel de larges particules sont internalisées dans une vésicule, le phagosome. Lorsque formé, le phagosome acquiert ses propriétés fonctionnelles à travers un processus complexe de maturation nommé la biogénèse du phagolysosome. Cette voie implique une série d’interactions rapides avec les organelles de l’appareil endocytaire permettant la transformation graduelle du phagosome nouvellement formé en phagolysosome à partir duquel la dégradation protéolytique s’effectue. Chez l’amibe Dictyostelium discoideum, la phagocytose est employée pour ingérer les bactéries de son environnement afin de se nourrir alors que les organismes multicellulaires utilisent la phagocytose dans un but immunitaire, où des cellules spécialisées nommées phagocytes internalisent, tuent et dégradent les pathogènes envahissant de l’organisme et constitue la base de l’immunité innée. Chez les vertébrés à mâchoire cependant, la transformation des mécanismes moléculaires du phagosome en une organelle perfectionnée pour l’apprêtement et la présentation de peptides antigéniques place cette organelle au centre de l’immunité innée et de l’immunité acquise. Malgré le rôle crucial auquel participe cette organelle dans la réponse immunitaire, il existe peu de détails sur la composition protéique et l’organisation fonctionnelles du phagosome. Afin d’approfondir notre compréhension des divers aspects qui relient l’immunité innée et l’immunité acquise, il devient essentiel d’élargir nos connaissances sur les fonctions moléculaire qui sont recrutées au phagosome. Le profilage par protéomique à haut débit de phagosomes isolés fut extrêmement utile dans la détermination de la composition moléculaire de cette organelle. Des études provenant de notre laboratoire ont révélé les premières listes protéiques identifiées à partir de phagosomes murins sans toutefois déterminer le ou les rôle(s) de ces protéines lors du processus de la phagocytose (Brunet et al, 2003; Garin et al, 2001). Au cours de la première étude de cette thèse (Stuart et al, 2007), nous avons entrepris la caractérisation fonctionnelle du protéome entier du phagosome de la drosophile en combinant diverses techniques d’analyses à haut débit (protéomique, réseaux d’intéractions protéique et ARN interférent). En utilisant cette stratégie, nous avons identifié 617 protéines phagosomales par spectrométrie de masse à partir desquelles nous avons accru cette liste en construisant des réseaux d’interactions protéine-protéine. La contribution de chaque protéine à l’internalisation de bactéries fut ensuite testée et validée par ARN interférent à haut débit et nous a amené à identifier un nouveau régulateur de la phagocytose, le complexe de l’exocyst. En appliquant ce modèle combinatoire de biologie systémique, nous démontrons la puissance et l’efficacité de cette approche dans l’étude de processus cellulaire complexe tout en créant un cadre à partir duquel il est possible d’approfondir nos connaissances sur les différents mécanismes de la phagocytose. Lors du 2e article de cette thèse (Boulais et al, 2010), nous avons entrepris la caractérisation moléculaire des étapes évolutives ayant contribué au remodelage des propriétés fonctionnelles de la phagocytose au cours de l’évolution. Pour ce faire, nous avons isolé des phagosomes à partir de trois organismes distants (l’amibe Dictyostelium discoideum, la mouche à fruit Drosophila melanogaster et la souris Mus musculus) qui utilisent la phagocytose à des fins différentes. En appliquant une approche protéomique à grande échelle pour identifier et comparer le protéome et phosphoprotéome des phagosomes de ces trois espèces, nous avons identifié un cœur protéique commun à partir duquel les fonctions immunitaires du phagosome se seraient développées. Au cours de ce développement fonctionnel, nos données indiquent que le protéome du phagosome fut largement remodelé lors de deux périodes de duplication de gènes coïncidant avec l’émergence de l’immunité innée et acquise. De plus, notre étude a aussi caractérisée en détail l’acquisition de nouvelles protéines ainsi que le remodelage significatif du phosphoprotéome du phagosome au niveau des constituants du cœur protéique ancien de cette organelle. Nous présentons donc la première étude approfondie des changements qui ont engendré la transformation d’un compartiment phagotrophe à une organelle entièrement apte pour la présentation antigénique.
Resumo:
Les fichiers video (d'animation) sont dans un format Windows Media (.wmv)
Resumo:
Les immigrants allophones qui s’établissent dans la région métropolitaine de recensement (RMR) de Montréal sont vraisemblablement confrontés à la concurrence qui y existe entre le français et l’anglais. À l’aide de données agrégées du recensement canadien de 2006, nous explorons le rôle que pourrait jouer l’environnement linguistique résidentiel dans l’adoption de deux comportements linguistiques; le transfert linguistique vers le français ou l’anglais et la connaissance des langues officielles chez ceux n’ayant pas effectué de transfert, tout en tenant compte de leurs caractéristiques individuelles. Des liens initiaux existent entre la composition linguistique des 56 quartiers de la RMR et les comportements linguistiques des immigrants allophones. De plus, des caractéristiques individuelles similaires mènent à des orientations linguistiques similaires. Sans séparer ces deux effets, des régressions linéaires nous permettent de croire que la connaissance de l’anglais et/ou du français n’est pas déterminée par la composition linguistique du quartier, alors que cette dernière ne peut être écartée lorsque nous analysons la langue d’usage à la maison (transferts).
Resumo:
Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.
Resumo:
De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.
Resumo:
La méthode ChIP-seq est une technologie combinant la technique de chromatine immunoprecipitation avec le séquençage haut-débit et permettant l’analyse in vivo des facteurs de transcription à grande échelle. Le traitement des grandes quantités de données ainsi générées nécessite des moyens informatiques performants et de nombreux outils ont vu le jour récemment. Reste cependant que cette multiplication des logiciels réalisant chacun une étape de l’analyse engendre des problèmes de compatibilité et complique les analyses. Il existe ainsi un besoin important pour une suite de logiciels performante et flexible permettant l’identification des motifs. Nous proposons ici un ensemble complet d’analyse de données ChIP-seq disponible librement dans R et composé de trois modules PICS, rGADEM et MotIV. A travers l’analyse de quatre jeux de données des facteurs de transcription CTCF, STAT1, FOXA1 et ER nous avons démontré l’efficacité de notre ensemble d’analyse et mis en avant les fonctionnalités novatrices de celui-ci, notamment concernant le traitement des résultats par MotIV conduisant à la découverte de motifs non détectés par les autres algorithmes.
Resumo:
Le système cardiovasculaire est composé d'un cœur qui pompe régulièrement le sang à travers des artères afin d'alimenter tous les tissus corporels en oxygène et nutriments qui leur sont nécessaires. Une caractéristique particulière de ce système est son aspect fermé, où le sang fait un cycle constant commençant par le ventricule gauche, allant vers tous les tissus corporels, revenant vers le cœur et le ventricule droit, étant propulsé vers la circulation pulmonaire en retournant au ventricule gauche. L'insuffisance cardiaque est alors une incapacité du cœur à effectuer sa tâche de pomper le sang efficacement. Une série d'ajustements sont alors enclenchés pour rétablir un débit sanguin adéquat; cette réponse systémique est principalement menée par le système rénine-angiotensine-aldostérone ainsi que par le système adrénergique. À court terme, le flot sanguin est rétabli et le métabolisme corporel continue comme si rien n'était, de telle sorte que, souvent ce stade passe inaperçu et les individus qui en sont affectés sont asymptomatiques. Cependant, le cœur doit alors fournir un effort constant supérieur et si la cause n'est pas résolue, la condition cardiaque se dégradera encore plus. Si tel est le cas, pour s'ajuster à cette nouvelle réalité, le cœur, comme tout muscle, deviendra plus massif et changera de conformation afin de répondre à sa nouvelle charge de travail. Cette transformation cardiaque est communément connue sous le terme de remodelage. Par contre, le remodelage cardiaque est délétère à long terme et entrave encore plus le cœur à bien effectuer sa tâche. Au fur et à mesure que la fonction cardiaque décline, les systèmes compensatoires persistent et s'intensifient; il y a alors établissement d'un cercle vicieux destructeur qui ne peut être renversé que par une transplantation cardiaque. Entre temps, des thérapies inhibant le système rénine-angiotensine-aldostérone et le système adrénergique se sont avérés très efficaces pour prolonger la survie, diminuer la mortalité, réduire les hospitalisations ainsi que soulager la symptomatologie associée à l'insuffisance cardiaque. Par contre, ces régimes thérapeutiques ne semblent pas induire une réponse positive chez tous les patients, de sorte que certains n'en retirent pas de bénéfices tangibles, tandis que d'autres éprouvent plusieurs difficultés à les tolérer. Suite à des analyses rétrospectives, surtout en comparant la réponse thérapeutique entre des populations de diverses ethnies, les variations génétiques, particulièrement les polymorphismes ayant le potentiel de moduler le mécanisme d'action de la pharmacothérapie, furent proposés comme responsables de cette variabilité dans la réponse aux médicaments. Certains ont aussi proposé que certains polymorphismes pourraient être considérés comme des facteurs de risque prédisposant à l'insuffisance cardiaque ou coupables de moduler sa progression en tant que facteurs aggravants ou atténuants. Avec de telles hypothèses proposées, plusieurs associations génétiques furent étudiées en commençant par des gènes directement impliqués dans la pathogénèse de cette maladie. Dans le cadre de cette thèse, nous allons revoir les diverses données disponibles dans la littérature au sujet de l'influence que peuvent avoir les divers polymorphismes impliqués dans la prédisposition, la progression et la pharmacogénétique de l'insuffisance cardiaque.
Resumo:
Notre recherche a pour objet la migration pour études et plus précisément l’expérience de retour et du non-retour des diplômés guinéens formés au Canada. Elle repose sur une démarche qualitative. Prenant appui sur des matériaux discursifs issus d’entrevues individuelles dans deux sites (en Guinée et au Canada), auprès d’un échantillon de trente et un diplômés, notre étude s’est attachée, dans un premier temps, à faire ressortir les motivations des étudiants à « retourner au pays » à la fin de leurs études au Canada ou, à l’inverse, à demeurer dans le pays d’accueil. Dans une seconde phase, la recherche s'est intéressée au devenir des enquêtés après leurs études et en particulier à l’insertion ou réinsertion sociale, familiale et professionnelle des diplômés retournés en Guinée ou installés au Canada. Enfin, notre étude examine les perspectives d’avenir de l’ensemble de nos répondants; leurs satisfactions et frustrations après le retour en Guinée ou l’installation au Canada, le bilan qu’ils tirent de leur expérience de migration pour études mais aussi les perspectives de retour éventuelles et les liens que ceux qui sont restés entretiennent avec leur pays d’origine. Pour les diplômés retournés en Guinée, l’analyse des données montre que les « perspectives d’emploi et de promotion » ont joué un rôle central dans leur décision de rentrer. Ils sont également nombreux a déclaré avoir choisi le retour pour des raisons familiales. Certains justifient aussi leur retour par « la volonté de servir le pays ». Si l’insertion familiale a été facile pour la plupart des diplômés retournés en Guinée, la réinsertion sociale, le retour à des pratiques sociales et à un environnement précaire « qu’ils avaient oublié » semble en revanche avoir été moins aisé. Sur le plan professionnel, le séjour canadien est perçu comme ayant eu un impact très positif sur leur carrière. Les diplômes canadiens semblent très valorisés en Guinée et les réseaux canadiens que les diplômés ont pu établir lors de leur séjour sont aussi très utiles. La possibilité de trouver un emploi décent au Canada domine également le discours des répondants qui ont choisi de demeurer au pays d’accueil après leur formation. Les répondants ayant choisi de demeurer au Canada évoquent également fréquemment l’idée de « sacrifier » leur retour au profit de « l’avenir » des enfants. La politique de l’immigration canadienne par « l’incitation » de demeurer au Canada après les études ont aussi influencé certains diplômés dans leurs décisions de ne pas retourner. Même s’ils évoquent fréquemment l’emploi pour justifier leur installation au Canada, nos répondants restés au Canada ne trouvent pas facilement un travail qui correspond à leur formation et doivent souvent se contenter de « petits boulots ». Plusieurs pointent du doigt le «bilinguisme» et la «discrimination» en milieu de travail comme obstacles majeurs. Enfin, pour bon nombre d’entre eux le « retour au pays » est une perspective jamais écartée, la plupart n’ont jamais coupé le lien avec leur pays d’origine et plusieurs tiennent à faire connaître la culture guinéenne à leurs enfants.
Resumo:
Dans un bassin versant, la connectivité hydrologique constitue un état hydrologique qui lie le versant à la zone riveraine. Ses impacts sur la production du débit et le transfert des éléments dissous vers le cours d’eau sont présumés substantiels. L’étude vise à 1) détecter les hydrotopes et les connexions hydrologiques à l’aide d’un réseau de puits qui permet la mesure des fluctuations de la nappe phréatique (NP); 2) identifier la variabilité spatio-temporelle et la signature géochimique des sources potentielles en eau à l’aide des éléments majeurs et traces et 3) examiner la contribution spatio-temporelle respective des sources en eau du bassin lors d’un événement de précipitation. L’étude s’effectue dans un bassin versant forestier du Bouclier canadien (l’Hermine). Nous démontrons l’existence de quatre hydrotopes représentant un gradient de convergence de l’eau, soulignant la diversité de comportement de NP. Les connexions hydrologiques se caractérisent par des coefficients de Spearman élevés des relations entre la profondeur de la NP et le débit, dans leur partie en aval, et s’enclenchent par le fill and spill. Le comportement de NP est influencé par la distance aux limites du bassin, l’horizonation du sol et la topographie souterraine. En somme, trois sources en eau se connectent à partir du versant vers la zone riveraine durant l’événement pluvial de manière chronologique: 1) les horizons B et la NP de l’ensemble du bassin (Sr); 2) les horizons LFH des zones de convergence (Ba et Zn) et 3) une dépression de sol humide sur le versant nord (Co et Mn).
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Il est généralement accepté que les lits vasculaires oculaires auraient la faculté d’autoréguler leur apport sanguin afin de contrebalancer les variations de pression de perfusion oculaire (PPO). Plusieurs études ont tenté d’évaluer ce mécanisme en mesurant les effets d’une variation de la PPO - induite par un exercice ou par une augmentation de la pression intra-oculaire (PIO) à l’aide d’une suction sclérale - sur le débit sanguin oculaire (DSO). Or, les méthodes de mesure du DSO utilisées jusqu'à maintenant présentent de nombreux désavantages et limites, ce qui rend difficile leur usage clinique. De récents développements dans le domaine des investigations non-invasives des paramètres sanguins oculaires proposent un modèle capable de mesurer en temps réel la concentration en oxygène, un autre paramètre important du métabolisme rétinien. Dans le cadre de la présente étude, ce nouveau modèle est utilisé afin de mesurer les effets d’un effort physique dynamique sur la concentration d’oxygène dans les capillaires de la tête du nerf optique (COTNO) de sujets jeunes et en santé. Six jeunes hommes non fumeurs ont participé à l’étude. L’effort physique dynamique consistait en une séance de bicyclette stationnaire de 15 minutes menant à une augmentation du pouls à 160 battements par minute. La COTNO était mesurée avant et immédiatement après la séance d’exercice. La pression artérielle (PA) et la PIO étaient mesurées ponctuellement alors que le pouls et la saturation sanguine en oxygène (SpO2) au niveau digital étaient mesurés tout au long de l’expérience. L’effort physique a entrainé une réduction de la PIO chez tous les sujets, une réduction de la COTNO chez tous les sujets sauf un tandis que la SpO2 demeura constante chez tous les sujets. Une corrélation quadratique entre les variations de la PIO et de la COTNO a pu être notée. Ces résultats suggèrent une corrélation directe entre les variations de la COTNO et celles de la PPO et de la PA. Les résultats de la présente étude suggèrent que les variations de la COTNO chez un sujet en santé suite à un effort physique dynamique pourraient représenter sa capacité à compenser un tel effort. De plus, les changements métaboliques sanguins induits par l’effort physique dynamique pourraient représenter une cause commune aux variations de la PIO et de la COTNO.