419 resultados para Débit expiratoire de pointe
Resumo:
Grâce à leur flexibilité et à leur facilité d’installation, les réseaux maillés sans fil (WMNs) permettent un déploiement d’une infrastructure à faible coût. Ces réseaux étendent la couverture des réseaux filaires permettant, ainsi, une connexion n’importe quand et n’importe où. Toutefois, leur performance est dégradée par les interférences et la congestion. Ces derniers causent des pertes de paquets et une augmentation du délai de transmission d’une façon drastique. Dans cette thèse, nous nous intéressons au routage adaptatif et à la stabilité dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la conception d’une métrique de routage et à la sélection des passerelles permettant d’améliorer la performance des WMNs. Dans ce contexte nous proposons un protocole de routage à la source basé sur une nouvelle métrique. Cette métrique permet non seulement de capturer certaines caractéristiques des liens tels que les interférences inter-flux et intra-flux, le taux de perte des paquets mais également la surcharge des passerelles. Les résultats numériques montrent que la performance de cette métrique est meilleure que celle des solutions proposées dans la littérature. Dans une deuxième partie de la thèse, nous nous intéressons à certaines zones critiques dans les WMNs. Ces zones se trouvent autour des passerelles qui connaissent une concentration plus élevé du trafic ; elles risquent de provoquer des interférences et des congestions. À cet égard, nous proposons un protocole de routage proactif et adaptatif basé sur l’apprentissage par renforcement et qui pénalise les liens de mauvaise qualité lorsqu’on s’approche des passerelles. Un chemin dont la qualité des liens autour d’une passerelle est meilleure sera plus favorisé que les autres chemins de moindre qualité. Nous utilisons l’algorithme de Q-learning pour mettre à jour dynamiquement les coûts des chemins, sélectionner les prochains nœuds pour faire suivre les paquets vers les passerelles choisies et explorer d’autres nœuds voisins. Les résultats numériques montrent que notre protocole distribué, présente de meilleurs résultats comparativement aux protocoles présentés dans la littérature. Dans une troisième partie de cette thèse, nous nous intéressons aux problèmes d’instabilité des réseaux maillés sans fil. En effet, l’instabilité se produit à cause des changements fréquents des routes qui sont causés par les variations instantanées des qualités des liens dues à la présence des interférences et de la congestion. Ainsi, après une analyse de l’instabilité, nous proposons d’utiliser le nombre de variations des chemins dans une table de routage comme indicateur de perturbation des réseaux et nous utilisons la fonction d’entropie, connue dans les mesures de l’incertitude et du désordre des systèmes, pour sélectionner les routes stables. Les résultats numériques montrent de meilleures performances de notre protocole en comparaison avec d’autres protocoles dans la littérature en termes de débit, délai, taux de perte des paquets et l’indice de Gini.
Resumo:
Le trouble comportemental en sommeil paradoxal (TCSP) se caractérise par une perte de l’atonie musculaire en sommeil paradoxal et par des manifestations motrices élaborées souvent associées au contenu onirique. Le TCSP peut apparaître sous une forme idiopathique (TCSPi), mais il est fréquemment lié à certains désordres neurodégénératifs, dont les synucléinopathies. Des marqueurs biologiques des synucléinopathies, tels que la présence d’anomalies au plan de la motricité, de la détection des odeurs ainsi que de la discrimination des couleurs, ont été retrouvés dans le TCSPi. De plus, des perturbations de l’activité cérébrale en neuroimagerie ainsi que du fonctionnement cognitif ont été observées chez ces patients. Des études ont démontré que le TCSPi pouvait précéder l’apparition d’une maladie de Parkinson (MP) ou d’une démence à corps de Lewy (DCL). Ceci suggère que le TCSPi représenterait un facteur de risque des synucléinopathies. L’objectif principal du présent projet est d’étudier les anomalies du débit sanguin cérébral régional (DSCr) de repos avec la tomographie par émission monophotonique (TEM) dans le TCSPi. Deux études ont été réalisées. La première visait à comparer le DSCr entre des patients avec un TCSPi et des sujets sains, puis d’explorer la relation entre l’activité cérébrale et la présence de marqueurs biologiques des synucléinopathies. Les résultats ont montré une diminution de la perfusion cérébrale dans les régions frontales et pariétales ainsi qu’une augmentation de la perfusion au niveau du pont, du putamen et des hippocampes chez les patients avec un TCSPi. Une relation significative entre la performance des sujets avec un TCSPi à une épreuve de discrimination des couleurs et la perfusion cérébrale au niveau des régions frontales et occipitales a été mise en évidence. Dans l’ensemble, ces résultats ont démontré des anomalies du DSCr chez les patients avec un TCSPi qui sont similaires à celles observées par d’autres études en neuroimagerie dans la MP. Ceci suggère des atteintes neuroanatomiques semblables entre ces pathologies. La seconde étude en TEM a été effectuée dans le but d’examiner les modifications du DSCr associées aux perturbations du fonctionnement cognitif dans le TCSPi. Pour ce faire, le DSCr a été comparé entre un sous-groupe de patients avec un TCSPi et un trouble cognitif léger (TCL), un sous-groupe de patients avec un TCSPi sans TCL et un groupe de sujets sains. Les résultats ont montré que seuls les patients avec un TCSPi et un TCL présentaient une diminution de la perfusion cérébrale dans les aires corticales postérieures (occipitales et temporo-pariétales). Ces observations sont similaires à celles rapportées dans la MP avec démence et la DCL dans les études en neuroimagerie. En conclusion, les résultats de ces deux études ont montré des perturbations du DSCr dans le TCSPi, similaires à celles observées dans les synucléinopathies. Par ailleurs, nos résultats ont mis en évidence que les patients avec un TCSPi et un TCL présentaient les mêmes anomalies de la perfusion cérébrale que les patients avec une MP avec démence et/ou une DCL. La présence de tels marqueurs des synucléinopathies dans le TCSPi suggère que ces patients pourraient être plus à risque d’évoluer vers ce type de maladie neurodégénérative.
Resumo:
Durant la méiose, il se produit des échanges réciproques entre fragments de chromosomes homologues par recombinaison génétique. Les chromosomes parentaux ainsi modifiés donnent naissance à des gamètes uniques. En redistribuant les mutations génétiques pour générer de nouvelles combinaisons, ce processus est à l’origine de la diversité haplotypique dans la population. Dans cette thèse, je présente des résultats décrivant l’implication de la recombinaison méiotique dans les maladies chez l’humain. Premièrement, l'analyse statistique de données de génotypage de familles québécoises démontre une importante hétérogénéité individuelle et sexe-spécifique des taux de recombinaisons. Pour la première fois chez l’humain, nous avons observé que le taux de recombinaison maternel diminue avec l'âge de la mère, un phénomène potentiellement impliqué dans la régulation du taux d’aneuploïdie associé à l’âge maternel. Ensuite, grâce à l’analyse de données de séquençage d’exomes de patients atteints de leucémie et de ceux de leurs parents, nous avons découvert une localisation anormale des évènements de recombinaison chez les enfants leucémiques. Le gène PRDM9, principal déterminant de la localisation des recombinaisons chez l’humain, présente des formes alléliques rares dans ces familles. Finalement, en utilisant un large spectre de variants génétiques identifiés dans les transcriptomes d’individus Canadiens Français, nous avons étudié et comparé le fardeau génétique présent dans les régions génomiques à haut et à faible taux de recombinaison. Le fardeau génétique est substantiellement plus élevé dans les régions à faible taux de recombinaison et nous démontrons qu’au niveau individuel, ce fardeau varie selon la population humaine. Grâce à l’utilisation de données génomiques de pointe pour étudier la recombinaison dans des cohortes populationnelles et médicales, ce travail démontre de quelle façon la recombinaison peut affecter la santé des individus.
Resumo:
Ce projet combine l’archéologie expérimentale, l’analyse morphométrique et la comparaison des résultats à l’assemblage archéologique de l’Abri Cellier (Dordogne, France) (N = 12) dans le but de quantifier l’apport du réaffûtage à la variabilité des formes et des dimensions des pointes de projectile aurignaciennes en bois de cervidé. La relecture morphofonctionnelle de la série expérimentale de Knecht (N = 79) couplée à une reproduction expérimentale récente (N = 9) démontre que la nature des dommages infligés au fût des pointes dépend (1) de la force du tir, (2) de la nature de la cible impactée et, (3) des propriétés biomécaniques du matériau employé. Pour sa part, le réaffûtage dépend (1) de l’expérience du réaffûteur et, (2) de la séquence technique employée. Ce comportement est standardisé et demeure indépendant du type de pointe de même que du type de dommage du fût. Les changements morphométriques associés à ce comportement se résument (1) à un déplacement progressif de l’épaule de la base vers le fût de la pointe, (2) à une tendance à l’accroissement de l’angle du fût et, (3) à une localisation des traces de réaffûtage sur le tiers distal de la partie distale de la pointe. Puisque l’utilisation et le réaffûtage sont deux processus impossible à départager sur les artefacts, nous proposons l’adoption d’une mesure, le ratio proximo-distal (RP/D) afin de traduire l’intensité de ces processus convergents et faciliter la comparaison entre les assemblages archéologiques.
Resumo:
Le virus de l'immunodéficience humaine (VIH) est à l’origine d’une infection chronique, elle-même responsable du développement du syndrome d'immunodéficience acquise (SIDA), un état de grande vulnérabilité où le corps humain est à la merci d’infections opportunistes pouvant s’avérer fatales. Aujourd’hui, 30 ans après la découverte du virus, même si aucun vaccin n’a réussi à contrôler la pandémie, la situation s’est grandement améliorée. Conséquemment à l’arrivée de traitements antirétroviraux hautement actifs (HAART) à la fin des années 1990, la mortalité associée au VIH/SIDA a diminué et un plus grand nombre de personnes vivent maintenant avec l'infection. La présente thèse avait pour objectif d’aborder trois situations problématiques, en dépit de l’efficacité reconnue des HAART, plus particulièrement la faible charge virale persistante (LLV) et sa relation avec l’échec virologique, ainsi que les effets de certains antirétroviraux (ARV) sur les fonctions rénale et hépatique. Les objectifs précis étaient donc les suivants : 1) étudier le risque d’échec virologique à long terme chez les patients sous HAART dont la charge virale est indétectable comparativement aux patients affichant une LLV persistante; 2) évaluer sur le long terme la perte de fonction rénale associée à la prise de ténofovir (TDF) 3) étudier sur le long terme l'hyperbilirubinémie associée à la prise d’atazanavir (ATV) et ses autres déterminants possibles. Afin d’atteindre les trois objectifs susmentionnés, une cohorte de 2 416 patients atteints du VIH/SIDA, suivis depuis juillet 1977 et résidant à Montréal, a été utilisée. Pour le premier objectif, les résultats obtenus ont montré un risque accru d’échec virologique établi à >1000 copies/ml d’ARN VIH chez tous les patients qui présentaient une LLV persistante de différentes catégories durant aussi peu que 6 mois. En effet, on a observé qu’une LLV de 50-199 copies/ml persistant pendant six mois doublait le risque d’échec virologique (Hazard ratio (HR)=2,22, Intervalle de confiance (CI) 95 %:1,60–3,09). Ces résultats pourraient modifier la façon dont on aborde actuellement la gestion des patients affichant une LLV, et plus particulièrement une LLV de 50-199 copies/ml, pour laquelle aucune recommandation clinique n’a encore été formulée en raison du manque de données. Pour le deuxième objectif, on a observé une augmentation du risque de perte de fonction rénale de l’ordre de 63 % (HR=1,63; 95% CI:1,26–2,10) chez les patients sous TDF comparativement aux patients traités avec d’autres ARV. La perte de fonction rénale directement attribuable à la prise de TDF, indique que cette perte est survenue au cours des premières années de l’exposition du patient au médicament. D’une perspective à long terme, cette perte est considérée comme modérée. Enfin, pour ce qui est du troisième objectif, on a constaté que l’incidence cumulative d’hyperbilirubinémie était très élevée chez les patients sous ATV, mais que cette dernière pouvait régresser lorsque l’on mettait fin au traitement. L’hyperbilirubinémie à long terme observée avec la prise d’ATV n’a été associée à aucun effet néfaste pour la santé. Dans l’ensemble, la présente thèse a permis de mieux comprendre les trois situations problématiques susmentionnées, qui font actuellement l’objet de débats au sein de la communauté scientifique, et d’éclairer sous un jour nouveau la gestion des patients séropositifs sous traitement médicamenteux.
Resumo:
Pendant les années 1950 et 1960, Montréal se modernise sur plusieurs aspects. L’influence de l’administration de la ville sur cette modernisation est bien connue. Toutefois, les perspectives des acteurs extérieurs sont souvent ignorées. Ce mémoire examine donc les opinions de la Chambre de commerce de Montréal sur la modernisation de la métropole québécoise lors de ces deux décennies. La source principale utilisée pour effectuer cette étude a été la revue hebdomadaire de la Chambre, Commerce-Montréal. Dans le premier chapitre, les opinions de la Chambre de commerce sur la gouvernance municipale sont examinées. Celles-ci montrent que la Chambre percevait l’assainissement des moeurs politiques et l’amélioration de l’efficacité administrative comme intrinsèques à la modernisation de Montréal. Le deuxième chapitre porte sur la circulation automobile et le transport en commun. La Chambre proposait des moyens d’accélérer le débit de la circulation qu’elle jugeait crucial pour la modernisation de la métropole. Le troisième chapitre traite du développement urbain. D’après la Chambre, la modernisation de Montréal exigeait le renouvellement du cadre bâti de la ville, tant résidentiel que commercial. L’étude de ces trois thèmes confirme que, pendant la période 1950-1970, la Chambre de commerce a contribué de manière significative aux débats concernant la modernisation de Montréal. Nous relevons aussi que l’organisme, malgré son désir de paraître apolitique, a été influencé par sa fonction de représentant de la communauté d’affaires francophone. L’importance accordée à la rentabilité de la modernisation, ainsi que la hiérarchisation sociale attribuée à certains sujets, confirment notamment les orientations conservatrices de l’organisme.
Resumo:
Les facteurs de transcription sont des protéines spécialisées qui jouent un rôle important dans différents processus biologiques tel que la différenciation, le cycle cellulaire et la tumorigenèse. Ils régulent la transcription des gènes en se fixant sur des séquences d’ADN spécifiques (éléments cis-régulateurs). L’identification de ces éléments est une étape cruciale dans la compréhension des réseaux de régulation des gènes. Avec l’avènement des technologies de séquençage à haut débit, l’identification de tout les éléments fonctionnels dans les génomes, incluant gènes et éléments cis-régulateurs a connu une avancée considérable. Alors qu’on est arrivé à estimer le nombre de gènes chez différentes espèces, l’information sur les éléments qui contrôlent et orchestrent la régulation de ces gènes est encore mal définie. Grace aux techniques de ChIP-chip et de ChIP-séquençage il est possible d’identifier toutes les régions du génome qui sont liées par un facteur de transcription d’intérêt. Plusieurs approches computationnelles ont été développées pour prédire les sites fixés par les facteurs de transcription. Ces approches sont classées en deux catégories principales: les algorithmes énumératifs et probabilistes. Toutefois, plusieurs études ont montré que ces approches génèrent des taux élevés de faux négatifs et de faux positifs ce qui rend difficile l’interprétation des résultats et par conséquent leur validation expérimentale. Dans cette thèse, nous avons ciblé deux objectifs. Le premier objectif a été de développer une nouvelle approche pour la découverte des sites de fixation des facteurs de transcription à l’ADN (SAMD-ChIP) adaptée aux données de ChIP-chip et de ChIP-séquençage. Notre approche implémente un algorithme hybride qui combine les deux stratégies énumérative et probabiliste, afin d’exploiter les performances de chacune d’entre elles. Notre approche a montré ses performances, comparée aux outils de découvertes de motifs existants sur des jeux de données simulées et des jeux de données de ChIP-chip et de ChIP-séquençage. SAMD-ChIP présente aussi l’avantage d’exploiter les propriétés de distributions des sites liés par les facteurs de transcription autour du centre des régions liées afin de limiter la prédiction aux motifs qui sont enrichis dans une fenêtre de longueur fixe autour du centre de ces régions. Les facteurs de transcription agissent rarement seuls. Ils forment souvent des complexes pour interagir avec l’ADN pour réguler leurs gènes cibles. Ces interactions impliquent des facteurs de transcription dont les sites de fixation à l’ADN sont localisés proches les uns des autres ou bien médier par des boucles de chromatine. Notre deuxième objectif a été d’exploiter la proximité spatiale des sites liés par les facteurs de transcription dans les régions de ChIP-chip et de ChIP-séquençage pour développer une approche pour la prédiction des motifs composites (motifs composés par deux sites et séparés par un espacement de taille fixe). Nous avons testé ce module pour prédire la co-localisation entre les deux demi-sites ERE qui forment le site ERE, lié par le récepteur des œstrogènes ERα. Ce module a été incorporé à notre outil de découverte de motifs SAMD-ChIP.
Resumo:
La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.
Resumo:
Au cours des dernières années, des méthodes non-invasives de stimulations permettant de moduler l’excitabilité des neurones suivant des lésions du système nerveux central ont été développées. Ces méthodes sont maintenant couramment utilisées pour étudier l’effet de l’inhibition du cortex contralésionnel sur la récupération motrice à la suite d’un accident vasculocérébral (AVC). Bien que plusieurs de ces études rapportent des résultats prometteurs, les paramètres permettant une récupération optimale demeurent encore inconnus. Chez les patients victimes d'un AVC, il est difficile de débuter les traitements rapidement et d'initier l’inhibition dans les heures suivant la lésion. L'impact de ce délai est toujours inconnu. De plus, aucune étude n’a jusqu’à maintenant évalué l’effet de la durée de l’inhibition sur la récupération du membre parétique. Dans le laboratoire du Dr Numa Dancause, nous avons utilisé un modèle bien établi de lésion ischémique chez le rat pour explorer ces questions. Nos objectifs étaient d’évaluer 1) si une inactivation de l’hémisphère contralésionnel initiée dans les heures qui suivent la lésion peut favoriser la récupération et 2) l’effet de la durée de l’inactivation sur la récupération du membre parétique. Suite à une lésion dans le cortex moteur induite par injections d’un vasoconstricteur, nous avons inactivé l’hémisphère contralésionnel à l’aide d’une pompe osmotique assurant l’infusion continue d’un agoniste du GABA (Muscimol). Dans différents groupes expérimentaux, nous avons inactivé l’hémisphère contralésionnel pour une durée de 3, 7 et 14 jours suivant la lésion. Dans un autre groupe, le Muscimol a été infusé pour 14 jours mais à un débit moindre de façon à pouvoir étudier le lien entre la fonction du membre non-parétique et la récupération du membre parétique. Les données comportementales de ces groupes ont été comparées à celles d’animaux ayant récupéré de façon spontanée d'une lésion similaire. Nos résultats indiquent que l’augmentation de la durée de l’inactivation (de 3 à 14 jours) accélère la récupération du membre parétique. De plus, les deux groupes ayant reçu une inactivation d'une durée de 14 jours ont montré une plus grande récupération fonctionnelle que le groupe n’ayant pas reçu d’inactivation de l’hémisphère contralésionnel, le groupe contrôle. Nos résultats suggèrent donc que l’inactivation de l’hémisphère contralésionnel initiée dans les heures suivant la lésion favorise la récupération du membre parétique. La durée d’inhibition la plus efficace (14 jours) dans notre modèle animal est beaucoup plus longues que celles utilisées jusqu’à maintenant chez l’homme. Bien qu’il soit difficile d’extrapoler la durée idéale à utiliser chez les patients à partir de nos données, nos résultats suggèrent que des traitements de plus longue durée pourraient être bénéfiques. Finalement, un message clair ressort de nos études sur la récupération fonctionnelle après un AVC: dans le développement de traitements basés sur l’inhibition de l’hémisphère contralésionnel, la durée de l’inactivation est un facteur clef à considérer.
Resumo:
La thèse est divisée en deux parties, soit le texte principal et les annexes afin d'alléger la taille des documents.
Resumo:
Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association.
Resumo:
Les dinoflagellés sont des eucaryotes unicellulaires que l’on retrouve autant en eau douce qu’en milieu marin. Ils sont particulièrement connus pour causer des fleurs d’algues toxiques nommées ‘marée-rouge’, ainsi que pour leur symbiose avec les coraux et pour leur importante contribution à la fixation du carbone dans les océans. Au point de vue moléculaire, ils sont aussi connus pour leur caractéristiques nucléaires uniques, car on retrouve généralement une quantité immense d’ADN dans leurs chromosomes et ceux-ci sont empaquetés et condensés sous une forme cristalline liquide au lieu de nucléosomes. Les gènes encodés par le noyau sont souvent présents en multiples copies et arrangés en tandem et aucun élément de régulation transcriptionnelle, y compris la boite TATA, n’a encore été observé. L’organisation unique de la chromatine des dinoflagellés suggère que différentes stratégies sont nécessaires pour contrôler l’expression des gènes de ces organismes. Dans cette étude, j’ai abordé ce problème en utilisant le dinoflagellé photosynthétique Lingulodinium polyedrum comme modèle. L. polyedrum est d’un intérêt particulier, car il a plusieurs rythmes circadiens (journalier). À ce jour, toutes les études sur l’expression des gènes lors des changements circadiens ont démontrées une régulation à un niveau traductionnel. Pour mes recherches, j’ai utilisé les approches transcriptomique, protéomique et phosphoprotéomique ainsi que des études biochimiques pour donner un aperçu de la mécanique de la régulation des gènes des dinoflagellés, ceci en mettant l’accent sur l’importance de la phosphorylation du système circadien de L. polyedrum. L’absence des protéines histones et des nucléosomes est une particularité des dinoflagellés. En utilisant la technologie RNA-Seq, j’ai trouvé des séquences complètes encodant des histones et des enzymes modifiant les histones. L polyedrum exprime donc des séquences conservées codantes pour les histones, mais le niveau d’expression protéique est plus faible que les limites de détection par immunodétection de type Western. Les données de séquençage RNA-Seq ont également été utilisées pour générer un transcriptome, qui est une liste des gènes exprimés par L. polyedrum. Une recherche par homologie de séquences a d’abord été effectuée pour classifier les transcrits en diverses catégories (Gene Ontology; GO). Cette analyse a révélé une faible abondance des facteurs de transcription et une surprenante prédominance, parmi ceux-ci, des séquences à domaine Cold Shock. Chez L. polyedrum, plusieurs gènes sont répétés en tandem. Un alignement des séquences obtenues par RNA-Seq avec les copies génomiques de gènes organisés en tandem a été réalisé pour examiner la présence de transcrits polycistroniques, une hypothèse formulée pour expliquer le manque d’élément promoteur dans la région intergénique de la séquence de ces gènes. Cette analyse a également démontré une très haute conservation des séquences codantes des gènes organisés en tandem. Le transcriptome a également été utilisé pour aider à l’identification de protéines après leur séquençage par spectrométrie de masse, et une fraction enrichie en phosphoprotéines a été déterminée comme particulièrement bien adapté aux approches d’analyse à haut débit. La comparaison des phosphoprotéomes provenant de deux périodes différentes de la journée a révélée qu’une grande partie des protéines pour lesquelles l’état de phosphorylation varie avec le temps est reliées aux catégories de liaison à l’ARN et de la traduction. Le transcriptome a aussi été utilisé pour définir le spectre des kinases présentes chez L. polyedrum, qui a ensuite été utilisé pour classifier les différents peptides phosphorylés qui sont potentiellement les cibles de ces kinases. Plusieurs peptides identifiés comme étant phosphorylés par la Casein Kinase 2 (CK2), une kinase connue pour être impliquée dans l’horloge circadienne des eucaryotes, proviennent de diverses protéines de liaison à l’ARN. Pour évaluer la possibilité que quelques-unes des multiples protéines à domaine Cold Shock identifiées dans le transcriptome puissent moduler l’expression des gènes de L. polyedrum, tel qu’observé chez plusieurs autres systèmes procaryotiques et eucaryotiques, la réponse des cellules à des températures froides a été examinée. Les températures froides ont permis d’induire rapidement un enkystement, condition dans laquelle ces cellules deviennent métaboliquement inactives afin de résister aux conditions environnementales défavorables. Les changements dans le profil des phosphoprotéines seraient le facteur majeur causant la formation de kystes. Les phosphosites prédits pour être phosphorylés par la CK2 sont la classe la plus fortement réduite dans les kystes, une découverte intéressante, car le rythme de la bioluminescence confirme que l’horloge a été arrêtée dans le kyste.
Resumo:
Contexte L’américanisation des habitudes de vie, notamment de l’alimentation, semble être en grande partie responsable de l’augmentation incessante de l’incidence élevée des maladies cardiovasculaires. La période postprandiale, où l’homéostasie vasculaire et métabolique est mise à l’épreuve, est d’une importance considérable dans le développement ou la prévention de l’athérosclérose et représente maintenant la majeure partie du temps d’éveil. La compréhension de l’influence de la composition d’un repas sur son impact postprandial est donc essentielle dans notre lutte dans la prévention de ces maladies. Objectifs L’objectif principal de ce projet de recherche était d’étudier les réponses endothéliale et métabolique à un repas de type méditerranéen mixte (MMM), puisqu’elles sont inconnues. Ce projet avait aussi pour objectifs d’évaluer l’impact microvasculaire d’un tel repas et de caractériser la composition postprandiale des acides gras plasmatiques. À titre comparatif, ces éléments ont aussi été étudiés suite à un repas riche en gras saturés (HSFAM). Méthodes Vingt-huit (28) hommes sains, exempts de facteurs de risque de maladies cardiovasculaires ont reçu de façon randomisée les deux repas à l’étude. Le MMM, composé de saumon frais et de légumes cuits dans l'huile d'olive, contenait 7.87g de SFA et 2.29g d’acides gras polyinsaturés oméga-3, tandis que le HSFAM, composé d'un sandwich déjeuner avec œuf, saucisse et fromage, contenait 14.78g de SFA. Les mesures de la fonction endothéliale mesurée par échographie brachiale (FMD), de la fonction microvasculaire mesurée par spectroscopie proche de l’infrarouge (NIRS) et de la composition des acides gras plasmatique ont été effectuées à jeun et en période postprandiale. Résultats Deux sous-groupes de répondeurs aux repas à l’étude se sont dégagés de ces travaux. Un premier sous-groupe de sujets ayant une triglycéridémie à jeun élevée, mais normale (hnTG) a démontré des altérations endothéliales seulement suivant le repas HSFAM. Un second sous-groupe de sujets ayant une triglycéridémie plus faible et normale (lnTG) n’a quant à lui pas subi d’altérations endothéliales suivant les deux repas à l’étude. Les sujets hnTG ont aussi démontré une charge triglycéridémique postprandiale (iAUC) plus importante et qui était de surcroît enrichie en acide stéarique suivant la HSFAM et en acide gras polyinsaturés oméga-3 suivant le MMM. L’évaluation par NIRS de la fonction microvasculaire nous révèle un ralentissement de la réoxygénation post-ischémique qui suggère une altération postprandiale du recrutement capillaire chez les sujets hnTG seulement. De telles altérations, qui semblent être plus importantes suivant le HSFAM, pourraient être en partie responsables de l’impact endothélial de ce repas. Conclusions Cet essai clinique démontre donc de façon novatrice qu’un repas MMM n’a pas d’effet endothélial délétère et que cette neutralité est indépendante de la triglycéridémie à jeun. De plus, une triglycéridémie à jeun élevée mais normale semble indiquer des dysfonctions endothéliales et métaboliques à des épreuves nutritionnelles tel un repas HSFAM. La consommation de repas méditerranéens par des individus sains à la triglycéridémie marginale serait bénéfique, peut-être même davantage que pour des individus de triglycéridémie plus faible, dans la prévention de l’athérogénèse et des maladies cardiovasculaires.
Resumo:
En général, le métabolisme des poissons est estimé à des valeurs de température constantes, mais les effets de fluctuations journalières de température similaires à celles retrouvées en milieu naturel semblent peu connus. Les objectifs du présent mémoire sont de quantifier les effets de la température moyenne d’acclimatation et d’évaluer les effets de l’historique thermique des individus, sur les réponses métaboliques de tacons de saumon Atlantique (Salmo salar) aux fluctuations journalières de la température. Des tacons provenant de deux rivières, une fraîche et une chaude, ont été acclimatés à un maximum de quatre régimes thermiques (constant 15 °C ou 20 °C, fluctuant 15 °C ± 2.5 °C ou 20 °C ± 2.5 °C) et leur taux métabolique standard estimés par respirométrie par débit-intermittent. Les fluctuations journalières de température (15 °C ± 2.5 °C) près de l’optimum thermique pour cette espèce (16 °C) n’affectent pas le taux métabolique standard. À l’opposé, les fluctuations journalières de température plus chaudes (20 °C ± 2.5 °C) augmentent de 35.4% le taux métabolique standard des tacons de la rivière plus chaude, mais pas ceux des poissons de la rivière fraîche. Ainsi, la température moyenne à laquelle sont acclimatés les poissons peut affecter leur réponse métabolique aux fluctuations journalières de température, mais cette réponse peut varier entre populations provenant de rivières présentant des régimes thermiques différents. Enfin, grâce aux données de métabolisme précédemment estimées, un modèle de métabolisme standard a été développé pour des tacons de saumon Atlantique soumis à des fluctuations journalières de température.
Resumo:
Travail d'intégration présenté à la Faculté de médecine en vue de l’obtention du grade de maîtrise et sciences de la santé - Physiothérapie