958 resultados para Prédiction de la fonction protéique
Resumo:
Il existe un lien étroit entre la structure tridimensionnelle et la fonction cellulaire de l’ARN. Il est donc essentiel d’effectuer des études structurales de molécules d’ARN telles que les riborégulateurs afin de mieux caractériser leurs mécanismes d’action. Une technique de choix, permettant d’obtenir de l’information structurale sur les molécules d’ARN est la spectroscopie RMN. Cette technique est toutefois limitée par deux difficultés majeures. Premièrement, la préparation d’une quantité d’ARN nécessaire à ce type d’étude est un processus long et ardu. Afin de résoudre ce problème, notre laboratoire a développé une technique rapide de purification des ARN par affinité, utilisant une étiquette ARiBo. La deuxième difficulté provient du grand recouvrement des signaux présents sur les spectres RMN de molécules d’ARN. Ce recouvrement est proportionnel à la taille de la molécule étudiée, rendant la détermination de structures d’ARN de plus de 15 kDa extrêmement complexe. La solution émergeante à ce problème est le marquage isotopique spécifique des ARN. Cependant, les protocoles élaborées jusqu’à maintenant sont très coûteux, requièrent plusieurs semaines de manipulation en laboratoire et procurent de faibles rendements. Ce mémoire présente une nouvelle stratégie de marquage isotopique spécifique d’ARN fonctionnels basée sur la purification par affinité ARiBo. Cette approche comprend la séparation et la purification de nucléotides marqués, une ligation enzymatique sur support solide, ainsi que la purification d’ARN par affinité sans restriction de séquence. La nouvelle stratégie développée permet un marquage isotopique rapide et efficace d’ARN fonctionnels et devrait faciliter la détermination de structures d’ARN de grandes tailles par spectroscopie RMN.
Resumo:
Eph kinases are the largest family of cell surface receptor tyrosine kinases. The ligands of Ephs, ephrins (EFNs), are also cell surface molecules. Ephs interact with EFNs and the receptors and ligands transmit signals in both directions, i.e., from Ephs to EFNs and from EFNs to Ephs. Ephs and EFNs are widely involved in various developmental, physiological pathophysiological processes. Our group and others have reported the roles of Ephs/EFNs in the immune system. To further investigate the function of EphBs/EFNBs in T cell development and responses, we generated EFNB1, EFNB2, EphB4 conditional gene knockout (KO) mice and EFNB1/2 double KO mice. In the projects using EFNB1 and EFNB2 knockout mice, we specifically deleted EFNB1 or EFNB2 in T cells. The mice had normal size and cellularity of the thymus and spleen as well as normal T cell subpopulations in these organs. The bone marrow progenitors from KO mice and WT mice repopulated the host lymphoid organs to similar extents. The activation and proliferation of KO T cells was comparable to that of control mice. Naïve KO CD4 cells differentiated into Th1, Th2, Th17 and Treg cells similar to naïve control CD4 cells. In EFNB2 KO mice, we observed a significant relative increase of CD4CD8 double negative thymocytes in the thymus. Flowcytometry analysis revealed that there was a moderate increase in the DN3 subpopulation in the thymus. This suggests that EFNB2 is involved in thymocyte development. Our results indicate that the functions of EFNB1 and EFNB2 in the T cell compartment could be compensated by each other or by other members of the EFN family, and that such redundancy safeguards the pivotal roles of EFNB1 and EFNB2 in T cell development and function. In the project using EFNB1/B2 double knockout (dKO) model, we revealed a novel regulatory function of EFNb1 and EFNb2 in stabilizing IL-7Rα expression on the T cell surface. IL-7 plays important roles in thymocyte development, T cell homeostasis and survival. IL-7Rα undergoes internalization upon IL-7 binding. In the dKO mice, we observed reduced IL-7Rα expression in thymocytes and T cells. Moreover, the IL-7Rα internalization was accelerated in dKO CD4 cells upon IL-7 stimulation. In T cell lymphoma cell line, EL4, over-expression of either EFNB1 or EFNB2 retarded the internalization of IL-7Rα. We further demonstrated compromised IL-7 signaling and homeostatic proliferation of dKO T cells. Mechanism study using fluorescence resonance energy transfer and immunoprecipitation demonstrated that physical interaction of EFNB1 and EFNB2 with IL-7Rα was likely responsible for the retarded IL-7Rα internalization. In the last project, using medullary thymic epithelial cell (mTEC)-specific EphB4 knockout mice, we investigated T cell development and function after EphB4 deletion in mTEC. EphB4 KO mice demonstrated normal thymic weight and cellularity. T cell development and function were not influenced by the EphB4 deletion. Lastly, the KO mice developed normal delayed type hypersensitivity. Overall, our results suggest that comprehensive cross interaction between Eph and EFN family members could compensate function of a given deleted member in the T cell development, and only simultaneous deletion of multiple EFNBs will reveal their true function in the immune system. In fact, such redundancy signifies vital roles of Ephs and EFNs in the immune system.
Resumo:
La Vitamine K (VK) est largement reconnue pour son rôle dans la coagulation sanguine toutefois, de plus en plus de travaux indiquent son implication dans la fonction cérébrale. La VK est requise pour l'activation de différentes protéines, par exemple la protéine Gas6, et la ménaquinone-4 (MK-4), le principal vitamère K dans le cerveau, est impliquée dans le métabolisme des sphingolipides. Dans un rapport précédent, nous avons montré qu'un régime alimentaire faible en VK tout au long de la vie était associé à des déficits cognitifs chez des rats âgés. La warfarine sodique est un puissant antagoniste de la VK qui agit en bloquant le cycle de la VK, provoquant un «déficit relatif de VK » au niveau cellulaire. À la lumière du rôle émergent de la VK dans le cerveau, la warfarine pourrait représenter un facteur de risque pour la fonction cérébrale. Ce travail est donc pertinente en raison de la forte proportion d'adultes traîtés à la warfarine sodique. Dans la présente étude, 14 rats mâles Wistar ont été traités avec 14 mg de warfarine/kg /jour (dans l'eau potable) et des injections sous-cutanées de VK (85 mg/kg), 3x/sem, pendant 10 semaines. Quatorze rats témoins ont été traités avec de l'eau normale et injectés avec une solution saline. Les rats ont été soumis à différents tests comportementaux après quoi les niveaux de phylloquinone, MK-4, sphingolipides (cérébroside, sulfatide, sphingomyéline, céramide et gangliosides), et les sous-types de gangliosides (GT1b, GD1a, GM1, GD1b), ont été évalués dans différentes régions du cerveau. Comparativement aux rats du groupe contrôle, les rats traités à la warfarine présentaient des latences plus longues au test de la piscine de Morris (p <0,05) ainsi qu'une hypoactivité et un comportement exploratoire plus faible au test de « l’open field » (p <0,05). Le traitement par warfarine a également entraîné une diminution spectaculaire du niveau de MK-4 dans toutes les régions du cerveau (p <0,001), une altération des concentrations de sphingolipidiques, en particulier dans le cortex frontal et le mésencéphale (p <0,05), et une perte de différences régionales sphingolipidiques, notamment pour les gangliosides. Le traitement par warfarine a été associé à un niveau inférieur de GD1a dans l'hippocampe et un niveau supérieur de GT1b dans le cortex préfrontal et le striatum. En conclusion, la déficience en VK induite par warfarine altère les niveaux de VK et sphingolipides dans le cerveau, avec de potentiels effets néfastes sur les fonctions cérébrales.
Resumo:
Nous proposons une nouvelle méthode pour quantifier la vorticité intracardiaque (vortographie Doppler), basée sur l’imagerie Doppler conventionnelle. Afin de caractériser les vortex, nous utilisons un indice dénommé « Blood Vortex Signature (BVS) » (Signature Tourbillonnaire Sanguine) obtenu par l’application d’un filtre par noyau basé sur la covariance. La validation de l’indice BVS mesuré par vortographie Doppler a été réalisée à partir de champs Doppler issus de simulations et d’expériences in vitro. Des résultats préliminaires obtenus chez des sujets sains et des patients atteints de complications cardiaques sont également présentés dans ce mémoire. Des corrélations significatives ont été observées entre la vorticité estimée par vortographie Doppler et la méthode de référence (in silico: r2 = 0.98, in vitro: r2 = 0.86). Nos résultats suggèrent que la vortographie Doppler est une technique d’échographie cardiaque prometteuse pour quantifier les vortex intracardiaques. Cet outil d’évaluation pourrait être aisément appliqué en routine clinique pour détecter la présence d’une insuffisance ventriculaire et évaluer la fonction diastolique par échocardiographie Doppler.
Resumo:
La polyarthrite rhumatoïde (PR) est une maladie auto-immune chronique. Elle est caractérisée par une inflammation persistante touchant de multiples petites articulations, causant douleurs, rougeurs, gonflements et déformations. Des études menées auprès de patients et d’animaux ont démontré que certains auto-anticorps, cytokines et enzymes tissue-déstructives sont des médiateurs importants dans le développement de la PR. Au cours des deux dernières décennies, les traitements de fond (DMARDs en anglais) ont été démontrés très efficaces pour traiter la PR. D'autre part, des effets secondaires ont été rapportés pour ces traitements, par exemple l'augmentation du risque d'infections opportunistes. L’objectif de ce travail est d’acquérir des connaissances sur le rôle du TL1A (TNF-like molécule 1 A; TNFSF15) et son partenaire Nob1 (Pno1 ; YOR145c) dans la pathogenèse de la PR afin de découvrir de nouveaux médicaments contre ces molécules dans l'avenir. TL1A est un membre de la famille du TNF. Il déclenche des signaux co-stimulateurs via le récepteur de mort 3 (DR3) et induit la prolifération ainsi que la production des cytokines pro inflammatoires par les lymphocytes. Des données multiples suggèrent l'implication de la cascade TL1A-DR3 dans plusieurs maladies auto-immunes. Donc, nous avons proposé les hypothèses suivantes:1) la production locale de TL1A dans les articulations est un composant d’un cercle vicieux qui aggrave la PR; 2) dans la PR, la production de TL1A dans les organes lymphoïde augmente la production d’auto-anticorps pathogénique. Au cours de ce travail, nous avons démontré que la TL1A aggrave la maladie chez les souris où l’arthrite a été induite par le collagène (AIC). Par ailleurs, nous avons constaté que l’expression de TL1A est élevée dans les tissus atteints de PR ainsi que dans les ganglions lymphatiques drainant de la souris AIC. Mécaniquement, nous avons découvert que la TL1A est induite par le TNF-α et IL-17 produits par les cellules T in vitro. Ces résultats montrent directement que les TL1A-DR3 jouent un rôle essentiel dans la pathogenèse de la PR. De plus, afin de poursuivre notre étude, la TL1A a été génétiquement supprimée dans les souris (TL1A KO). Nous avons montré que les souris TL1A KO n’ont aucune anomalie apparente et aucun dysfonctionnement du système immunitaire dans des conditions normales. Cependant, ces souris manifestent des AIC améliorées et une réduction significative des niveaux d'anticorps, anti-collagène du type II i dans le sérum. Nous avons trouvé que les ganglions lymphatiques de drainage (dLNs) de souris KO étaient plus petites avec une cellularité inférieure comparativement aux souris WT de 14 jours après l’immunisation. De plus, nous avons découvert que le DR3 a été exprimé par les cellules plasmatiques dans l’étape de la différenciation terminale et ces cellules surviennent mieux en présence de TL1A. La conclusion de cette étude apporte des nouvelles connaissances sur le rôle de TL1A qui amplifie les réponses humorales d’AIC. Nous avons suggéré que TL1A pourrait augmenter la réponse d’initiation d'anticorps contre collagène II (CII) ainsi que prolonger la survie des cellules plasmatiques. Une autre molécule qui nous intéresse est Pno1. Des études antérieures menées chez la levure ont suggéré que Pno1 est essentielle pour la néogénèse du protéasome et du ribosome Le protéasome étant crucial pour la différenciation terminale des cellules plasmatiques pendant les réponses humorales chez les mammifères, nous avons donc supposé que Pno1 joue un rôle dans la production d'anticorps pathogenique dans la PR via la voie du protéasome. Nous avons donc généré des souris génétiquement modifiées pour Pno1 afin d’étudier la fonction de Pno1 in vivo. Cependant, une mutation non-sens dans le Pno1 provoque une létalité embryonnaire à un stade très précoce chez les souris. D'autre part, une réduction de 50% de Pno1 ou une surexpression de Pno1 n’ont aucun effet ni sur le fonctionnent des cellules T et B, ni sur les activités du protéasome ainsi que sur la réponse humorale dans l’AIC. Ces résultats suggèrent que Pno1 est une molécule essentielle sans redondance. Par conséquent, il n’est pas une cible appropriée pour le développement de médicaments thérapeutiques. En conclusion, nos études ont révélé que la TL1A n’est pas essentielle pour maintenir les fonctions du système immunitaire dans des conditions normales. En revanche, il joue un rôle critique dans la pathogenèse de la PR en favorisant l'inflammation locale et la réponse humorale contre des auto-antigènes. Par conséquent, une inhibition de la TL1A pourrait être une stratégie thérapeutique pour le traitement de la PR. Au contraire, Pno1 est essentiel pour la fonction normale des cellules. Une délétion totale pourrait entraîner des conséquences graves. Il n’est pas une cible appropriée pour développer des médicaments de la PR.
Resumo:
Cette étude porte sur l’analyse de l’identité, en termes de fonction, des monuments érigés sous tumulus dans le territoire actuel de la Bulgarie. Ces monuments sont généralement datés du Ve au IIIe siècle avant notre ère et ont été associés aux peuples thraces qui ont évolué sur ce territoire durant cette époque. Les monuments thraces sous tumulus, aux structures en blocs de pierre ou en moellons, ou d’un mélange de matériaux et de techniques différentes, ont été invariablement recouverts de monticules de terre dès l’Antiquité. Les tumuli ainsi obtenus ont été utilisés à différentes fins par les peuples locaux jusqu’à l’époque moderne. Les études plus ou moins détaillées des monuments thraces sous tumulus, qui ont débuté dès la fin du XIXe siècle de notre ère, ainsi que l’accumulation rapide de nouveaux exemplaires durant les deux dernières décennies, ont permis de constater une grande variabilité de formes architecturales en ce qui a trait aux différentes composantes de ces constructions. Cette variabilité a poussé certains chercheurs à proposer des typologies des monuments afin de permettre une meilleure maîtrise des données, mais aussi dans le but d’appuyer des hypothèses portant sur les origines des différents types de constructions sous tumulus, ou sur les origines des différentes formes architectoniques identifiées dans leurs structures. Des hypothèses portant sur la fonction de ces monuments, à savoir, sur l’usage qu’en ont fait les peuples thraces antiques, ont également été émises : certains chercheurs ont argumenté pour un usage funéraire, d’autres pour une fonction cultuelle. Un débat de plus en plus vif s’est développé durant les deux dernières décennies entre chercheurs de l’un et de l’autre camp intellectuel. Il a été constamment alimenté par de nouvelles découvertes sur le terrain, ainsi que par la multiplication des publications portant sur les monuments thraces sous tumulus. Il est, de ce fait, étonnant de constater que ni les hypothèses portant sur les origines possibles de ces constructions, ni celles ayant trait à leurs fonctions, n’ont été basées sur des données tangibles – situation qui a eu pour résultat la désignation des monuments thraces par « tombes-temples-mausolées », étiquette chargée sinon d’un sens précis, du moins d’une certaine connotation, à laquelle le terme « hérôon » a été ajouté relativement récemment. Notre étude propose de dresser un tableau actuel des recherches portant sur les monuments thraces sous tumulus, ainsi que d’analyser les détails de ce tableau, non pas dans le but de trancher en faveur de l’une ou de l’autre des hypothèses mentionnées, mais afin d’expliquer les origines et la nature des problèmes que les recherches portant sur ces monuments ont non seulement identifiés, mais ont également créés. Soulignant un fait déjà noté par plusieurs chercheurs-thracologues, celui du manque frappant de données archéologiques exactes et précises dans la grande majorité des publications des monuments thraces, nous avons décidé d’éviter la tendance optimiste qui persiste dans les études de ces derniers et qui consiste à baser toute analyse sur le plus grand nombre de trouvailles possible dans l’espoir de dresser un portrait « complet » du contexte archéologique immédiat des monuments ; portrait qui permettrait au chercheur de puiser les réponses qui en émergeraient automatiquement, puisqu’il fournirait les éléments nécessaires pour placer l’objet de l’analyse – les monuments – dans un contexte historique précis, reconstitué séparément. Ce manque de données précises nous a porté à concentrer notre analyse sur les publications portant sur les monuments, ainsi qu’à proposer une approche théoriquement informée de l’étude de ces derniers, en nous fondant sur les discussions actuelles portant sur les méthodes et techniques des domaines de l’archéologie, de l’anthropologie et de l’histoire – approche étayée dans la première partie de cette thèse. Les éléments archéologiques (avant tout architecturaux) qui ont servi de base aux différentes hypothèses portant sur les constructions monumentales thraces sont décrits et analysés dans le deuxième volet de notre étude. Sur la base de cette analyse, et en employant la méthodologie décrite et argumentée dans le premier volet de notre thèse, nous remettons en question les différentes hypothèses ayant trait à l’identité des monuments. L’approche de l’étude des monuments thraces sous tumulus que nous avons adoptée tient compte tant de l’aspect méthodologique des recherches portant sur ceux-ci, que des données sur lesquelles les hypothèses présentées dans ces recherches ont été basées. Nous avons porté une attention particulière à deux aspects différents de ces recherches : celui du vocabulaire technique et théorique implicitement ou explicitement employé par les spécialistes et celui de la façon dont la perception de l’identité des monuments thraces a été affectée par l’emploi de ce vocabulaire. Ces analyses nous ont permis de reconstituer, dans le dernier volet de la présente étude, l’identité des monuments thraces telle qu’implicitement ou explicitement perçue par les thracologues et de comparer cette restitution à celle que nous proposons sur la base de nos propres études et observations. À son tour, cette comparaison des restitutions des différentes fonctions des monuments permet de conclure que celle optant pour une fonction funéraire, telle que nous la reconstituons dans cette thèse, est plus économe en inférences et mieux argumentée que celle identifiant les monuments thraces de lieux de culte. Cependant, l’impossibilité de réfuter complètement l’hypothèse des « tombes-temples » (notamment en raison du manque de données), ainsi que certains indices que nous avons repérés dans le contexte architectural et archéologique des monuments et qui pourraient supporter des interprétations allant dans le sens d’une telle identification de ces derniers, imposent, d’après nous, la réévaluation de la fonction des constructions thraces sous tumulus sur la base d’une restitution complète des pratiques cultuelles thraces d’après les données archéologiques plutôt que sur la base d’extrapolations à partir des textes grecs anciens. À notre connaissance, une telle restitution n’a pas encore été faite. De plus, le résultat de notre analyse des données archéologiques ayant trait aux monuments thraces sous tumulus, ainsi que des hypothèses et, plus généralement, des publications portant sur les origines et les fonctions de ces monuments, nous ont permis de constater que : 1) aucune des hypothèses en question ne peut être validée en raison de leur recours démesuré à des extrapolations non argumentées (que nous appelons des « sauts d’inférence ») ; 2) le manque flagrant de données ou, plus généralement, de contextes archéologiques précis et complets ne permet ni l’élaboration de ces hypothèses trop complexes, ni leur validation, justifiant notre approche théorique et méthodologique tant des monuments en question, que des études publiées de ceux-ci ; 3) le niveau actuel des connaissances et l’application rigoureuse d’une méthodologie d’analyse permettent d’argumenter en faveur de la réconciliation des hypothèses « funéraires » et « cultuelles » – fait qui ne justifie pas l’emploi d’étiquettes composites comme « templestombes », ni les conclusions sur lesquelles ces étiquettes sont basées ; 4) il y a besoin urgent dans le domaine de l’étude des monuments thraces d’une redéfinition des approches méthodologiques, tant dans les analyses théoriques des données que dans le travail sur le terrain – à défaut de procéder à une telle redéfinition, l’identité des monuments thraces sous tumulus demeurera une question d’opinion et risque de se transformer rapidement en une question de dogmatisme.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.
Resumo:
Contexte L’américanisation des habitudes de vie, notamment de l’alimentation, semble être en grande partie responsable de l’augmentation incessante de l’incidence élevée des maladies cardiovasculaires. La période postprandiale, où l’homéostasie vasculaire et métabolique est mise à l’épreuve, est d’une importance considérable dans le développement ou la prévention de l’athérosclérose et représente maintenant la majeure partie du temps d’éveil. La compréhension de l’influence de la composition d’un repas sur son impact postprandial est donc essentielle dans notre lutte dans la prévention de ces maladies. Objectifs L’objectif principal de ce projet de recherche était d’étudier les réponses endothéliale et métabolique à un repas de type méditerranéen mixte (MMM), puisqu’elles sont inconnues. Ce projet avait aussi pour objectifs d’évaluer l’impact microvasculaire d’un tel repas et de caractériser la composition postprandiale des acides gras plasmatiques. À titre comparatif, ces éléments ont aussi été étudiés suite à un repas riche en gras saturés (HSFAM). Méthodes Vingt-huit (28) hommes sains, exempts de facteurs de risque de maladies cardiovasculaires ont reçu de façon randomisée les deux repas à l’étude. Le MMM, composé de saumon frais et de légumes cuits dans l'huile d'olive, contenait 7.87g de SFA et 2.29g d’acides gras polyinsaturés oméga-3, tandis que le HSFAM, composé d'un sandwich déjeuner avec œuf, saucisse et fromage, contenait 14.78g de SFA. Les mesures de la fonction endothéliale mesurée par échographie brachiale (FMD), de la fonction microvasculaire mesurée par spectroscopie proche de l’infrarouge (NIRS) et de la composition des acides gras plasmatique ont été effectuées à jeun et en période postprandiale. Résultats Deux sous-groupes de répondeurs aux repas à l’étude se sont dégagés de ces travaux. Un premier sous-groupe de sujets ayant une triglycéridémie à jeun élevée, mais normale (hnTG) a démontré des altérations endothéliales seulement suivant le repas HSFAM. Un second sous-groupe de sujets ayant une triglycéridémie plus faible et normale (lnTG) n’a quant à lui pas subi d’altérations endothéliales suivant les deux repas à l’étude. Les sujets hnTG ont aussi démontré une charge triglycéridémique postprandiale (iAUC) plus importante et qui était de surcroît enrichie en acide stéarique suivant la HSFAM et en acide gras polyinsaturés oméga-3 suivant le MMM. L’évaluation par NIRS de la fonction microvasculaire nous révèle un ralentissement de la réoxygénation post-ischémique qui suggère une altération postprandiale du recrutement capillaire chez les sujets hnTG seulement. De telles altérations, qui semblent être plus importantes suivant le HSFAM, pourraient être en partie responsables de l’impact endothélial de ce repas. Conclusions Cet essai clinique démontre donc de façon novatrice qu’un repas MMM n’a pas d’effet endothélial délétère et que cette neutralité est indépendante de la triglycéridémie à jeun. De plus, une triglycéridémie à jeun élevée mais normale semble indiquer des dysfonctions endothéliales et métaboliques à des épreuves nutritionnelles tel un repas HSFAM. La consommation de repas méditerranéens par des individus sains à la triglycéridémie marginale serait bénéfique, peut-être même davantage que pour des individus de triglycéridémie plus faible, dans la prévention de l’athérogénèse et des maladies cardiovasculaires.
Resumo:
L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.
Resumo:
Cette thèse porte sur trois textes autobiographiques qui questionnent, à travers l’élaboration d’une pensée de l’événement, les oppositions convenues entre fiction et témoignage. L’Événement (2000) d’Annie Ernaux, Le jour où je n’étais pas là (2000) d’Hélène Cixous et L’Instant de ma mort (1994) de Maurice Blanchot présentent le récit autoréférentiel d’un événement traumatique, soit un avortement clandestin pour Ernaux, la mort en bas âge d’un enfant trisomique pour Cixous et la mise en joue par un soldat nazi lors de la Seconde Guerre mondiale pour Blanchot. Ce corpus, quoique hétérogène à plusieurs égards, loge à l’enseigne d’une littérature placée sous le signe de l’aveu, de la confession et de la révélation ; cette littérature porterait au jour ce qui était jusque-là demeuré impossible à dire. Partant de la figure de la honte inscrite dans ces trois œuvres, mais aussi dans d’autres textes de ces écrivains qui permettent de déployer ce qui se trame de secret et d’événement dans le corpus principal, cette thèse a pour objectif d’analyser les déplacements et les retours d’un trauma gardé secret pendant une quarantaine d’années et qui remonte, par la voie de l’événement, à la surface de l’écriture. Sous la double impulsion de la pensée de Jacques Derrida et de l’approche psychanalytique, cette thèse s’intéresse à la question de l’événement à l’œuvre chez Ernaux, Cixous et Blanchot. Dans chacune de ces œuvres, un événement traumatique intervient comme révélateur de l’écriture et d’un rapport singulier à la pensée de l’événement, marqué soit historiquement et politiquement (Blanchot), soit intimement (Cixous et Ernaux). Par l’écriture, ces auteurs tentent en effet de rendre compte de l’authenticité de l’événement ressenti, problématisant du même coup la nature et la fonction de l’événement tant réel que psychique dans le récit de soi. L’événement est ainsi abordé dans son caractère historique, psychanalytique mais également philosophique, ontologique ; la pensée de l’événement mise à l’épreuve des textes d’Ernaux, de Cixous et de Blanchot permet d’explorer les figures de la date, de l’archive, de la mort et du deuil qui lui sont liées, en plus de donner lieu à une poétique singulière chez chacun. Enfin, la thèse traite du rapport entre l’aveu de l’événement et la langue qui, défiant l’opposition traditionnelle du constatif et du performatif, entraîne l’événement du récit, cet autre événement qui arrive en même temps que le récit de l’événement traumatique.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Une des théories actuellement prépondérante pour expliquer le déclin cognitif observé chez les personnes âgées est une perte généralisée de la fonction inhibitrice. En revanche, de plus en plus d’études révèlent un maintien et même un gain sur le plan émotionnel chez les âgés. Afin de caractériser l’effet de l’âge sur la fonction inhibitrice et sur les émotions, nous avons utilisé le paradigme bien connu du réflexe acoustique de sursaut et de son inhibition par le prépulse, un phénomène reconnu comme reflétant le filtrage sensorimoteur, soit une mesure pré-attentionnelle d’inhibition. Le réflexe acoustique de sursaut est une réponse du corps tout entier à un bruit fort et inattendu et a été mesuré via la magnitude et la latence du clignement des yeux. La présentation d’un son faible (prépulse) quelques millisecondes avant le bruit de sursaut réduit la réponse de sursaut. Deux groupes de participants (jeunes adultes et âgés) ont visionné des images plaisantes, neutres et déplaisantes issues du International Affective Picture System (IAPS), lesquelles étaient associées à des stimuli auditifs évaluant le réflexe acoustique de sursaut et son inhibition par le prépulse. Les résultats démontrent que le réflexe de sursaut est modulé différemment par les émotions chez les jeunes adultes et les âgés. Plus particulièrement, les adultes âgés ont un plus grand réflexe de sursaut que les jeunes adultes lorsqu’ils visionnent des images plaisantes et neutres. Le processus d’inhibition par le prépulse est également modulé différemment par les émotions chez les âgés et les jeunes adultes: les âgés ont une plus grande inhibition du réflexe de sursaut que les jeunes adultes lorsqu’ils visionnent des images plaisantes et déplaisantes, mais ils ne diffèrent pas des jeunes adultes pour les images neutres. Dans l’ensemble, les résultats obtenus ne sont pas compatibles avec une perte d’inhibition chez les adultes âgés, et supportent plutôt un biais émotionnel positif.
Resumo:
Objectif: Déterminer si l’efficacité de l’amiodarone pour le maintien du rythme sinusal varie selon la fonction systolique ventriculaire gauche. Contexte: Malgré un profil de sécurité établi en insuffisance cardiaque, nous ignorons si l’efficacité de l’amiodarone et son impact sur différentes issues cardiovasculaires sont modulés par la fonction ventriculaire gauche. Méthode: Nous avons effectué une analyse combinée de 3307 patients (âgés de 68,0±0,9 ans ; 31,1% de femmes) recrutés dans les études AFFIRM et AF-CHF qui ont été randomisés au contrôle du rythme par l’amiodarone (N=1107) ou au contrôle de la fréquence cardiaque (N=2200). Résultats: Chez les patients sous amiodarone, la survie sans fibrillation auriculaire était de 84% et de 45% à 1 et 5 ans respectivement, sans égard à la fraction d’éjection ventriculaire gauche (P=0,8754, ajusté). De façon similaire, la proportion moyenne ajustée de temps en fibrillation auriculaire (15,0±1,8%) n’a pas été influencée par la fraction d’éjection (P=0,6094). Durant le suivi, 1963 patients (59,4%) ont requis au moins une hospitalisation, incluant 1401 (42,6%) patients hospitalisés pour cause cardiovasculaire. Les taux ajustés d’hospitalisation pour toutes causes et pour cause cardiovasculaire étaient similaires entre les patients sous amiodarone et ceux dans le groupe de contrôle de la fréquence dans l’ensemble de la population ainsi que dans les sous-groupes de patients avec et sans dysfonction ventriculaire gauche sévère. De façon similaire, les taux ajustés de mortalité globale et cardiovasculaire étaient similaires entre chez les patients sous amiodarone et ceux traités par le contrôle de la fréquence dans l’ensemble de la population ainsi que dans les sous-groupes de patients avec et sans dysfonction ventriculaire gauche sévère. Conclusions: L’efficacité de l’amiodarone pour le maintien du rythme sinusal n’est pas influencée par la fonction ventriculaire gauche. Le contrôle du rythme avec l’amiodarone s’associe à des taux de mortalité et d’hospitalisation comparables au contrôle de la fréquence à la fois chez les patients avec et sans dysfonction ventriculaire gauche sévère.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.