442 resultados para Paramètres atmosphériques
Resumo:
Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.
Resumo:
La cartographie peptidique est une méthode qui permet entre autre d’identifier les modifications post-traductionnelles des protéines. Elle comprend trois étapes : 1) la protéolyse enzymatique, 2) la séparation par électrophorèse capillaire (CE) ou chromatographie en phase liquide à haute performance (HPLC) des fragments peptidiques et 3) l’identification de ces derniers. Cette dernière étape peut se faire par des méthodes photométriques ou par spectrométrie de masse (MS). Au cours de la dernière décennie, les enzymes protéolytiques immobilisées ont acquis une grande popularité parce qu’elles peuvent être réutilisées et permettent une digestion rapide des protéines due à un rapport élevé d’enzyme/substrat. Pour étudier les nouvelles techniques d’immobilisation qui ont été développées dans le laboratoire du Professeur Waldron, la cartographie peptidique par CE est souvent utilisée pour déterminer le nombre total de peptides détectés et leurs abondances. La CE nous permet d’avoir des séparations très efficaces et lorsque couplée à la fluorescence induite par laser (LIF), elle donne des limites de détection qui sont 1000 fois plus basses que celles obtenues avec l’absorbance UV-Vis. Dans la méthode typique, les peptides venant de l’étape 1) sont marqués avec un fluorophore avant l’analyse par CE-LIF. Bien que la sensibilité de détection LIF puisse approcher 10-12 M pour un fluorophore, la réaction de marquage nécessite un analyte dont la concentration est d’au moins 10-7 M, ce qui représente son principal désavantage. Donc, il n’est pas facile d’étudier les enzymes des peptides dérivés après la protéolyse en utilisant la technique CE-LIF si la concentration du substrat protéique initial est inférieure à 10-7 M. Ceci est attribué à la dilution supplémentaire lors de la protéolyse. Alors, afin d’utiliser le CE-LIF pour évaluer l’efficacité de la digestion par enzyme immobilisée à faible concentration de substrat,nous proposons d’utiliser des substrats protéiques marqués de fluorophores pouvant être purifiés et dilués. Trois méthodes de marquage fluorescent de protéine sont décrites dans ce mémoire pour étudier les enzymes solubles et immobilisées. Les fluorophores étudiés pour le marquage de protéine standard incluent le naphtalène-2,3-dicarboxaldéhyde (NDA), la fluorescéine-5-isothiocyanate (FITC) et l’ester de 6-carboxyfluorescéine N-succinimidyl (FAMSE). Le FAMSE est un excellent réactif puisqu’il se conjugue rapidement avec les amines primaires des peptides. Aussi, le substrat marqué est stable dans le temps. Les protéines étudiées étaient l’-lactalbumine (LACT), l’anhydrase carbonique (CA) et l’insuline chaîne B (INB). Les protéines sont digérées à l’aide de la trypsine (T), la chymotrypsine (CT) ou la pepsine (PEP) dans leurs formes solubles ou insolubles. La forme soluble est plus active que celle immobilisée. Cela nous a permis de vérifier que les protéines marquées sont encore reconnues par chaque enzyme. Nous avons comparé les digestions des protéines par différentes enzymes telles la chymotrypsine libre (i.e., soluble), la chymotrypsine immobilisée (i.e., insoluble) par réticulation avec le glutaraldéhyde (GACT) et la chymotrypsine immobilisée sur billes d’agarose en gel (GELCT). Cette dernière était disponible sur le marché. Selon la chymotrypsine utilisée, nos études ont démontré que les cartes peptidiques avaient des différences significatives selon le nombre de pics et leurs intensités correspondantes. De plus, ces études nous ont permis de constater que les digestions effectuées avec l’enzyme immobilisée avaient une bonne reproductibilité. Plusieurs paramètres quantitatifs ont été étudiés afin d’évaluer l’efficacité des méthodes développées. La limite de détection par CE-LIF obtenue était de 3,010-10 M (S/N = 2,7) pour la CA-FAM digérée par GACT et de 2,010-10 M (S/N = 4,3) pour la CA-FAM digérée par la chymotrypsine libre. Nos études ont aussi démontrées que la courbe d’étalonnage était linéaire dans la région de travail (1,0×10-9-1,0×10-6 M) avec un coefficient de corrélation (R2) de 0,9991.
Resumo:
Cette étude vise à évaluer l’impact de l’état nutritionnel et de son évolution durant l’attente d’une transplantation pulmonaire sur la mortalité et la morbidité postopératoire. Nous avons examiné les 209 dossiers de patients greffés pulmonaires au Programme de Transplantation Pulmonaire du CHUM entre 2000 et 2007 et regardé la mortalité et les complications post-transplantation en fonction de l’IMC, des apports protéino-énergétiques, de certains paramètres biochimiques et selon l’évolution pondérale durant la période d’attente. Les résultats montrent que la mortalité augmente en fonction de l’augmentation des strates d’IMC avec un risque relatif de décès au cours du séjour hospitalier de 3,31 (IC95% 1,19-9,26) pour un IMC 25-29,9 et de 8,83 (IC95% 2,98-26,18) pour un IMC ≥ 30 avec une issue postopératoire plus sombre en terme de complications chirurgicales (p=0,003), de durée de séjour aux soins intensifs (p=0,031) et de durée de séjour à l’hôpital (p<0,001) chez les patients avec IMC ≥ 30 comparativement aux patients de poids normal. Les patients ayant présenté une évolution inadéquate de l’IMC durant la période d’attente ont connu une durée de séjour hospitalier prolongée (p=0,015). Ceux dont les apports nutritionnels étaient sous-optimaux en pré-greffe ont aussi connu une durée de séjour hospitalier prolongée (p=0,002) et davantage de complications infectieuses (p=0,038), digestives (p=0,003) et chirurgicales (p=0,029) mais sans impact détectable sur la mortalité. Nos résultats suggèrent que l’obésité et l’embonpoint ainsi qu’une évolution inadéquate de l’IMC durant la période d’attente de même que des apports protéino-énergétiques sous-optimaux affectent négativement l’issue d’une transplantation pulmonaire.
Resumo:
La proprotéine convertase subtilisine/kexine-9 (PCSK9) a été identifiée comme le troisième locus impliqué dans l’hypercholestérolémie autosome dominante (ADH). Les deux autres gènes impliqués dans l’ADH encodent le récepteur des lipoprotéines de faible densité (LDLR) et l’apolipoprotéine B. La PCSK9 est une convertase qui favorise la dégradation du LDLR dans les hépatocytes et augmente le niveau plasmatique de cholestérol des LDL (LDL-C). Les mutations « gain de fonction » de la PCSK9 sont associées à un phénotype d’hypercholestérolémie familiale, tandis que les variantes « perte de fonction » sont associées à un LDL-C réduit et à un risque coronarien plus faible. Pour élucider le rôle physiologique de la PCSK9, nous avons étudié sa régulation génique. En utilisant le RT-PCR quantitatif dans des hépatocytes humains, nous avons analysé la régulation de PCSK9 sous différentes conditions modulant l’expression des gènes impliqués dans le métabolisme du cholestérol. Nous avons démontré que l’expression de la PCSK9 était induite par les statines de manière dose-dépendante et que cette induction était abolie par le mévalonate. De plus, le promoteur de PCSK9 contenait deux motifs conservés pour la régulation par le cholestérol : le sterol regulatory element (SRE) et un site Sp1. La PCSK9 circule dans le plasma sous des formes mature et clivée par la furine. Grâce à notre anticorps polyclonal, nous avons mis au point un test ELISA mesurant la PCSK9 plasmatique totale. Une étude transversale a évalué les concentrations plasmatiques de PCSK9 chez des sujets sains et hypercholestérolémiques, traités ou non par des statines ou une combinaison statine/ezetimibe. Chez 254 sujets sains, la valeur moyenne de PCSK9 (écart-type) était de 89,5 (31,9) µg/L. La concentration plasmatique de la PCSK9 corrélait avec celle de cholestérol total, du LDL-C, des triglycérides (TG), de la glycémie à jeun, l’âge et l’indice de masse corporelle. Le séquençage de PCSK9 chez des sujets aux extrêmes de la distribution des concentrations de PCSK9 de notre cohorte a révélé la présence d’une nouvelle variation « perte de fonction » : R434W. Chez 200 patients hypercholestérolémiques, la concentration de PCSK9 était plus élevée que chez les sujets sains (P<0,04). Elle a augmenté avec une dose croissante de statine (P<0,001), et a augmenté encore plus suite à l’ajout d’ezetimibe (P<0,001). Chez les patients traités, ceux présentant une hypercholestérolémie familiale (HF; due à une mutation du LDLR) avaient des concentrations plus élevées de PCSK9 que les non-HF (P<0,005), et la réduction de LDL-C corrélait positivement avec la concentration de PCSK9 atteinte de la même manière dans les deux sous-catégories (P<0,02 et P<0,005, respectivement). Par ailleurs, une incubation des cellules HepG2 (hépatocytes) et Caco-2 (entérocytes) avec de l’ezetimibe a provoqué une augmentation de l’ARNm de PCSK9 et de NPC1L1 de 1,5 à 2 fois (P<0,05), mais aucune variation significative de PCSK9 sécrétée n’a été observée, suggérant que ces lignées cellulaires ne sont pas un modèle idéal. Nous avons également mesuré le niveau de PCSK9 chez 1 739 Canadiens-français âgés de 9, 13 et 16 ans. La valeur moyenne (écart-type) de PCSK9 dans cette cohorte était de 84,7 (24,7) µg/L, légèrement plus basse que dans la cohorte d’adultes (89,5 (31,9) µg/L). Chez les garçons, la PCSK9 circulante diminuait avec l’âge, tandis que c’était l’inverse chez les filles. Il y avait des associations positives et significatives entre la PCSK9 et la glycémie à jeun, l’insulinémie, le HOMA-IR, et les paramètres lipidiques (TC, LDL-C, TG, HDL-C, apoAI et apoB). Dans l’analyse multivariée, une hausse de 10% de l’insulinémie à jeun était associée à une augmentation de 1 à 2% de PCSK9. La régulation de PCSK9 est typique de celle d’un gène impliqué dans le métabolisme des lipoprotéines et est probablement la cible du facteur de transcription «sterol regulatory element-binding protein » (SREBP-2). La concentration plasmatique de la PCSK9 est associée avec l’âge, le sexe, et de multiples marqueurs métaboliques chez les enfants et les adultes. La détection de la PCSK9 circulante chez les sujets HF et non-HF signifie que ce test ELISA spécifique à PCSK9 pourrait servir à suivre la réponse à la thérapie chez un grand éventail de sujets. PCSK9 semble être une cible thérapeutique prometteuse dans le traitement de l’hypercholestérolémie et de la maladie cardiovasculaire.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
La substitution est une méthode de prévention primaire qui permet l’élimination à la source des dangers pour les travailleurs. Une des étapes de la démarche est la comparaison des options afin de procéder au choix final. Divers indices de comparaison, basés sur des paramètres physicochimiques, sanitaires et environnementaux des substances, permettent de guider ce choix. Toutefois, aucune évaluation de ces indices n’a été effectuée dans le cas de la substitution des solvants. Une recherche de développement a été entreprise afin de proposer une méthodologie améliorée de comparaison des solvants. La démarche d’analyse de substitution et la comparaison des options de remplacement à l’aide du rapport de danger de vapeur (« Vapour Hazard Ratio », VHR) ont été appliquées à un cas réel de substitution de solvants en entreprise. Trois indices de potentiel de surexposition (IPS) (VHR, « Måleteknisk Arbejdshygiejnisk Luftbehov » (MAL) et « SUBstitution FACtor » (SUBFAC)) et trois indices globaux de hiérarchisation des dangers (indice air (ψiair), « Indiana Relative Chemical Hazard Score » (IRCHS) et « Final Hazard Score » (FHS)) ont été évalués et comparés à partir de listes de 56 et 67 solvants respectivement. La problématique de la non-idéalité des mélanges a aussi été considérée par rapport aux IPS par l’évaluation et la comparaison de 50 mélanges de solvant. Une méthodologie d’établissement d’une valeur limite d’exposition (VLE), pour les solvants n’en possédant pas, a été développée par modélisation de type relations quantitatives propriété-propriété (QPPR). La modélisation QPPR des VLE, effectuée sur une liste de 88 solvants possédant une VLE, a été effectuée à partir des coefficients de partage octanol:air, octanol:eau, sang:air et des constantes métaboliques. L’étude de cas a montré que l’utilisation du VHR facilitait la comparaison des options, bien qu’elle puisse se heurter à l’absence de VLE. Les indices VHR et SUBFAC ont été identifiés comme des méthodes très proches, caractérisées par une forte corrélation (R=0,99) alors que l’indice MAL se distingue des deux autres IPS par une perte d’information sur la volatilité résultant en une corrélation plus faible avec le VHR (R=0,75). L’impact de la non idealité, évalué par le calcul de coefficients d’activité sur une série de 50 mélanges, a permis d’établir que les ratios entre les indices VHR corrigés et non corrigés variaient entre 0,57 et 2,7, suggérant un facteur de sécurité de cinq lors de la comparaison de mélanges. Les analyses de corrélation et de sensibilité ont montré que les indices de hiérarchisation des dangers différaient de façon importante sur leur prise en compte de paramètres comme la volatilité, les VLE, l’exposition cutanée, l’inflammabilité, la cancérogénicité et les divers paramètres environnementaux. Aucun de ces indices ne peut être recommandé pour la substitution des solvants. Deux modèles QPPR ont été développés afin de prédire des VLE et des VHR, et 61 % et 87 % des VHR prédits variaient respectivement d’un facteur maximal de deux et de cinq par rapport aux VHR calculés. Nos résultats mènent à proposer une démarche améliorée de comparaison en deux étapes. Après un tri selon des critères prioritaires de santé, de sécurité et d’environnement, la comparaison devrait se baser sur le calcul du VHR tout en considérant d’autres paramètres selon la situation concrète de l’entreprise ou du procédé. La comparaison devra tenir compte de la non-idéalité pour les mélanges, et de VLE estimées pour les solvants n’en possédant pas.
Resumo:
Placer une charge au niveau du membre inférieur est une approche sans fondement scientifique, utilisée par les cliniciens, pour renforcer certains muscles clés de la marche. Cette étude a déterminé les modifications du patron de marche lors de l’ajout d’une charge à la cheville parétique ou non parétique chez des personnes ayant une hémiparésie suite à un accident vasculaire cérébral et a comparé les résultats à ceux d’un groupe témoin. Il est supposé qu’une charge placée à la jambe parétique/non dominante (charge ipsilatérale) augmenterait les efforts (moments et puissance) à la hanche parétique/non dominante lors de l’oscillation et qu’une charge placée controlatéralement augmenterait les efforts lors de la phase d’appui principalement pour les abducteurs de hanche stabilisant le bassin dans le plan frontal. La marche avec et sans charge de cinq individus hémiparétiques chroniques et 5 personnes en santé a été analysée en laboratoire par l’enregistrement des forces de réaction du sol et des mouvements des membres inférieurs. Ces informations ont permis de calculer les paramètres temps-distance, les angles à la hanche parétique/non dominante et au tronc, les moments nets, les puissances et le travail mécanique à la hanche parétique/non dominante. Des tests statistiques non-paramétriques ont servi à déterminer l’effet de la condition, avec charge (ipsi- et controlatérale) ou sans charge et à comparer les résultats entre les deux groupes. L’ajout d’une charge n’a pas modifié la vitesse de marche des sujets. Les phases d’appui et d’oscillation étaient rendus plus symétriques par la charge, même si peu de différences apparaissaient dans le plan sagittal avec ou sans la charge. Dans le plan frontal, le moment abducteur de hanche des sujets hémiparétiques a diminué avec la charge controlatérale, tandis qu'il a augmenté chez les sujets en santé. L’utilisation d’une stratégie posturale ou dynamique au tronc pourrait expliquer la différence de l’effet de la charge sur le moment abducteur à la hanche. Au vu de ces résultats, il est nécessaire de poursuivre l’évaluation de cette approche de renforcement musculaire spécifique à la tâche avant d’en recommander son utilisation.
Resumo:
Réalisé en cotutellle avec Gaétan Bourgeois et avec la participation de Guy Boivin, d'Agriculture et Agroalimentaire Canada, du Centre de Recherche et Développement en Horticulture à Saint-Jean-sur-Richelieu, QC J3B 3E6, Canada
Resumo:
Diverses études se sont penchées sur les paramètres EEG du sommeil en ondes lentes, y compris l’activité en ondes lentes en lien avec le somnambulisme, mais les résultats se révèlent inconsistants et contradictoires. Le premier objectif de la présente étude était d’analyser quantitativement l’EEG en sommeil en mesurant les fluctuations de puissance spectrale en delta (1-4 Hz) et delta lent (0.5-1 Hz) avant des épisodes de somnambulisme. Le second était de détecter les oscillations lentes (> 75 μV, fréquence d'environ 0.7-0.8 Hz) et très lentes (> 140 μV, fréquence d'environ 0.7-0.8 Hz) afin d'examiner leur changement d'amplitude et de densité avant de tels épisodes. Suite à une privation de sommeil de 25 heures, les enregistrements polysomnographiques de 22 adultes atteints de somnambulisme ont été scrutés. L’analyse des 200 secondes avant les épisodes révèle que ceux-ci ne sont pas précédés d’une augmentation graduelle de puissance spectrale en delta ni en delta lent, tant sur les dérivations frontale, centrale que pariétale. Toutefois, une hausse statistiquement significative de la densité des oscillations lentes et des oscillations très lentes a été observée au cours des 20 sec immédiatement avant le début des épisodes. Reste à déterminer le rôle exact de ces paramètres de l’EEG en sommeil par rapport à la manifestation et au diagnostic des parasomnies en sommeil lent.
Resumo:
La sclérose en plaques (SEP) est caractérisée par des infiltrations périvasculaires de cellules immunitaires et par de la démyélinisation au sein du système nerveux central (SNC). Ces deux paramètres de la maladie sont associés à la fragilisation de la barrière hémato-encéphalique (BHE). En ce sens, le recrutement des cellules présentatrices d’antigène (CPA) myéloïdes, telles que les monocytes, les macrophages et les cellules dendritiques, dans le SNC à travers la BHE, est une étape cruciale dans l’initiation et la persistance de l’inflammation cérébrale. Nerve injury-induced protein (Ninjurin)-1 est une nouvelle molécule d’adhérence qui médie une interaction de type homophilique et dont l’expression sur l’endothélium vasculaire de la BHE humaine fut identifiée grâce à une analyse protéomique des protéines associées à la BHE. Les résultats présentés dans ce mémoire montrent que l’expression de Ninjurin-1 augmente dans un contexte inflammatoire dans les cultures primaires de cellules endothéliales de la BHE (CE-BHE) et sur les CPA myéloïdes humaines ex vivo et générées in vitro. De plus, les CPA infiltrantes retrouvées dans les lésions cérébrales de patients atteints de SEP et dans le SNC des souris atteintes d’encéphalomyélite autoimmune expérimentale (EAE), le modèle murin de la SEP, expriment de hauts niveaux de Ninjurin-1. À l’aide du modèle in vitro de la BHE, la neutralisation de Ninjurin-1 restreint spécifiquement la migration des monocytes à travers les CE-BHE sans affecter le recrutement des lymphocytes, ni la perméabilité des CE-BHE. Enfin, les souris atteintes d’EAE et traitées avec un peptide bloquant dirigé contre Ninjurin-1 présentent une maladie moins sévère ainsi qu’une diminution des CPA infiltrant le SNC et ce comparé au groupe contrôle. Ces résultats suggèrent que Ninjurin-1 est une molécule d’adhérence de la BHE impliquée dans le recrutement de CPA myéloïdes au sein du SNC et qu’elle peut être considérée comme une cible thérapeutique potentielle en SEP.
Resumo:
Dans une société qui assiste à la confusion des territoires du privé et du public, le culte du corps et la valorisation de normes esthétiques féminines semblent littéralement envahir l’espace narratif et magnifier le dualisme entre l’être et le paraître. Il va sans dire que cette nouvelle façon de penser et de concevoir le corps, notamment le corps féminin, a une incidence sur l’écriture des femmes contemporaines. Intimement lié à la construction identitaire du sujet, le corps incarne dans les oeuvres littéraires une nouvelle « féminité » dont le présent mémoire vise à explorer les paramètres littéraires, psychanalytiques et sociologiques. C’est dans le contexte d’une corporalité reconfigurée que l’inscription de la triade corps/identité/féminité dans les textes littéraires de Nelly Arcan et de Marie-Sissi Labrèche sera étudiée par l’analyse d’oeuvres significatives publiées au début de ce troisième millénaire : Putain et À ciel ouvert, d’une part, Borderline et La Brèche, d’autre part. Le corps est au coeur de la quête identitaire des protagonistes présentées dans ces récits. Mais ce corps s’érigeant souvent en obstacle devient le lieu d’une difficile image de soi et contribue à renforcer l’agentivité négative, soit cette incapacité du sujet à tracer son avenir de manière positive, contre laquelle se battent les personnages féminins tout au long de la narration. C’est à ce propos que la position ambivalente des deux auteures est représentative des questions de filiation qui marquent la littérature contemporaine.
Resumo:
Parmi les blessures sportives reliées au genou, 20 % impliquent le ligament croisé antérieur (LCA). Le LCA étant le principal stabilisateur du genou, une lésion à cette structure engendre une importante instabilité articulaire influençant considérablement la fonction du genou. L’évaluation clinique actuelle des patients ayant une atteinte au LCA présente malheureusement des limitations importantes à la fois dans l’investigation de l’impact de la blessure et dans le processus diagnostic. Une évaluation biomécanique tridimensionnelle (3D) du genou pourrait s’avérer une avenue innovante afin de pallier à ces limitations. L’objectif général de la thèse est de démontrer la valeur ajoutée du domaine biomécanique dans (1) l’investigation de l’impact de la blessure sur la fonction articulaire du genou et dans (2) l’aide au diagnostic. Pour répondre aux objectifs de recherche un groupe de 29 patients ayant une rupture du LCA (ACLD) et un groupe contrôle de 15 participants sains ont pris part à une évaluation biomécanique 3D du genou lors de tâches de marche sur tapis roulant. L’évaluation des patrons biomécaniques 3D du genou a permis de démontrer que les patients ACLD adoptent un mécanisme compensatoire que nous avons intitulé pivot-shift avoidance gait. Cette adaptation biomécanique a pour objectif d’éviter de positionner le genou dans une condition susceptible de provoquer une instabilité antérolatérale du genou lors de la marche. Par la suite, une méthode de classification a été développée afin d’associer de manière automatique et objective des patrons biomécaniques 3D du genou soit au groupe ACLD ou au groupe contrôle. Pour cela, des paramètres ont été extraits des patrons biomécaniques en utilisant une décomposition en ondelettes et ont ensuite été classifiés par la méthode du plus proche voisin. Notre méthode de classification a obtenu un excellent niveau précision, de sensibilité et de spécificité atteignant respectivement 88%, 90% et 87%. Cette méthode a donc le potentiel de servir d’outil d’aide à la décision clinique. La présente thèse a démontré l’apport considérable d’une évaluation biomécanique 3D du genou dans la prise en charge orthopédique de patients présentant une rupture du LCA; plus spécifiquement dans l’investigation de l’impact de la blessure et dans l’aide au diagnostic.
Resumo:
La forme canadienne-française du syndrome de Leigh (LSFC) est une maladie métabolique associée à une déficience en cytochrome oxydase (COX) et caractérisée par des crises d’acidose lactique, menant à une mort prématurée. Les mécanismes qui sous-tendent l’induction des crises restent inconnus et il n’existe aucune thérapie efficace pour les prévenir. Cette étude vise à caractériser l'effet de facteurs métaboliques périphériques potentiellement altérés chez les patients LSFC sur la mort de lignées cellulaires issues de ces patients et de témoins puis, à identifier des agents thérapeutiques pouvant la prévenir. Nous postulons que (i) ces facteurs métaboliques induiront une mort prématurée des cellules de patients et que (ii) les interventions susceptibles de la prévenir pallieront les conséquences de la déficience en COX, soit la diminution des taux d’adénosine triphosphate (ATP) et l’augmentation du stress oxydant, du nicotinamide adénine dinucléotide (NADH) et des lipides toxiques. Un criblage de 8 facteurs sanguins et 10 agents thérapeutiques a été réalisé. Les paramètres mesurés incluent la nécrose, l’apoptose, l’ATP et l’activité de la COX. Les fibroblastes LSFC sont plus susceptibles à la mort par nécrose (39±6%) induite par du palmitate plus lactate, un effet associé à des niveaux d’ATP diminués (53±8%). La mort cellulaire est réduite de moitié par l’ajout combiné d’agents ciblant le NADH, l’ATP et les lipides toxiques, alors que l’ajout d’antioxydants l’augmente. Ainsi, un excès de nutriments pourrait induire la mort prématurée des cellules LSFC et, pour atténuer cette mort, il serait important de combiner plusieurs interventions ciblant différents mécanismes.
Resumo:
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.