1000 resultados para Identification faible
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Résumé La protéomique basée sur la spectrométrie de masse est l'étude du proteome l'ensemble des protéines exprimées au sein d'une cellule, d'un tissu ou d'un organisme - par cette technique. Les protéines sont coupées à l'aide d'enzymes en plus petits morceaux -les peptides -, et, séparées par différentes techniques. Les différentes fractions contenant quelques centaines de peptides sont ensuite analysées dans un spectromètre de masse. La masse des peptides est enregistrée et chaque peptide est séquentiellement fragmenté pour en obtenir sa séquence. L'information de masse et séquence est ensuite comparée à une base de données de protéines afin d'identifier la protéine d'origine. Dans une première partie, la thèse décrit le développement de méthodes d'identification. Elle montre l'importance de l'enrichissement de protéines comme moyen d'accès à des protéines de moyenne à faible abondance dans le lait humain. Elle utilise des injections répétées pour augmenter la couverture en protéines et la confiance dans l'identification. L'impacte de nouvelle version de base de données sur la liste des protéines identifiées est aussi démontré. De plus, elle utilise avec succès la spectrométrie de masse comme alternative aux anticorps, pour valider la présence de 34 constructions de protéines pathogéniques du staphylocoque doré exprimées dans une souche de lactocoque. Dans une deuxième partie, la thèse décrit le développement de méthodes de quantification. Elle expose de nouvelles approches de marquage des terminus des protéines aux isotopes stables et décrit la première méthode de marquage des groupements carboxyliques au niveau protéine à l'aide de réactifs composé de carbone 13. De plus, une nouvelle méthode, appelée ANIBAL, marquant tous les groupements amines et carboxyliques au niveau de la protéine, est exposée. Summary Mass spectrometry-based proteomics is the study of the proteome -the set of all expressed proteins in a cell, tissue or organism -using mass spectrometry. Proteins are cut into smaller pieces - peptides - using proteolytic enzymes and separated using different separation techniques. The different fractions containing several hundreds of peptides are than analyzed by mass spectrometry. The mass of the peptides entering the instrument are recorded and each peptide is sequentially fragmented to obtain its amino acid sequence. Each peptide sequence with its corresponding mass is then searched against a protein database to identify the protein to which it belongs. This thesis presents new method developments in this field. In a first part, the thesis describes development of identification methods. It shows the importance of protein enrichment methods to gain access to medium-to-low abundant proteins in a human milk sample. It uses repeated injection to increase protein coverage and confidence in identification and demonstrates the impact of new database releases on protein identification lists. In addition, it successfully uses mass spectrometry as an alternative to antibody-based assays to validate the presence of 34 different recombinant constructs of Staphylococcus aureus pathogenic proteins expressed in a Lactococcus lactis strain. In a second part, development of quantification methods is described. It shows new stable isotope labeling approaches based on N- and C-terminus labeling of proteins and describes the first method of labeling of carboxylic groups at the protein level using 13C stable isotopes. In addition, a new quantitative approach called ANIBAL is explained that labels all amino and carboxylic groups at the protein level.
Resumo:
To efficiently replicate within mammalian cells, viruses have to manoeuvre through complex host mechanisms, hijacking a network of host proteins to achieve successful propagation. To prevent this invasion, cells have evolved over time to efficiently block the incursing pathogen by direct or indirect targeting. Human immunodeficiency virus (HIV) is a retrovirus of major global public health issue. In the last decade, extensive focus on innate immune proteins has been given, and particularly restriction factors, proteins inhibiting HIV replication by affecting various stages of the viral cycle. Because of the importance of developing new HIV therapies that are associated with reduced side effects and resistances, there is an urge to understand the antiviral response against HIV. Using common features of known restriction factors as a signature to identify new anti-HIV factors, candidates were identified. Particularly multiple members of the apolipoproteins L (APOL) family were found. Cotransfection experiments confirmed very potent inhibitory effects on HIV-1 expression. Further characterization of APOL6, the best candidate, was carried out. APOL6 was not able to inhibit HIV specifically but rather inhibited any gene-encoded DNA that was cotransfected and therefore APOL6 does not classify as a bona fide restriction factor. In addition, we were able to map the activity of APOL6 to the MAD domain and mainly to residue 174. We also found that other members of the family identified in the screen, APOL1 and 3, could have similar mechanism of action as APOL6. Finally, although the complete mechanism of action of APOL6 has yet to be elucidated, it might be blocked during transfections, potentially improving transfection of primary cells. -- Pour se répliquer efficacement dans les cellules de mammifères, les virus doivent manoeuvrer à travers des mécanismes cellulaires complexes et détourner un réseau de protéines de l'hôte. Pour empêcher cette invasion, les gènes de l'hôte ont évolué dans le temps pour cibler efficacement, directement ou indirectement, l'agent pathogène. Le virus de l'immunodéficience humaine (VIH) est un rétrovirus de problème majeur de santé publique mondiale, mais le faible risque de transmission du virus pourrait être expliqué par la présence d'un système antiviral de l'hôte qui, en cas d'échec, conduit à une infection productive. Durant la dernière décennie, il y a eu un intérêt spécial porté sur les protéines immunitaires innées appelé facteurs de restriction présentant des effets inhibiteurs puissants sur la réplication du VIH en affectant différentes étapes du cycle viral. En raison de l'importance de la recherche de nouvelles thérapies anti-VIH associées à des effets secondaires et des résistances réduites comparé aux traitements actuels, il existe un besoin de comprendre la réponse antivirale innée contre le VIH. Basé sur des caractéristiques communes des facteurs de restriction connus, nous avons proposé d'identifier de nouveaux facteurs anti-VIH. Nous avons trouvé une famille de protéines, les apolipoprotéines L (APOL) montrant les effets inhibiteurs très puissants contre l'expression du VIH-1 dans des expériences de co-transfection. Nous avons décidé d'approfondir le rôle de ces protéines dans l'immunité innée et de se concentrer sur le meilleur candidat APOL6. Nous avons en outre établi qu'APOL6 n'a pas d'activité anti-virale spécifique et donc pas classé comme un facteur de bonne foi de restriction. Par ailleurs, APOL6 est capable d'inhiber fortement l'expression de tout Plasmide cotransfecté. En outre, nous avons été en mesure de cartographier l'activité d'APOL6 au domaine MAD et principalement au résidu 174. Nous avons également constaté que d'autres membres de la famille identifiés dans l'étude, APOL1 et 3, pourraient avoir le même mécanisme d'action qu'APOL6. Enfin, bien que le mécanisme d'action complet d'APOL6 reste à être élucidé, il pourrait être d'une importance biotechnologique car il pourrait potentiellement faciliter la transfection de cellules primaires après l'inhibition d'APOL6.
Resumo:
We discuss statistical inference problems associated with identification and testability in econometrics, and we emphasize the common nature of the two issues. After reviewing the relevant statistical notions, we consider in turn inference in nonparametric models and recent developments on weakly identified models (or weak instruments). We point out that many hypotheses, for which test procedures are commonly proposed, are not testable at all, while some frequently used econometric methods are fundamentally inappropriate for the models considered. Such situations lead to ill-defined statistical problems and are often associated with a misguided use of asymptotic distributional results. Concerning nonparametric hypotheses, we discuss three basic problems for which such difficulties occur: (1) testing a mean (or a moment) under (too) weak distributional assumptions; (2) inference under heteroskedasticity of unknown form; (3) inference in dynamic models with an unlimited number of parameters. Concerning weakly identified models, we stress that valid inference should be based on proper pivotal functions —a condition not satisfied by standard Wald-type methods based on standard errors — and we discuss recent developments in this field, mainly from the viewpoint of building valid tests and confidence sets. The techniques discussed include alternative proposed statistics, bounds, projection, split-sampling, conditioning, Monte Carlo tests. The possibility of deriving a finite-sample distributional theory, robustness to the presence of weak instruments, and robustness to the specification of a model for endogenous explanatory variables are stressed as important criteria assessing alternative procedures.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Le diabète est un syndrome métabolique caractérisé par une hyperglycémie chronique due à un défaut de sécrétion de l’insuline, de l’action de l’insuline (sensibilité), ou une combinaison des deux. Plus d'un million de canadiens vivent actuellement avec le diabète. La prévalence de cette maladie est au moins trois fois plus élevée chez les autochtones que dans la population canadienne en général. Notre équipe vise à étudier les effets potentiellement antidiabétiques de certaines plantes médicinales utilisées par les Cris d'Eeyou Istchee (Baie James, Québec) où l’adhérence aux traitements médicamenteux est faible, en partie à cause de la déconnection culturelle de ces derniers. Grâce à une approche ethnobotanique, notre équipe a identifié 17 plantes médicinales utilisées par cette population pour traiter des symptômes du diabète. Parmi ces plantes, l’extrait éthanolique de Rhododendron groenlandicum (Thé du Labrador) a montré un fort potentiel antidiabétique chez plusieurs lignées cellulaires, notamment les adipocytes (3T3-L1). Cette plante induit la différenciation adipocytaire probablement par l’activation du peroxisome proliferator-activated receptor gamma (PPAR γ). Cette stimulation améliore la résistance à l’insuline et constitue un mécanisme privilégié pour une classe de médicaments antidiabétiques, les thiazolidinediones. Le but de la présente étude est de valider l’efficacité et l’innocuité de R. groenlandicum in vivo, dans un modèle animal de résistance à l’insuline, d’élucider les mécanismes par lesquels cet extrait exerce ses effets antidiabétiques et d’identifier les principes actifs responsables de son activité. L'isolation et l'identification des constituants actifs ont été réalisées à l’aide d'une approche de fractionnement guidé par bioessai; en l'occurrence, l'adipogénèse. Cette approche, réalisée dans la lignée adipocytaire 3T3-L1, a pour but de mesurer leur teneur en triglycérides. Des études in vivo ont été réalisées sur le modèle de souris DIO (diet induced obesity). L'extrait éthanolique du R. groenlandicum a été incorporé à la nourriture grasse (35% d’apport calorique lipidique) à trois doses différentes (125, 250 et 500 mg / kg) sur une période de 8 semaines. Des tissus cibles de l’insuline (foie, muscle squelettique et tissus adipeux) ont été récoltés afin de faire des analyses d’immunobuvardage de type western. La quercétine, la catéchine et l’épicatéchine ont été identifiées comme étant les composés actifs responsables de l'effet antidiabétique du R. groenlandicum. Seules la catéchine et l’épicatéchine activent l’adipogénèse uniquement à forte concentration (125-150 M), tandis que la quercétine l’inhibe. L’étude in vivo a montré que le traitement avec R. groenlandicum chez les souris DIO réduit le gain de poids de 6%, diminue l'hyperglycémie de 13% et l’insulinémie plasmatique de 65% et prévient l’apparition des stéatoses hépatiques (diminution de 42% de triglycéride dans le foie) sans être toxique. Les analyses d’immunobuvardage ont montré que R. groenlandicum stimule la voie de l’insuline via la phosphorylation de l’Akt et a augmenté le contenu protéique en Glut 4 dans les muscles des souris traitées. Par contre, dans le foie, le R. groenlandicum passerait par deux voies différentes, soit la voie insulino-dépendante par l’activation de l’AKT, soit la voie insulino-indépendante par la stimulation de l’AMPK. L’amélioration observée des stéatoses hépatiques chez les souris DIO traitées, a été confirmée par une baisse du facteur de transcription, SREBP-1, impliqué dans la lipogénèse de novo, ainsi qu’une diminution de l’inflammation hépatique (diminution de l’activité d’IKK α/β). En conclusion, l’ensemble de ces résultats soutiennent le potentiel thérapeutique de Rhododendron groenlandicum et de ses composants actifs dans le traitement et la prévention du diabète de type 2. Nous avons validé l'innocuité et l'efficacité de cette plante issue de la médecine traditionnelle Cri, qui pourrait être un traitement alternatif du diabète de type 2 dans une population ayant une faible adhérence au traitement pharmacologique existant.
Resumo:
L’immunité adaptive et la discrimination entre le soi et le non-soi chez les vertébrés à mâchoire reposent sur la présentation de peptides par les récepteurs d’histocompatibilité majeur de classe I. Les peptides antigéniques, présentés par les molécules du complexe d’histocompatibilité (CMH), sont scrutés par les lymphocytes T CD8 pour une réponse immunitaire appropriée. Le répertoire des peptides du CMH de classe I, aussi appelé immunopeptidome, est généré par la dégradation protéosomale des protéines endogènes, et a un rôle essentiel dans la régulation de l’immunité cellulaire. La composition de l’immunopeptidome dépend du type de cellule et peut présenter des caractéristiques liées à des maladies comme le cancer. Les peptides antigéniques peuvent être utilisés à des fins immunothérapeutiques notamment dans le traitement voire la prévention de certains cancers. La spectrométrie de masse est un outil de choix pour l’identification, le séquençage et la caractérisation de ces peptides. Cependant, la composition en acides aminés, la faible abondance et la diversité de ces peptides compliquent leur détection et leur séquençage. Nous avons développé un programme appelé StatPeaks qui permet de calculer un certains nombres de statistiques relatives à la fragmentation des peptides. À l’aide de ce programme, nous montrons sans équivoque que les peptides du CMH classe I, en mode de fragmentation par dissociation induite par collision (CID), fragmentent très différemment des peptides trypsiques communément utilisés en protéomique. Néanmoins, la fragmentation par décomposition induite par collision à plus haute énergie (HCD) proposée par le spectromètre LTQ-Orbitrap Velos améliore la fragmentation et fournit une haute résolution qui permet d’obtenir une meilleure confiance dans l’identification des peptides du CMH de classe I. Cet avantage permet d’effectuer le séquençage de novo pour identifier les variants polymorphes qui ne sont normalement pas identifiés par les recherches utilisant des bases de données. La comparaison des programmes de séquençage Lutefisk, pepNovo, pNovo, Vonode et Peaks met en évidence que le dernier permet d’identifier un plus grand nombre de peptides du CMH de classe I. Ce programme est intégré dans une chaîne de traitement de recherche d’antigènes mineurs d’histocompatibilité. Enfin, une base de données contenant les informations spectrales de plusieurs centaines de peptides du CMH de classe I accessible par Internet a été développée.
Resumo:
L’étude de la variation du génotype et du phénotype fut réalisée sur deux espèces de parasites intestinaux (Cryptosporidium parvum et C. muris) via une infection expérimentale de 10 passages successifs chez le veau (Bos taurus). L’infection avec C. parvum a bien fonctionné alors qu’aucun signe clinique n’a été observé dans le cadre de cette étude avec C. muris. Pour le génotype, deux gènes (HSP70 et GP60) ont été amplifiés par double PCR puis séquencés. Les résultats ont indiqué que ces gènes n’étaient pas modifiés après 10 passages chez des veaux. Cela montre une faible évolution génétique du parasite lorsqu’il passe dans un animal hôte, facilitant ainsi les études épidémiologiques lors d’épisode de cryptosporidiose. Il faut cependant noter que les parasites utilisés ne provenaient pas de l’environnement mais d’une compagnie spécialisée en parasitologie (WaterBorne®). L’étude de la variation du phénotype a été tentée, sans succès, à l’aide d’un immuno-buvardage en point utilisant le sérum des veaux infectés. Des problèmes liés à la concentration des ookystes de C. parvum placés sur la membrane de l’immuno-buvardage en point furent suspectés.
Resumo:
L’objectif principal de cette thèse est d’identifier les étoiles de faible masse et naines brunes membres d’associations cinématiques jeunes du voisinage solaire. Ces associations sont typiquement âgées de moins de 200 millions d’années et regroupent chacune un ensemble d’étoiles s’étant formées au même moment et dans un même environnement. La majorité de leurs membres d'environ plus de 0.3 fois la masse du Soleil sont déjà connus, cependant les membres moins massifs (et moins brillants) nous échappent encore. Leur identification permettra de lever le voile sur plusieurs questions fondamentales en astrophysique. En particulier, le fait de cibler des objets jeunes, encore chauds et lumineux par leur formation récente, permettra d’atteindre un régime de masses encore peu exploré, jusqu'à seulement quelques fois la masse de Jupiter. Elles nous permettront entre autres de contraindre la fonction de masse initiale et d'explorer la connection entre naines brunes et exoplanètes, étant donné que les moins massives des naines brunes jeunes auront des propriétés physiques très semblables aux exoplanètes géantes gazeuses. Pour mener à bien ce projet, nous avons adapté l'outil statistique BANYAN I pour qu'il soit applicable aux objets de très faibles masses en plus de lui apporter plusieurs améliorations. Nous avons entre autres inclus l'utilisation de deux diagrammes couleur-magnitude permettant de différencier les étoiles de faible masse et naines brunes jeunes à celles plus vieilles, ajouté l'utilisation de probabilités a priori pour rendre les résultats plus réalistes, adapté les modèles spatiaux et cinématiques des associations jeunes en utilisant des ellipsoïdes gaussiennes tridimensionnelles dont l'alignement des axes est libre, effectué une analyse Monte Carlo pour caractériser le taux de faux-positifs et faux-négatifs, puis revu la structure du code informatique pour le rendre plus efficace. Dans un premier temps, nous avons utilisé ce nouvel algorithme, BANYAN II, pour identifier 25 nouvelles candidates membres d'associations jeunes parmi un échantillon de 158 étoiles de faible masse (de types spectraux > M4) et naines brunes jeunes déjà connues. Nous avons ensuite effectué la corrélation croisée de deux catalogues couvrant tout le ciel en lumière proche-infrarouge et contenant ~ 500 millions d’objets célestes pour identifier environ 100 000 candidates naines brunes et étoiles de faible masse du voisinage solaire. À l'aide de l'outil BANYAN II, nous avons alors identifié quelques centaines d'objets appartenant fort probablement à une association jeune parmi cet échantillon et effectué un suivi spectroscopique en lumière proche-infrarouge pour les caractériser. Les travaux présentés ici ont mené à l'identification de 79 candidates naines brunes jeunes ainsi que 150 candidates étoiles de faible masse jeunes, puis un suivi spectroscopique nous a permis de confirmer le jeune âge de 49 de ces naines brunes et 62 de ces étoiles de faible masse. Nous avons ainsi approximativement doublé le nombre de naines brunes jeunes connues, ce qui a ouvert la porte à une caractérisation statistique de leur population. Ces nouvelles naines brunes jeunes représentent un laboratoire idéal pour mieux comprendre l'atmosphère des exoplanètes géantes gazeuses. Nous avons identifié les premiers signes d’une remontée dans la fonction de masse initiale des naines brunes aux très faibles masses dans l'association jeune Tucana-Horologium, ce qui pourrait indiquer que l’éjection d’exoplanètes joue un rôle important dans la composition de leur population. Les résultats du suivi spectroscopique nous ont permis de construire une séquence empirique complète pour les types spectraux M5-L5 à l'âge du champ, à faible (β) et très faible (γ) gravité de surface. Nous avons effectué une comparaison de ces données aux modèles d'évolution et d'atmosphère, puis nous avons construit un ensemble de séquences empiriques de couleur-magnitude et types spectraux-magnitude pour les naines brunes jeunes. Finalement, nous avons découvert deux nouvelles exoplanètes par un suivi en imagerie directe des étoiles jeunes de faible masse identifiées dans ce projet. La future mission GAIA et le suivi spectroscopique complet des candidates présentées dans cette thèse permettront de confirmer leur appartenance aux associations jeunes et de contraindre la fonction de masse initiale dans le régime sous-stellaire.
Resumo:
La question de l'intégration des jeunes au monde du travail est considérée de plus en plus importante dans notre société. En effet, de nombreuses recherches se sont attardées au problème de l'emploi chez les jeunes et plus précisément de leur transition entre le monde scolaire et le marché du travail. Plusieurs raisons sont à l'origine de cette difficulté d'insertion professionnelle des jeunes; mentionnons entre autres leur faible niveau de scolarité et leur manque d'habiletés professionnelles pour faire face au marché du travail qui est très mouvant. Certains disent qu'un investissement personnel dans l'éducation peut faciliter l'intégration au marché du travail. Mais qu'en est-il pour ceux qui ne peuvent capitaliser dans ce type d'investissement parce qu'ils éprouvent des difficultés d'adaptation et d'apprentissage les empêchant d'accéder à l'obtention du Diplôme d'Études Secondaires (D.E.S.), du Diplôme d'Études Professionnelles (D.E.P.) ou du Certificat d'Études Professionnelles (C.E.P.)? Nous constatons que parmi le nombre de jeunes qui désirent accéder à un emploi, certains d'entre eux n'y arrivent pas car ils ne possèdent pas les habiletés professionnelles requises même pour occuper des emplois non spécialisés. Nous voulons par cette recherche identifier et cerner les habiletés professionnelles nécessaires à l'exercice d'emplois et d'occupations non spécialisés afin de mieux préparer au travail les jeunes en difficulté d'adaptation et d'apprentissage et de leur assurer ainsi une plus grande réussite de leur insertion professionnelle. Dans la première partie de cette recherche, nous présentons la situation des jeunes sur le marché du travail, plus particulièrement ceux qui éprouvent des difficultés d'adaptation et d'apprentissage. Nous tenterons de montrer l'importance de la relation entre les habiletés professionnelles et le développement de carrière du jeune pour une insertion professionnelle dite réussie et par la suite, nous analyserons le programme des cheminements particuliers de formation des jeunes de 16 à 18 ans en insertion sociale et professionnelle afin d'apporter éventuellement des recommandations et de suggérer des outils pédagogiques susceptibles d'augmenter l'employabilité et l'adaptabilité de ces jeunes sur le marché du travail. Nous conclurons cette partie en précisant la pertinence de cette étude ainsi que les objectifs de recherche que nous désirons atteindre. Dans la deuxième partie, nous présentons la méthodologie que nous avons adoptée pour atteindre et réaliser nos objectifs de recherche. Nous mentionnerons entre autres l'échantillon choisi, l'instrument de recherche et le déroulement de l'expérience. Et pour terminer, les données obtenues seront présentées dans la troisième partie de cette recherche.
Resumo:
Les arthroplasties totales de la hanche (ATH) et du genou (ATG) sont souvent offertes aux patients atteints de dégénérescence articulaire sévère. Bien qu’efficace chez la majorité des patients, ces interventions mènent à des résultats sous-optimaux dans de nombreux cas. Il demeure difficile d’identifier les patients à risque de résultats sous-optimaux à l’heure actuelle. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser la gamme de soins et de services offerts et de possiblement améliorer les résultats de leur chirurgie. Ce mémoire a comme objectifs : 1) de réaliser une revue systématique des déterminants associés à la douleur et aux incapacités fonctionnelles rapportées par les patients à moyen-terme suivant ces deux types d’arthroplastie et 2) de développer des modèles de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles suivant l’ATH et l’ATG. Une revue systématique de la littérature identifiant les déterminants de la douleur et de la fonction suivant l’ATH et l’ATG a été réalisée dans quatre bases de données jusqu’en avril 2015 et octobre 2014, respectivement. Afin de développer un algorithme de prédiction pouvant identifier les patients à risque de résultats sous-optimaux, nous avons aussi utilisé des données rétrospectives provenant de 265 patients ayant subi une ATH à l’Hôpital Maisonneuve-Rosemont (HMR) de 2004 à 2010. Finalement, des données prospectives sur 141 patients recrutés au moment de leur inclusion sur une liste d’attente pour une ATG dans trois hôpitaux universitaires à Québec, Canada et suivis jusqu’à six mois après la chirurgie ont permis l’élaboration d’une règle de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles. Vingt-deux (22) études d’une qualité méthodologique moyenne à excellente ont été incluses dans la revue. Les principaux déterminants de douleur et d’incapacités fonctionnelles après l’ATH incluaient: le niveau préopératoire de douleur et de fonction, un indice de la masse corporelle plus élevé, des comorbidités médicales plus importantes, un état de santé générale diminué, une scolarité plus faible, une arthrose radiographique moins sévère et la présence d’arthrose à la hanche controlatérale. Trente-quatre (34) études évaluant les déterminants de douleur et d’incapacités fonctionnelles après l’ATG avec une qualité méthodologique moyenne à excellente ont été évaluées et les déterminants suivant ont été identifiés: le niveau préopératoire de douleur et de fonction, des comorbidités médicales plus importantes, un état de santé générale diminué, un plus grands niveau d’anxiété et/ou de symptômes dépressifs, la présence de douleur au dos, plus de pensées catastrophiques ou un faible niveau socioéconomique. Pour la création d’une règle de prédiction clinique, un algorithme préliminaire composé de l’âge, du sexe, de l’indice de masse corporelle ainsi que de trois questions du WOMAC préopératoire a permis l’identification des patients à risque de résultats chirurgicaux sous-optimaux (pire quartile du WOMAC postopératoire et percevant leur hanche opérée comme artificielle avec des limitations fonctionnelles mineures ou majeures) à une durée moyenne ±écart type de 446±171 jours après une ATH avec une sensibilité de 75.0% (95% IC: 59.8 – 85.8), une spécificité de 77.8% (95% IC: 71.9 – 82.7) et un rapport de vraisemblance positif de 3.38 (98% IC: 2.49 – 4.57). Une règle de prédiction clinique formée de cinq items du questionnaire WOMAC préopratoire a permis l’identification des patients en attente d’une ATG à risque de mauvais résultats (pire quintile du WOMAC postopératoire) six mois après l’ATG avec une sensibilité de 82.1 % (95% IC: 66.7 – 95.8), une spécificité de 71.7% (95% IC: 62.8 – 79.8) et un rapport de vraisemblance positif de 2.9 (95% IC: 1.8 – 4.7). Les résultats de ce mémoire ont permis d’identifier, à partir de la littérature, une liste de déterminants de douleur et d’incapacités fonctionnelles après l’ATH et l’ATG avec le plus haut niveau d’évidence à ce jour. De plus, deux modèles de prédiction avec de très bonnes capacités prédictives ont été développés afin d’identifier les patients à risque de mauvais résultats chirurgicaux après l’ATH et l’ATG. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser leur prise en charge et de possiblement améliorer les résultats de leur chirurgie.
Resumo:
Les arthroplasties totales de la hanche (ATH) et du genou (ATG) sont souvent offertes aux patients atteints de dégénérescence articulaire sévère. Bien qu’efficace chez la majorité des patients, ces interventions mènent à des résultats sous-optimaux dans de nombreux cas. Il demeure difficile d’identifier les patients à risque de résultats sous-optimaux à l’heure actuelle. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser la gamme de soins et de services offerts et de possiblement améliorer les résultats de leur chirurgie. Ce mémoire a comme objectifs : 1) de réaliser une revue systématique des déterminants associés à la douleur et aux incapacités fonctionnelles rapportées par les patients à moyen-terme suivant ces deux types d’arthroplastie et 2) de développer des modèles de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles suivant l’ATH et l’ATG. Une revue systématique de la littérature identifiant les déterminants de la douleur et de la fonction suivant l’ATH et l’ATG a été réalisée dans quatre bases de données jusqu’en avril 2015 et octobre 2014, respectivement. Afin de développer un algorithme de prédiction pouvant identifier les patients à risque de résultats sous-optimaux, nous avons aussi utilisé des données rétrospectives provenant de 265 patients ayant subi une ATH à l’Hôpital Maisonneuve-Rosemont (HMR) de 2004 à 2010. Finalement, des données prospectives sur 141 patients recrutés au moment de leur inclusion sur une liste d’attente pour une ATG dans trois hôpitaux universitaires à Québec, Canada et suivis jusqu’à six mois après la chirurgie ont permis l’élaboration d’une règle de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles. Vingt-deux (22) études d’une qualité méthodologique moyenne à excellente ont été incluses dans la revue. Les principaux déterminants de douleur et d’incapacités fonctionnelles après l’ATH incluaient: le niveau préopératoire de douleur et de fonction, un indice de la masse corporelle plus élevé, des comorbidités médicales plus importantes, un état de santé générale diminué, une scolarité plus faible, une arthrose radiographique moins sévère et la présence d’arthrose à la hanche controlatérale. Trente-quatre (34) études évaluant les déterminants de douleur et d’incapacités fonctionnelles après l’ATG avec une qualité méthodologique moyenne à excellente ont été évaluées et les déterminants suivant ont été identifiés: le niveau préopératoire de douleur et de fonction, des comorbidités médicales plus importantes, un état de santé générale diminué, un plus grands niveau d’anxiété et/ou de symptômes dépressifs, la présence de douleur au dos, plus de pensées catastrophiques ou un faible niveau socioéconomique. Pour la création d’une règle de prédiction clinique, un algorithme préliminaire composé de l’âge, du sexe, de l’indice de masse corporelle ainsi que de trois questions du WOMAC préopératoire a permis l’identification des patients à risque de résultats chirurgicaux sous-optimaux (pire quartile du WOMAC postopératoire et percevant leur hanche opérée comme artificielle avec des limitations fonctionnelles mineures ou majeures) à une durée moyenne ±écart type de 446±171 jours après une ATH avec une sensibilité de 75.0% (95% IC: 59.8 – 85.8), une spécificité de 77.8% (95% IC: 71.9 – 82.7) et un rapport de vraisemblance positif de 3.38 (98% IC: 2.49 – 4.57). Une règle de prédiction clinique formée de cinq items du questionnaire WOMAC préopratoire a permis l’identification des patients en attente d’une ATG à risque de mauvais résultats (pire quintile du WOMAC postopératoire) six mois après l’ATG avec une sensibilité de 82.1 % (95% IC: 66.7 – 95.8), une spécificité de 71.7% (95% IC: 62.8 – 79.8) et un rapport de vraisemblance positif de 2.9 (95% IC: 1.8 – 4.7). Les résultats de ce mémoire ont permis d’identifier, à partir de la littérature, une liste de déterminants de douleur et d’incapacités fonctionnelles après l’ATH et l’ATG avec le plus haut niveau d’évidence à ce jour. De plus, deux modèles de prédiction avec de très bonnes capacités prédictives ont été développés afin d’identifier les patients à risque de mauvais résultats chirurgicaux après l’ATH et l’ATG. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser leur prise en charge et de possiblement améliorer les résultats de leur chirurgie.
Resumo:
Résumé : Les maladies cardiovasculaires représentent la principale cause de mortalité mondiale, soit le tiers des décès annuels selon l’Organisation mondiale de la Santé. L’hypercholestérolémie, caractérisée par une élévation des niveaux plasmatiques de lipoprotéines de faible densité (LDL), est l’un des facteurs de risque majeur pour les maladies cardiovasculaires. La proprotéine convertase subtilisine/kexine type 9 (PCSK9) joue un rôle essentiel dans l’homéostasie du cholestérol sanguin par la régulation des niveaux protéiques du récepteur LDL (LDLR). PCSK9 est capable de se lier au LDLR et favorise l’internalisation et la dégradation du récepteur dans les lysosomes. L’inhibition de PCSK9 s’avère une cible thérapeutique validée pour le traitement de l’hypercholestérolémie et la prévention des maladies cardiovasculaires. Par contre, plusieurs mécanismes responsables de la régulation et la dégradation du complexe PCSK9-LDLR n’ont pas encore été complètement caractérisés comme la régulation par la protéine annexin A2 (AnxA2), un inhibiteur endogène de PCSK9. De plus, plusieurs évidences suggèrent la présence d’une ou plusieurs protéines, encore inconnues, impliquées dans le mécanisme d’action de PCSK9. Celles-ci pourraient réguler l’internalisation et le transport du complexe PCSK9-LDLR vers les lysosomes. Les objectifs de cette thèse sont de mieux définir le rôle et l’impact de l’AnxA2 sur la protéine PCSK9 en plus d’identifier de nouveaux partenaires d’interactions de PCSK9 pour mieux caractériser son mécanisme d’action sur la régulation des niveaux de LDLR. Nous avons démontré que l’inhibition de PCSK9 par l’AnxA2 extracellulaire s’effectue via sa liaison aux domaines M1+M2 de la région C-terminale de PCSK9 et nous avons mis en évidence les premières preuves d’un contrôle intracellulaire de l’AnxA2 sur la traduction de l’ARNm de PCSK9. Nos résultats révèlent une liaison de l’AnxA2 à l’ARN messager de PCSK9 qui cause une répression traductionnelle. Nous avons également identifié la protéine glypican-3 (GPC3) comme un nouveau partenaire d’interaction extracellulaire avec le PCSK9 et intracellulaire avec le complexe PCSK9-LDLR dans le réticulum endoplasmique des cellules HepG2 et Huh7. Nos études démontrent que GPC3 réduit l’activité extracellulaire de PCSK9 en agissant comme un compétiteur du LDLR pour la liaison avec PCSK9. Une meilleure compréhension des mécanismes de régulation et de dégradation du complexe PCKS9-LDLR permettra de mieux évaluer l’impact et l’efficacité des inhibiteurs de la protéine PCSK9.
Resumo:
In this study, 103 unrelated South-American patients with mucopolysaccharidosis type II (MPS II) were investigated aiming at the identification of iduronate-2-sulfatase (IDS) disease causing mutations and the possibility of some insights on the genotype-phenotype correlation The strategy used for genotyping involved the identification of the previously reported inversion/disruption of the IDS gene by PCR and screening for other mutations by PCR/SSCP. The exons with altered mobility on SSCP were sequenced, as well as all the exons of patients with no SSCP alteration. By using this strategy, we were able to find the pathogenic mutation in all patients. Alterations such as inversion/disruption and partial/total deletions of the IDS gene were found in 20/103 (19%) patients. Small insertions/deletions/indels (<22 bp) and point mutations were identified in 83/103 (88%) patients, including 30 novel mutations; except for a higher frequency of small duplications in relation to small deletions, the frequencies of major and minor alterations found in our sample are in accordance with those described in the literature.
Resumo:
Differential gene expression analysis by suppression subtractive hybridization with correlation to the metabolic pathways involved in chronic myeloid leukemia (CML) may provide a new insight into the pathogenesis of CML. Among the overexpressed genes found in CML at diagnosis are SEPT5, RUNX1, MIER1, KPNA6 and FLT3, while PAN3, TOB1 and ITCH were decreased when compared to healthy volunteers. Some genes were identified and involved in CML for the first time, including TOB1, which showed a low expression in patients with CML during tyrosine kinase inhibitor treatment with no complete cytogenetic response. In agreement, reduced expression of TOB1 was also observed in resistant patients with CML compared to responsive patients. This might be related to the deregulation of apoptosis and the signaling pathway leading to resistance. Most of the identified genes were related to the regulation of nuclear factor κB (NF-κB), AKT, interferon and interleukin-4 (IL-4) in healthy cells. The results of this study combined with literature data show specific gene pathways that might be explored as markers to assess the evolution and prognosis of CML as well as identify new therapeutic targets.