970 resultados para inflation cible
Resumo:
Plusieurs souches cliniques de Candida albicans résistantes aux médicaments antifongiques azolés surexpriment des gènes encodant des effecteurs de la résistance appartenant à deux classes fonctionnelles : i) des transporteurs expulsant les azoles, CDR1, CDR2 et MDR1 et ii) la cible des azoles 14-lanostérol déméthylase encodée par ERG11. La surexpression de ces gènes est due à la sélection de mutations activatrices dans des facteurs de transcription à doigts de zinc de la famille zinc cluster (Zn2Cys6) qui contrôlent leur expression : Tac1p (Transcriptional activator of CDR genes 1) contrôlant l’expression de CDR1 et CDR2, Mrr1p (Multidrug resistance regulator 1), régulant celle de MDR1 et Upc2p (Uptake control 2), contrôlant celle d’ERG11. Un autre effecteur de la résistance clinique aux azoles est PDR16, encodant une transférase de phospholipides, dont la surexpression accompagne souvent celle de CDR1 et CDR2, suggérant que les trois gènes appartiennent au même régulon, potentiellement celui de Tac1p. De plus, la régulation transcriptionnelle du gène MDR1 ne dépend pas seulement de Mrr1p, mais aussi du facteur de transcription de la famille basic-leucine zipper Cap1p (Candida activator protein 1), un régulateur majeur de la réponse au stress oxydatif chez C. albicans qui, lorsque muté, induit une surexpression constitutive de MDR1 conférant la résistance aux azoles. Ces observations suggèrent qu’un réseau de régulation transcriptionnelle complexe contrôle le processus de résistance aux antifongiques azolés chez C. albicans. L’objectif de mon projet au doctorat était d’identifier les cibles transcriptionnelles directes des facteurs de transcription Tac1p, Upc2p et Cap1p, en me servant d’approches génétiques et de génomique fonctionnelle, afin de i) caractériser leur réseau transcriptionnel et les modules transcriptionnels qui sont sous leur contrôle direct, et ii) d’inférer leurs fonctions biologiques et ainsi mieux comprendre leur rôle dans la résistance aux azoles. Dans un premier volet, j’ai démontré, par des expériences de génétique, que Tac1p contrôle non seulement la surexpression de CDR1 et CDR2 mais aussi celle de PDR16. Mes résultats ont identifié une nouvelle mutation activatrice de Tac1p (N972D) et ont révélé la participation d’un autre régulateur dans le contrôle transcriptionnel de CDR1 et PDR16 dont l’identité est encore inconnue. Une combinaison d’expériences de transcriptomique et d’immunoprécipitation de la chromatine couplée à l’hybridation sur des biopuces à ADN (ChIP-chip) m’a permis d’identifier plusieurs gènes dont l’expression est contrôlée in vivo et directement par Tac1p (PDR16, CDR1, CDR2, ERG2, autres), Upc2p (ERG11, ERG2, MDR1, CDR1, autres) et Cap1p (MDR1, GCY1, GLR1, autres). Ces expériences ont révélé qu’Upc2p ne contrôle pas seulement l’expression d’ERG11, mais aussi celle de MDR1 et CDR1. Plusieurs nouvelles propriétés fonctionnelles de ces régulateurs ont été caractérisées, notamment la liaison in vivo de Tac1p aux promoteurs de ses cibles de façon constitutive et indépendamment de son état d’activation, et la liaison de Cap1p non seulement à la région du promoteur de ses cibles, mais aussi celle couvrant le cadre de lecture ouvert et le terminateur transcriptionnel putatif, suggérant une interaction physique avec la machinerie de la transcription. La caractérisation du réseau transcriptionnel a révélé une interaction fonctionnnelle entre ces différents facteurs, notamment Cap1p et Mrr1p, et a permis d’inférer des fonctions biologiques potentielles pour Tac1p (trafic et la mobilisation des lipides, réponse au stress oxydatif et osmotique) et confirmer ou proposer d’autres fonctions pour Upc2p (métabolisme des stérols) et Cap1p (réponse au stress oxydatif, métabolisme des sources d’azote, transport des phospholipides). Mes études suggèrent que la résistance aux antifongiques azolés chez C. albicans est intimement liée au métabolisme des lipides membranaires et à la réponse au stress oxydatif.
Resumo:
Cet ouvrage traite principalement de la synthèse de motifs polypropionates de type stéréopentade ainsi qu’une application à la synthèse d’une molécule naturelle possèdant des propriétés biologiques. La stratégie envisagée pour l’élaboration de ces motifs récurrents dans plusieurs structures d’origine naturelle fait appel à la chimie des radicaux. Cette thèse se divise en différents chapitres dans lesquels la versatilité de la méthodologie développée sera démontrée. En premier lieu, il sera question de présenter l’importance de la synthèse de motifs polypropionates. Le domaine couvert par la chimie de ces molécules complexes hautement fonctionnalisées a contribué énormément à l’avancement de nos connaissances en synthèse organique, particulièrement dans le contexte des réactions impliquant des molécules acyliques. Une brève description des méthodes connues est présentée afin de saisir l’étendue des défis restants pour construire efficacement tous les isomères possibles des polypropionates de type stéréopentade. La stratégie proposée est basée sur une approche contrôlée entièrement par le substrat. Ce contrôle s’appuie sur le choix judicieux de l’acide de Lewis activant les deux réactions impliquées, soit la réaction de Mukaiyama et le transfert d’hydrogène. La seconde section de cette thèse concerne principalement le développement d’une réaction de Mukaiyama impliquant un éther d’énol silylé portant un lien pouvant être homolytiquement brisé dans la réaction suivante et un aldéhyde de type propionate. Le contrôle de l’aldolisation provient de la nature de l’acide de Lewis. Une espèce monodentate (BF3·OEt2) génère une relation 3,4-syn selon le modèle dit Felkin-Anh tandis que les acides de Lewis bidentates mènent à la relation 3,4-anti via un état de transition définit comme Cram-chélate. Une optimisation des conditions réactionnelles en variant l’acidité et la stoechiométrie de l’acide de Lewis de titane a permis de construire diastéréosélectivement le produit de Mukaiyama ayant une relation 3,4-anti. En outre, la nature des complexes impliqués dans ces réactions a été élucidée par des études RMN 13C à basse température. Une fois les précurseurs radicalaires synthétisés, notre méthodologie de réduction par transfert d’hydrogène contrôlée également par les acides de Lewis s’avère très efficace. Les acides de Lewis dérivés d’aluminium mènent sélectivement à la relation 2,3-syn selon un contrôle endocyclique tandis que les acides de Lewis de bore permettent la création des relations 2,3-anti en se basant sur une stabilisation par les divers facteurs de contrôle de molécules acycliques. Cette stratégie novatrice nous a ainsi permis de construire efficacement les 16 diastéréoisomères possibles. Le chapitre suivant concerne l’application de cette méthodologie à la synthèse de l’hémisphère ouest de la salinomycine et de la narasine. Plusieurs défis synthétiques ont été relevés à cette occasion par la présence de nombreux centres stéréogènes contigus. Nous avons réalisé que la relation stéréochimique 2,3-anti de la salinomycine n’est pas accessible sélectivement par la chimie des radicaux via l’effet exocyclique. Des études ont été entreprises afin de comprendre cette perte de sélectivité. Les conclusions suggèrent que les substituants sur le cycle imposent un biais conformationnel conduisant à des faibles sélectivités. Une alternative utilisant un réactif de crotylsilane chiral a été développée pour arriver à la molécule cible. Cette situation est différente dans le cas de la narasine où la présence du méthyle sur le carbone en position β du radical bloque efficacement l’approche d’une des faces d’attaque par l’hydrure. Des sélectivités impressionnantes nous ont permis de construire le fragment C1-C9 de la narasine de manière expéditive et efficace. Finalement, l’élongation sélective utilisant à nouveau la séquence d’aldolisation de Mukaiyama/réduction radicalaire suivie d’un couplage de type aldol stéréosélectif conduit au fragment C1-C17 de la narasine (hémisphère ouest)en 19 étapes avec un rendement global de l’ordre de 7 %. En dernier lieu, nous nous sommes penchés sur la réactivité des α-bromo-β- alkoxycétones lors de transfert d’hydrogène. Nous avons découvert que la chimie de ces derniers pourrait s’avérer utile dans le contexte de la synthèse de motifs complexes polypropionates. La présence d’un centre stéréogène de l’autre coté de la cétone semble avoir un impact sur la sélectivité.
Resumo:
Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.
Resumo:
La leucémie lymphoïde représente 30% de tous les cancers chez l’enfant. SCL (« Stem cell leukemia ») et LMO1/2 (« LIM only protein ») sont les oncogènes les plus fréquemment activés dans les leucémies aiguës des cellules T chez l'enfant (T-ALL). L’expression ectopique de ces deux oncoprotéines dans le thymus de souris transgéniques induit un blocage de la différenciation des cellules T suivie d’une leucémie agressive qui reproduit la maladie humaine. Afin de définir les voies génétiques qui collaborent avec ces oncogènes pour induire des leucémies T-ALL, nous avons utilisé plusieurs approches. Par une approche de gène candidat, nous avons premièrement identifié le pTalpha, un gène crucial pour la différenciation des cellules T, comme cible directe des hétérodimères E2AHEB dans les thymocytes immatures. De plus, nous avons montré que pendant la différenciation normale des thymocytes, SCL inhibe la fonction E2A et HEB et qu’un dosage entre les protéines E2A, HEB et SCL détermine l’expression du pTalpha. Deuxièmement, par l’utilisation d’une approche globale et fonctionnelle, nous avons identifié de nouveaux gènes cibles des facteurs de transcription E2A et HEB et montré que SCL et LMO1 affectent la différenciation thymocytaire au stade préleucémique en inhibant globalement l’activité transcriptionnelle des protéines E par un mécanisme dépendant de la liaison à l’ADN. De plus, nous avons découvert que les oncogènes SCL et LMO1 sont soit incapables d’inhiber totalement l’activité suppresseur de tumeur des protéines E ou agissent par une voie d’induction de la leucémie différente de la perte de fonction des protéines E. Troisièmement, nous avons trouvé que Notch1, un gène retrouvé activé dans la majorité des leucémies T-ALL chez l’enfant, opère dans la même voie génétique que le pré-TCR pour collaborer avec les oncogènes SCL et LMO1 lors du processus de leucémogénèse. De plus, cette collaboration entre des facteurs de transcription oncogéniques et des voies de signalisation normales et importantes pour la détermination de la destinée cellulaire pourraient expliquer la transformation spécifique à un type cellulaire. Quatrièmement, nous avons trouvé que les oncogènes SCL et LMO1 sont des inducteurs de sénescence au stade préleucémique. De plus, la délétion du locus INK4A/ARF, un évènement retrouvé dans la majorité des leucémies pédiatriques T-ALL associées avec une activation de SCL, collabore aves les oncogènes SCL et LMO1 dans l’induction de la leucémie. Cette collaboration entre la perte de régulateurs de la sénescence suggère qu’un contournement de la réponse de sénescence pourrait être nécessaire à la transformation. Finalement, nous avons aussi montré que l’interaction directe entre les protéines SCL et LMO1 est critique pour l’induction de la leucémie. Ces études ont donc permis d’identifier des évènements collaborateurs, ainsi que des propriétés cellulaires affectées par les oncogènes associés avec la leucémie et de façon plus générale dans le développement du cancer.
Resumo:
Les pulsateurs compacts sont des étoiles présentant des variations intrinsèques de luminosité dont les gravités de surface sont supérieures à 100,000 cm/s² On retrouve parmi ces objets deux familles des sous-naines chaudes de type B (sdB) pulsantes et quatre familles distinctes de naines blanches pulsantes. Dans le but d'observer les pulsations de tels objets pour ensuite analyser leur propriétés grâce à l'astéroséismologie, l'Université de Montréal, en collaboration avec le Imaging Technology Laboratory (ITL - University of Arizona), a développé la caméra Mont4K (Montreal4K) CCD qui est, depuis le printemps 2007, le principal détecteur employé au télescope Kuiper de 1.55 m du Mt Bigelow (Steward Observatory, University of Arizona). à l'aide de ce montage, des observations ont été menées pour quelques-uns de ces pulsateurs compacts. La première cible fut HS 0702+6043, un pulsateur hybride. Une importante mission pour cet objet, réalisée du 1er novembre 2007 au 14 mars 2008, a permis d'identifier 28 modes de pulsations pour cet objet en plus de mettre en évidence pour certains de ces modes d'importantes variations d'amplitude. Deux autres cibles furent les naines blanches pulsantes au carbone de type « Hot DQ » SDSS J220029.08-074121.5 et SDSS J234843.30-094245.3. Il fut possible de montrer de façon indirecte la présence d'un fort champ magnétique à la surface de J220029.08-074121.5 grâce à la présence de la première harmonique du mode principal. En outre, pour ces deux cibles, on a pu conclure que celles-ci font bel et bien partie de la classe des naines blanches pulsantes au carbone.
Resumo:
Réalisé en codirection avec Hélène Buzelin
Resumo:
Le VIH-1 a développé plusieurs mécanismes menant à la dégradation de son récepteur cellulaire, la molécule CD4, dans le but d’augmenter la relâche de particules virales infectieuses et d’éviter que la cellule soit surinfectée. L’un de ces mécanismes est la dégradation, induite par la protéine virale Vpu, du CD4 nouvellement synthétisé au niveau du réticulum endoplasmique (RE). Vpu doit lier CD4 et recruter l’ubiquitine ligase cellulaire SCFβ-TrCP, via sa liaison à β-TrCP, afin de dégrader CD4. Puisque CD4 doit être retenu au RE pour permettre à Vpu d’induire sa dégradation via le système ubiquitine-protéasome, il a été suggéré que ce processus implique un mécanisme semblable à une voie cellulaire de dégradation des protéines mal-repliées appelée ERAD (« endoplasmic reticulum-associated degradation »). La dégradation par ERAD implique généralement la dislocation des protéines du RE vers le cytoplasme afin de permettre leur poly-ubiquitination et leur dégradation par le protéasome. Nous avons démontré que Vpu induit la poly-ubiquitination de CD4 dans des cellules humaines. Nos résultats suggèrent aussi que CD4 doit subir une dislocation afin d’être dégradé par le protéasome en présence de Vpu. De plus, un mutant transdominant négatif de l’ATPase p97, qui est impliquée dans la dislocation des substrats ERAD, inhibe complètement la dégradation de CD4 par Vpu. Enfin, nos résultats ont montré que l’ubiquitination sur des résidus accepteurs de l’ubiquitine (lysines) de la queue cytoplasmique de CD4 n’était pas essentielle, mais que la mutation des lysines ralentit le processus de dégradation de CD4. Ce résultat suggère que l’ubiquitination de la queue cytosolique de CD4 pourrait représenter un événement important dans le processus de dégradation induit par Vpu. L’attachement de l’ubiquitine a généralement lieu sur les lysines de la protéine ciblée. Toutefois, l’ubiquitination sur des résidus non-lysine (sérine, thréonine et cystéine) a aussi été démontrée. Nous avons démontré que la mutation de tous les sites potentiels d’ubiquitination cytoplasmiques de CD4 (K, C, S et T) inhibe la dégradation par Vpu. De plus, la présence de cystéines dans la queue cytoplasmique apparaît suffisante pour rendre CD4 sensible à Vpu en absence de lysine, sérine et thréonine. Afin d’expliquer ces résultats, nous proposons un modèle dans lequel l’ubiquitination de la queue cytosolique de CD4 serait nécessaire à sa dégradation et où les sites d’ubiquitination de CD4 seraient sélectionnés de façon non spécifique par l’ubiquitine ligase recrutée par Vpu. Enfin, nous avons observé que la co-expression d’une protéine Vpu incapable de recruter β-TrCP (Vpu S52,56/D) semble stabiliser le CD4 qui est retenu au RE. De plus, d’autres mutants de Vpu qui semblent capables de recruter β-TrCP et CD4 sont toutefois incapables d’induire sa dégradation. Ces résultats suggèrent que l’association de Vpu à CD4 et β-TrCP est essentielle mais pas suffisante pour induire la dégradation de CD4. Par conséquent, ces résultats soulèvent la possibilité que Vpu puisse recruter d’autres facteurs cellulaires pour induire la dégradation de CD4. Les résultats présentés ont permis de mieux définir le mécanisme de dégradation de CD4 par Vpu dans des cellules humaines. De plus, ces résultats nous ont permis d’élaborer un modèle dans lequel l’ubiquitine ligase cellulaire SCFβ-TrCP démontre de la flexibilité dans le choix des résidus à ubiquitiner afin d’induire la dégradation de CD4. Enfin, ces études jettent un oeil nouveau sur le rôle de Vpu dans ce processus puisque nos résultats suggèrent que Vpu doive recruter d’autres partenaires cellulaires, mis à part β-TrCP, pour induire la dégradation de CD4.
Resumo:
Le présent projet vise à mieux comprendre les difficultés reliées à l’acquisition du subjonctif en français langue seconde chez les apprenants adultes. Nous tenterons plus particulièrement de déterminer les différents facteurs influant sur son acquisition. Nous présenterons dans un premier temps les théories de l’acquisition des langues, depuis ses débuts dans les années 50 jusqu’à aujourd’hui, afin de faire la lumière sur les différents facteurs impliqués dans l’acquisition d’une deuxième langue à l’âge adulte. Nous nous pencherons ensuite sur le cas spécifique du subjonctif en français. Dans la littérature, il est généralement accepté que ce mode est difficile à acquérir en raison de ses règles d’usage complexes et propres au français. Nous verrons par contre que certaines études contredisent le fait que le subjonctif se retrouve sous des formes complexes dans la langue parlée courante. Nous terminerons donc par une description du subjonctif et de ses règles d’usage. Cette description nous permettra de saisir le vaste éventail des emplois possibles et de le mettre, par la suite, en parallèle avec celui trouvé dans la langue parlée. Dans les deux dernières parties de ce travail, nous analyserons et discuterons des différents facteurs impliqués dans l’acquisition de ce mode. L’analyse de cinq études traitant du subjonctif en français langue première et seconde nous permettra d’abord de démontrer que, contrairement aux idées reçues dans la littérature, la complexité des règles d’usage du subjonctif n’affecte pas son acquisition. Nous verrons en fait que les occurrences du subjonctif en français parlé sont rares et leurs formes, relativement simples. Nous montrerons ensuite que la cause principale des difficultés d’acquisition est l’incapacité à remarquer facilement ce mode dans la langue cible en raison de sa faible fréquence et saillance, c'est-à-dire sa capacité à ressortir par rapport aux autres éléments de la phrase. Nous verrons également que le subjonctif s’acquiert tardivement parce que son développement dépend de celui des phrases complexes dans lesquelles il se trouve obligatoirement.
Resumo:
L’électrofilage est une technique permettant de fabriquer des fibres polymériques dont le diamètre varie entre quelques nanomètres et quelques microns. Ces fibres ont donc un rapport surface/volume très élevé. Les fibres électrofilées pourraient trouver des applications dans le relargage de médicaments et le génie tissulaire, comme membranes et capteurs chimiques, ou dans les nanocomposites et dispositifs électroniques. L’électrofilage était initialement utilisé pour préparer des toiles de fibres désordonnées, mais il est maintenant possible d’aligner les fibres par l’usage de collecteurs spéciaux. Cependant, il est important de contrôler non seulement l’alignement macroscopique des fibres mais aussi leur orientation au niveau moléculaire puisque l’orientation influence les propriétés mécaniques, optiques et électriques des polymères. Les complexes moléculaires apparaissent comme une cible de choix pour produire des nanofibres fortement orientées. Dans les complexes d’inclusion d’urée, les chaînes polymères sont empilées dans des canaux unidimensionnels construits à partir d’un réseau tridimensionnel de molécules d’urée liées par des ponts hydrogène. Ainsi, les chaînes polymère sonts très allongées à l’échelle moléculaire. Des nanofibres du complexe PEO-urée ont été préparées pour la première fois par électrofilage de suspensions et de solutions. Tel qu’attendu, une orientation moléculaire inhabituellement élevée a été observée dans ces fibres. De tels complexes orientés pourraient être utilisés à la fois dans des études fondamentales et dans la préparation de matériaux hiérarchiquement structurés. La méthode d’électrofilage peut parfois aussi être utilisée pour préparer des matériaux polymériques métastables qui ne peuvent pas être préparés par des méthodes conventionnelles. Ici, l’électrofilage a été utilisé pour préparer des fibres des complexes stables (α) et "métastables" (β) entre le PEO et l’urée. La caractérisation du complexe β, qui était mal connu, révèle un rapport PEO:urée de 12:8 appartenant au système orthorhombique avec a = 1.907 nm, b = 0.862 nm et c = 0.773 nm. Les chaînes de PEO sont orientées selon l’axe de la fibre. Leur conformation est significativement affectée par les ponts hydrogène. Une structure en couches a été suggérée pour la forme β, plutôt que la structure conventionnelle en canaux adoptée par la forme α. Nos résultats indiquent que le complexe β est thermodynamiquement stable avant sa fonte et peut se transformer en forme α et en PEO liquide par un processus de fonte et recristallisation à 89 ºC. Ceci va dans le sens contraire aux observations faites avec le complexe β obtenu par trempe du complexe α fondu. En effet, le complexe β ainsi obtenu est métastable et contient des cristaux d’urée. Il peut subir une transition de phases cinétique solide-solide pour produire du complexe α dans une vaste gamme de températures. Cette transition est induite par un changement de conformation du PEO et par la formation de ponts hydrogène intermoléculaires entre l’urée et le PEO. Le diagramme de phases du système PEO-urée a été tracé sur toute la gamme de compositions, ce qui a permis d’interpréter la formation de plusieurs mélanges qui ne sont pas à l’équilibre mais qui sont été observés expérimentalement. La structure et le diagramme de phases du complexe PEO-thiourée, qui est aussi un complexe très mal connu, ont été étudiés en détail. Un rapport molaire PEO :thiourée de 3:2 a été déduit pour le complexe, et une cellule monoclinique avec a = 0.915 nm, b = 1.888 nm, c = 0.825 nm et β = 92.35º a été déterminée. Comme pour le complexe PEO-urée de forme β, une structure en couches a été suggérée pour le complexe PEO-thiourée, dans laquelle les molécules de thiourée seraient disposées en rubans intercalés entre deux couches de PEO. Cette structure en couches pourrait expliquer la température de fusion beaucoup plus faible des complexes PEO-thiourée (110 ºC) et PEO-urée de forme β (89 ºC) en comparaison aux structures en canaux du complexe PEO-urée de forme α (143 ºC).
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
L’entérotoxine stable à la chaleur STb est produite par les Escherichia coli entérotoxinogènes (ETEC). Son rôle dans la diarrhée post-sevrage porcine est établi. L’internalisation de STb a été observée dans des cellules épithéliales intestinales humaines et de rat. Cependant, le mécanisme d’internalisation n’est pas totalement compris, particulièrement dans le jéjunum porcin, la cible in vivo de STb. Par la cytométrie en flux, nous avons examiné l’internalisation de STb couplée à un marqueur fluorescent dans les cellules épithéliales intestinales porcines IPEC-J2 et les fibroblastes murins NIH3T3. Nos résultats révèlent que l’internalisation de STb est températureindépendante dans les IPEC-J2 tandis qu’elle est température-dépendante dans les NIH3T3, où la réorganisation de l’actine est aussi nécessaire. Toutefois, les niveaux de sulfatide, le récepteur de STb, sont semblables à la surface des deux lignées. Le sulfatide est internalisé à 37°C de façon similaire entre les deux types cellulaires. La rupture des lipid rafts, les microdomaines membranaires contenant le sulfatide, par la méthyl-βcyclodextrine ou la génistéine, n’affecte pas l’internalisation de STb dans les deux lignées. Notre étude indique que le mécanisme d’internalisation de STb est dépendant du type cellulaire. L’activité de la cellule hôte peut être requise ou non. Le récepteur de STb, le sulfatide, n’est pas directement impliqué dans ces mécanismes. L’internalisation activité cellulaire-dépendante suggère une endocytose, nécessitant la réorganisation de l’actine mais pas les lipid rafts. L’internalisation de STb est donc un processus complexe dépendant du type cellulaire, qu’il apparait plus relevant d’étudier dans des modèles cellulaires représentatifs des conditions in vivo.
Resumo:
Le marquage protéique par fluorescence est une méthode de choix permettant d’étudier l’évolution des protéines depuis leur synthèse cellulaire jusqu’à leur dégradation, en plus de rendre possible leur localisation ainsi que la visualisation des interactions entre protéines. De cet intérêt certain ont découlé différentes techniques de marquage, dont celle présentement développée dans le groupe Keillor. Le principe de celle-ci repose sur la réaction entre deux maléimides portés par un fluorogène et une séquence peptidique cible, laquelle contient deux résidus cystéines séparés par une distance appropriée. Suite à cette double addition de thiols du peptide sur les maléimides du fluorogène, la fluorescence latente de ce dernier est régénérée, menant au marquage covalent de la protéine d’intérêt. Afin d’optimiser la spécificité et la sensibilité de cette méthode de marquage, la synthèse de nouveaux fluorogènes et l’étude de l’efficacité de quench de la fluorescence par les maléimides est présentement en cours dans les laboratoires du groupe Keillor.
Resumo:
Bien que les règles de droits et des directives administratives dictent leur conduite, les policiers jouissent d’une latitude considérable dans la manière d’appliquer la loi et de dispenser des services. Puisque l’exercice efficient de toute forme d’autorité nécessite la reconnaissance de sa légitimité (Tyler, 2004), plus l’application de leurs pouvoirs discrétionnaires est jugée arbitraire ou excessive, plus les citoyens risquent d’utiliser des mécanismes normaux d’opposition ou de riposte. Dans cette optique, la présente étude cherche à départager les causes des 15 023 épisodes de voie de fait, menace, harcèlement, entrave et intimidation, qualifiés de défiance, dont les policiers du Service de police de la ville de Montréal (SPVM) ont été la cible entre 1998-2008 selon leur registre des événements (Module d’information policière – MIP). Elle présume qu’à interactions constantes entre la police et les citoyens, les comportements de défiance policière seront fonction du niveau de désordre du quartier et des caractéristiques des personnes impliquées. Plus les policiers interceptent de jeunes, de minorités ethniques et d’individus associés aux gangs de rue, plus ils risquent d’être défiés. Elle suppose également que la probabilité qu’une intervention soit défiée dépend de l’excessivité des activités policières menées dans le quartier. Plus un quartier est sur-contrôlé par rapport à son volume de crimes (overpoliced), plus le climat local est tendu, plus les policiers sont perçus comme étant illégitimes et plus ils risquent d’être défiés lorsqu’ils procèdent à une intervention. Enfin, les comportements de défiance sont peut-être simplement fonction du niveau d’interactions entre les policiers et les citoyens, à conditions sociales et criminogènes des quartiers tenues constantes. Une série d’analyses de corrélation tend à confirmer que les comportements de défiance varient en fonction de l’âge, de l’ethnicité et de l’appartenance à un gang de rue de l’auteur. Par contre, les conditions sociales et criminogènes des quartiers paraissent être des causes antécédentes à la défiance puisqu’elles encouragent un volume plus élevé d’interventions dans les quartiers désorganisés, lequel influe sur le nombre d’incidents de défiance. Contrairement à notre hypothèse, les résultats tendent à démontrer que les policiers risquent davantage d’être défiés dans les quartiers sous-contrôlés (underpoliced). Quant à elles, les analyses multiniveaux suggèrent que le nombre d’incidents de défiance augmente à chaque fois qu’une intervention policière est effectuée, mais que cette augmentation est influencée par les quartiers propices aux activités criminelles des gangs de rue. En ce sens, il est probable que l’approche policière dans les quartiers d’activités « gangs de rue » soit différente, par souci de protection ou par anticipation de problèmes, résultant plus fréquemment en des actes de défiance à l’égard des policiers.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation