781 resultados para Voie rapide
Resumo:
Le développement du système nerveux central (SNC) chez les vertébrés est un processus d'une extrême complexité qui nécessite une orchestration moléculaire très précise. Certains gènes exprimés très tôt lors du développement embryonnaire sont d'une importance capitale pour la formation du SNC. Parmi ces gènes, on retrouve le facteur de transcription à Lim homéodomaine Lhx2. Les embryons de souris mutants pour Lhx2 (Lhx2-/-) souffre d'une hypoplasie du cortex cérébral, sont anophtalmiques et ont un foie de volume réduit. Ces embryons mutants meurent in utero au jour embryonnaire 16 (e16) dû à une déficience en érythrocytes matures. L'objectif principal de cette thèse est de caractériser le rôle moléculaire de Lhx2 dans le développement des yeux et du cortex cérébral. Lhx2 fait partie des facteurs de transcription à homéodomaine exprimé dans la portion antérieure de la plaque neurale avec Rx, Pax6, Six3. Le développement de l'oeil débute par une évagination bilatérale de cette région. Nous démontrons que l'expression de Lhx2 est cruciale pour les premières étapes de la formation de l'oeil. En effet, en absence de Lhx2, l'expression de Rx, Six3 et Pax6 est retardée dans la plaque neurale antérieure. Au stade de la formation de la vésicule optique, l'absence de Lhx2 empêche l'activation de Six6 (un facteur de transcription également essentiel au développement de l'œil). Nous démontrons que Lhx2 et Pax6 coopèrent en s'associant au promoteur de Six6 afin de promouvoir sa trans-activation. Donc, Lhx2 est un gène essentiel pour la détermination de l'identité rétinienne au niveau de la plaque neurale. Plus tard, il collabore avec Pax6 pour établir l'identité rétinienne définitive et promouvoir la prolifération cellulaire. De plus, Lhx2 est fortement exprimé dans le télencéphale, région qui donnera naissance au cortex cérébral. L'absence de Lhx2 entraîne une diminution de la prolifération des cellules progénitrices neurales dans cette région à e12.5. Nous démontrons qu'en absence de Lhx2, les cellules progénitrices neurales (cellules de glie radiale) se différencient prématurément en cellules progénitrices intermédiaires et en neurones post-mitotiques. Ces phénotypes sont corrélés à une baisse d'activité de la voie Notch. En absence de Lhx2, DNER (un ligand atypique de la voie Notch) est fortement surexprimé dans le télencéphale. De plus, Lhx2 et des co-répresseurs s'associent à la chromatine de la région promotrice de DNER. Nous concluons que Lhx2 permet l'activation de la voie Notch dans le cortex cérébral en développement en inhibant la transcription de DNER, qui est un inhibiteur de la voie Notch dans ce contexte particulier. Lhx2 permet ainsi la maintenance et la prolifération des cellules progénitrices neurales.
Resumo:
La stratégie de la tectonique moléculaire a montré durant ces dernières années son utilité dans la construction de nouveaux matériaux. Elle repose sur l’auto-assemblage spontané de molécule dite intelligente appelée tecton. Ces molécules possèdent l’habilité de se reconnaitre entre elles en utilisant diverses interactions intermoléculaires. L'assemblage résultant peut donner lieu à des matériaux moléculaires avec une organisation prévisible. Cette stratégie exige la création de nouveaux tectons, qui sont parfois difficiles à synthétiser et nécessitent dans la plupart des cas de nombreuses étapes de synthèse, ce qui empêche ou limite leur mise en application pratique. De plus, une fois formées, les liaisons unissant le corps central du tecton avec ces groupements de reconnaissance moléculaire ne peuvent plus être rompues, ce qui ne permet pas de remodeler le tecton par une procédure synthétique simple. Afin de contourner ces obstacles, nous proposons d’utiliser une stratégie hybride qui se sert de la coordination métallique pour construire le corps central du tecton, combinée avec l'utilisation des interactions plus faibles pour contrôler l'association. Nous appelons une telle entité métallotecton du fait de la présence du métal. Pour explorer cette stratégie, nous avons construit une série de ligands ditopiques comportant soit une pyridine, une bipyridine ou une phénantroline pour favoriser la coordination métallique, substitués avec des groupements diaminotriazinyles (DAT) pour permettre aux complexes de s'associer par la formation de ponts hydrogène. En plus de la possibilité de créer des métallotectons par coordination, ces ligands ditopiques ont un intérêt intrinsèque en chimie supramoléculaire en tant qu'entités pouvant s'associer en 3D et en 2D. En parallèle à notre étude de la chimie de coordination, nous avons ii examiné l'association des ligands, ainsi que celle des analogues, par la diffraction des rayons-X (XRD) et par la microscopie de balayage à effet tunnel (STM). L'adsorption de ces molécules sur la surface de graphite à l’interface liquide-solide donne lieu à la formation de différents réseaux 2D par un phénomène de nanopatterning. Pour comprendre les détails de l'adsorption moléculaire, nous avons systématiquement comparé l’organisation observée en 2D par STM avec celle favorisée dans les structures 3D déterminées par XRD. Nous avons également simulé l'adsorption par des calculs théoriques. Cette approche intégrée est indispensable pour bien caractériser l’organisation moléculaire en 2D et pour bien comprendre l'origine des préférences observées. Ces études des ligands eux-mêmes pourront donc servir de référence lorsque nous étudierons l'association des métallotectons dérivés des ligands par coordination. Notre travail a démontré que la stratégie combinant la chimie de coordination et la reconnaissance moléculaire est une méthode de construction rapide et efficace pour créer des réseaux supramoléculaires. Nous avons vérifié que la stratégie de la tectonique moléculaire est également efficace pour diriger l'organisation en 3D et en 2D, qui montre souvent une homologie importante. Nous avons trouvé que nos ligands hétérocycliques ont une aptitude inattendue à s’adsorber fortement sur la surface de graphite, créant ainsi des réseaux organisés à l'échelle du nanomètre. L’ensemble de ces résultats promet d’offrir des applications dans plusieurs domaines, dont la catalyse hétérogène et la nanotechnologie. Mots clés : tectonique moléculaire, interactions intermoléculaires, stratégie hybride, coordination métallique, diffraction des rayons-X, microscopie de balayage à effet tunnel, graphite, phénomène de nanopatterning, calculs théoriques, ponts hydrogène, chimie supramoléculaire, ligands hétérocycliques, groupements DAT, catalyse hétérogène, nanotechnologie.
Resumo:
La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.
Resumo:
L’école ne semble plus en mesure de répondre par elle-même aux besoins multidimensionnels des élèves en difficulté qui sont maintenant intégrés dans la classe ordinaire. (Cooper, 1999; Deslandes & Bertrand, 2001; Dryfoos, 1994; Greenberg, 2004; Ministère de l'Éducation du Loisir et du Sport, 2005; Paavola, 1995; Riddle & Tett, 2001; The Learning Partnership, 2004). Les équipes de soutien à l’enseignant semblent un moyen efficace d’appuyer l’enseignant et l’élève, mais cette approche est très peu utilisée dans les milieux éducatifs au Canada. Certains élèves présentant des problèmes complexes ne reçoivent pas l’appui nécessaire faute d’un manque de spécialiste à l’intérieur du cadre scolaire. Dans cette perspective, les services intégrés pourraient être une voie propice pour le travail de partenariat mais plusieurs obstacles semblent empêcher la collaboration et la coopération entre les intervenants scolaires et les partenaires de la communauté. La présente recherche a identifié un modèle qui permet d’appuyer l’enseignant dans sa pratique afin d’aider l’élève en difficulté et de le maintenir dans la classe ordinaire. Le modèle d’équipe de soutien à l’enseignant mis en œuvre dans les écoles d’un conseil francophone scolaire de l’Ontario est un modèle dérivé de Chalfant, Pysh et Moultrie (1979). Vers les années 1970, ces équipes ont été formées en vue d’offrir un appui à l’enseignant de classe ordinaire pour éviter les placements d'élèves en éducation spéciale l’intention est encore la même en 2010. Par ce modèle, nous favorisons l’entrée des services intégrés à l’intérieur du cadre scolaire et les partenaires travaillent en équipe afin de favoriser le succès scolaire des élèves. Un coordonnateur du milieu scolaire est le lien qui assure la coordination et les suivis des différentes recommandations proposées par l’équipe. Le travail de collaboration et de coopération est essentiel pour assurer le succès scolaire de l’élève. Les résultats de cette mise en œuvre nous ont permis de constater que le modèle est efficace dans l’atteinte de ses buts. D’une façon générale, les intervenants scolaires affirment se sentir effectivement appuyés par les équipes de soutien tant dans la formation, les échanges et les discussions que dans les ressources matérielles. Ce qui ressort le plus souvent de leurs propos est qu’ils apprécient la réelle collaboration et la concertation qui existent entre tous les intervenants qui assurent les suivis. Quatre-vingt-treize pour cent des répondants qui ont participé aux équipes de soutien affirment qu’il y a eu des changements positifs chez les élèves. Différents défis ont aussi été relevés. Mentionnons entre autre, la lourdeur du rôle du coordonnateur, la grandeur du territoire du Conseil (perte de temps sur la route), des cas de conflits existants entre les parents et l’école. Indépendamment de ces défis, l’application du modèle d’équipe de soutien à l’enseignant répond à l’objectif d’inclusion scolaire des élèves en difficulté tout en permettant aux enseignants de ne pas se sentir seuls ni d’être effectivement seuls à assumer ce mandat.
Resumo:
On évoque souvent des difficultés à interagir socialement chez les enfants ayant une dysphasie. Ces difficultés sont généralement attribuées aux troubles du langage, mais elles pourraient aussi provenir d’un problème à décoder les émotions des autres. Le but de la présente recherche est d’explorer cette voie chez les enfants dysphasiques de 9 à 12 ans. Différents stimuli émotionnels leur ont été présentés sous forme de vidéos ainsi qu’à des enfants d’un groupe contrôle selon cinq conditions : parole non filtrée, parole filtrée, visage dynamique, visage dynamique accompagné de la parole non filtrée, et visage dynamique avec parole filtrée. Les enfants dysphasiques et les enfants du groupe contrôle ne se comportent pas différemment de manière significative en fonction des émotions présentées et des conditions testées. Par contre, un sous-groupe d’enfants ayant une dysphasie mixte commet significativement plus d’erreurs pour l’ensemble de la tâche que le sous-groupe d’enfants sans dysphasie de même âge chronologique. En fait une part seulement des enfants dysphasiques mixtes ont des scores plus faibles. Ces mêmes enfants présentent un QI non verbal faible tandis que leur compréhension du langage est équivalente à celle de leur sous-groupe (enfants dysphasiques mixtes). Malgré ces différences significatives, les scores des enfants dysphasiques mixtes restent relativement élevés et les difficultés observées sont subtiles. Sur le plan clinique, les praticiens (orthophonistes, psychologues, éducateur) devront systématiser l’évaluation des habiletés de décodage des émotions chez l’enfant dysphasique dont les difficultés ne sont pas forcément évidentes dans la vie quotidienne. La recherche devra développer un outil de dépistage sensible aux troubles de décodage émotionnel et des stratégies thérapeutiques adaptées.
Resumo:
Les patients atteints de la maladie de Tangier présentent des niveaux très bas de lipoprotéines de haute densité (HDL), un facteur de risque pour le développement des maladies cardiovasculaires. In vivo, les HDL ont un effet protecteur important contre l’athérosclérose puisqu’elles effectuèrent le transport à rebours du cholestérol des tissus périphériques vers le foie. Or, la maladie de Tangier est causée par des mutations dans le gène du transporteur « ATP-binding cassette A1 » (ABCA1). Le modèle actuel stipule que ce transporteur assure la lipidation de l’apolipoprotéine A-I (apoA-I), la composante protéique majeure des HDL, pour former des particules HDL naissantes discoïdales. Un défaut dans la lipidation de l’apoA-I par l’ABCA1 abolit la biogénèse des HDL. Nous avons voulu étudier les sites d’interaction de l’ABCA1 avec son ligand (l’apoA-I), les voies de biogénèse impliquées, et l’implication des pré-β-HDL dans l’efflux du cholestérol par la voie de l’ABCA1. D’abord, nous avons utilisé un système de culture cellulaire (fibroblastes humaines et BHK-ABCA1-inductible) afin de déterminer les sites de liaison cellulaires de l’apoA-I, leurs localisations et l’implication de l’ABCA1. Nous avons trouvé que la majorité de l’apoA-I n’est pas associée à l’ABCA1 et, deux tiers de cet apoA-I, était à la membrane plasmique. Ensuite, Une étude plus détaillée examinait les voies de lipidation de l’apoA-I, soit au niveau de la membrane plasmique (MP), soit aux compartiments intracellulaires (CICs). Nous avons montré que la lipidation de l’apoA-I a lieu aux deux niveaux (MP et CICs) selon deux voies différentes cinétiquement. Finalement, nous avons montré que les pré-β-HDL effluent aussi (efficacement que l’apoA-I) le cholestérol par la voie de l’ABCA1. Ces observations réunies démontrent que 1) la majorité de l’apoA-I s’est trouvé non-associée à l’ABCA1; 2) deux tiers de l’apoA-I s’associent a la membrane plasmique; 3) la lipidation de l’apoA-I se fait en partie à la membrane plasmique et, par la voie de retro-endocytose du complexe apoA-I/ABCA1.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
Ce mémoire s’inscrit dans le cadre d’une recherche de développement pédagogique d’objet, destinée à des enseignants du secondaire. L’objectif porte sur la conception, et la validation auprès d’un groupe d’experts, d’une grille visant l’analyse de la qualité de situations d’apprentissage et d’évaluation en lecture (GASAEL) conçues pour des élèves de niveau secondaire en difficulté d’apprentissage, notamment ceux du parcours de formation axée sur l’emploi (PFAE). La problématique expose la nécessité chez les enseignants de trouver des réponses ajustées aux besoins d’apprentissage des élèves ciblés, dans un contexte de programmes élaborés par compétences. La situation d’apprentissage et d’évaluation (SAE) est une instrumentation pertinente, mais demeure sous-utilisée. Le cadre conceptuel, guidé par le modèle de la situation pédagogique de Legendre (2005), assure l’analyse du contexte de la SAE et permet d’identifier ses caractéristiques. Ce cadre est suivi par la méthodologie de l’Analyse de la valeur pédagogique de Roque, Langevin et Riopel (1998) exposant la procédure d’analyse des fonctions du produit, au regard des besoins des utilisateurs. L’innovation de ce produit pédagogique tient en son caractère pragmatique; il propose à la fois l’analyse de la qualité des SAE, et une référence rapide à propos des concepts porteurs d’une SAE, fournis par des exemples ou des explications.
Resumo:
« Be the change you want to see in the world [of compensation] »∗∗. Le thème de la rémunération des dirigeants d’entreprises cotées appelle à de profonds changements en raison des scandales et des déséquilibres sociaux dont elle est la cause. Face aux errements d’une entreprise managériale financiarisée, la démocratie actionnariale est souvent présentée comme la solution. En responsabilisant la cité des actionnaires, voie dans laquelle se sont engouffrés certains pays industrialisés et dont le Say on pay n’est qu’une illustration, il est attendu une moralisation des pratiques et un retour au raisonnable. Si cette réflexion d’un basculement dans la répartition des pouvoirs a incontestablement ses mérites, elle est insuffisante, parcellaire et porteuse de risques comme nous le démontrons dans ce papier. Il faut aller bien au-delà et mettre en place un nouvel équilibre des normes, des structures, des intérêts et des comportements et ce, au plan international. Ce n’est qu’à cette condition que les abus entourant la rémunération des dirigeants seront traités de manière pertinente et prendront, peut-être, fin ... Dies albo natanda lapillo∗∗∗.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Les virus du papillome humain (VPH) sont de petits virus à ADN double brin infectant les épithéliums de la peau et des muqueuses. La réplication nécessaire au maintien de leur génome dans les cellules infectées dépend des protéines virales E1 et E2. Au cours de la réplication, E1 est recrutée à l’origine de réplication par E2 afin d’être assemblée en doubles hexamères capables de dérouler l’ADN. E1 contient un domaine C-terminal responsable de l’activité ATPase/hélicase, un domaine central de liaison à l’origine et une région N-terminale régulant la réplication in vivo. Cette région contient des signaux de localisation et d’export nucléaire qui modulent le transport intracellulaire de E1. Chez le virus du papillome bovin (VPB), il a été proposé que ce transport est régulé par la sumoylation de E1. Finalement, la région N-terminale de E1 contient un motif de liaison aux cyclines permettant son interaction avec la cycline E/A-Cdk2. La phosphorylation de E1 par cette dernière régule différemment l’export nucléaire des protéines E1 du VPB et du VPH. Dans la première partie de cette étude, nous avons démontré que bien que la protéine E1 des VPH interagit avec Ubc9, l’enzyme de conjugaison de la voie de sumoylation, cette voie n’est pas requise pour son accumulation au noyau. Dans la seconde partie, nous avons déterminé que l’accumulation nucléaire de E1 est plutôt régulée pas sa phosphorylation. En fait, nous avons démontré que l’export nucléaire de E1 est inhibé par la phosphorylation de sérines conservées de la région N-terminale de E1 par Cdk2. Puis, nous avons établi que l’export nucléaire de E1 n’est pas nécessaire à l’amplification du génome dans les kératinocytes différenciés mais qu’il est requis pour le maintien du génome dans les kératinocytes non différenciés. En particulier, nous avons découvert que l’accumulation nucléaire de E1 inhibe la prolifération cellulaire en induisant un arrêt du cycle cellulaire en phase S et que cet effet anti-prolifératif est contrecarrée par l’export de E1 au cytoplasme. Dans la troisième partie de cette étude, nous avons démontré que l’arrêt cellulaire induit par E1 dépend de sa liaison à l’ADN et à l’ATP, et qu’il est accompagné par l’activation de la voie de réponse aux dommages à l’ADN dépendante de ATM (Ataxia Telangiectasia Mutated). Ces deux événements semblent toutefois distincts puisque la formation d’un complexe E1-E2 réduit l’activation de la voie de réponse aux dommages par E1 sans toutefois prévenir l’arrêt de cycle cellulaire. Finalement, nous avons démontré que la réplication transitoire de l’ADN viral peut avoir lieu dans des cellules arrêtées en phase S, indépendamment de l’activation de la voie de réponse aux dommages à l’ADN et de la kinase ATM. Globalement, nos résultats démontrent que l’export nucléaire de E1 est régulé par sa phosphorylation et non par sa sumoylation. Ils démontrent également que l’export nucléaire de E1 est essentiel au maintien du génome dans les kératinocytes, possiblement parce qu’il prévient l’inhibition de la prolifération cellulaire et l’activation de la voie de réponse aux dommages à l’ADN en limitant l’accumulation de E1 au noyau.
Resumo:
L’autophagie est un processus cellulaire catabolique qui a été conservé durant l’évolution de la levure à l’homme. Cet important mécanisme consiste en une dégradation des composants cytoplasmiques dans une structure lytique, le lysosome. Il existe trois types de l’autophagie : la microautophagie, l’autophagie médiée par les chaperones et la macroautophagie nommée « autophagie ». Il a été démontré que lors de l’autophagie, le matériel cytoplasmique (protéines cytosoliques et organites) est séquestré dans l’autophagosome qui finit par fusionner avec le lysosome, formant ainsi l’autophagolysosome. Le matériel séquestré et la membrane interne de l’autophagosome seront dégradés par les hydrolases lysosomales. Plusieurs études se sont focalisées sur la détermination de la machinerie moléculaire et les mécanismes de l’autophagie. Il a été démontré l’implication de 31 molécules Atg essentielles dans le processus de l’autophagie. L’identification de ces protéines a permis de déceler le rôle de l’autophagie non seulement dans le maintien de l’homéostasie cellulaire mais aussi dans la défense contre les agents pathogènes. En effet, l’autophagie joue un rôle important dans l’immunité innée conduisant à contrôler l’évasion des pathogènes dont les bactéries et les virus. Également, l’autophagie est impliquée dans l’immunité adaptative en favorisant la présentation des antigènes viraux par le CMH de classe II aux cellules T CD4+. De plus, une étude récente suggère que l’autophagie contribue à la présentation antigénique par le CMH de classe I aux cellules T CD8+ durant une infection virale par le virus HSV-1 (Herpes simplex type 1). Toutefois, certains virus y compris HSV-1 ont pu développer des mécanismes pour contourner et inhiber en partie le rôle protecteur de l’autophagie. Récemment, une étude dans notre laboratoire a mis en évidence, lors d’une infection virale par HSV-1 des cellules macrophages BMA, la présence d’une nouvelle structure autophagique dans une phase tardive de l’infection. Cette nouvelle structure est différente des autophagosomes classiques à double membrane et est caractérisée morphologiquement par quatre membranes dérivées de l’enveloppe nucléaire interne et externe. Peu de choses ont été rapportées sur cette nouvelle voie autophagique qui peut être un mécanisme de défense cellulaire quand l’autophagie classique dans le cytosol est inhibée par HSV-1. Il devient donc intéressant de caractériser les molécules impliquées dans la formation de ces autophagosomes issus du noyau par spectrométrie de masse. Pour ce faire, il était impératif d’établir un outil d’isolation des noyaux à partir de macrophages infectés par HSV-1 dans lesquels les autophagosomes issus des noyaux seront formés. La validation de cette méthode d’isolation a été effectuée en déterminant la pureté et l’intégrité des noyaux isolés à partir des cellules non infectées (contrôle) et infectées par HSV-1. La pureté des préparations de noyaux isolés a été caractérisée par l’absence de contaminants cellulaires et un enrichissement en noyaux. Également, il a fallu déterminer la cinétique de formation des autophagosomes issus des noyaux pour les deux lignées cellulaires de macrophages utilisées dans ce projet. Dans une perspective future, l’analyse protéomique à partir des échantillons purs des noyaux isolés (non infectés et infectés) mènera à identifier les protéines impliquées dans la formation des autophagosomes dérivés des noyaux, ce qui permettra ultérieurement d’effectuer des études sur les mécanismes moléculaires et les fonctions de cette nouvelle voie autophagique.
Resumo:
Le diabète auto-immun résulte de la destruction des cellules bêta pancréatiques sécrétrices d’insuline par les lymphocytes T du système immunitaire. Il s’ensuit une déficience hormonale qui peut être comblée par des injections quotidiennes d’insuline d’origine exogène, toutefois il demeure à ce jour impossible de guérir les patients atteints de la maladie. De façon générale, un système immunitaire sain reconnaît une multitude d’antigènes différents et assure ainsi notre défense à l’égard de différents pathogènes ou encore de cellules tumorales. Il arrive cependant que, pour des raisons génétiques et/ou environnementales, les lymphocytes T puissent s’activer de façon aberrante suite à la reconnaissance d’antigènes provenant du soi. C’est ce bris de tolérance qui mène au développement de pathologies auto-immunes telles que le diabète auto-immun. Afin de limiter l’auto-immunité, des mécanismes de sélection stricts permettent d’éliminer la majorité des lymphocytes T présentant une forte affinité envers des antigènes du soi lors de leur développement dans le thymus. Certains de ces lymphocytes réussissent toutefois à échapper à l’apoptose et migrent en périphérie afin d’y circuler en quête d’un antigène spécifiquement reconnu. Il est alors primordial que des mécanismes périphériques assurent le maintien de la tolérance immunitaire en faisant obstacle à l’activation et à la prolifération des lymphocytes T auto-réactifs. L’une des avenues afin d’inhiber le développement de réponses immunitaires aberrantes est la génération de lymphocytes T régulateurs. Ces cellules, d’origine thymique ou périphérique, peuvent arborer différents phénotypes et agissent via de multiples mécanismes afin d’inactiver et/ou éliminer les cellules impliquées dans l’apparition de pathologies auto-immunes. L’utilisation de modèles murins transgéniques a permis la mise en évidence d’une population peu caractérisée de lymphocytes T au potentiel régulateur. En effet, la proportion de ces cellules T n’exprimant pas les corécepteurs CD4 et CD8 (double négatives, DN) a été inversement corrélée à la prédisposition à l’auto-immunité chez ces ii souris. L’objectif principal de cette thèse est de démontrer la fonction immuno-régulatrice des lymphocytes T DN, tout en investiguant les facteurs génétiques responsables du maintien de cette population cellulaire. Nous avons observé que les lymphocytes T DN exercent une activité cytotoxique à l’égard des lymphocytes B de façon spécifique à l’antigène, via la libération de granules cytolytiques contenant du granzyme B et de la perforine. Par ailleurs, nous avons établi qu’un unique transfert adoptif de ces cellules est suffisant afin d’inhiber le développement du diabète auto-immun chez des hôtes transgéniques prédisposés à la maladie. Le recours à des souris déficientes pour l’expression du gène CD47 a permis de constater que la voie de signalisation CD47-Sirp est essentielle dans le maintien de la proportion des lymphocytes T DN. De plus, le locus murin de prédisposition au diabète auto-immun Idd13, qui contient le gène Sirp, a été identifié pour son rôle dans la régulation de la proportion de ces cellules. Finalement, une analyse génétique a révélé que d’autres intervalles génétiques sont impliqués dans le contrôle de la population des lymphocytes T DN. Parmi ceux-ci, un locus situé en région proximale du chromosome 12 a été validé grâce à la création de souris congéniques. Grâce aux résultats présentés dans cette thèse, notre compréhension de la biologie ainsi que de la régulation des lymphocytes T DN est approfondie. Ces connaissances constituent un pas important vers la création de thérapies cellulaires novatrices permettant de prévenir et de guérir diverses pathologies auto-immunes.
Resumo:
Candida albicans est une levure pathogène qui, à l’état commensal, colonise les muqueuses de la cavité orale et du tractus gastro-intestinal. De nature opportuniste, C. albicans cause de nombreuses infections, allant des candidoses superficielles (muguet buccal, vulvo-vaginite) aux candidoses systémiques sévères. C. albicans a la capacité de se développer sous diverses morphologies, telles que les formes levures, pseudohyphes et hyphes. Des stimuli environnementaux mimant les conditions retrouvées chez l’hôte (température de 37°C, pH neutre, présence de sérum) induisent la transition levure-à-hyphe (i.e. morphogenèse ou filamentation). Cette transition morphologique contribue à la pathogénicité de C. albicans, du fait que des souches présentant un défaut de filamentation sont avirulentes. Non seulement la morphogenèse est un facteur de virulence, mais elle constituerait aussi une cible pour le développement d’antifongiques. En effet, il a déjà été démontré que l’inhibition de la transition levure-à-hyphe atténuait la virulence de C. albicans lors d’infections systémiques. Par ailleurs, des études ont démontré que de nombreuses molécules pouvaient moduler la morphogenèse. Parmi ces molécules, certains acides gras, dont l’acide linoléique conjugué (CLA), inhibent la formation d’hyphes. Ainsi, le CLA posséderait des propriétés thérapeutiques, du fait qu’il interfère avec un déterminant de pathogénicité de C. albicans. Par contre, avant d’évaluer son potentiel thérapeutique dans un contexte clinique, il est essentiel d’étudier son mode d’action. Ce projet vise à caractériser l’activité anti-filamentation des acides gras et du CLA et à déterminer le mécanisme par lequel ces molécules inhibent la morphogenèse chez C. albicans. Des analyses transcriptomiques globales ont été effectuées afin d’obtenir le profil transcriptionnel de la réponse de C. albicans au CLA. L’acide gras a entraîné une baisse des niveaux d’expression de gènes encodant des protéines hyphes-spécifiques et des régulateurs de morphogenèse, dont RAS1. Ce gène code pour la GTPase Ras1p, une protéine membranaire de signalisation qui joue un rôle important dans la transition levure-à-hyphe. Des analyses de PCR quantitatif ont confirmé que le CLA inhibait l’induction de RAS1. De plus, le CLA a non seulement causé une baisse des niveaux cellulaires de Ras1p, mais a aussi entraîné sa délocalisation de la membrane plasmique. En affectant les niveaux et la localisation cellulaire de Ras1p, le CLA nuit à l’activation de la voie de signalisation Ras1p-dépendante, inhibant ainsi la morphogenèse. Il est possible que le CLA altère la structure de la membrane plasmique et affecte indirectement la localisation membranaire de Ras1p. Ces travaux ont permis de mettre en évidence le mode d’action du CLA. Le potentiel thérapeutique du CLA pourrait maintenant être évalué dans un contexte d’infection, permettant ainsi de vérifier qu’une telle approche constitue véritablement une stratégie pour le traitement des candidoses.
Resumo:
Depuis les dernières années, les marchés financiers ont été marqués par une volonté des investisseurs, dont les fonds d’investissement privés, de privatiser des sociétés publiques. Plusieurs fermetures de capital se sont matérialisées par des acquisitions par voie d’emprunt (aussi connues sous le nom « leverage buy-out »), en raison notamment des taux d’intérêt peu élevés, d’un crédit plus accessible et d’un certain resserrement de la réglementation applicable aux sociétés publiques. S’inscrivant dans ce contexte, le présent mémoire de maîtrise s’intéresse particulièrement à l’impact des jugements rendus dans le cadre du litige relatif à l’offre d’acquisition par voie d’emprunt de BCE inc. sur les conceptions traditionnelles des devoirs des administrateurs. Dans cette affaire, les détenteurs de débentures de la filiale à part entière de BCE inc., Bell Canada, se sont vigoureusement opposés à cette acquisition. Cette transaction, d’une envergure sans précédent dans l’histoire du Canada, a été scrutée jusqu’à la plus haute instance décisionnelle au pays quant à son caractère raisonnable et équitable et à son effet potentiellement oppressif envers les détenteurs de débentures. Cette étude abordera d’abord l’évolution de la jurisprudence du Delaware sur les devoirs des administrateurs, dans le contexte d’un changement de contrôle, juridiction phare en droit des sociétés aux États-Unis et source d’inspiration marquée en droit canadien. Ensuite, nous nous attarderons sur la position du droit canadien et sur un arrêt marquant rendu par la Cour suprême du Canada, dans l’affaire Peoples. Sur cette toile de fond, cette analyse sera complétée par un examen des motifs des décisions rendues par les trois instances judiciaires dans l’affaire BCE et une réflexion sur l’impact de ces décisions sur le droit des sociétés au Canada.