999 resultados para Pour Thru method
Resumo:
Cette recherche explore le Théâtre-forum comme support méthodologie d’un espace délibératif pour discuter des tensions sociales liées à la coprésence au centre-ville de Montréal entre des personnes en situation de rue et leurs voisins domiciliés. L’argument au cœur de la problématique repose sur les taches aveugles de la délibération: dans les forums de quartier, les inégalités sociales se traduisent par des inégalités délibératives au désavantage des personnes sans adresse en défaut d’autorité épistémologique en raison de leur statut; ces inégalités délibératives reproduisent le déni de reconnaissance qui traverse l’expérience relationnelle de ces personnes. Le Théâtre-forum est issu du Théâtre de l’opprimé : une pratique d’intervention théâtrale conçue par Augusto Boal durant la dictature au Brésil comme dispositif émancipateur pour les groupes opprimés. Le Joker incite les membres de l’auditoire à devenir Spect-acteurs par les remplacements du protagoniste, et ce, afin de surmonter son oppression. Ainsi, cette projection dans les chaussures du protagoniste-itinérant facilite-t-elle ce passage de l’indignité à la reconnaissance pour les personnes en situation de rue? L’échange théâtral peut-il ouvrir la voie vers la reconstruction d’un lien intersubjectif entre personnes sans adresse et domiciliés, intersubjectivité qui au cœur-même des vertus délibératives et des principes fondateurs défendus par les théoriciens de la reconnaissance comme Honneth et Renault?
Resumo:
Introduction : La force d’adhésion à l'interface métal-céramique avec les résines auto-polymérisantes destinées au collage indirect des boîtiers orthodontiques n'a pas été évaluée à ce jour et un protocole clinique basé sur la littérature scientifique est inexistant. Objectifs : 1) Comparer la force de cisaillement maximale entre des boîtiers métalliques et des surfaces en porcelaine préparées selon différentes méthodes; 2) Suggérer un protocole clinique efficace et prévisible. Matériel et méthodes : Quatre-vingt-dix disques en leucite (6 groupes; n = 15/groupe) ont été préparés selon 6 combinaisons de traitements de surface : mécaniques (+ / - fraisage pour créer les rugosités) et chimiques (acide fluorhydrique, apprêt, silane). Des bases en résine composite Transbond XT (3M Unitek, Monrovia, California) faites sur mesure ont été collées avec le système de résine adhésive auto-polymérisante Sondhi A + B Rapid Set (3M Unitek, Monrovia, California). Les échantillons ont été préservés (H2O/24hrs), thermocyclés (500 cycles) et testés en cisaillement (Instron, Norwood, Massachusetts). Des mesures d’Index d’adhésif résiduel (IAR) ont été compilées. Des tests ANOVAs ont été réalisés sur les rangs étant donné que les données suivaient une distribution anormale et ont été ajustés selon Tukey. Un Kruskall-Wallis, U-Mann Whitney par comparaison pairée et une analyse de Weibull ont aussi été réalisés. Résultats : Les médianes des groupes varient entre 17.0 MPa (- fraisage + acide fluorhydrique) à 26.7 MPa (- fraisage + acide fluorhydrique + silane). Le fraisage en surface ne semble pas affecter l’adhésion. La combinaison chimique (- fraisage + silane + apprêt) a démontré des forces de cisaillement significativement plus élevées que le traitement avec (- fraisage + acide fluorhydrique), p<0,05, tout en possédant des forces similaires au protocole typiquement suggéré à l’acide fluorhydrique suivi d’une application de silane, l’équivalence de (- fraisage + acide fluorhydrique + silane). Les mesures d’IAR sont significativement plus basses dans le groupe (- fraisage + acide fluorhydrique) en comparaison avec celles des 5 autres groupes, avec p<0,05. Malheureusement, ces 5 groupes ont des taux de fracture élévés de 80 à 100% suite à la décimentation des boîtiers. Conclusion : Toutes les combinaisons de traitement de surface testées offrent une force d’adhésion cliniquement suffisante pour accomplir les mouvements dentaires en orthodontie. Une application de silane suivie d’un apprêt est forte intéressante, car elle est simple à appliquer cliniquement tout en permettant une excellente adhésion. Il faut cependant avertir les patients qu’il y a un risque de fracture des restorations en céramique lorsque vient le moment d’enlever les broches. Si la priorité est de diminuer le risque d’endommager la porcelaine, un mordançage seul à l’acide hydrofluorique sera suffisant.
Resumo:
La dystrophie musculaire de Duchenne (DMD) est une maladie très sévère, progressive et sans traitement vraiment efficace. Elle est caractérisée par l’absence fonctionnelle de la dystrophine, une protéine essentielle au maintien des muscles squelettiques. La thérapie génique est actuellement envisagée comme approche thérapeutique pour livrer la dystrophine dans les muscles. Les vecteurs adénoviraux de troisième génération (Helper-dependent adenoviral vector, HD) sont des véhicules de transfert génique très prometteurs pour traiter la DMD. Puisque les gènes adénoviraux ont été enlevés complètement du HD, ils sont peu toxiques, faiblement immunogéniques et ils possèdent un espace cargo suffisant pour transporter l’ADN codant complet de la dystrophine. Bien que le HD puisse fournir la dystrophine de façon thérapeutique chez des souris dystrophiques (mdx), l’expression du gène thérapeutique est progressivement perdue plusieurs mois suivant l’injection intramusculaire. Deux stratégies innovantes furent explorées dans cette thèse dans le but de stabiliser l’expression de la dystrophine. La première stratégie vise à l’intégration de l’ADN du HD dans les chromosomes cellulaires, ce qui pourrait le protéger contre son élimination progressive des muscles. Une intégrase site-spécifique issue du phage ΦC31 a été utilisée pour catalyser l’intégration d’un HD transportant un marqueur de sélection. Dans les cellules humaines et les myoblastes murins, l’activité de l’intégrase a été évaluée d’après son efficacité d’intégration (après sélection) et sa spécificité (dans les clones résistants). L’efficacité atteint jusqu’à 0,5 % par cellule et jusqu’à 76 % des événements d’intégration ont été réalisés de façon site-spécifique. Bien que des délétions aient été trouvées aux extrémités du vecteur, 70 % des clones analysés montraient une seule copie du vecteur intégré (le nombre attendu). Seulement une petite augmentation du nombre de brisures double-brin a été mesurée dans les myoblastes exprimant l’intégrase. En conclusion, l’intégration du HD est relativement efficace, spécifique et sécuritaire. Cette méthode est très prometteuse, car la dystrophine peut être livrée dans le muscle avec l’aide du HD et l’intégration de l’ADN du HD pourrait stabiliser son expression in vivo. La deuxième stratégie implique l’utilisation d’un nouveau promoteur musculospécifique (ΔUSEx3) pour réduire la toxicité induite liée à une expression trop étendue de la dystrophine. Dans cette étude, nous avons investigué l’effet du contexte viral sur l’activité du promoteur. Un HD et un vecteur lentiviral (LV) ont été construits avec le promoteur ΔUSEx3 pour contrôler l’expression d’un gène rapporteur. Les résultats démontrent que ΔUSEx3 confère une expression puissante, musculospécifique et stable (via le LV) in vitro. L’injection intramusculaire du HD a conduit à une expression puissante du transgène. Ces résultats contrastent avec ceux du LV, car après l’injection de ce dernier, l’expression était faible. La livraison du HD dans le muscle, mais aussi dans plusieurs organes démontre la musculospécificité de ΔUSEx3. Par conséquent, le contexte du vecteur et l’environnement musculaire modulent tous les deux l’activité de ΔUSEx3. Bien que ΔUSEx3 soit musculospécifique, d’autres études sont requises pour déterminer si le promoteur peut stabiliser l’expression de la dystrophine in vivo.
Resumo:
Ce mémoire a pour objet d’étude la notion du rapport aux savoirs historiques des élèves de l’ordre secondaire. Plus précisément, il sera question des relations existant entre la conception qu’entretiennent les élèves de l’histoire et du métier de l’historien, leur conception de l’action humaine dans l’histoire et leur sentiment d’être eux-mêmes, aujourd’hui, des acteurs politiques effectifs. Ce sujet est ancré dans le contexte de l’introduction des prescriptions en matière d’éducation à la citoyenneté dans le programme d’histoire de niveau secondaire. Cet ajout a pour conséquence d’introduire de nouveaux objectifs en matière d’éducation à la citoyenneté : l’élève, par l’étude de l’évolution démocratique, doit être amené à comprendre le rôle de l’action humaine dans l’histoire, lui faisant ainsi comprendre la valeur de sa propre participation à la vie sociale et politique. Cela étant dit, les recherches montrent que les enseignants et les enseignantes tardent à adopter la terminologie propre aux compétences du programme de formation en histoire et éducation à la citoyenneté et perpétuent un enseignement de l’histoire-récit qui fait la part belle aux grands évènements et aux grands hommes (Bouhon, 2009; Moisan, 2011). De plus, les manuels utilisés laissent peu de place aux individus ou aux groupes d’individus agissants et présentent rarement leurs actions de manière à rendre compte de leur efficacité (Éthier, 2001; Lefrançois, Éthier et Demers, 2011). Enfin, les recherches montrent que les élèves sont enclins à expliquer les changements à l’aide d’une histoire personnalisante, occupée principalement par les grands hommes et les hauts faits de l’histoire politique et militaire (Hallden, 1986 ; Carretero, Jacott, Limon, Lopez-Manjon et Leon, 1994 ; Carretero, Asuncion et Jacott, 1997 ; Tutiaux-Guillon et Fourmond, 1998). En explorant les conséquences complexes de ces différents constats, nous avons ressenti une insatisfaction à l’égard de la capacité d’explication de ce phénomène qu’offrait le champ conceptuel de didactique de l’histoire. Par conséquent, ce mémoire portera sur le transfert de la notion de rapport au savoir au domaine de la didactique de l’histoire à partir de la sociologie et de l’anthropologie. Le modèle théorique proposé a été obtenu grâce à une recherche spéculative qui a été inspirée des méthodes de Martineau, Simard et Gauthier (2001) et de Van der Maren (1996).
Resumo:
Contexte De nombreuses études, utilisant des indicateurs de qualité variés, ont démontré que la qualité des soins pour la dépression n’est pas optimale en première ligne. Peu de ces études ont examiné les facteurs associés à la réception d’un traitement adéquat, en particulier en tenant compte simultanément des caractéristiques individuelles et organisationnelles. L'association entre un traitement adéquat pour un épisode dépressif majeur (EDM) et une amélioration des symptômes dépressifs n'est pas bien établie dans des conditions non-expérimentales. Les objectifs de cette étude étaient de : 1) réaliser une revue systématique des indicateurs mesurant la qualité du traitement de la dépression en première ligne ; 2) estimer la proportion de patients souffrant d’EDM qui reçoivent un traitement adéquat (selon les guides de pratique clinique) en première ligne ; 3) examiner les caractéristiques individuelles et organisationnelles associées à l’adéquation du traitement pour la dépression ; 4) examiner l'association entre un traitement minimalement adéquat au cours des 12 mois précédents et l'évolution des symptômes dépressifs à 6 et 12 mois. Méthodes La littérature sur la qualité du traitement de la dépression a été examinée en utilisant un ensemble de mots-clés (« depression », « depressive disorder », « quality », « treatment », « indicator », « adequacy », « adherence », « concordance », « clinical guideline » et « guideline ») et « 360search », un moteur de recherche fédérée. Les données proviennent d'une étude de cohorte incluant 915 adultes consultant un médecin généraliste, quel que soit le motif de consultation, répondant aux critères du DSM-IV pour l’EDM dans la dernière année, nichés dans 65 cliniques de première ligne au Québec, Canada. Des analyses multiniveaux ont été réalisées. Résultats Bien que majoritairement développés à partir de guides de pratique clinique, une grande variété d'indicateurs a été observée dans la revue systématique de littérature. La plupart des études retenues ont utilisé des indicateurs de qualité rudimentaires, surtout pour la psychothérapie. Les méthodes utilisées étaient très variées, limitant la comparabilité des résultats. Toutefois, quelque soit la méthode choisie, la plupart des études ont révélé qu’une grande proportion des personnes souffrant de dépression n’ont pas reçu de traitement minimalement adéquat en première ligne. Dans notre échantillon, l’adéquation était élevée (> 75 %) pour un tiers des indicateurs de qualité mesurés, mais était faible (< 60 %) pour près de la moitié des mesures. Un peu plus de la moitié de l'échantillon (52,2 %) a reçu au moins un traitement minimalement adéquat pour la dépression. Au niveau individuel, les jeunes adultes (18-24 ans) et les personnes de plus de 65 ans avaient une probabilité moins élevée de recevoir un traitement minimalement adéquat. Cette probabilité était plus élevée pour ceux qui ont un médecin de famille, une assurance complémentaire, un trouble anxieux comorbide et une dépression plus sévère. Au niveau des cliniques, la disponibilité de la psychothérapie sur place, l'utilisation d'algorithmes de traitement, et le mode de rémunération perçu comme adéquat étaient associés à plus de traitement adéquat. Les résultats ont également montré que 1) la réception d'au moins un traitement minimalement adéquat pour la dépression était associée à une plus grande amélioration des symptômes dépressifs à 6 et à 12 mois; 2) la pharmacothérapie adéquate et la psychothérapie adéquate étaient toutes deux associées à de plus grandes améliorations dans les symptômes dépressifs, et 3) l'association entre un traitement adéquat et l'amélioration des symptômes dépressifs varie en fonction de la sévérité des symptômes au moment de l'inclusion dans la cohorte, un niveau de symptômes plus élevé étant associé à une amélioration plus importante à 6 et à 12 mois. Conclusions Nos résultats suggèrent que des interventions sont nécessaires pour améliorer la qualité du traitement de la dépression en première ligne. Ces interventions devraient cibler des populations spécifiques (les jeunes adultes et les personnes âgées), améliorer l'accessibilité à la psychothérapie et à un médecin de famille, et soutenir les médecins de première ligne dans leur pratique clinique avec des patients souffrant de dépression de différentes façons, telles que le développement des connaissances pour traiter la dépression et l'adaptation du mode de rémunération. Cette étude montre également que le traitement adéquat de la dépression en première ligne est associé à une amélioration des symptômes dépressifs dans des conditions non-expérimentales.
Resumo:
Les objets d’étude de cette thèse sont les systèmes d’équations quasilinéaires du premier ordre. Dans une première partie, on fait une analyse du point de vue du groupe de Lie classique des symétries ponctuelles d’un modèle de la plasticité idéale. Les écoulements planaires dans les cas stationnaire et non-stationnaire sont étudiés. Deux nouveaux champs de vecteurs ont été obtenus, complétant ainsi l’algèbre de Lie du cas stationnaire dont les sous-algèbres sont classifiées en classes de conjugaison sous l’action du groupe. Dans le cas non-stationnaire, une classification des algèbres de Lie admissibles selon la force choisie est effectuée. Pour chaque type de force, les champs de vecteurs sont présentés. L’algèbre ayant la dimension la plus élevée possible a été obtenues en considérant les forces monogéniques et elle a été classifiée en classes de conjugaison. La méthode de réduction par symétrie est appliquée pour obtenir des solutions explicites et implicites de plusieurs types parmi lesquelles certaines s’expriment en termes d’une ou deux fonctions arbitraires d’une variable et d’autres en termes de fonctions elliptiques de Jacobi. Plusieurs solutions sont interprétées physiquement pour en déduire la forme de filières d’extrusion réalisables. Dans la seconde partie, on s’intéresse aux solutions s’exprimant en fonction d’invariants de Riemann pour les systèmes quasilinéaires du premier ordre. La méthode des caractéristiques généralisées ainsi qu’une méthode basée sur les symétries conditionnelles pour les invariants de Riemann sont étendues pour être applicables à des systèmes dans leurs régions elliptiques. Leur applicabilité est démontrée par des exemples de la plasticité idéale non-stationnaire pour un flot irrotationnel ainsi que les équations de la mécanique des fluides. Une nouvelle approche basée sur l’introduction de matrices de rotation satisfaisant certaines conditions algébriques est développée. Elle est applicable directement à des systèmes non-homogènes et non-autonomes sans avoir besoin de transformations préalables. Son efficacité est illustrée par des exemples comprenant un système qui régit l’interaction non-linéaire d’ondes et de particules. La solution générale est construite de façon explicite.
Resumo:
Dans une séquence d'arrêts rendus à partir de 1996, la Cour suprême du Canada établit que les recours pour « atteinte illicite » prévus à l'article 49 de la Charte des droits et libertés de la personne doivent être soumis au régime de responsabilité civile de droit commun. La Cour suprême indique à cette occasion que, pour qu’il y ait atteinte illicite à un droit, la violation de ce droit devra être qualifiée de fautive. Cette qualification pourra être démontrée par « la transgression d’une norme de conduite jugée raisonnable dans les circonstances selon le droit commun » ou, « comme c’est le cas pour certains droits », lorsqu’un comportement transgresse « […] une norme dictée par la Charte elle-même ». Dans le premier cas, la notion de faute absorbe la notion d’illicéité, alors que dans le deuxième cas elle se dissout dans l’illicite (ce qui en fait une faute objective in abstracto). Or, dans ce dernier cas, la Cour suprême du Canada, en 2008, dans l’arrêt Ciment du Saint-Laurent, a indiqué que la faute constitue une obligation de moyens, qui s’évalue selon le critère de la personne prudente et diligente. Il ne peut donc s’agir d’une obligation de résultats. Il serait donc maintenant difficile de concilier cette caractérisation de la faute avec la politique adoptée par la Cour suprême en matière de Charte. Puisque le texte de la Charte contient lui-même les conditions matérielles et formelles dans lesquelles il sera possible de conclure à l’existence d’une atteinte illicite, il serait souhaitable, aux fins d’assurer la cohérence du droit, que la méthode de convergence des recours entre le Code et la Charte soit délaissée afin de reconnaître la pleine autonomie matérielle des recours prévus à la Charte, ce qui, du même coup, aurait pour effet de ne pas dénaturer la notion de faute. De plus, alors que la Cour suprême établissait dans ces arrêts qu’une atteinte illicite ne comporte pas un préjudice en soi, l’auteure soutien que le dommage causé à un droit comporte toujours un préjudice inhérent, que le droit se doit de sanctionner.
Resumo:
La modélisation de l’expérience de l’utilisateur dans les Interactions Homme-Machine est un enjeu important pour la conception et le développement des systèmes adaptatifs intelligents. Dans ce contexte, une attention particulière est portée sur les réactions émotionnelles de l’utilisateur, car elles ont une influence capitale sur ses aptitudes cognitives, comme la perception et la prise de décision. La modélisation des émotions est particulièrement pertinente pour les Systèmes Tutoriels Émotionnellement Intelligents (STEI). Ces systèmes cherchent à identifier les émotions de l’apprenant lors des sessions d’apprentissage, et à optimiser son expérience d’interaction en recourant à diverses stratégies d’interventions. Cette thèse vise à améliorer les méthodes de modélisation des émotions et les stratégies émotionnelles utilisées actuellement par les STEI pour agir sur les émotions de l’apprenant. Plus précisément, notre premier objectif a été de proposer une nouvelle méthode pour détecter l’état émotionnel de l’apprenant, en utilisant différentes sources d’informations qui permettent de mesurer les émotions de façon précise, tout en tenant compte des variables individuelles qui peuvent avoir un impact sur la manifestation des émotions. Pour ce faire, nous avons développé une approche multimodale combinant plusieurs mesures physiologiques (activité cérébrale, réactions galvaniques et rythme cardiaque) avec des variables individuelles, pour détecter une émotion très fréquemment observée lors des sessions d’apprentissage, à savoir l’incertitude. Dans un premier lieu, nous avons identifié les indicateurs physiologiques clés qui sont associés à cet état, ainsi que les caractéristiques individuelles qui contribuent à sa manifestation. Puis, nous avons développé des modèles prédictifs permettant de détecter automatiquement cet état à partir des différentes variables analysées, à travers l’entrainement d’algorithmes d’apprentissage machine. Notre deuxième objectif a été de proposer une approche unifiée pour reconnaître simultanément une combinaison de plusieurs émotions, et évaluer explicitement l’impact de ces émotions sur l’expérience d’interaction de l’apprenant. Pour cela, nous avons développé une plateforme hiérarchique, probabiliste et dynamique permettant de suivre les changements émotionnels de l'apprenant au fil du temps, et d’inférer automatiquement la tendance générale qui caractérise son expérience d’interaction à savoir : l’immersion, le blocage ou le décrochage. L’immersion correspond à une expérience optimale : un état dans lequel l'apprenant est complètement concentré et impliqué dans l’activité d’apprentissage. L’état de blocage correspond à une tendance d’interaction non optimale où l'apprenant a de la difficulté à se concentrer. Finalement, le décrochage correspond à un état extrêmement défavorable où l’apprenant n’est plus du tout impliqué dans l’activité d’apprentissage. La plateforme proposée intègre trois modalités de variables diagnostiques permettant d’évaluer l’expérience de l’apprenant à savoir : des variables physiologiques, des variables comportementales, et des mesures de performance, en combinaison avec des variables prédictives qui représentent le contexte courant de l’interaction et les caractéristiques personnelles de l'apprenant. Une étude a été réalisée pour valider notre approche à travers un protocole expérimental permettant de provoquer délibérément les trois tendances ciblées durant l’interaction des apprenants avec différents environnements d’apprentissage. Enfin, notre troisième objectif a été de proposer de nouvelles stratégies pour influencer positivement l’état émotionnel de l’apprenant, sans interrompre la dynamique de la session d’apprentissage. Nous avons à cette fin introduit le concept de stratégies émotionnelles implicites : une nouvelle approche pour agir subtilement sur les émotions de l’apprenant, dans le but d’améliorer son expérience d’apprentissage. Ces stratégies utilisent la perception subliminale, et plus précisément une technique connue sous le nom d’amorçage affectif. Cette technique permet de solliciter inconsciemment les émotions de l’apprenant, à travers la projection d’amorces comportant certaines connotations affectives. Nous avons mis en œuvre une stratégie émotionnelle implicite utilisant une forme particulière d’amorçage affectif à savoir : le conditionnement évaluatif, qui est destiné à améliorer de façon inconsciente l’estime de soi. Une étude expérimentale a été réalisée afin d’évaluer l’impact de cette stratégie sur les réactions émotionnelles et les performances des apprenants.
Resumo:
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
Resumo:
Les récepteurs couplés aux protéines G (RCPG) constituent la plus grande famille de protéines membranaires du génome humain. Ils transmettent les signaux extracellulaires provenant de plusieurs stimuli comme les odeurs, les ions, les hormones et les neurotransmetteurs, à l'intérieur des cellules. En se liant aux RCPGs, ces molécules contribuent à la stabilisation des changements conformationnels activateurs qui se propagent jusqu'au domaine intracellulaire des récepteurs. Ces derniers engagent ensuite un ou plusieurs effecteurs, comme les protéines G hétérotrimériques et les β-arrestines (βarrs), qui activent une cascade d'événements moléculaires menant à la réponse cellulaire.Récemment, la publication de structures cristallines de RCPGs liant des ligands diffusibles a offert une opportunité de raffiner à une résolution atomique les modèles des mécanismes de transduction des signaux. Dans la première partie de cette thèse, nous avons donc exploré les déterminants de la signalisation du récepteur prototypique β2-adrénergique (β2AR), induite par les β-bloqueurs. En ne tenant compte que de leur efficacités sur le β2AR dans les voies de l'adénylate cyclase (AC) et des protéines kinases activées par les facteurs mitogéniques (MAPK), les β-bloqueurs peuvent être classés en 3 groupes distincts (agoniste inverse AC / agoniste MAPK, antagoniste neutre AC / agoniste MAPK et agoniste inverse AC / agoniste inverse MAPK). Afin de déterminer le lien entre leur efficacité et leur mode de liaison, nous avons réalisé des expériences d'arrimages moléculaires in silico entre des β-bloqueurs de chacun des groupes et la structure cristalline du β2AR liée au carazolol. De manière intéressante, les ligands à l'intérieur d'un groupe partagent un mode de liaison, alors que ceux des ligands entre les groupes divergent, suggérant que le mode de liaison des β-bloqueurs pourrait être utilisé pour prédire leur l'efficacité. En accord avec cette hypothèse, nous avons prédit et confirmé l'efficacité agoniste MAPK du carazolol, un inverse agoniste AC du β2AR se liant au récepteur de manière similaire au groupe inverse agoniste AC / agoniste MAPK. De manière intéressante, le groupement aryl des ligands agonistes inverses agonistes AC / agoniste MAPK, le seul groupement chimique variable de ce groupe, est prédite pour lier la région des 3e et 5e hélices transmembranaires (TM3 et TM5). Nous avons donc émis l'hypothèse que cette région pourrait être un déterminant de l'efficacité de ces ligands. En accord avec cette dernière, la mutation de 2 résidus (T118I, S203A) localisés proches du site de liaison des groupements aryls des β-bloqueurs, prévient l'efficacité agoniste inverse de l'ICI-118551 sur la voie de l'AC sans affecter l'efficacité d'un agoniste, indiquant que cette région est importante pour la transmission de l'effet agoniste inverse, du moins sur la voie de l'AC. Les βarrs sont des protéines d'échafaudage qui coordonnent la formation de complexes avec plusieurs dizaines d'effecteurs de signalisation. Originalement identifiées pour leur rôle dans la désensibilisation et l'internalisation des RCPGs, elles sont aussi d'importants effecteurs de la signalisation des RCPGs indépendante des protéines G hétérotrimériques. Cependant, contrairement aux protéines G hétérotrimériques, il n'existe que peu d'outils pour les étudier. Ainsi, la deuxième partie de la thèse est dédiée au développement d'outils pour l'étude des βarrs. À cette fin, nous avons d'abord tenté de transposer une méthode de mesure de l'interaction entre 2 protéines par la technologie de transfert d'énergie de bioluminescence par résonance (BRET) en microscopie et chez des souris transgéniques afin de mesurer de manière subcellulaire et dans un contexte natif l'engagement de la βarr à des RCPGs. Ainsi, nous avons établi les preuves de principe que le BRET peut être utilisé pour localiser l'interaction entre la βarr et le récepteur de la vasopressine de type 2 (V2R) sur une cellule au microscope et pour détecter l'interaction entre la βarr et le β2AR sur des tissus de souris transgéniques exprimant ces protéines fusionnées avec des partenaires BRET. Finalement, il n'existe aucun inhibiteur pharmacologique ciblant les βarrs. Ainsi, grâce à la combinaison d'approches de criblage virtuel sur un modèle de la structure des βarrs et d'essais de validation cellulaire, nous avons développé un inhibiteur pharmacologique des βarrs. À l'aide de cet outil, nous avons confirmé l'implication des βarrs dans l'activation des MAPK par le V2R, mais aussi montré un nouveau rôle des βarrs dans le recyclage du β2AR. Les connaissances et outils développés dans cette thèse permettront de mieux comprendre les déterminants moléculaires de la signalisation des RCPGs et entre autres, grâce à des nouvelles approches pour étudier le rôle cellulaire et physiologique des βarrs.
Resumo:
La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.
Resumo:
Il existe un lien étroit entre la structure tridimensionnelle et la fonction cellulaire de l’ARN. Il est donc essentiel d’effectuer des études structurales de molécules d’ARN telles que les riborégulateurs afin de mieux caractériser leurs mécanismes d’action. Une technique de choix, permettant d’obtenir de l’information structurale sur les molécules d’ARN est la spectroscopie RMN. Cette technique est toutefois limitée par deux difficultés majeures. Premièrement, la préparation d’une quantité d’ARN nécessaire à ce type d’étude est un processus long et ardu. Afin de résoudre ce problème, notre laboratoire a développé une technique rapide de purification des ARN par affinité, utilisant une étiquette ARiBo. La deuxième difficulté provient du grand recouvrement des signaux présents sur les spectres RMN de molécules d’ARN. Ce recouvrement est proportionnel à la taille de la molécule étudiée, rendant la détermination de structures d’ARN de plus de 15 kDa extrêmement complexe. La solution émergeante à ce problème est le marquage isotopique spécifique des ARN. Cependant, les protocoles élaborées jusqu’à maintenant sont très coûteux, requièrent plusieurs semaines de manipulation en laboratoire et procurent de faibles rendements. Ce mémoire présente une nouvelle stratégie de marquage isotopique spécifique d’ARN fonctionnels basée sur la purification par affinité ARiBo. Cette approche comprend la séparation et la purification de nucléotides marqués, une ligation enzymatique sur support solide, ainsi que la purification d’ARN par affinité sans restriction de séquence. La nouvelle stratégie développée permet un marquage isotopique rapide et efficace d’ARN fonctionnels et devrait faciliter la détermination de structures d’ARN de grandes tailles par spectroscopie RMN.
Resumo:
Ce mémoire rapporte l’optimisation et l’évaluation d’une nouvelle version du test PAMPA (Parallel Artificial Membrane Permeability Assay) appelée Néo-PAMPA. Ce test qui permet la prédiction de l’absorption intestinale de médicaments consiste en l’utilisation d’une membrane modèle de la paroi intestinale composée d’une bicouche lipidique déposée sur un coussin de polydopamine recouvrant un filtre poreux. En effet, nous nous sommes intéressés lors de ce projet à la mise en place d’une membrane artificielle qui serait plus représentative de la paroi intestinale humaine. Nous avons pu déterminer, suite à une étude comparative des propriétés de huit médicaments ainsi que les coefficients de perméabilité obtenus, que les filtres en polycarbonate présentaient le meilleur choix de support solide pour la membrane. Nous avons également vérifié la déposition du coussin de polydopamine qui apporte le caractère fluide à la bicouche lipidique. Les résultats des tests de perméabilité ont démontré que le coussin de polymère n’obstrue pas les pores du filtre après un dépôt de 4h. Nous avons par la suite étudié la déposition de la bicouche lipidique sur le filtre recouvert de polydopamine. Pour ce faire, deux méthodes de préparation de liposomes ainsi que plusieurs tailles de liposomes ont été testées. Aussi, la composition en phospholipides a été sujette à plusieurs changements. Tous ces travaux d’optimisation ont permis d’aboutir à des liposomes préparés selon la méthode du « film lipidique » à partir d’un mélange de dioléoylphosphatidylcholine (DOPC) et de cholestérol. Une dernière étape d’optimisation de la déposition de la bicouche reste à améliorer. Enfin, le test standard Caco-2, qui consiste à évaluer la perméabilité des médicaments à travers une monocouche de cellules cancéreuses du colon humain, a été implémenté avec succès dans le but de comparer des données de perméabilité avec un test de référence.
Resumo:
La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.
Resumo:
Depuis quelques années, les applications intégrant un module de dialogues avancés sont en plein essor. En revanche, le processus d’universalisation de ces systèmes est rapidement décourageant : ceux-ci étant naturellement dépendants de la langue pour laquelle ils ont été conçus, chaque nouveau langage à intégrer requiert son propre temps de développement. Un constat qui ne s’améliore pas en considérant que la qualité est souvent tributaire de la taille de l’ensemble d’entraînement. Ce projet cherche donc à accélérer le processus. Il rend compte de différentes méthodes permettant de générer des versions polyglottes d’un premier système fonctionnel, à l’aide de la traduction statistique. L’information afférente aux données sources est projetée afin de générer des données cibles parentes, qui diminuent d’autant le temps de développement subséquent. En ce sens, plusieurs approches ont été expérimentées et analysées. Notamment, une méthode qui regroupe les données avant de réordonner les différents candidats de traduction permet d’obtenir de bons résultats.