566 resultados para Systèmes differentiels linéaires
Resumo:
Ce travail a permis de démontrer que l’électrofilage, ainsi que l’électronébulisation, sont des méthodes faciles et efficaces de préparation de complexes entre des polymères et des petites molécules. En effet, la plupart des méthodes de préparation de complexes donnent des mélanges inhomogènes à cause de la cristallisation cinétiquement favorisée des petites molécules. Or, un mélange inhomogène peut être très difficile à caractériser. Dans ce travail, l’électrofilage a été utilisé pour la première fois avec succès pour obtenir des nanofils de complexe entre le poly(oxyde d’éthylène) (PEO) et le NaSCN (PEO-NaSCN) ainsi qu’entre le PEO et l’hydroquinone. L’électronébulisation a été utilisée pour obtenir du complexe entre la polycaprolactone (PCL) et l’urée. L’électrofilage n’était pas possible pour le système PCL-urée parce que la solubilité n’était pas suffisante pour atteindre la viscosité minimale requise pour l’électrofilage. L’électronébulisation peut donc complémenter l’électrofilage et rendre la technique applicable à encore plus de systèmes. Les systèmes ont été caractérisés par spectroscopie infrarouge (FT-IR), par diffraction de rayons X (XRD), par calorimétrie différentielle à balayage (DSC) et par microscopies optique et électronique à balayage.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
Ce mémoire présente une implantation de la création paresseuse de tâches desti- née à des systèmes multiprocesseurs à mémoire distribuée. Elle offre un sous-ensemble des fonctionnalités du Message-Passing Interface et permet de paralléliser certains problèmes qui se partitionnent difficilement de manière statique grâce à un système de partitionnement dynamique et de balancement de charge. Pour ce faire, il se base sur le langage Multilisp, un dialecte de Scheme orienté vers le traitement parallèle, et implante sur ce dernier une interface semblable à MPI permettant le calcul distribué multipro- cessus. Ce système offre un langage beaucoup plus riche et expressif que le C et réduit considérablement le travail nécessaire au programmeur pour pouvoir développer des programmes équivalents à ceux en MPI. Enfin, le partitionnement dynamique permet de concevoir des programmes qui seraient très complexes à réaliser sur MPI. Des tests ont été effectués sur un système local à 16 processeurs et une grappe à 16 processeurs et il offre de bonnes accélérations en comparaison à des programmes séquentiels équiva- lents ainsi que des performances acceptables par rapport à MPI. Ce mémoire démontre que l’usage des futures comme technique de partitionnement dynamique est faisable sur des multiprocesseurs à mémoire distribuée.
Resumo:
Du fait de la montée des périls environnementaux, le concept de résilience fait l’objet d’une attention croissante dans le champ du développement. Il a d’abord été exploré dans le champ des analyses systémiques, celui des systèmes socio-écologiques en particulier. Il convient toutefois, d’une part d’interroger la pertinence et la portée de ce concept au niveau microéconomique, d’autre part d’interroger les liens qui l’unissent au développement durable. Le cadre conceptuel proposé articule l’approche par les capabilités et l’analyse économique de la gestion des risques, permettant de mettre en avant les capacités d’action face aux risques et de réaction face aux chocs. Il conduit à envisager la possibilité de faire de la résilience une finalité d’un développement durable. Ceci soulève deux difficultés majeures, tenant à la complexité de l’analyse des capacités d’action individuelles, et à l’articulation de ces capacités avec des dynamiques collectives.
Resumo:
Quand le E-learning a émergé il ya 20 ans, cela consistait simplement en un texte affiché sur un écran d'ordinateur, comme un livre. Avec les changements et les progrès dans la technologie, le E-learning a parcouru un long chemin, maintenant offrant un matériel éducatif personnalisé, interactif et riche en contenu. Aujourd'hui, le E-learning se transforme de nouveau. En effet, avec la prolifération des systèmes d'apprentissage électronique et des outils d'édition de contenu éducatif, ainsi que les normes établies, c’est devenu plus facile de partager et de réutiliser le contenu d'apprentissage. En outre, avec le passage à des méthodes d'enseignement centrées sur l'apprenant, en plus de l'effet des techniques et technologies Web2.0, les apprenants ne sont plus seulement les récipiendaires du contenu d'apprentissage, mais peuvent jouer un rôle plus actif dans l'enrichissement de ce contenu. Par ailleurs, avec la quantité d'informations que les systèmes E-learning peuvent accumuler sur les apprenants, et l'impact que cela peut avoir sur leur vie privée, des préoccupations sont soulevées afin de protéger la vie privée des apprenants. Au meilleur de nos connaissances, il n'existe pas de solutions existantes qui prennent en charge les différents problèmes soulevés par ces changements. Dans ce travail, nous abordons ces questions en présentant Cadmus, SHAREK, et le E-learning préservant la vie privée. Plus précisément, Cadmus est une plateforme web, conforme au standard IMS QTI, offrant un cadre et des outils adéquats pour permettre à des tuteurs de créer et partager des questions de tests et des examens. Plus précisément, Cadmus fournit des modules telles que EQRS (Exam Question Recommender System) pour aider les tuteurs à localiser des questions appropriées pour leur examens, ICE (Identification of Conflits in Exams) pour aider à résoudre les conflits entre les questions contenu dans un même examen, et le Topic Tree, conçu pour aider les tuteurs à mieux organiser leurs questions d'examen et à assurer facilement la couverture des différent sujets contenus dans les examens. D'autre part, SHAREK (Sharing REsources and Knowledge) fournit un cadre pour pouvoir profiter du meilleur des deux mondes : la solidité des systèmes E-learning et la flexibilité de PLE (Personal Learning Environment) tout en permettant aux apprenants d'enrichir le contenu d'apprentissage, et les aider à localiser nouvelles ressources d'apprentissage. Plus précisément, SHAREK combine un système recommandation multicritères, ainsi que des techniques et des technologies Web2.0, tels que le RSS et le web social, pour promouvoir de nouvelles ressources d'apprentissage et aider les apprenants à localiser du contenu adapté. Finalement, afin de répondre aux divers besoins de la vie privée dans le E-learning, nous proposons un cadre avec quatre niveaux de vie privée, ainsi que quatre niveaux de traçabilité. De plus, nous présentons ACES (Anonymous Credentials for E-learning Systems), un ensemble de protocoles, basés sur des techniques cryptographiques bien établies, afin d'aider les apprenants à atteindre leur niveau de vie privée désiré.
Resumo:
Afin d'étudier la diffusion et la libération de molécules de tailles inférieures dans un gel polymère, les coefficients d'auto-diffusion d'une série de polymères en étoile avec un noyau d'acide cholique et quatre branches de poly(éthylène glycol) (PEG) ont été déterminés par spectroscopie RMN à gradient de champ pulsé dans des solutions aqueuses et des gels de poly(alcool vinylique). Les coefficients de diffusion obtenus ont été comparés avec ceux des PEGs linéaires et dendritiques pour étudier l'effet de l'architecture des polymères. Les polymères en étoile amphiphiles ont des profils de diffusion en fonction de la concentration similaires à leurs homologues linéaires dans le régime dilué. Ils diffusent plus lentement dans le régime semi-dilué en raison de leur noyau hydrophobe. Leurs conformations en solution ont été étudiées par des mesures de temps de relaxation spin-réseau T1 du noyau et des branches. L'imagerie RMN a été utilisée pour étudier le gonflement des comprimés polymères et la diffusion dans la matrice polymère. Les comprimés étaient constitués d'amidon à haute teneur en amylose et chargés avec de l'acétaminophène (de 10 à 40% en poids). Le gonflement des comprimés, ainsi que l'absorption et la diffusion de l'eau, augmentent avec la teneur en médicament, tandis que le pourcentage de libération du médicament est similaire pour tous les comprimés. Le gonflement in vitro des comprimés d'un complexe polyélectrolyte à base d'amidon carboxyméthylé et de chitosane a également été étudié par imagerie RMN. Ces comprimés sont sensibles au pH : ils gonflent beaucoup plus dans les milieux acides que dans les milieux neutres en raison de la dissociation des deux composants et de la protonation des chaînes du chitosane. La comparaison des résultats avec ceux d'amidon à haute teneur en amylose indique que les deux matrices ont des gonflements et des profils de libération du médicament semblables dans les milieux neutres, alors que les comprimés complexes gonflent plus dans les milieux acides en raison de la dissociation du chitosane et de l'amidon.
Resumo:
Les oligonucléotides (ONs) antisens présentent un fort potentiel en tant qu’agents thérapeutiques. Toutefois, leurs propriétés physicochimiques limitent leur utilisation en thérapie génique. Pour pallier aux divers obstacles, des systèmes de vectorisation, tels que les micelles polyioniques (PICMs), ont été développés. Grâce à leur structure unique, les micelles protégent l’ON contre une dégradation prématurée et le couplage d’un ligand à leur surface augmente leur spécificité et leur internalisation. Dans d’autres systèmes, un polymère adjuvant aux propriétés pH-sensibles peut être ajouté pour faciliter la sortie de l’endosome et augmenter l’efficacité de l’ON. L’objectif général de ce mémoire était de mettre au point des PICMs ternaires ciblées pour l’administration d’ONs. Ces micelles assureraient à la fois l’internalisation cellulaire de leur cargaison en interagissant avec des récepteurs cellulaires et sa fuite de l’endosome grâce à un mécanisme de déstabilisation de la membrane endosomale. Pour cela, des PICMs composées d’un copolymère cationique de type poly(éthylène glycol)-bloc-poly(méthacrylate d’(alkylamino)éthyle) et d’un copolymère d’acide méthacrylique ont été préparées. Les propriétés physicochimiques de ces vecteurs ont démontré qu’ils permettaient une condensation efficace de l’acide nucléique et ce, indépendamment de la nature du polymère cationique et de l’acide nucléique. Finalement, une approche de couplage par pont disulfure a été développée afin de greffer au copolymère un fragment d’anticorps dirigé contre les récepteurs de la transferrine. En conclusion, ces travaux démontrent la versatilité et le potentiel des PICMs ternaires en tant que vecteurs d’acide nucléique, et proposent une méthodologie de couplage d’un ligand afin de formuler des PICMs ciblées.
Resumo:
L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.
Resumo:
RÉSUMÉ La richesse en ressources naturelles est une source de développement économique et social, mais peut également constituer un facteur de dégradation environnementale et de problèmes pour la santé humaine. Les systèmes techniques de gestion des ressources naturelles ne sont pas suffisants pour apporter des solutions à tous les problèmes environnementaux. Mises à part les catastrophes naturelles, c'est l'intervention humaine qui cause la grande majorité des problèmes environnementaux. C'est pour comprendre cette dynamique entre les facteurs naturels et les facteurs économiques, sociaux, politiques, culturels et psychosociologiques que nous avons choisi de centrer cette thèse sur la dimension humaine des problèmes environnementaux – ce qui implique l'analyse des dimensions psychosociologiques et sociales entourant les problèmes environnementaux. Pour une gestion efficace des ressources naturelles, il nous faut donc comprendre l'action humaine, ses motivations et ses contraintes, ses orientations de valeurs et ses croyances, qui orientent les perceptions, les attitudes et les comportements humains par rapport à leur environnement. Pour ce faire, l’étude de valeurs, attitudes, croyances et comportements passe par l’examen attentif des concepts et de leurs définitions, ainsi que par l’analyse des diverses « dimensions » auxquelles chacun des concepts fait référence. Cette thèse porte justement sur les relations entre les valeurs, les croyances, les attitudes et les comportements humains par rapport aux problèmes environnementaux. Pour ce faire, nous avons utilisé un sondage auprès de 1800 répondants, habitants de la région du bassin versant de la Rio das Velhas, située dans la province du Minas Gerais, au Brésil.
Resumo:
L’Éducation Pour Tous mobilise la communauté internationale et les gouvernements depuis 1990. Cet engagement global renouvelé en 2000 sous l’auspice de l’UNESCO puis des Nations-Unies, porte notamment sur un objectif de base : l’universalisation de la scolarisation primaire complète pour tous les enfants d’âge scolaire à l’horizon de 2015. Plusieurs études sur la réalisation de cet objectif montrent que les pays en développement sont les plus à risque et que les progrès accomplis dans la plupart de ces pays, pourraient être plus importants si la pratique du redoublement faisait davantage l’objet de régulation et de contrôle. Cela contribuerait à améliorer la réussite scolaire et accroître la rétention des élèves au sein des systèmes éducatifs. La pratique du redoublement est en effet une tradition dans plusieurs systèmes éducatifs. Elle est particulièrement prépondérante dans certains groupes de pays ou régions, notamment en Afrique francophone au sud du Sahara. Dans ces pays, le PASEC - Programme d’Analyse des Systèmes Éducatifs de la CONFEMEN (Conférence des Ministres de l’Éducation Nationale des pays ayant le français en partage) - œuvre à améliorer l’accès à une éducation de qualité pour tous, par exemple, en informant les politiques sur la situation nationale du redoublement. Cette recherche sur le redoublement, la réussite scolaire et l’objectif de la Scolarisation Primaire Universelle (SPU) privilégie la dimension pédagogique, l’analyse empirique et étudie le cas du Sénégal. Elle présente et discute les indicateurs internationaux de suivi de l’objectif de la SPU, fait le point de l’état des connaissances sur le redoublement et la réussite scolaire et montre le défi que représente la réalisation de l’objectif de la SPU notamment dans les pays francophones d’Afrique sub-Saharienne. Exploitant les données existantes de l’enquête longitudinale de suivi de cohorte du PASEC au Sénégal entre 1995 et 2000, cette recherche examine le parcours scolaire des élèves en vue de la réalisation de l’objectif de la SPU. L’examen effectué combine des approches d’analyse transversale et longitudinale du redoublement et des apprentissages par rapport aux caractéristiques personnelles, familiales et scolaires de l’élève. Les résultats d’analyse montrent des variabilités, notamment par rapport aux caractéristiques personnelles de l’élève et à celles de sa classe et de son milieu de scolarisation. L’analyse longitudinale du redoublement s’est appuyée sur le diagramme de flux scolaire et a permis de produire un ensemble d’indicateurs d’efficacité interne du système éducatif du Sénégal. Pour la cohorte étudiée, du fait de l’importance des redoublements et des abandons scolaires, il faut en moyenne 9,4 années de scolarité pour que l’élève progresse du deuxième au sixième (dernier) grade du primaire. Seulement 39% de l’effectif de la cohorte survivent au dernier grade ce qui suggère que si cette tendance se maintenait, le Sénégal serait à risque de ne pas réaliser l’objectif de la SPU. Une évaluation de la situation courante à partir de données plus récentes serait requise. Le diagramme de flux scolaire constitue un outil de planification de l’éducation et représente de ce fait un important levier aux mains des autorités politiques pour agir sur les paramètres du système éducatif (paramètres liés à la qualité de l’éducation, à l’efficacité interne, etc.) afin de répondre à des objectifs spécifiques ou d’étapes pouvant conduire, par exemple, à la réalisation de l’objectif de la SPU.
Resumo:
L’annotation en rôles sémantiques est une tâche qui permet d’attribuer des étiquettes de rôles telles que Agent, Patient, Instrument, Lieu, Destination etc. aux différents participants actants ou circonstants (arguments ou adjoints) d’une lexie prédicative. Cette tâche nécessite des ressources lexicales riches ou des corpus importants contenant des phrases annotées manuellement par des linguistes sur lesquels peuvent s’appuyer certaines approches d’automatisation (statistiques ou apprentissage machine). Les travaux antérieurs dans ce domaine ont porté essentiellement sur la langue anglaise qui dispose de ressources riches, telles que PropBank, VerbNet et FrameNet, qui ont servi à alimenter les systèmes d’annotation automatisés. L’annotation dans d’autres langues, pour lesquelles on ne dispose pas d’un corpus annoté manuellement, repose souvent sur le FrameNet anglais. Une ressource telle que FrameNet de l’anglais est plus que nécessaire pour les systèmes d’annotation automatisé et l’annotation manuelle de milliers de phrases par des linguistes est une tâche fastidieuse et exigeante en temps. Nous avons proposé dans cette thèse un système automatique pour aider les linguistes dans cette tâche qui pourraient alors se limiter à la validation des annotations proposées par le système. Dans notre travail, nous ne considérons que les verbes qui sont plus susceptibles que les noms d’être accompagnés par des actants réalisés dans les phrases. Ces verbes concernent les termes de spécialité d’informatique et d’Internet (ex. accéder, configurer, naviguer, télécharger) dont la structure actancielle est enrichie manuellement par des rôles sémantiques. La structure actancielle des lexies verbales est décrite selon les principes de la Lexicologie Explicative et Combinatoire, LEC de Mel’čuk et fait appel partiellement (en ce qui concerne les rôles sémantiques) à la notion de Frame Element tel que décrit dans la théorie Frame Semantics (FS) de Fillmore. Ces deux théories ont ceci de commun qu’elles mènent toutes les deux à la construction de dictionnaires différents de ceux issus des approches traditionnelles. Les lexies verbales d’informatique et d’Internet qui ont été annotées manuellement dans plusieurs contextes constituent notre corpus spécialisé. Notre système qui attribue automatiquement des rôles sémantiques aux actants est basé sur des règles ou classificateurs entraînés sur plus de 2300 contextes. Nous sommes limités à une liste de rôles restreinte car certains rôles dans notre corpus n’ont pas assez d’exemples annotés manuellement. Dans notre système, nous n’avons traité que les rôles Patient, Agent et Destination dont le nombre d’exemple est supérieur à 300. Nous avons crée une classe que nous avons nommé Autre où nous avons rassemblé les autres rôles dont le nombre d’exemples annotés est inférieur à 100. Nous avons subdivisé la tâche d’annotation en sous-tâches : identifier les participants actants et circonstants et attribuer des rôles sémantiques uniquement aux actants qui contribuent au sens de la lexie verbale. Nous avons soumis les phrases de notre corpus à l’analyseur syntaxique Syntex afin d’extraire les informations syntaxiques qui décrivent les différents participants d’une lexie verbale dans une phrase. Ces informations ont servi de traits (features) dans notre modèle d’apprentissage. Nous avons proposé deux techniques pour l’identification des participants : une technique à base de règles où nous avons extrait une trentaine de règles et une autre technique basée sur l’apprentissage machine. Ces mêmes techniques ont été utilisées pour la tâche de distinguer les actants des circonstants. Nous avons proposé pour la tâche d’attribuer des rôles sémantiques aux actants, une méthode de partitionnement (clustering) semi supervisé des instances que nous avons comparée à la méthode de classification de rôles sémantiques. Nous avons utilisé CHAMÉLÉON, un algorithme hiérarchique ascendant.
Resumo:
L’interaction d’un ligand avec un récepteur à sept domaines transmembranaires (7TMR) couplé aux protéines G, mène à l’adoption de différentes conformations par le récepteur. Ces diverses conformations pourraient expliquer l’activation différentielle des voies de signalisation. Or, le lien entre la conformation et l’activité du récepteur n’est pas tout à fait claire. Selon les modèles classiques pharmacologiques, comme le modèle du complexe ternaire, il n’existe qu’un nombre limité de conformations qu’un récepteur peut adopter. Afin d’établir un lien entre la structure et la fonction des récepteurs, nous avons choisi dans un premier temps, le récepteur de chimiokine CXCR4 comme récepteur modèle. Ce dernier, est une cible thérapeutique prometteuse, impliqué dans l’entrée du VIH-1 dans les cellules cibles et dans la dissémination de métastases cancéreuses. Grâce au transfert d’énergie par résonance de bioluminescence (BRET) nous pouvons détecter les changements conformationnels des homodimères constitutifs de CXCR4 dans les cellules vivantes. En conséquence, nous avons mesuré les conformations de mutants de CXCR4 dont les mutations affecteraient sa fonction. Nous montrons que la capacité des mutants à activer la protéine Galphai est altérée suite au traitement avec l’agoniste SDF-1. Notamment, ces mutations altèrent la conformation du récepteur à l’état basal ainsi que la réponse conformationnelle induite suite au traitement avec l’agoniste SDF-1, l’agoniste partiel AMD3100 ou l’agoniste inverse TC14012. Ainsi, différentes conformations de CXCR4 peuvent donner lieu à une activation similaire de la protéine G, ce qui implique une flexibilité des récepteurs actifs qui ne peut pas être expliquée par le modèle du complexe ternaire (Berchiche et al. 2007). Également, nous nous sommes intéressés au récepteur de chimiokine CCR2, exprimé à la surface des cellules immunitaires. Il joue un rôle important dans l’inflammation et dans des pathologies inflammatoires telles que l’asthme. CCR2 forme des homodimères constitutifs et possède différents ligands naturels dont la redondance fonctionnelle a été suggérée. Nous avons étudié le lien entre les conformations et les activations d’effecteurs (fonctions) de CCR2. Notre hypothèse est que les différents ligands naturels induisent différentes conformations du récepteur menant à différentes fonctions. Nous montrons que les réponses de CCR2 aux différents ligands ne sont pas redondantes au niveau pharmacologique et que les chimiokines CCL8, CCL7 et CCL13 (MCP-2 à MCP-4) sont des agonistes partiels de CCR2, du moins dans les systèmes que nous avons étudiés. Ainsi, l’absence de redondance fonctionnelle parmi les chimiokines liant le même récepteur, ne résulterait pas de mécanismes complexes de régulation in vivo, mais ferait partie de leurs propriétés pharmacologiques intrinsèques (Berchiche et al. 2011). Enfin, nous nous sommes intéressés au récepteur de chimiokine CXCR7. Récemment identifié, CXCR7 est le deuxième récepteur cible de la chimiokine SDF-1. Cette chimiokine a été considérée comme étant capable d’interagir uniquement avec le récepteur CXCR4. Notamment, CXCR4 et CXCR7 possèdent un patron d’expression semblable dans les tissus. Nous avons évalué l’effet de l’AMD3100, ligand synthétique de CXCR4, sur la conformation et la signalisation de CXCR7. Nos résultats montrent qu’AMD3100, tout comme SDF-1, lie CXCR7 et augmente la liaison de SDF-1 à CXCR7. Grâce au BRET, nous montrons aussi qu’AMD3100 seul est un agoniste de CXCR7 et qu’il est un modulateur allostérique positif de la liaison de SDF-1 à CXCR7. Aussi, nous montrons pour la première fois le recrutement de la beta-arrestine 2 à CXCR7 en réponse à un agoniste. L’AMD3100 est un ligand de CXCR4 et de CXCR7 avec des effets opposés, ce qui appelle à la prudence lors de l’utilisation de cette molécule pour l’étude des voies de signalisation impliquant SDF-1 (Kalatskaya et al. 2009). En conclusion, nos travaux amènent des évidences qu’il existe plusieurs conformations actives des récepteurs et appuient les modèles de structure-activité des récepteurs qui prennent en considération leur flexibilité conformationnelle.
Resumo:
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.
Resumo:
Seulement une minorité d’adolescents qui consomment des substances psychoactives développe des problèmes significatifs reliés à cette consommation. Il importe donc de connaître et de comprendre les processus par lesquels se développe la consommation problématique afin de pouvoir la prévenir. Cette étude examine le rôle des symptômes dépressifs et des relations sociales dans le développement de la consommation problématique à l’adolescence. Plus précisément, elle vise à déterminer, à l’aide d’un devis longitudinal corrélationnel prospectif, si le soutien des pairs, le soutien des parents et la qualité de la relation maître-élève ont des effets modérateurs protecteurs sur la relation entre les symptômes dépressifs et la consommation problématique. L’échantillon utilisé pour cette étude est tiré de la Stratégie d’Intervention Agir Autrement et comprend 4473 adolescents. Des régressions linéaires multiples ont été effectuées et ont démontré que les symptômes dépressifs et le soutien des parents augmentent le risque d’une consommation problématique, alors que le soutien des pairs le diminue. De plus, les résultats confirment le rôle protecteur du soutien des pairs, mais indiquent que le soutien des parents exacerbe le lien entre les symptômes dépressifs et la consommation problématique. Par ailleurs, la qualité de la relation maître-élève est associée à une consommation moins problématique uniquement chez les jeunes qui n’ont pas beaucoup de symptômes dépressifs. Les implications de ces résultats sont discutées.
Resumo:
La phagocytose est un processus cellulaire par lequel de larges particules sont internalisées dans une vésicule, le phagosome. Lorsque formé, le phagosome acquiert ses propriétés fonctionnelles à travers un processus complexe de maturation nommé la biogénèse du phagolysosome. Cette voie implique une série d’interactions rapides avec les organelles de l’appareil endocytaire permettant la transformation graduelle du phagosome nouvellement formé en phagolysosome à partir duquel la dégradation protéolytique s’effectue. Chez l’amibe Dictyostelium discoideum, la phagocytose est employée pour ingérer les bactéries de son environnement afin de se nourrir alors que les organismes multicellulaires utilisent la phagocytose dans un but immunitaire, où des cellules spécialisées nommées phagocytes internalisent, tuent et dégradent les pathogènes envahissant de l’organisme et constitue la base de l’immunité innée. Chez les vertébrés à mâchoire cependant, la transformation des mécanismes moléculaires du phagosome en une organelle perfectionnée pour l’apprêtement et la présentation de peptides antigéniques place cette organelle au centre de l’immunité innée et de l’immunité acquise. Malgré le rôle crucial auquel participe cette organelle dans la réponse immunitaire, il existe peu de détails sur la composition protéique et l’organisation fonctionnelles du phagosome. Afin d’approfondir notre compréhension des divers aspects qui relient l’immunité innée et l’immunité acquise, il devient essentiel d’élargir nos connaissances sur les fonctions moléculaire qui sont recrutées au phagosome. Le profilage par protéomique à haut débit de phagosomes isolés fut extrêmement utile dans la détermination de la composition moléculaire de cette organelle. Des études provenant de notre laboratoire ont révélé les premières listes protéiques identifiées à partir de phagosomes murins sans toutefois déterminer le ou les rôle(s) de ces protéines lors du processus de la phagocytose (Brunet et al, 2003; Garin et al, 2001). Au cours de la première étude de cette thèse (Stuart et al, 2007), nous avons entrepris la caractérisation fonctionnelle du protéome entier du phagosome de la drosophile en combinant diverses techniques d’analyses à haut débit (protéomique, réseaux d’intéractions protéique et ARN interférent). En utilisant cette stratégie, nous avons identifié 617 protéines phagosomales par spectrométrie de masse à partir desquelles nous avons accru cette liste en construisant des réseaux d’interactions protéine-protéine. La contribution de chaque protéine à l’internalisation de bactéries fut ensuite testée et validée par ARN interférent à haut débit et nous a amené à identifier un nouveau régulateur de la phagocytose, le complexe de l’exocyst. En appliquant ce modèle combinatoire de biologie systémique, nous démontrons la puissance et l’efficacité de cette approche dans l’étude de processus cellulaire complexe tout en créant un cadre à partir duquel il est possible d’approfondir nos connaissances sur les différents mécanismes de la phagocytose. Lors du 2e article de cette thèse (Boulais et al, 2010), nous avons entrepris la caractérisation moléculaire des étapes évolutives ayant contribué au remodelage des propriétés fonctionnelles de la phagocytose au cours de l’évolution. Pour ce faire, nous avons isolé des phagosomes à partir de trois organismes distants (l’amibe Dictyostelium discoideum, la mouche à fruit Drosophila melanogaster et la souris Mus musculus) qui utilisent la phagocytose à des fins différentes. En appliquant une approche protéomique à grande échelle pour identifier et comparer le protéome et phosphoprotéome des phagosomes de ces trois espèces, nous avons identifié un cœur protéique commun à partir duquel les fonctions immunitaires du phagosome se seraient développées. Au cours de ce développement fonctionnel, nos données indiquent que le protéome du phagosome fut largement remodelé lors de deux périodes de duplication de gènes coïncidant avec l’émergence de l’immunité innée et acquise. De plus, notre étude a aussi caractérisée en détail l’acquisition de nouvelles protéines ainsi que le remodelage significatif du phosphoprotéome du phagosome au niveau des constituants du cœur protéique ancien de cette organelle. Nous présentons donc la première étude approfondie des changements qui ont engendré la transformation d’un compartiment phagotrophe à une organelle entièrement apte pour la présentation antigénique.