873 resultados para Exploit


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de recherche a comme objectif général de déterminer l’identité culturelle des occupants amérindiens qui se sont établis sur le site Rioux (DaEi-19), île Verte, au cours du Sylvicole supérieur tardif. Plusieurs groupes culturels sont reconnus pour avoir transité dans la région de l’estuaire du Saint-Laurent pendant cette période, dont les Iroquoiens du Saint-Laurent, les Malécites, les Mi’kmaq et les Innus (Montagnais). Il est depuis longtemps accepté que les Stadaconiens se rendaient régulièrement dans l’estuaire et le golfe pour y exploiter les ressources marines et y faire la guerre. L’influence de ce groupe sur les Algonquiens de la région, et vice versa, fait encore l’objet de débats. L’identité culturelle des Amérindiens qui ont occupé les sites à caractère iroquoïde dans l’estuaire est toujours une question délicate, puisque les nombreux échanges ont pu, de part et d’autre, transformer la culture matérielle des différents groupes. La méthodologie préconisée pour répondre à la question de l’identité culturelle est une approche holistique dans laquelle nous avons mis à contribution une foule d’informations provenant de diverses sources archéologiques et ethnohistoriques. Ce projet nous a permis de proposer que de petits groupes iroquoiens du Saint-Laurent se soient arrêtés au site Rioux pour y exploiter intensivement les ressources de la mer au cours du Sylvicole supérieur tardif. Bien que la recherche n’ait pas permis d’établir la présence d’un groupe algonquien sur place, l’influence algonquienne se fait toutefois sentir dans les matières premières utilisées sur le site. Ceci laisse croire que les Iroquoiens du site Rioux, et de la Côte-Sud en général, n’étaient pas intrusifs à la région et qu’ils participaient à un important réseau d’échange avec les Algonquiens des provinces maritimes. Notre projet de recherche nous a aussi permis de constater les limites de notre méthodologie et de critiquer l’approche archéologique classique basée essentiellement sur l’identification stylistique, la typologie et l’identification macroscopique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours du Sylvicole supérieur (1000-1500 AD), le secteur de l’embouchure du Saguenay aurait été exploité par des groupes Iroquoiens du Saint-Laurent en quête de ressources marines, et plus particulièrement du phoque. Ces groupes provenaient vraisemblablement de la région de Québec où se trouvaient leurs camps de base et auraient ainsi développé une forme d’adaptation aux ressources marines de l’estuaire, faisant d’eux les groupes iroquoiens les plus mobiles de toute la vallée du Saint-Laurent. Dans cette étude, nous proposons que l’exploitation des mammifères marins fût pratiquée en deux temps, d’abord au printemps, lors de courtes périodes par des contignents de chasseurs masculins attirés par le phoque du Groenland et puis en été, par des familles entières profitant de la présence de phoques gris et commun. Les pinnipèdes étaient probablement traqués sur la batture ou sur les glaces et abattus à la hache ou à l’arc et à la flèche. Puisque les résidus alimentaires retrouvés dans les vases de cuisson étaient surtout composés de poissons et de mammifères terrestres, il est supposé que des sous-produits de la chasse au phoque aient été rapportés dans la région de Québec et utilisés comme réserve de nourriture, comme matière première ou comme monnaie d’échange. Nous défendons également l’hypothèse que ces excursions dans l’estuaire n’étaient pas nécessairement liées à la précarité de l’agriculture dans la région de Québec puisque cette pratique aurait été adoptée tardivement, soit après 1300 AD et peut être même à partir de 1400 AD. Les données sont issues de six sites ayant fait l’objet de fouilles répartis sur une bande littorale de 40 km de longueur. Il s’agit des sites Ouellet (DaEk-6), Anse-aux-Pilotes IV (DbEj-7), Cap-de-Bon-Désir (109G), Site archéologique des Basques-de-l’Anse-à-la-Cave (DbEi-5), Pointe-à-Crapaud (DbEi-2) et Escoumins I (DcEi-1).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La différentiation entre le « soi » et le « non-soi » est un processus biologique essentiel à la vie. Les peptides endogènes présentés par les complexes majeurs d’histocompatibilité de classe I (CMH I) représentent le fondement du « soi » pour les lymphocytes T CD8+. On donne le nom d’immunopeptidome à l’ensemble des peptides présentés à la surface cellulaire par les molécules du CMH I. Nos connaissances concernant l’origine, la composition et la plasticité de l’immunopeptidome restent très limitées. Dans le cadre de cette thèse, nous avons développé une nouvelle approche par spectrométrie de masse permettant de définir avec précision : la nature et l’abondance relative de l’ensemble des peptides composant l’immunopeptidome. Nous avons trouvé que l’immunopeptidome, et par conséquent la nature du « soi » immun, est surreprésenté en peptides provenant de transcrits fortement abondants en plus de dissimuler une signature tissu-spécifique. Nous avons par la suite démontré que l’immunopeptidome est plastique et modulé par l’activité métabolique de la cellule. Nous avons en effet constaté que les modifications du métabolisme cellulaire par l’inhibition de mTOR (de l’anglais mammalian Target Of Rapamycin) provoquent des changements dynamiques dans la composition de l’immunopeptidome. Nous fournissons également la première preuve dans l’étude des systèmes que l’immunopeptidome communique à la surface cellulaire l’activité de certains réseaux biochimiques ainsi que de multiples événements métaboliques régulés à plusieurs niveaux à l’intérieur de la cellule. Nos découvertes ouvrent de nouveaux horizons dans les domaines de la biologie des systèmes et de l’immunologie. En effet, notre travail de recherche suggère que la composition de l’immunopeptidome est modulée dans l’espace et le temps. Il est par conséquent très important de poursuivre le développement de méthodes quantitatives au niveau des systèmes qui nous permettront de modéliser la plasticité de l’immunopeptidome. La simulation et la prédiction des variations dans l’immunopeptidome en réponse à différents facteurs cellulaires intrinsèques et extrinsèques seraient hautement pertinentes pour la conception de traitements immunothérapeutiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les documents publiés par des entreprises, tels les communiqués de presse, contiennent une foule d’informations sur diverses activités des entreprises. C’est une source précieuse pour des analyses en intelligence d’affaire. Cependant, il est nécessaire de développer des outils pour permettre d’exploiter cette source automatiquement, étant donné son grand volume. Ce mémoire décrit un travail qui s’inscrit dans un volet d’intelligence d’affaire, à savoir la détection de relations d’affaire entre les entreprises décrites dans des communiqués de presse. Dans ce mémoire, nous proposons une approche basée sur la classification. Les méthodes de classifications existantes ne nous permettent pas d’obtenir une performance satisfaisante. Ceci est notamment dû à deux problèmes : la représentation du texte par tous les mots, qui n’aide pas nécessairement à spécifier une relation d’affaire, et le déséquilibre entre les classes. Pour traiter le premier problème, nous proposons une approche de représentation basée sur des mots pivots c’est-à-dire les noms d’entreprises concernées, afin de mieux cerner des mots susceptibles de les décrire. Pour le deuxième problème, nous proposons une classification à deux étapes. Cette méthode s’avère plus appropriée que les méthodes traditionnelles de ré-échantillonnage. Nous avons testé nos approches sur une collection de communiqués de presse dans le domaine automobile. Nos expérimentations montrent que les approches proposées peuvent améliorer la performance de classification. Notamment, la représentation du document basée sur les mots pivots nous permet de mieux centrer sur les mots utiles pour la détection de relations d’affaire. La classification en deux étapes apporte une solution efficace au problème de déséquilibre entre les classes. Ce travail montre que la détection automatique des relations d’affaire est une tâche faisable. Le résultat de cette détection pourrait être utilisé dans une analyse d’intelligence d’affaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les prothèses myoélectriques modernes peuvent être dotées de plusieurs degrés de liberté ce qui nécessite plusieurs signaux musculaires pour en exploiter pleinement les capacités. Pour obtenir plus de signaux, il nous a semblé prometteur d'expérimenter si les 6 compartiments du biceps brachial pouvaient être mis sous tension de façon volontaire et obtenir ainsi 6 signaux de contrôle au lieu d'un seul comme actuellement. Des expériences ont donc été réalisées avec 10 sujets normaux. Des matrices d'électrodes ont été placées en surface au-dessus du chef court et long du biceps pour recueillir les signaux électromyographiques (EMG) générés par le muscle lors de contractions effectuées alors que les sujets étaient soit assis, le coude droit fléchi ~ 100 ° ou debout avec le bras droit tendu à l'horizontale dans le plan coronal (sur le côté). Dans ces deux positions, la main était soit en supination, soit en position neutre, soit en pronation. L'amplitude des signaux captés au-dessus du chef court du muscle a été comparée à ceux obtenus à partir du chef long. Pour visualiser la forme du biceps sous les électrodes l'imagerie ultrasonore a été utilisée. En fonction de la tâche à accomplir, l'activité EMG a était plus importante soit dans un chef ou dans l'autre. Le fait de pouvoir activer préférentiellement l'un des 2 chefs du biceps, même si ce n'est pas encore de façon complètement indépendante, suggère que l'utilisation sélective des compartiments pourrait être une avenue possible pour faciliter le contrôle des prothèses myoélectriques du membre supérieur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec le laboratoire M2S de Rennes 2

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Difficile à manier, le thème de l’homosexualité est peu exploité dans le domaine des arts. Dans la littérature jeunesse québécoise, on trouve peu de personnages principaux homosexuels constituant des représentations positives pour les adolescents. Double échappée, le premier volet de ce mémoire en recherche-création, résulte d’une volonté de contribuer à ce secteur en braquant le projecteur sur deux protagonistes adolescents qui vivent leur homosexualité en parallèle. L’un doit apprendre à vivre avec cette réalité qui est toute nouvelle pour lui tandis que le second, sorti du placard et censément à l’aise avec son homosexualité, se voit obligé de réaffirmer son identité lorsqu’il arrive dans un nouvel environnement. Leurs parcours s’entremêlent, leur relation grandit et on assiste à leurs prises de conscience, diverses certes, mais aussi complémentaires. Le second volet du mémoire, intitulé Se dire, se comprendre : l’homosexualité dans les romans québécois pour la jeunesse, sert en quelque sorte de cadre contextuel à Double échappée. Adoptant un parcours en grande partie sociologique, cet essai examine le traitement des enjeux identitaires soulevés par l’homosexualité dans quelques romans québécois. Y est brièvement analysée la manière dont six ouvrages récents destinés à la jeunesse portent le sujet, particulièrement en ce qui a trait à la prise de conscience identitaire et son expression. Cette étude se penche sur la façon dont ces récits proposent la découverte de l’homosexualité par des adolescents en s’attardant à la présentation des personnages homosexuels et leur cheminement. Il s’agit de mettre en lumière la manière dont le texte montre et fait entendre la voie/voix des protagonistes gays et lesbiens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce travail, nous exploitons des propriétés déjà connues pour les systèmes de poids des représentations afin de les définir pour les orbites des groupes de Weyl des algèbres de Lie simples, traitées individuellement, et nous étendons certaines de ces propriétés aux orbites des groupes de Coxeter non cristallographiques. D'abord, nous considérons les points d'une orbite d'un groupe de Coxeter fini G comme les sommets d'un polytope (G-polytope) centré à l'origine d'un espace euclidien réel à n dimensions. Nous introduisons les produits et les puissances symétrisées de G-polytopes et nous en décrivons la décomposition en des sommes de G-polytopes. Plusieurs invariants des G-polytopes sont présentés. Ensuite, les orbites des groupes de Weyl des algèbres de Lie simples de tous types sont réduites en l'union d'orbites des groupes de Weyl des sous-algèbres réductives maximales de l'algèbre. Nous listons les matrices qui transforment les points des orbites de l'algèbre en des points des orbites des sous-algèbres pour tous les cas n<=8 ainsi que pour plusieurs séries infinies des paires d'algèbre-sous-algèbre. De nombreux exemples de règles de branchement sont présentés. Finalement, nous fournissons une nouvelle description, uniforme et complète, des centralisateurs des sous-groupes réguliers maximaux des groupes de Lie simples de tous types et de tous rangs. Nous présentons des formules explicites pour l'action de tels centralisateurs sur les représentations irréductibles des algèbres de Lie simples et montrons qu'elles peuvent être utilisées dans le calcul des règles de branchement impliquant ces sous-algèbres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université Paris 1 Panthéon-Sorbonne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’adaptation des cellules à leur environnement externe repose sur la transduction adéquate de signaux régulés par une pléthore d'événements moléculaires. Parmi ces événements moléculaires, les modifications post-traductionnelles (MPT) de protéines aident à intégrer, à traduire et à organiser de façon spatiotemporelle ces signaux pour que les cellules puissent réagir aux stimuli externes. Parmi les modifications post-traductionnelles, les petites protéines de la famille de l’Ubiquitine (Ublps, Ubiquitin-like proteins) jouent un rôle majeur dans presque toutes les voies de signalisation. Cette thèse rapporte des études fonctionnelles et structurales des interactions covalentes et non covalentes entre SUMO (Small Ubiquitin related MOdifier), un membre de la famille des Ublps, et trois protéines d'échafaudage, TIF1beta, le corépresseur universel des protéines KRAB-multidoigt de zinc, PIAS1, une ligase E3 pour SUMO et PML, un suppresseur de tumeur. La première étude rapporte l'identification et la caractérisation biochimique des sites de SUMOylation de TIF1beta. Nous avons déterminé que la modification covalente de six résidus lysine par SUMO est essentielle à l’activité de répression de la transcription induit par TIF1beta. En outre, nous présentons des évidences indiquant que la SUMOylation de TIF1 exige non seulement sa capacité à homo-oligomériser, mais est aussi positivement régulée par son interaction avec le domaine KRAB des protéines à doigts de zinc. Partant de ce constat, nous postulons que les protéines KRAB-multidoigt de zinc recrutent leur corépresseur TIF1betaà des gènes cibles, mais aussi accentuent son activité répressive grâce à l'augmentation de sa SUMOylation. Notre seconde étude révèle qu’en plus de réprimer la transcription en tant que MPT covalente, SUMO joue aussi un rôle important dans la répression en tant que partenaire non covalent d’interactions protéine-protéine. Nous avons montré que SUMO interagit simultanément avec deux enzymes de la machinerie de SUMOylation, l’unique enzyme de conjugaison E2, UBC9, et la ligase E3 PIAS1 au sein d’un complexe ternaire répresseur. En outre, nous révélons que la formation du complexe ternaire PIAS1:SUMO:UBC9 est modulée par le niveau de phosphorylation de résidus sérine juxtaposés à un motif d’interaction avec SUMO (SIM) dans PIAS1. Ainsi, SUMO agit comme un adaptateur spécifique qui stabilise les interactions UBC9 E2: E3 PIAS1. Partant de ce constat, nous proposons que les enzymes E2 et E3 des autres systèmes Ublps exploitent des mécanismes similaires dans le cadre de leur fonction Enfin, notre troisième étude explore la régulation des interactions non covalentes de SUMO par la phosphorylation. En utilisant une combinaison d'études in vivo et in vitro, nous démontrons que l'interaction entre SUMO1 et PML est régi par la phosphorylation dépendant de CK2 sur quatre résidus sérine de PML. Les structures cristallographiques des complexes PML-SIM:SUMO1 révèlent que les phospho-sérines de PML contactent des résidus de la région basique de SUMO1. Sachant que la kinase CK2 peut être induite par des kinases activables par le stress, ces résultats suggèrent que les interactions non-covalentes avec SUMO sont modulées par le stress cellulaire. Sur la base de cette constatation, nous postulons que des événements analogues affectent des protéines contenant des séquences SIM ciblées par CK2. En résumé, cette étude révèle qu’en plus de son rôle de MPT, SUMO peut fonctionner comme un adaptateur permettant des interactions spécifiques entre protéines tel que pour les enzymes E3 et E2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

MHCII molecules expose a weave of antigens, which send survival or activation signals to T lymphocytes. The ongoing process of peptide binding to the MHC class II groove implicates three accessory molecules: the invariant chain, DM and DO. The invariant chain folds and directs the MHCII molecules to the endosomal pathway. Then, DM exchanges the CLIP peptide, which is a remnant of the degraded invariant chain, for peptides of better affinity. Expressed in highly specialized antigen presenting cells, DO competes with MHCII molecules for DM binding and favors the presentation of receptor-internalized antigens. Altogether, these molecules exhibit potential immunomodulatory properties that can be exploited to increase the potency of peptide vaccines. DO requires DM for maturation and to exit the ER. Interestingly, it is possible to monitor this interaction through a conformation change on DOβ that is recognized by the Mags.DO5 monoclonal antibody. Using Mags.DO5, we showed that DM stabilizes the interactions between the DO α1 and β1 chains and that DM influences DO folding in the ER. Thus, the Mags.DO5+ conformation correlates with DO egress from the ER. To further evaluate this conformation change, directed evolution was applied to DO. Of the 41 unique mutants obtained, 25% were localized at the DM-DO binding interface and 12% are at the solvent-exposed β1 domain, which is thought to be the Mags.DO5 epitope. In addition, I used the library to test the ability of HLA-DO to inhibit HLA-DM and sorted for the amount of CLIP. Interestingly, most of the mutants showed a decrease inhibitory effect, supporting the notion that the intrinsic instability of DO is a required for its function. Finally, these results support the model in which DO competes against classical MHCII molecules by sequestering DM chaperone’s function. MHCII molecules are also characterized by their ability to present superantigens, a group of bacterial or viral toxins that coerces MHCII-TCR binding in a less promiscuous fashion than what is observed in a canonical setting. While the mechanism of how bacterial superantigens form trimeric complexes with TCR and MHCII is well understood, the mouse mammary tumor virus superantigens (vSAG) are poorly defined. In the absence of a crystal structure, I chose a functional approach to examine the relation between vSAG, MHCII and TCR with the goal of uncovering the overall trimolecular architecture. I showed that TCR concomitantly binds both the MHCII α chain and the vSAG and that TCR-MHCII docking is almost canonical when coerced by vSAGs. Because many peptides may be tolerated in the MHCII groove, the pressure exerted by vSAG seems to tweak conventional TCR-MHCII interactions. Furthermore, my results demonstrate that vSAG binding to MHCII molecules is conformation-dependent and abrogated by the CLIP amino-terminal residues extending outside the peptide-binding groove. In addition, they also suggest that vSAGs cross-link adjacent MHCIIs and activate T cells via a TGXY motif.