985 resultados para Méthode des résidus pondérés


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper employs the one-sector Real Business Cycle model as a testing ground for four different procedures to estimate Dynamic Stochastic General Equilibrium (DSGE) models. The procedures are: 1 ) Maximum Likelihood, with and without measurement errors and incorporating Bayesian priors, 2) Generalized Method of Moments, 3) Simulated Method of Moments, and 4) Indirect Inference. Monte Carlo analysis indicates that all procedures deliver reasonably good estimates under the null hypothesis. However, there are substantial differences in statistical and computational efficiency in the small samples currently available to estimate DSGE models. GMM and SMM appear to be more robust to misspecification than the alternative procedures. The implications of the stochastic singularity of DSGE models for each estimation method are fully discussed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le paysage sonore est une forme de perception de notre environnement qui nous permet d’identifier les composantes sonores de notre quotidien. Ce projet de recherche porte sur une thématique particulière, les sons produits par les végétaux et leurs rôles dans les ambiances sonores paysagères. C’est la perspective que nous avons explorée in situ, en comparant les différentes espèces végétales; cette collection d’informations nous permet de proposer une typologie d’ambiances sonores des végétaux. Dans la première partie, des notions rattachées au « monde sonore » telles que l’objet sonore, le paysage sonore et les effets sonores justifient d’établir, dans la méthodologie, une grille d’analyse comportant différentes échelles d’écoute. Une lecture multidisciplinaire propose, d’une part, de réunir de l’information sur le son et les végétaux, la morphologie de ces derniers, l’aménagement au site, les conditions climatiques et, d’autre part, de retrouver ce qui a trait au son dans l’histoire des jardins, dont les jardins sensoriels, thérapeutiques, technologiques, et des sentiers d’interprétation sonore, sous l’angle du son comme projet. De plus, une liste de végétaux recevant les chants et cris de la faune vient introduire la notion de biodiversité sonore. Une enquête sociale de terrain, par la méthode des parcours commentés, et une enquête « experte » ont été réalisées au Jardin botanique de Montréal. Ces deux enquêtes nous ont permis de constituer une grille d’analyse croisée comprenant plusieurs échelles d’écoute : textures, actions sonores, effets sonores... De là, des générateurs d’ambiance (morphologie, organisation, climat) ont été relevés pour déterminer les aspects de récurrences et de différenciations d’un type d’ambiance sonore à l’autre. Des associations se sont formées en fonction de onze types de végétaux, chacun comprenant plusieurs sous-catégories. Celles-ci proposent des ambiances sonores spécifiques, des échelles d’écoute à considérer pour chaque type d’ambiance et l’énumération d’espèces à utiliser. Cette recherche ouvre la voie à un autre type de lecture sonore, par thématique d’ambiance (les sons du végétal dans notre cas), afin d’offrir de nouveaux outils de conception pour les professionnels, en profonde relation avec les perceptions sonores d’usagers sur le terrain et l’agencement spécifique d’un site.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dihydrofolate réductase humaine (DHFRh) est une enzyme essentielle à la prolifération cellulaire. Elle réduit le dihydrofolate en tétrahydrofolate, un co-facteur impliqué dans la biosynthèse des purines et du thymidylate. La DHFRh est une cible de choix pour des agents de chimiothérapie comme le méthotrexate (MTX), inhibant spécifiquement l’enzyme ce qui mène à un arrêt de la prolifération et ultimement à la mort cellulaire. Le MTX est utilisé pour le traitement de plusieurs maladies prolifératives, incluant le cancer. La grande utilisation du MTX dans le milieu clinique a mené au développement de mécanismes de résistance, qui réduisent l’efficacité de traitement. La présente étude se penche sur l’un des mécanismes de résistance, soit des mutations dans la DHFRh qui réduisent son affinité pour le MTX, dans le but de mieux comprendre les éléments moléculaires requis pour la reconnaissance de l’inhibiteur au site actif de l’enzyme. En parallèle, nous visons à identifier des variantes plus résistantes au MTX pour leur utilisation en tant que marqueurs de sélection en culture cellulaire pour des systèmes particuliers, tel que la culture de cellules hématopoïétiques souches (CHS), qui offrent des possibilités intéressantes dans le domaine de la thérapie cellulaire. Pour étudier le rôle des différentes régions du site actif, et pour vérifier la présence d’une corrélation entre des mutations à ces régions et une augmentation de la résistance au MTX, une stratégie combinatoire a été dévelopée pour la création de plusieurs banques de variantes à des résidus du site actif à proximité du MTX lié. Les banques ont été sélectionnées in vivo dans un système bactérien en utilisant des milieux de croissance contenant des hautes concentrations de MTX. La banque DHFRh 31/34/35 généra un nombre considérable de variantes combinatoires de la DHFRh hautement résistantes au MTX. Les variantes les plus intéressantes ont été testées pour leur potentiel en tant que marqueur de sélection dans plusieurs lignées cellulaires, dont les cellules hématopoïétiques transduites. Une protection complète contre les effets cytotoxiques du MTX a été observée chez ces cellules suite à leur infection avec les variantes combinatoires. Pour mieux comprendre les causes moléculaires reliées à la résistance au MTX, des études de structure tridimensionnelle de variantes liées au MTX ont été entreprises. La résolution de la structure de la double variante F31R/Q35E lié au MTX a révélé que le phénotype de résistance était attribuable à d’importantes différences entre le site actif de la double variante et de l’enzyme native, possiblement dû à un phénomème dynamique. Une compréhension plus générale de la reconnaissance et la résistance aux antifolates a été réalisée en comparant des séquences et des structures de variantes de la DHFR résistants aux antifolates et provenant de différentes espèces. En somme, ces travaux apportent de nouveaux éléments pour la comprehension des intéractions importantes entre une enzyme et un ligand, pouvant aider au développement de nouveaux antifolates plus efficaces pour le traitement de diverses maladies. De plus, ces travaux ont généré de nouveaux gènes de résistance pouvant être utilisés en tant que marqueurs de sélection en biologie cellulaire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Héritière de la tradition fantastique borgésienne, imprégnée d’une réalité composée de mythes précolombiens et des résidus industriels de la modernité, et développée à l’ère de la mondialisation, du post-modernisme, des jeux vidéos, du cinéma numérique et d’animation, la tendance cyberpunk latino-américaine est cultivée du Mexique jusqu’en Argentine, en passant par Cuba et d’autres pays souvent méconnus dans le monde de la science-fiction comme le Paraguay et la Bolivie. Pressenti dans les œuvres de certains écrivains canoniques comme Ricardo Piglia, Carmen Boullosa ou Edmundo Paz-Soldán, le cyberpunk se manifeste avec force dans l’écriture de jeunes artistes interdisciplinaires et de collaborateurs assidus des fanzines. Cette adaptation du sous-genre dans un continent où la référence reste encore le réel merveilleux et le réalisme magique, malgré l’apport des générations plus récentes comme celle de « McOndo » ou celle du « Crack », essaie d’élaborer une série de réponses aux questions issues de la conjoncture historique et artistique dans laquelle nous vivons : comment situer l’identité latino-américaine dans la nouvelle cartographie culturelle mondiale à travers une littérature qui cherche à se renouveler par rapport au canon littéraire et à la marginalité de son propre genre? Quelles sont les stratégies d’assimilation et de résistance qu’adoptent des jeunes auteurs latino-américains devant le cyberpunk anglo-américain littéraire et cinématographique? Peut-on parler d’un impact esthétique et philosophique du cyberpunk sur la culture latino-américaine, perçue habituellement comme une consommatrice passive de ces produits culturels et non comme une productrice? Ce travail cherche à parcourir l’ensemble de ces questions à partir d’une réflexion sur les principaux dispositifs constitutifs du cyberpunk – la dystopie et la virtualité – dans les discours (post)identitaires en Amérique Latine. Représentation presque mimétique de l’espace socioculturel et historique latino-américain à travers la violence et la répression politique, militaire, ethnique ou sexuelle, la dystopie est un moyen d’articuler certaines figures spatiales aux mythes nationaux et à la politique identitaire dans le contexte de la mondialisation. Cette dernière réalité socioculturelle, ainsi que l’idéologie esthétique que véhicule celle-ci à travers le cyberpunk, crée un conflit avec ces discours identitaires nationaux, conflit qui est accentué ou dissous par la représentation de la réalité virtuelle. La réalité virtuelle, comprise ici comme la direction que le récit prend pour défaire ou consolider la figure dystopique, mène à réfléchir également sur les enjeux de la (post)identité. Penser à une (post)identité (en gardant bien à l’esprit cette parenthèse) à travers le cyberpunk signifie poser une question sur la résistance au passé identitaire des mythes nationaux, au présent de la mondialisation culturelle, et aux discours post-humanistes qui semblent marquer le futur. À l’appui de travaux sur la dystopie et la réalité virtuelle dans le cyberpunk anglo-américain, ainsi que des études culturelles latino-américaines, je parcourrai un corpus composé des romans écrits entre 1990 et 2005. Ce corpus comprendra La Primera Calle de la Soledad (1993) de Gerardo Horacio Porcayo, Santa Clara Poltergeist (1991) de Fausto Fawcett, Ygdrasil (2005) de Jorge Baradit, et les films argentins No muera sin decirme adónde vas (1992) d’Eliseo Subiela et La sonámbula (1998) de Fernando Spiner. Dans ces oeuvres, la dystopie se configure aux possibilités narratives de la virtualité et traverse des thématiques identitaires comme les mythes sexuels et nationaux, la mémoire et le traumatisme ainsi que les projets utopiques des minorités.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’effervescence religieuse et politique au Cameroun engendre progressivement la fragmentation ethnique du peuple chrétien camerounais. Face à la manipulation politique, l’autre nom de l’injustice ethnique, la plupart des Camerounais et Camerounaises y compris les chrétiens réagissent désormais par le tribalisme, l’autre nom de la résignation ou mieux du déchirement social. Les Camerounais et Camerounaises donnent l’impression d’avoir perdu l’esprit de résistance/dissidence qui leur a valu la liberté ou mieux l’indépendance. Comment ignorer que de s’accoutumer au drame de la dérive ethnique, en s’installant, pour des raisons de survie, dans l’éclatement le plus abject, c’est opter pour l’asservissement volontaire d’un peuple qui mène inexorablement au génocide collectif ? Notre recherche repose sur l’hypothèse que les conflits ethniques ont pénétré la sphère du christianisme et font désormais partie des dysfonctionnements de l’Église du Cameroun. Ces dysfonctionnements internes nuisent à la crédibilité de l’Église. Il y a un lien entre les défaillances observées dans l’Église et les défaillances de la société Camerounaise. De plus, le rapport de convergence entre les rivalités ethniques et la religion, provoque un questionnement théologique inévitable : comment amener les différentes ethnies qui forment la plupart des États africains à un harmonieux vivre - ensemble inspiré par le mode de vie et de fonctionnement des Églises chrétiennes, au Cameroun en l'occurrence ? Faut-il se limiter à l’adoption d’une nouvelle image de l’Église par exemple l’Église-famille-de-Dieu, ou bien faut-il prendre le taureau par les cornes et éduquer les peuples africains à une culture de la paix ? La démarche de cette thèse s’inspire de la méthode adoptée par la théologie pratique, c’est-à-dire la praxéologie1, en relation avec la théologie contextuelle2, au niveau du lien avec les méthodes d’analyses des sciences sociales et sciences humaines, et au niveau de sa dimension prophétique créatrice. Elle est construite autour de quatre coordonnées: observation (médiation sociale), interprétation (médiation herméneutique), intervention pastorale (médiation pratique) et prospective. 1 Cf. G. ROUTHIER, et M.VIAU, (dir.), Précis de théologie pratique, Montréal/Bruxelles, Novalis/Lumen Vitae, 2004, 819 p. 2 Cf. C. BOFF, Théorie et pratique . La méthode des théologies de la libération, Paris, Cerf, 1990, 400 p. ii La thèse comporte quatre parties. La première partie (chapitres 1, 2 et 3) consacrée à l’observation cerne la problématique du vivre ensemble multiethnique, pour permettre de mieux percevoir la manifestation du phénomène du tribalisme dans l’Église (les Églises) et la société camerounaise. Elle montre que des situations dramatiques, de malheurs, de pauvreté, de famine, de conflits et de guerres sont causées en partie par le tribalisme exclusif. La deuxième partie (chapitres 4 et 5) porte sur la question du sens. Elle analyse et met à l’épreuve la compréhension du phénomène du tribalisme et des conflits ethniques dans la société et dans les Églises du Cameroun. Sont ainsi abordés, successivement, les principales articulations du tribalisme, la stratégie mise sur pied (diviser pour mieux régner) pour la transformation des structures sociales au Cameroun pendant la colonisation, puis récupérée par les politiciens comme idéologie politique depuis les indépendances. Nous en sommes arrivés à constater que cette idéologie a conduit à une profonde déstructuration de la société camerounaise jusque dans l’Église (les Églises). La troisième partie (chapitres 6 et 7) est consacrée à la pratique ecclésiale du dialogue de la diversité ethnique africaine pour la paix ; nous y montrons comment les solidarités ethniques purifiées au feu de l’Évangile peuvent avoir une influence sur la pratique chrétienne. Nous cherchons ensuite à démontrer que le dialogue interethnique bien articulé est le chemin de la réconciliation. La quatrième partie (chapitre 8) est un effort pour passer de l’utopie mise en pratique à une pratique en forme d’utopie. Nous cherchons à montrer que le dialogue pastoral enrichi par la diversité ethnique et religieuse entraînera la transformation de l’Église locale dans son interaction avec les différentes ethnies du Cameroun et d’Afrique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le VIH-1 a développé plusieurs mécanismes menant à la dégradation de son récepteur cellulaire, la molécule CD4, dans le but d’augmenter la relâche de particules virales infectieuses et d’éviter que la cellule soit surinfectée. L’un de ces mécanismes est la dégradation, induite par la protéine virale Vpu, du CD4 nouvellement synthétisé au niveau du réticulum endoplasmique (RE). Vpu doit lier CD4 et recruter l’ubiquitine ligase cellulaire SCFβ-TrCP, via sa liaison à β-TrCP, afin de dégrader CD4. Puisque CD4 doit être retenu au RE pour permettre à Vpu d’induire sa dégradation via le système ubiquitine-protéasome, il a été suggéré que ce processus implique un mécanisme semblable à une voie cellulaire de dégradation des protéines mal-repliées appelée ERAD (« endoplasmic reticulum-associated degradation »). La dégradation par ERAD implique généralement la dislocation des protéines du RE vers le cytoplasme afin de permettre leur poly-ubiquitination et leur dégradation par le protéasome. Nous avons démontré que Vpu induit la poly-ubiquitination de CD4 dans des cellules humaines. Nos résultats suggèrent aussi que CD4 doit subir une dislocation afin d’être dégradé par le protéasome en présence de Vpu. De plus, un mutant transdominant négatif de l’ATPase p97, qui est impliquée dans la dislocation des substrats ERAD, inhibe complètement la dégradation de CD4 par Vpu. Enfin, nos résultats ont montré que l’ubiquitination sur des résidus accepteurs de l’ubiquitine (lysines) de la queue cytoplasmique de CD4 n’était pas essentielle, mais que la mutation des lysines ralentit le processus de dégradation de CD4. Ce résultat suggère que l’ubiquitination de la queue cytosolique de CD4 pourrait représenter un événement important dans le processus de dégradation induit par Vpu. L’attachement de l’ubiquitine a généralement lieu sur les lysines de la protéine ciblée. Toutefois, l’ubiquitination sur des résidus non-lysine (sérine, thréonine et cystéine) a aussi été démontrée. Nous avons démontré que la mutation de tous les sites potentiels d’ubiquitination cytoplasmiques de CD4 (K, C, S et T) inhibe la dégradation par Vpu. De plus, la présence de cystéines dans la queue cytoplasmique apparaît suffisante pour rendre CD4 sensible à Vpu en absence de lysine, sérine et thréonine. Afin d’expliquer ces résultats, nous proposons un modèle dans lequel l’ubiquitination de la queue cytosolique de CD4 serait nécessaire à sa dégradation et où les sites d’ubiquitination de CD4 seraient sélectionnés de façon non spécifique par l’ubiquitine ligase recrutée par Vpu. Enfin, nous avons observé que la co-expression d’une protéine Vpu incapable de recruter β-TrCP (Vpu S52,56/D) semble stabiliser le CD4 qui est retenu au RE. De plus, d’autres mutants de Vpu qui semblent capables de recruter β-TrCP et CD4 sont toutefois incapables d’induire sa dégradation. Ces résultats suggèrent que l’association de Vpu à CD4 et β-TrCP est essentielle mais pas suffisante pour induire la dégradation de CD4. Par conséquent, ces résultats soulèvent la possibilité que Vpu puisse recruter d’autres facteurs cellulaires pour induire la dégradation de CD4. Les résultats présentés ont permis de mieux définir le mécanisme de dégradation de CD4 par Vpu dans des cellules humaines. De plus, ces résultats nous ont permis d’élaborer un modèle dans lequel l’ubiquitine ligase cellulaire SCFβ-TrCP démontre de la flexibilité dans le choix des résidus à ubiquitiner afin d’induire la dégradation de CD4. Enfin, ces études jettent un oeil nouveau sur le rôle de Vpu dans ce processus puisque nos résultats suggèrent que Vpu doive recruter d’autres partenaires cellulaires, mis à part β-TrCP, pour induire la dégradation de CD4.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’acétylation des résidus de glucosamine terminaux par la N-acétyltransférase lysosomale (HGSNAT) est une étape essentielle de la dégradation catabolique de l’héparan sulfate. Des défauts dans cette réaction causent une maladie de surcharge lysosomale autosomale récessive rare : le désordre de Sanfilippo type C (SFC). À ce jour, 54 mutations ont été rapportées chez des patients SFC, incluant 13 mutations des sites d’épissage, 11 insertions et délétions, 8 mutations non-sens, 18 mutations faux-sens et 4 polymorphismes, avec différentes manifestations phénotypiques. Nous avons identifié 10 d’entre elles et effectué une étude exhaustive portant sur l’éventail des mutations SFC, leur distribution dans la population de patients, ainsi que leur impact potentiel sur la structure de la HGSNAT. Les erreurs d’épissage, les mutations non-sens, les insertions et les délétions devraient toutes entraîner un ARN non fonctionnel qui est rapidement dégradé par des mécanismes de contrôle qualité cellulaire. Les 4 polymorphismes identifiés sont des changements d'acides aminés qui ne modifient pas l'activité enzymatique, la glycosylation ou la localisation et n'ont donc pas de signification au niveau clinique. Au niveau des enzymes, les polymorphismes sont des changements d’acides aminés qui n’affectent pas la fonction, mais dans un contexte d’acides nucléiques ils peuvent être considérés comme des mutations faux-sens. Les dix-huit mutations faux-sens qui ont été exprimées ont produit des protéines inactives, en raison d'erreurs dans leur repliement. Ceci expliquerait donc la progression sévère de la maladie chez les personnes porteuses de ces mutations. Les protéines mutantes mal repliées sont anormalement glycosylées et conservées dans le réticulum endoplasmique. La thérapie par amélioration de l’activité enzymatique par des chaperonnes est une option thérapeutique potentielle, spécifiquement conçue pour exploiter l'activité enzymatique résiduelle de mutants mal repliés, afin d’éliminer les substrats stockés. Nous avons démontré que le traitement de plusieurs lignées de fibroblastes de patients SFC avec le chlorhydrate de glucosamine, un inhibiteur spécifique de la HGSNAT, a partiellement restauré l’activité de l'enzyme mutante, fournissant une preuve de l’utilité future de la thérapie par des chaperonnes dans le traitement de la maladie de SFC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quelques enzymes sont connus pour déglyquer les kétoamines résultants de la réaction de Maillard entre des sucres et des amines primaires. Il a été démontré qu’Escherichia coli possède un opéron afin de métaboliser la fructoselysine. La fructoselysine 6-kinase, de la famille des PfkB, initie le processus de déglycation permettant l’utilisation ultérieure du glucose-6-P par la bactérie. La résolution de la structure de la FL6K par cristallographie et diffraction des rayons X a permis d’identifier son site actif en présence d’ATP, d’ADP et d’AMP-PNP. La modélisation de la fructoselysine au site actif de la kinase a permis d’identifier des résidus pouvant être importants pour sa liaison et son mécanisme enzymatique. De plus, les résultats de cinétique suggèrent que le mécanisme utilisé par la FL6K semble passer par un état ternaire de type SN2. Des modifications structurales à la FL6K pourraient permettre d’augmenter la taille des substrats afin de permettre ultimement la déglycation de protéines.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le GABA est le principal neurotransmetteur inhibiteur du SNC et est impliqué dans le développement du cerveau, la plasticité synaptique et la pathogénèse de maladies telles que l’épilepsie, les troubles de l’anxiété et la douleur chronique. Le modèle actuel de fonctionnement du récepteur GABA-B implique l’hétérodimérisation GABA-B1/B2, laquelle est requise au ciblage à la surface membranaire et au couplage des effecteurs. Il y est cependant des régions du cerveau, des types cellulaires et des périodes du développement cérébral où la sous-unité GABA-B1 est exprimée en plus grande quantité que GABA-B2, ce qui suggère qu’elle puisse être fonctionnelle seule ou en association avec des partenaires inconnus, à la surface cellulaire ou sur la membrane réticulaire. Dans le cadre de cette thèse, nous montrons la capacité des récepteurs GABA-B1 endogènes à activer la voie MAPK-ERK1/2 dans la lignée dérivée de la glie DI-TNC1, qui n’exprime pas GABA-B2. Les mécanismes qui sous-tendent ce couplage demeurent mal définis mais dépendent de Gi/o et PKC. L’immunohistochimie de récepteurs endogènes montre par ailleurs que des anticorps GABA-B1 dirigés contre la partie N-terminale reconnaissent des protéines localisées au RE tandis des anticorps C-terminaux (CT) marquent une protéine intranucléaire. Ces données suggèrent que le domaine CT de GABA-B1 pourrait être relâché par protéolyse. L’intensité des fragments potentiels est affectée par le traitement agoniste tant en immunohistochimie qu’en immunobuvardage de type western. Nous avons ensuite examiné la régulation du clivage par le protéasome en traitant les cellules avec l’inhibiteur epoxomicine pendant 12 h. Cela a résulté en l’augmentation du marquage intranucléaire de GABA-B1-CT et d’un interacteur connu, le facteur de transcription pro-survie ATF-4. Dans des cellules surexprimant GABA-B1-CT, l’induction et la translocation nucléaire d’ATF-4, qui suit le traitement epoxomicine, a complètement été abolie. Cette observation est associée à une forte diminution du décompte cellulaire. Étant donné que les trois derniers résidus de GABA-B1-CT (LYK) codent un ligand pseudo-PDZ et que les protéines à domaines PDZ sont impliquées dans la régulation du ciblage nucléaire et de la stabilité de protéines, en complément de leur rôle d’échaffaud à la surface cellulaire, nous avons muté les trois derniers résidus de GABA-B1-CT en alanines. Cette mutation a complètement annulé les effets de GABA-B1-CT sur l’induction d’ATF-4 et le décompte cellulaire. Cette deuxième série d’expériences suggère l’existence possible de fragments GABA-B1 intranucléaires régulés par le traitement agoniste et le protéasome dans les cellules DI-TNC1. Cette régulation d’ATF-4 dépend des résidus LYK de GABA-B1-CT, qui modulent la stabilité de GABA-B1-CT et favorisent peut-être la formation d’un complexe multiprotéique incluant GABA-B1-CT, ATF-4, de même qu’une protéine d’échaffaudage inconnue. En somme, nous démontrons que les sous-unités GABA-B1 localisées au RE, lorsque non-hétérodimérisées avec GABA-B2, demeurent capables de moduler les voies de signalisation de la prolifération, la différentiation et de la survie cellulaire, via le couplage de protéines G et possiblement la protéolyse régulée. Les mécanismes de signalisation proposés pourraient servir de nouvelle plate-forme dans la compréhension des actions retardées résultant de l’activation des récepteurs 7-TMs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans la première partie, nous présentons les résultats de l'étude du supraconducteur sans inversion de symétrie LaRhSi3 par spectroscopie muonique. En champ nul, nous n'avons pas détecté de champ interne. Ceci indique que la fonction d'onde de l'état supraconducteur n'est pas dominée par l'état triplet. Les mesures en champ transverse de 35G présentent une transition en accord avec la transition de phase attendue sous le champ critique Hc1. Nous avons répété ces mesures pour un champ entre Hc1 et Hc2, 150G. Le spectre obtenu pour ces mesures conserve l'asymétrie et relaxe rapidement à basse température tel que prédit pour un supraconducteur dans la phase d'Abrikosov. Néanmoins, les relaxations produites par ce balayage en température présentent une transition à près de 2 fois la température critique attendue. Dans la deuxième partie de ce mémoire, nous donnons l'interprétation des résultats de la diffraction neutronique inélastique par l'étude des champs électriques cristallins. Ces mesures ont été effectuées sur des aimants frustrés SrHo2O4 et SrDy2O4 sous la forme de poudre. L'étude des niveaux produits par les champs cristallins par la méthode des opérateurs de Stevens indique une perte du moment cinétique dans les deux matériaux. Pour le SrDy2O4, l'état fondamental serait constitué de quatre états dégénérés quasi accidentellement qui portent un moment magnétique total non-nul. Toute fois, nos mesures de susceptibilité magnétique ne montrent aucun ordre au-dessus de 50mK. Pour le SrHo2O4, le fondamental est formé d'une paire accidentelle. Nous obtenons un moment magnétique de 6.94(8)$\mu_B$ ce qui s'accorde avec les données expérimentales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce travail, nous adaptons la méthode des symétries conditionnelles afin de construire des solutions exprimées en termes des invariants de Riemann. Dans ce contexte, nous considérons des systèmes non elliptiques quasilinéaires homogènes (de type hydrodynamique) du premier ordre d'équations aux dérivées partielles multidimensionnelles. Nous décrivons en détail les conditions nécessaires et suffisantes pour garantir l'existence locale de ce type de solution. Nous étudions les relations entre la structure des éléments intégraux et la possibilité de construire certaines classes de solutions de rang k. Ces classes de solutions incluent les superpositions non linéaires d'ondes de Riemann ainsi que les solutions multisolitoniques. Nous généralisons cette méthode aux systèmes non homogènes quasilinéaires et non elliptiques du premier ordre. Ces méthodes sont appliquées aux équations de la dynamique des fluides en (3+1) dimensions modélisant le flot d'un fluide isentropique. De nouvelles classes de solutions de rang 2 et 3 sont construites et elles incluent des solutions double- et triple-solitoniques. De nouveaux phénomènes non linéaires et linéaires sont établis pour la superposition des ondes de Riemann. Finalement, nous discutons de certains aspects concernant la construction de solutions de rang 2 pour l'équation de Kadomtsev-Petviashvili sans dispersion.