990 resultados para Translation processes
Resumo:
Le transport et la traduction localisée des ARN messagers sont observés chez plusieurs organismes et sont requis pour de multiples phénomènes tels la mémoire, la division cellulaire asymétrique et l’établissement des axes durant le développement. Staufen, une protéine liant l’ARN double-brin, a été identifié dans un premier temps chez la mouche à fruits Drosophila melanogaster. Il a été montré, chez cet organisme, que Staufen est requis pour la localisation des messagers bicoid et oskar aux pôles antérieur et postérieur de l’ovocyte, respectivement. Également, Staufen est requis afin que la répression traductionnelle du messager oskar soit levée une fois qu’il est bien localisé. Chez les mammifères, Stau1 est une protéine ubiquiste qui est présente dans des complexes prenant la forme de granules dans les dendrites des neurones. Également, Stau1 peut interagir de façon indépendante de l’ARN avec le ribosome et cofractionner tant avec la sous-unité 40S qu’avec la sous-unité 60S du ribosome dans un gradient de saccharose. L’implication de Stau1 dans un mécanisme permettant la dérépression traductionnelle de certains ARNm chez les mammifères était donc une voie d’investigation intéressante. Nous avons donc décidé de vérifier si Stau1 mammifère avait la capacité de stimuler la traduction d’un ARNm cellulaire via un mécanisme régulé. Au moment où cette thèse a été entreprise, aucun ARNm cellulaire lié par Stau1 n’avait été identifié chez les mammifères. Des structures d’ARN double-brin ont donc été employées afin de réprimer la traduction d’un ARNm rapporteur. C’est ainsi que nous avons montré que Stau1 peut stimuler la traduction d’un ARNm lorsqu’il lie celui-ci dans sa région 5’ non-traduite. Par la suite, en employant des micropuces d’ADN, nous avons identifié des messagers cellulaires dont la distribution dans les polysomes lourds est modifiée par Stau1. En effet, un groupe de messagers est enrichi dans les polysomes lourds suite à une surexpression de Stau1, ce qui suggère que Stau1 stimule la traduction de cette population d’ARNm. Afin d’identifier un mécanisme potentiel de régulation de l’activité traductionnelle de Stau1, nous nous sommes intéressés à la capacité d’auto-association de cette protéine. Nous avons montré que Stau1, tout comme plusieurs protéines liant l’ARN double-brin, est en mesure de s’associer à lui-même, et ce, d’une façon indépendante de l’ARN. Nous avons identifié les déterminants impliqués mettant ainsi au jour un nouveau mécanisme pouvant influencer les activités cellulaires de Stau1. Les résultats présentés dans cette thèse suggèrent donc que Stau1 est en mesure de stimuler la traduction d’une sous-population précise d’ARN messagers au sein de la cellule permettant ainsi de jeter un regard nouveau sur l’implication de cette protéine dans divers phénomènes au sein de l’organisme.
Resumo:
La mémoire et l’apprentissage sont des phénomènes complexes dont on ne comprend pas encore bien l’origine au niveau cellulaire et moléculaire. Cependant, il est largement admis que des changements plus simples au niveau synaptique, tels que la potentialisation à long-terme (long-term potentiation ou LTP) pourraient constituer la base cellulaire de la formation des nouveaux souvenirs. Ces mécanismes sont couramment étudiés au niveau de l’hippocampe, une région du lobe temporal reconnue comme étant nécessaire à la formation de la mémoire explicite chez les mammifères. La LTP est classiquement définie comme un renforcement durable de l’efficacité de connexions synaptiques ayant été stimulées de façon répétée et soutenue. De plus, on peut distinguer deux formes de LTP: une LTP précoce, qui repose sur la modification de protéines déjà formées, et une LTP tardive, qui requiert, elle, la synthèse de nouvelles protéines. Cependant, bien que de nombreuses études se soient intéressées au rôle de la traduction pour la maintenance de la LTP, les mécanismes couplant l’activité synaptique à la machinerie de synthèse protéique, de même que l’identité des protéines requises sont encore peu connus. Dans cette optique, cette thèse de doctorat s’est intéressée aux interactions entre l’activité synaptique et la régulation de la traduction. Il est par ailleurs reconnu que la régulation de la traduction des ARNm eukaryotiques se fait principalement au niveau de l’initiation. Nous avons donc étudié la modulation de deux voies majeures pour la régulation de la traduction au cours de la LTP : la voie GCN2/eIF2α et la voie mTOR. Ainsi, nos travaux ont tout d’abord démontré que la régulation de la voie GCN2/eIF2α et de la formation du complexe ternaire sont nécessaires à la maintenance de la plasticité synaptique et de la mémoire à long-terme. En effet, l’activité synaptique régule la phosphorylation de GCN2 et d’eIF2α, ce qui permet de moduler les niveaux du facteur de transcription ATF4. Celui-ci régule à son tour la transcription CREB-dépendante et permet ainsi de contrôler les niveaux d’expression génique et la synthèse de protéines nécessaires pour la stabilisation à long-terme des modifications synaptiques. De plus, la régulation de la voie mTOR et de la traduction spécifique des ARNm 5’TOP semble également jouer un rôle important pour la plasticité synaptique à long-terme. La modulation de cette cascade par l’activité synaptique augmente en effet spécifiquement la capacité de traduction des synapses activées, ce qui leur permet de traduire et d’incorporer les protéines nécessaires au renforcement durable des synapses. De telles recherches permettront sans doute de mieux comprendre la régulation des mécanismes traductionnels par l’activité synaptique, ainsi que leur importance pour la maintenance de la potentialisation à long-terme et de la mémoire à long-terme.
Resumo:
La présente recherche a pour but de faire le point sur l'état du droit canadien et sur ses perspectives futures en relation avec les œuvres créées par ordinateurs. L'outil terminologique choisi pour notre objectif est le logiciel de traduction automatique multilingue qui, à cause de sa complexité, s'éloigne le plus du programmeur « créateur» et se rapproche le plus d'œuvres qui ne peuvent être directement attribuées aux linguistes et programmeurs. Ces outils et leurs créations seront d'après nous les prochains outils technologiques à confronter le droit. En effet, dans un avenir prévisible, considérant l'évolution technologique, ces logiciels produiront des textes qui bénéficieront d'une valeur commerciale ajoutée et c'est alors que certains feront valoir leurs « droits », non seulement sur les textes mais aussi sur la technologie. Pour atteindre cet objectif, nous débuterons par un retour historique sur la technologie et ses origines. Par la suite, nous ferons une analyse de la protection actuelle accordée aux logiciels, aux banques de données et aux traductions qu'ils produisent. Nous déterminerons ensuite qui sera responsable des textes produits en relation avec le texte d'origine et avec sa résultante au niveau du droit d'auteur et de celui de la responsabilité civile. Cette recherche nous amènera à conclure que le droit actuel est « mésadapté » tant à l'égard de la protection qu'au niveau de la responsabilité. Ces conclusions devront d'après nous imposer un retour aux principes fondamentaux du droit. Ce fondamentalisme légal sera pour nous le prix à payer pour la légitimité. En effet, plus particulièrement concernant le droit d'auteur, nous conclurons qu'il devra cesser d'être le « fourre-tout» du droit de la propriété intellectuelle et redevenir ce qu'il doit être: un droit qui protège la créativité. Cette démarche prospective tirera ses racines du fait que nous serons obligés de conclure que les juristes canadiens ont refusé, à tort à notre point de vue, de renvoyer au monde des brevets les méthodes et procédés nouveaux et inventifs, ce qui donc a introduit des problématiques inutiles qui exacerbent l'incertitude. Finalement, notre cheminement nous dirigera vers le droit de la responsabilité où nous soutiendrons que le fournisseur ne peut actuellement être responsable du texte produit puisqu'il ne participe pas directement aux choix et ne porte pas atteinte au contenu. Voici donc en quelques mots le cœur de notre recherche qui entrouvre une boîte de Pandore.
Resumo:
De récentes découvertes montrent le rôle important que joue l’acide ribonucléique (ARN) au sein des cellules, que ce soit le contrôle de l’expression génétique, la régulation de plusieurs processus homéostasiques, en plus de la transcription et la traduction de l’acide désoxyribonucléique (ADN) en protéine. Si l’on veut comprendre comment la cellule fonctionne, nous devons d’abords comprendre ses composantes et comment ils interagissent, et en particulier chez l’ARN. La fonction d’une molécule est tributaire de sa structure tridimensionnelle (3D). Or, déterminer expérimentalement la structure 3D d’un ARN s’avère fort coûteux. Les méthodes courantes de prédiction par ordinateur de la structure d’un ARN ne tiennent compte que des appariements classiques ou canoniques, similaires à ceux de la fameuse structure en double-hélice de l’ADN. Ici, nous avons amélioré la prédiction de structures d’ARN en tenant compte de tous les types possibles d’appariements, dont ceux dits non-canoniques. Cela est rendu possible dans le contexte d’un nouveau paradigme pour le repliement des ARN, basé sur les motifs cycliques de nucléotides ; des blocs de bases pour la construction des ARN. De plus, nous avons dévelopées de nouvelles métriques pour quantifier la précision des méthodes de prédiction des structures 3D des ARN, vue l’introduction récente de plusieurs de ces méthodes. Enfin, nous avons évalué le pouvoir prédictif des nouvelles techniques de sondage de basse résolution des structures d’ARN.
Resumo:
Les Tableaux de Bord de la Performance ont été acclamés avec raison depuis leur introduction en 1992, mais les intellectuels continuent encore à étudier leurs aspects pragmatiques. Ce papier contribue à la littérature sur les Tableaux de Bord de la Performance, tout d’abord, en offrant une explication logique quant à leur succès et ensuite, en présentant un cadre de travail contextuel de tableaux de bord de la performance pour une structure de gestion hiérarchisée. Le cadre de travail contextuel réforme la perspective d’apprentissage et de croissance du tableau de bord de la performance (i) en effectuant la transition de référence (subjective/objective), et (ii) en reconnaissant que la Perspective d’Apprentissage et de Croissance implique avant tout une incidence de formulation stratégique d’une extra-entité. Le transfert de l’incidence (intra-entité/extra-entité) réconcilie l’évolution de la position de politique de gestion non ordonnée [Contenu: (Contenu: Contexte): Contexte] qu’est la Perspective d’Apprentissage et de Croissance Concomitante. Le cadre de travail supplante également les Perspectives des Tableaux de Bord de la Performances développés par Kaplan et Norton en ajoutant la perspective de politique sociale qui manquait. La perspective manquante implique une transition de référence objective [(position endogène, perspective exogène): (position exogène, perspective exogène)]. De tels signaux de transition [Contenu: (Contenu: Contexte): Contexte] ordonnent l’évolution de la position de politique de gestion.
Resumo:
Problématique : L’arrivée des tests de pharmacogénétique a été annoncée dans les médias et la littérature scientifique telle une révolution, un tournant vers la médecine personnalisée. En réalité, cette révolution se fait toujours attendre. Plusieurs barrières législatives, scientifiques, professionnelles et éthiques sont décrites dans la littérature comme étant la cause du délai de la translation des tests de pharmacogénétique, du laboratoire vers la clinique. Cet optimisme quant à l’arrivée de la pharmacogénétique et ces barrières existent-elles au Québec? Quel est le contexte de translation des tests de pharmacogénétique au Québec? Actuellement, il n’existe aucune donnée sur ces questions. Il est pourtant essentiel de les évaluer. Alors que les attentes et les pressions pour l’intégration rapide de technologies génétiques sont de plus en plus élevées sur le système de santé québécois, l’absence de planification et de mécanisme de translation de ces technologies font craindre une translation et une utilisation inadéquates. Objectifs : Un premier objectif est d’éclairer et d’enrichir sur les conditions d’utilisation et de translation ainsi que sur les enjeux associés aux tests de pharmacogénétique dans le contexte québécois. Un deuxième objectif est de cerner ce qui est véhiculé sur la PGt dans différentes sources, dont les médias. Il ne s’agit pas d’évaluer si la pharmacogénétique devrait être intégrée dans la clinique, mais de mettre en perspective les espoirs véhiculés et la réalité du terrain. Ceci afin d’orienter la réflexion quant au développement de mécanismes de translation efficients et de politiques associées. Méthodologie : L’analyse des discours de plusieurs sources documentaires (n=167) du Québec et du Canada (1990-2005) et d’entretiens avec des experts québécois (n=19) a été effectuée. Quatre thèmes ont été analysés : 1) le positionnement et les perceptions envers la pharmacogénétique; 2) les avantages et les risques reliés à son utilisation; 3) les rôles et les tensions entre professionnels; 4) les barrières et les solutions de translation. Résultats : L’analyse des représentations véhiculées sur la pharmacogénétique dans les sources documentaires se cristallise autour de deux pôles. Les représentations optimistes qui révèlent une fascination envers la médecine personnalisée, créant des attentes (« Génohype ») en regard de l’arrivée de la pharmacogénétique dans la clinique. Les représentations pessimistes qui révèlent un scepticisme (« Génomythe ») envers l’arrivée de la pharmacogénétique et qui semblent imprégnés par l’historique des représentations médiatiques négatives de la génétique. Quant à l’analyse des entretiens, celle-ci a permis de mettre en lumière le contexte actuel du terrain d’accueil. En effet, selon les experts interviewés, ce contexte comporte des déficiences législatives et un dysfonctionnement organisationnel qui font en sorte que l’utilisation des tests de pharmacogénétique est limitée, fragmentée et non standardisée. S’ajoute à ceci, le manque de données probantes et de dialogue entre des acteurs mal ou peu informés, la résistance et la crainte de certains professionnels. Discussion : Plusieurs changements dans la réglementation des systèmes d’innovation ainsi que dans le contexte d’accueil seront nécessaires pour rendre accessibles les tests de pharmacogénétique dans la pratique clinique courante. Des mécanismes facilitateurs de la translation des technologies et des facteurs clés de réussite sont proposés. Enfin, quelques initiatives phares sont suggérées. Conclusion : Des efforts au niveau international, national, provincial et local sont indispensables afin de résoudre les nombreux obstacles de la translation des tests de pharmacogénétique au Québec et ainsi planifier l’avenir le plus efficacement et sûrement possible.
Resumo:
La biologie moléculaire et, plus spécifiquement, la régulation de l’expression génique ont été révolutionnées par la découverte des microARN (miARN). Ces petits ARN d’une vingtaine de nucléotides sont impliqués dans la majorité des processus cellulaires et leur expression est dérégulée dans plusieurs maladies, comme le cancer. Un miARN reconnaît ses cibles principalement par son noyau, ce qui lui permet de réguler simultanément la traduction de centaines d’ARN messagers. Nos travaux ont montré l’existence d’une boucle de rétro-activation négative, entre deux miARN du polycistron miR-17-92 et trois facteurs de transcription de la famille E2F. E2F1, 2 et 3 induisent la transcription de miR-20 et miR-17 qui par la suite inhibent leur traduction. Nos résultats suggèrent l’implication de cette boucle dans la résistance à l’apoptose induite par E2F1 dans les cellules du cancer de la prostate, ce qui expliquerait en partie le potentiel oncogénique du polycistron miR-17-92. L’étude de ce motif de régulation nous a donc permis de réaliser le potentiel incroyable qu’ont les miARN à inhiber la traduction de plusieurs gènes. Basé sur les règles de reconnaissance des miARN, nous avons développé et validé MultiTar. Cet outil bioinformatique permet de trouver la séquence d’un miARN artificiel ayant le potentiel d’inhiber la traduction de gènes d’intérêts choisis par l’utilisateur. Afin de valider MultiTar, nous avons généré des multitargets pouvant inhiber l’expression des trois E2F, ce qui nous a permis de comparer leur efficacité à celle de miR-20. Nos miARN artificiels ont la capacité d’inhiber la traduction des E2F et de neutraliser leur fonction redondante de la progression du cycle cellulaire de façon similaire ou supérieur à miR-20. La fonctionnalité de notre programme, ouvre la voie à une stratégie flexible pouvant cibler le caractère multigénique de différents processus cellulaires ou maladies complexes, tel que le cancer. L’utilisation de miARN artificiels pourrait donc représenter une alternative intéressante aux stratégies déjà existantes, qui sont limitées à inhiber des cibles uniques. En plus d’élucider un réseau de régulation complexe impliquant les miARN, nous avons pu tirer profit de leur potentiel d’inhibition par la conception de miARN artificiels.
Resumo:
À l’ère de la mondialisation institutionnelle des sociétés modernes, alors que la confluence d’une myriade d’influences à la fois micro et macro-contextuelles complexifient le panorama sociopolitique international, l’intégration de l’idéal participatif par les processus de démocratisation de la santé publique acquiert l’apparence d’une stratégie organisationnelle promouvant la cohésion des multiples initiatives qui se tissent simultanément aux échelles locale et globale. L’actualisation constante des savoirs contemporains par les divers secteurs sociétaux ainsi que la perception sociale de différents risques conduisent à la prise de conscience des limites de la compétence technique des systèmes experts associés au domaine de la santé et des services sociaux. La santé publique, une des responsables légitimes de la gestion des risques modernes à l’échelle internationale, fait la promotion de la création d’espaces participatifs permettant l’interaction mutuelle d’acteurs intersectoriels et de savoirs multiples constamment modifiables. Il s’agit là d’une stratégie de relocalisation institutionnelle de l’action collective afin de rétablir la confiance envers la fiabilité des représentants de la santé publique internationale, qui ne répondent que partiellement aux besoins actuels de la sécurité populationnelle. Dans ce contexte, les conseils locaux de santé (CLS), mis en place à l’échelle internationale dans le cadre des politiques régionales de décentralisation des soins de santé primaires (SSP), représentent ainsi des espaces participatifs intéressants qui renferment dans leur fonctionnement tout un univers de forces de tension paradoxales. Ils nous permettent d’examiner la relation de caractère réciproque existant entre, d’une part, une approche plus empirique par l’analyse en profondeur des pratiques participatives (PP) plus spécifiques et, d’autre part, une compréhension conceptuelle de la mondialisation institutionnelle qui définit les tendances expansionnistes très générales des sociétés contemporaines. À l’aide du modèle de la transition organisationnelle (MTO), nous considérons que les PP intégrées à la gouverne des CLS sont potentiellement porteuses de changement organisationnel, dans le sens où elles sont la condition et la conséquence de nombreuses traductions stratégiques et systémiques essentiellement transformatrices. Or, pour qu’une telle transformation puisse s’accomplir, il est nécessaire de développer les compétences participatives pertinentes, ce qui confère au phénomène participatif la connotation d’apprentissage organisationnel de nouvelles formes d’action et d’intervention collectives. Notre modèle conceptuel semble fournir un ensemble de considérations épistémosociales fort intéressantes et très prometteuses permettant d’examiner en profondeur les dimensions nécessaires d’un renouvellement organisationnel de la participation dans le champ complexe de la santé publique internationale. Il permet de concevoir les interventions complexes comme des réseaux épistémiques de pratiques participatives (RÉPP) rassemblant des acteurs très diversifiés qui s’organisent autour d’un processus de conceptualisation transculturelle de connaissances ainsi que d’opérationnalisation intersectorielle des actions, et ce, par un ensemble de mécanismes d’instrumentalisation organisationnelle de l’apprentissage. De cette façon, le MTO ainsi que la notion de RÉPP permettent de mieux comprendre la création de passages incessants entre l’intégration locale des PP dans la gouverne des interventions complexes de la santé et des services sociaux – tels que les CLS –, et les processus plus larges de réorganisation démocratique de la santé publique dans le contexte global de la mondialisation institutionnelle. Cela pourrait certainement nous aider à construire collectivement l’expression réflexive et manifeste des valeurs démocratiques proposées dans la Déclaration d’Alma-Ata, publiée en 1978, lors de la première Conférence internationale sur les SSP.
Resumo:
La santé publique n’échappe pas au courant actuel qui valorise le développement d’une culture de décision et d’action axée sur l’utilisation des données probantes. Des études qui portent sur les services de santé et les politiques publiques en lien avec les services de santé proposent diverses stratégies interactives entre les producteurs et les utilisateurs de connaissances pour favoriser le passage de la théorie vers la pratique. Dans ce contexte, une place importante est accordée aux activités de partage et d’utilisation des connaissances (PUC) au sein des organisations de santé. Or, la mise en œuvre de ces stratégies est peu documentée dans le cadre particulier de la pratique de la santé publique. Pour dégager les processus qui œuvrent au cœur du phénomène dans la pratique de la santé publique sur le territoire montréalais, des cadres au niveau de la direction régionale ont été interrogés sur leurs expériences et leurs perceptions relatives aux activités de PUC. L’analyse du corpus par théorisation ancrée a permis l’émergence de certains concepts clés qui ont été intégrés de manière à formuler une théorie substantive du partage et de l’utilisation des connaissances. La synergie entre le savoir, le savoir-faire et le savoir être se traduit par un savoir agir complexe des acteurs et des organisations qui implique avant tout un climat propice à la collaboration. L’importance accordée à la dimension relationnelle au cœur des activités de PUC témoigne de la volonté de mettre en place des structures collaboratives et de s’éloigner graduellement d’une gestion hiérarchique des savoirs dans la pratique de la santé publique à Montréal. Cette analyse démontre que les défis relatifs à la mise en œuvre d’activités de PUC dépassent les préoccupations reliées aux étapes du processus de transfert des connaissances tel que présenté par la plupart des modèles conceptuels traditionnels.
Resumo:
La mémoire et l’apprentissage sont des phénomènes complexes qui demeurent encore incertains quant aux origines cellulaire et moléculaire. Il est maintenant connu que des changements au niveau des synapses, comme la plasticité synaptique, pourraient déterminer la base cellulaire de la formation de la mémoire. Alors que la potentialisation à long-terme (LTP) représente un renforcement de l’efficacité de transmission synaptique, la dépression à long-terme (LTD) constitue une diminution de l’efficacité des connexions synaptiques. Des études ont mis à jour certains mécanismes qui participent à ce phénomène de plasticité synaptique, notamment, les mécanismes d’induction et d’expression, ainsi que les changements morphologiques des épines dendritiques. La grande majorité des synapses excitatrices glutamatergiques se situe au niveau des épines dendritiques et la présence de la machinerie traductionnelle près de ces protubérances suggère fortement l’existence d’une traduction locale d’ARNm. Ces ARNm seraient d’ailleurs acheminés dans les dendrites par des protéines pouvant lier les ARNm et assurer leur transport jusqu’aux synapses activées. Le rôle des protéines Staufen (Stau1 et Stau2) dans le transport, la localisation et dans la régulation de la traduction de certains ARNm est bien établi. Toutefois, leur rôle précis dans la plasticité synaptique demeure encore inconnu. Ainsi, cette thèse de doctorat évalue l’importance des protéines Staufen pour le transport et la régulation d’ARNm dans la plasticité synaptique. Nous avons identifié des fonctions spécifiques à chaque isoforme; Stau1 et Stau2 étant respectivement impliquées dans la late-LTP et la LTD dépendante des récepteurs mGluR. Cette spécificité s’applique également au rôle que chaque isoforme joue dans la morphogenèse des épines dendritiques, puisque Stau1 semble nécessaire au maintien des épines dendritiques matures, alors que Stau2 serait davantage impliquée dans le développement des épines. D’autre part, nos travaux ont permis de déterminer que la morphogenèse des épines dendritiques dépendante de Stau1 était régulée par une plasticité synaptique endogène dépendante des récepteurs NMDA. Finalement, nous avons précisé les mécanismes de régulation de l’ARNm de la Map1b par Stau2 et démontré l’importance de Stau2 pour la production et l’assemblage des granules contenant les transcrits de la Map1b nécessaires pour la LTD dépendante des mGluR. Les travaux de cette thèse démontrent les rôles spécifiques des protéines Stau1 et Stau2 dans la régulation de la plasticité synaptique par les protéines Stau1 et Stau2. Nos travaux ont permis d’approfondir les connaissances actuelles sur les mécanismes de régulation des ARNm par les protéines Staufen dans la plasticité synaptique. MOTS-CLÉS EN FRANÇAIS: Staufen, hippocampe, plasticité synaptique, granules d’ARN, traduction, épines dendritiques.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
Les processus mitochondriaux tels que la réplication et la traduction sont effectués par des complexes multiprotéiques. Par contre, le métabolisme et la voie de maturation des ARN mitochondriaux (p. ex précurseurs des ARNt et des ARNr) sont habituellement traités comme une suite de réactions catalysées par des protéines séparées. L’exécution fidèle et optimale de ces processus mitochondriaux, exige un couplage étroit nécessaire pour la canalisation des intermédiaires métaboliques. Or, les évidences en faveur de l'interconnexion postulée de ces processus cellulaires sont peu nombreuses et proviennent en grande partie des interactions protéine-protéine. Contrairement à la perception classique, nos résultats révèlent l’organisation des fonctions cellulaires telles que la transcription, la traduction, le métabolisme et la régulation en supercomplexes multifonctionnels stables, dans les mitochondries des champignons (ex Saccharomyces cerevisiae, Aspergillus nidulans et Neurospora crassa), des animaux (ex Bos taurus), des plantes (B. oleracea et Arabidopsis thaliana) et chez les bactéries (ex E. coli) à partir desquelles les mitochondries descendent. La composition de ces supercomplexes chez les champignons et les animaux est comparable à celle de levure, toutefois, chez les plantes et E. coli ils comportent des différences notables (ex, présence des enzymes spécifiques à la voie de biosynthèse des sucres et les léctines chez B. oleracea). Chez la levure, en accord avec les changements dûs à la répression catabolique du glucose, nos résultats révèlent que les supercomplexes sont dynamiques et que leur composition en protéines dépend des stimulis et de la régulation cellulaire. De plus, nous montrons que l’inactivation de la voie de biosynthèse des lipides de type II (FASII) perturbe l’assemblage et/ou la biogenèse du supercomplexe de la RNase P (responsable de la maturation en 5’ des précurseurs des ARNt), ce qui suggère que de multiples effets pléiotropiques peuvent être de nature structurale entre les protéines. Chez la levure et chez E. coli, nos études de la maturation in vitro des précurseurs des ARNt et de la protéomique révèlent l’association de la RNase P avec les enzymes de la maturation d’ARNt en 3’. En effet, la voie de maturation des pré-ARNt et des ARNr, et la dégradation des ARN mitochondriaux semblent êtres associées avec la machinerie de la traduction au sein d’un même supercomplexe multifonctionnel dans la mitochondrie de la levure. Chez E. coli, nous avons caractérisé un supercomplexe similaire qui inclut en plus de la RNase P: la PNPase, le complexe du RNA degradosome, l’ARN polymérase, quatre facteurs de transcription, neuf aminoacyl-tRNA synthétases, onze protéines ribosomiques, des chaperons et certaines protéines métaboliques. Ces résultats supposent l’association physique de la transcription, la voie de maturation et d’aminoacylation des ARNt, la dégradation des ARN. Le nombre de cas où les activités cellulaires sont fonctionnellement et structurellement associées est certainement à la hausse (ex, l’éditosome et le complexe de la glycolyse). En effet, l’organisation en supercomplexe multifonctionnel représente probablement l’unité fonctionnelle dans les cellules et les analyses de ces super-structures peuvent devenir la prochaine cible de la biologie structurale.
Resumo:
La flexibilité est une caractéristique intrinsèque des protéines qui doivent, dès le mo- ment de leur synthèse, passer d’un état de chaîne linéaire à un état de structure tridimen- sionnelle repliée et enzymatiquement active. Certaines protéines restent flexibles une fois repliées et subissent des changements de conformation de grande amplitude lors de leur cycle enzymatique. D’autres contiennent des segments si flexibles que leur structure ne peut être résolue par des méthodes expérimentales. Dans cette thèse, nous présentons notre application de méthodes in silico d’analyse de la flexibilité des protéines : • À l’aide des méthodes de dynamique moléculaire dirigée et d’échantillonnage pa- rapluie, nous avons caractérisé les trajectoires de liaison de l’inhibiteur Z-pro- prolinal à la protéine Prolyl oligopeptidase et identifié la trajectoire la plus pro- bable. Nos simulations ont aussi identifié un mode probable de recrutement des ligands utilisant une boucle flexible de 19 acides aminés à l’interface des deux domaines de la protéine. • En utilisant les méthodes de dynamique moléculaire traditionnelle et dirigée, nous avons examiné la stabilité de la protéine SAV1866 dans sa forme fermée insérée dans une membrane lipidique et étudié un des modes d’ouverture possibles par la séparation de ses domaines liant le nucléotide. • Nous avons adapté auproblème de la prédiction de la structure des longues boucles flexibles la méthode d’activation et de relaxation ART-nouveau précédemment uti- lisée dans l’étude du repliement et de l’agrégation de protéines. Appliqué au replie- ment de boucles de 8 à 20 acides aminés, la méthode démontre une dépendance quadratique du temps d’exécution sur la longueur des boucles, rendant possible l’étude de boucles encore plus longues.