975 resultados para impact des publications
Resumo:
La production biologique d'hydrogène (H2) représente une technologie possible pour la production à grande échelle durable de H2 nécessaire pour l'économie future de l'hydrogène. Cependant, l'obstacle majeur à l'élaboration d'un processus pratique a été la faiblesse des rendements qui sont obtenus, généralement autour de 25%, bien en sous des rendements pouvant être atteints pour la production de biocarburants à partir d'autres processus. L'objectif de cette thèse était de tenter d'améliorer la production d'H2 par la manipulation physiologique et le génie métabolique. Une hypothèse qui a été étudiée était que la production d'H2 pourrait être améliorée et rendue plus économique en utilisant un procédé de fermentation microaérobie sombre car cela pourrait fournir la puissance supplémentaire nécessaire pour une conversion plus complète du substrat et donc une production plus grande d'H2 sans l'aide de l'énergie lumineuse. Les concentrations optimales d’O2 pour la production de H2 microaérobie ont été examinées ainsi que l'impact des sources de carbone et d'azote sur le processus. La recherche présentée ici a démontré la capacité de Rhodobacter capsulatus JP91 hup- (un mutant déficient d’absorption-hydrogénase) de produire de l'H2 sous condition microaérobie sombre avec une limitation dans des quantités d’O2 et d'azote fixé. D'autres travaux devraient être entrepris pour augmenter les rendements d'H2 en utilisant cette technologie. De plus, un processus de photofermentation a été créé pour améliorer le rendement d’H2 à partir du glucose à l'aide de R. capsulatus JP91 hup- soit en mode non renouvelé (batch) et / ou en conditions de culture en continu. Certains défis techniques ont été surmontés en mettant en place des conditions adéquates de fonctionnement pour un rendement accru d'H2. Un rendement maximal de 3,3 mols de H2/ mol de glucose a été trouvé pour les cultures en batch tandis que pour les cultures en continu, il était de 10,3 mols H2/ mol de glucose, beaucoup plus élevé que celui rapporté antérieurement et proche de la valeur maximale théorique de 12 mols H2/ mol de glucose. Dans les cultures en batch l'efficacité maximale de conversion d’énergie lumineuse était de 0,7% alors qu'elle était de 1,34% dans les cultures en continu avec un rendement de conversion maximum de la valeur de chauffage du glucose de 91,14%. Diverses autres approches pour l'augmentation des rendements des processus de photofermentation sont proposées. Les résultats globaux indiquent qu'un processus photofermentatif efficace de production d'H2 à partir du glucose en une seule étape avec des cultures en continu dans des photobioréacteurs pourrait être développé ce qui serait un processus beaucoup plus prometteur que les processus en deux étapes ou avec les co-cultures étudiés antérieurément. En outre, l'expression hétérologue d’hydrogenase a été utilisée comme une stratégie d'ingénierie métabolique afin d'améliorer la production d'H2 par fermentation. La capacité d'exprimer une hydrogénase d'une espèce avec des gènes de maturation d'une autre espèce a été examinée. Une stratégie a démontré que la protéine HydA orpheline de R. rubrum est fonctionnelle et active lorsque co-exprimée chez Escherichia coli avec HydE, HydF et HydG provenant d'organisme différent. La co-expression des gènes [FeFe]-hydrogénase structurels et de maturation dans des micro-organismes qui n'ont pas une [FeFe]-hydrogénase indigène peut entraîner le succès dans l'assemblage et la biosynthèse d'hydrogénase active. Toutefois, d'autres facteurs peuvent être nécessaires pour obtenir des rendements considérablement augmentés en protéines ainsi que l'activité spécifique des hydrogénases recombinantes. Une autre stratégie a consisté à surexprimer une [FeFe]-hydrogénase très active dans une souche hôte de E. coli. L'expression d'une hydrogénase qui peut interagir directement avec le NADPH est souhaitable car cela, plutôt que de la ferrédoxine réduite, est naturellement produit par le métabolisme. Toutefois, la maturation de ce type d'hydrogénase chez E. coli n'a pas été rapportée auparavant. L'opéron hnd (hndA, B, C, D) de Desulfovibrio fructosovorans code pour une [FeFe]-hydrogénase NADP-dépendante, a été exprimé dans différentes souches d’E. coli avec les gènes de maturation hydE, hydF et hydG de Clostridium acetobutylicum. L'activité de l'hydrogénase a été détectée in vitro, donc une NADP-dépendante [FeFe]-hydrogénase multimérique active a été exprimée avec succès chez E. coli pour la première fois. Les recherches futures pourraient conduire à l'expression de cette enzyme chez les souches de E. coli qui produisent plus de NADPH, ouvrant la voie à une augmentation des rendements d'hydrogène via la voie des pentoses phosphates.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Le Web représente actuellement un espace privilégié d’expression et d’activité pour plusieurs communautés, où pratiques communicationnelles et pratiques documentaires s’enrichissent mutuellement. Dans sa dimension visible ou invisible, le Web constitue aussi un réservoir documentaire planétaire caractérisé non seulement par l’abondance de l’information qui y circule, mais aussi par sa diversité, sa complexité et son caractère éphémère. Les projets d’archivage du Web en cours abordent pour beaucoup cette question du point de vue de la préservation des publications en ligne sans la considérer dans une perspective archivistique. Seuls quelques projets d’archivage du Web visent la préservation du Web organisationnel ou gouvernemental. La valeur archivistique du Web, notamment du Web organisationnel, ne semble pas être reconnue malgré un effort soutenu de certaines archives nationales à diffuser des politiques d’archivage du Web organisationnel. La présente thèse a pour but de développer une meilleure compréhension de la nature des archives Web et de documenter les pratiques actuelles d’archivage du Web organisationnel. Plus précisément, cette recherche vise à répondre aux trois questions suivantes : (1) Que recommandent en général les politiques d’archivage du Web organisationnel? (2) Quelles sont les principales caractéristiques des archives Web? (3) Quelles pratiques d’archivage du Web organisationnel sont mises en place dans des organisations au Québec? Pour répondre à ces questions, cette recherche exploratoire et descriptive a adopté une approche qualitative basée sur trois modes de collecte des données, à savoir : l’analyse d’un corpus de 55 politiques et documents complémentaires relatifs à l’archivage du Web organisationnel; l’observation de 11 sites Web publics d’organismes au Québec de même que l’observation d’un échantillon de 737 documents produits par ces systèmes Web; et, enfin, des entrevues avec 21 participants impliqués dans la gestion et l’archivage de ces sites Web. Les résultats de recherche démontrent que les sites Web étudiés sont le produit de la conduite des activités en ligne d’une organisation et documentent, en même temps, les objectifs et les manifestations de sa présence sur le Web. De nouveaux types de documents propres au Web organisationnel ont pu être identifiés. Les documents qui ont migré sur le Web ont acquis un autre contexte d’usage et de nouvelles caractéristiques. Les méthodes de gestion actuelles doivent prendre en considération les propriétés des documents dans un environnement Web. Alors que certains sites d’étude n’archivent pas leur site Web public, d’autres s’y investissent. Toutefois les choix établis ne correspondent pas toujours aux recommandations proposées dans les politiques d’archivage du Web analysées et ne garantissent pas la pérennité des archives Web ni leur exploitabilité à long terme. Ce constat nous a amenée à proposer une politique type adaptée aux caractéristiques des archives Web. Ce modèle décrit les composantes essentielles d’une politique pour l’archivage des sites Web ainsi qu’un éventail des mesures que pourrait mettre en place l’organisation en fonction des résultats d’une analyse des risques associés à l’usage de son site Web public dans la conduite de ses affaires.
Resumo:
Mycobacterium avium ssp. paratuberculosis (MAP) est l'agent causal de la paratuberculose, maladie entérique, chronique et incurable des ruminants, avec un impact économique important. Une meilleure compréhension des facteurs de risque associés à l'introduction de la maladie dans un troupeau est essentielle pour sa prévention. L’amélioration des tests diagnostiques est aussi importante pour son contrôle. L’introduction des nouveaux animaux dans le troupeau et la présence et contact des différentes espèces sauvages et domestiques avec les vaches, semblent être des facteurs de risques d’introduction de la maladie. Nous avons réalisé une revue systématique dont l`objective était de recueillir l’information pertinente pour répondre à la question sur l’importance de ces facteurs et leur impact sur l’introduction de la maladie dans un troupeau. D`un autre côté, la détection de MAP dans les fèces par culture bactérienne demeure la méthode diagnostique de choix malgré les facteurs qui l`affectent. Une série de 3 étapes est requise afin de confirmer la présence du MAP : (1) culture (2) coloration, et (3) confirmation du MAP par PCR (si détecté à l´étape 2). Certains échantillons fécaux présentent une particularité en raison de leur forte charge de micro-organismes. Ces contaminants peuvent interférer avec la croissance et la détection de MAP. Une étude visant à : a) estimer l'impact des certain covariables sur les résultats de la culture de MAP parmi l`analyse rétrospective d`un banque des données et b) évaluer la possibilité d'optimiser le processus de diagnostic du MAP en effectuant l'analyse PCR sur les cultures déclarées comme contaminées a été réalisée.
Resumo:
Cette étude porte sur l’analyse de l’identité, en termes de fonction, des monuments érigés sous tumulus dans le territoire actuel de la Bulgarie. Ces monuments sont généralement datés du Ve au IIIe siècle avant notre ère et ont été associés aux peuples thraces qui ont évolué sur ce territoire durant cette époque. Les monuments thraces sous tumulus, aux structures en blocs de pierre ou en moellons, ou d’un mélange de matériaux et de techniques différentes, ont été invariablement recouverts de monticules de terre dès l’Antiquité. Les tumuli ainsi obtenus ont été utilisés à différentes fins par les peuples locaux jusqu’à l’époque moderne. Les études plus ou moins détaillées des monuments thraces sous tumulus, qui ont débuté dès la fin du XIXe siècle de notre ère, ainsi que l’accumulation rapide de nouveaux exemplaires durant les deux dernières décennies, ont permis de constater une grande variabilité de formes architecturales en ce qui a trait aux différentes composantes de ces constructions. Cette variabilité a poussé certains chercheurs à proposer des typologies des monuments afin de permettre une meilleure maîtrise des données, mais aussi dans le but d’appuyer des hypothèses portant sur les origines des différents types de constructions sous tumulus, ou sur les origines des différentes formes architectoniques identifiées dans leurs structures. Des hypothèses portant sur la fonction de ces monuments, à savoir, sur l’usage qu’en ont fait les peuples thraces antiques, ont également été émises : certains chercheurs ont argumenté pour un usage funéraire, d’autres pour une fonction cultuelle. Un débat de plus en plus vif s’est développé durant les deux dernières décennies entre chercheurs de l’un et de l’autre camp intellectuel. Il a été constamment alimenté par de nouvelles découvertes sur le terrain, ainsi que par la multiplication des publications portant sur les monuments thraces sous tumulus. Il est, de ce fait, étonnant de constater que ni les hypothèses portant sur les origines possibles de ces constructions, ni celles ayant trait à leurs fonctions, n’ont été basées sur des données tangibles – situation qui a eu pour résultat la désignation des monuments thraces par « tombes-temples-mausolées », étiquette chargée sinon d’un sens précis, du moins d’une certaine connotation, à laquelle le terme « hérôon » a été ajouté relativement récemment. Notre étude propose de dresser un tableau actuel des recherches portant sur les monuments thraces sous tumulus, ainsi que d’analyser les détails de ce tableau, non pas dans le but de trancher en faveur de l’une ou de l’autre des hypothèses mentionnées, mais afin d’expliquer les origines et la nature des problèmes que les recherches portant sur ces monuments ont non seulement identifiés, mais ont également créés. Soulignant un fait déjà noté par plusieurs chercheurs-thracologues, celui du manque frappant de données archéologiques exactes et précises dans la grande majorité des publications des monuments thraces, nous avons décidé d’éviter la tendance optimiste qui persiste dans les études de ces derniers et qui consiste à baser toute analyse sur le plus grand nombre de trouvailles possible dans l’espoir de dresser un portrait « complet » du contexte archéologique immédiat des monuments ; portrait qui permettrait au chercheur de puiser les réponses qui en émergeraient automatiquement, puisqu’il fournirait les éléments nécessaires pour placer l’objet de l’analyse – les monuments – dans un contexte historique précis, reconstitué séparément. Ce manque de données précises nous a porté à concentrer notre analyse sur les publications portant sur les monuments, ainsi qu’à proposer une approche théoriquement informée de l’étude de ces derniers, en nous fondant sur les discussions actuelles portant sur les méthodes et techniques des domaines de l’archéologie, de l’anthropologie et de l’histoire – approche étayée dans la première partie de cette thèse. Les éléments archéologiques (avant tout architecturaux) qui ont servi de base aux différentes hypothèses portant sur les constructions monumentales thraces sont décrits et analysés dans le deuxième volet de notre étude. Sur la base de cette analyse, et en employant la méthodologie décrite et argumentée dans le premier volet de notre thèse, nous remettons en question les différentes hypothèses ayant trait à l’identité des monuments. L’approche de l’étude des monuments thraces sous tumulus que nous avons adoptée tient compte tant de l’aspect méthodologique des recherches portant sur ceux-ci, que des données sur lesquelles les hypothèses présentées dans ces recherches ont été basées. Nous avons porté une attention particulière à deux aspects différents de ces recherches : celui du vocabulaire technique et théorique implicitement ou explicitement employé par les spécialistes et celui de la façon dont la perception de l’identité des monuments thraces a été affectée par l’emploi de ce vocabulaire. Ces analyses nous ont permis de reconstituer, dans le dernier volet de la présente étude, l’identité des monuments thraces telle qu’implicitement ou explicitement perçue par les thracologues et de comparer cette restitution à celle que nous proposons sur la base de nos propres études et observations. À son tour, cette comparaison des restitutions des différentes fonctions des monuments permet de conclure que celle optant pour une fonction funéraire, telle que nous la reconstituons dans cette thèse, est plus économe en inférences et mieux argumentée que celle identifiant les monuments thraces de lieux de culte. Cependant, l’impossibilité de réfuter complètement l’hypothèse des « tombes-temples » (notamment en raison du manque de données), ainsi que certains indices que nous avons repérés dans le contexte architectural et archéologique des monuments et qui pourraient supporter des interprétations allant dans le sens d’une telle identification de ces derniers, imposent, d’après nous, la réévaluation de la fonction des constructions thraces sous tumulus sur la base d’une restitution complète des pratiques cultuelles thraces d’après les données archéologiques plutôt que sur la base d’extrapolations à partir des textes grecs anciens. À notre connaissance, une telle restitution n’a pas encore été faite. De plus, le résultat de notre analyse des données archéologiques ayant trait aux monuments thraces sous tumulus, ainsi que des hypothèses et, plus généralement, des publications portant sur les origines et les fonctions de ces monuments, nous ont permis de constater que : 1) aucune des hypothèses en question ne peut être validée en raison de leur recours démesuré à des extrapolations non argumentées (que nous appelons des « sauts d’inférence ») ; 2) le manque flagrant de données ou, plus généralement, de contextes archéologiques précis et complets ne permet ni l’élaboration de ces hypothèses trop complexes, ni leur validation, justifiant notre approche théorique et méthodologique tant des monuments en question, que des études publiées de ceux-ci ; 3) le niveau actuel des connaissances et l’application rigoureuse d’une méthodologie d’analyse permettent d’argumenter en faveur de la réconciliation des hypothèses « funéraires » et « cultuelles » – fait qui ne justifie pas l’emploi d’étiquettes composites comme « templestombes », ni les conclusions sur lesquelles ces étiquettes sont basées ; 4) il y a besoin urgent dans le domaine de l’étude des monuments thraces d’une redéfinition des approches méthodologiques, tant dans les analyses théoriques des données que dans le travail sur le terrain – à défaut de procéder à une telle redéfinition, l’identité des monuments thraces sous tumulus demeurera une question d’opinion et risque de se transformer rapidement en une question de dogmatisme.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.
Resumo:
Cette thése relie trois articles sur l'économie politique. Ces articles analysent à la fois théoriquement et empiriquement si, et dans quelle mesure, trois phénomènes politiques différents (les partis politiques, les guerres civiles et les menaces externes), et leur interaction, influent sur les résultats économiques. Le premier chapitre étudie l'impact de la présence au pouvoir des politiciens de nouveaux partis politiques sur la taille du gouvernement. Le chapitre se concentre sur les municipalités colombiennes, où les nouveaux partis politiques ont été nombreux et fructueux au cours des dernières années. Les estimations par régressions sur discontinuité montrent que les dépenses publiques et les recettes fiscales sont significativement plus élevées dans les municipalités gouvernées par un maire d'un nouveau parti politique. En utilisant des informations sur la politique locale et des caractéristiques des nouveaux partis, je soutiens que ce résultat peut être expliqué par le fait qu'il y a moins d'information sur les politiciens de nouveaux partis que les politiciens des partis traditionnels. Le deuxième chapitre développe une nouvelle explication de l'impact des guerres civiles et des conflits interétatiques sur le state-building qui repose sur l'idée que les protagonistes de ces deux types de conflits peuvent avoir un lien (ethnique ou idéologique). Un premier résultat montre que la force de ce lien détermine si les conflits contre des adversaires internes (i.e. guerres civiles) ou des ennemis externes (i.e. conflits interétatiques) sont complémentaires ou se substituent, conduisant à plus ou moins d'investissement en capacité fiscale. La théorie prédit également un rôle non trivial de la stabilité politique dans la relation entre les deux types de conflits et la capacité fiscale: un deuxième résultat montre que, bien que la stabilité politique se traduit par moins de capacité fiscale, plus de stabilité n'implique pas plus de state-building. Leur équivalence dépend du niveau de cohésion des institutions. Un nouveau mécanisme par lequel plus de stabilité politique peut impliquer moins de state-building est proposé. En outre, il est démontré que des corrélations dans les données cross-country sont compatibles avec la théorie. Le troisième chapitre examine la relation entre la probabilité d'occurrence d'un conflit intérieur violent et le risque qu'un tel conflit "s'externalise" (c'est à dire se propage dans un autre pays en devenant un conflit interétatique). Je considère une situation dans laquelle un conflit interne entre un gouvernement et un groupe rebelle peut s'externaliser. Je montre que le risque d'externalisation augmente la probabilité d'un accord de paix, mais seulement si le gouvernement est suffisamment puissant par rapport aux rebelles, et si le risque d'externalisation est suffisamment élevé. Je montre comment ce modèle aide à comprendre les récents pourparlers de paix entre le gouvernement colombien et le groupe le plus puissant des rebelles dans le pays, les FARC.
Resumo:
La civilisation de l’Indus marque les esprits par une apparente uniformité de la culture matérielle sur la totalité de son territoire (environ 1 million de km carré) durant sa période d’apogée (2600-1900 av. J.-C.). Cette étude cherche à tester deux hypothèses qui pourraient expliquer cette homogénéité : 1) Un pouvoir centralisateur contrôlant la production artisanale; et 2) Un vaste réseau d’échanges et de distribution de la production. Dans ce but, la grande majorité des publications accessibles portant sur la production artisanale d’objets en céramique, en pierres semi-précieuses, en coquillage et en métal ont été inventoriées et analysées. Axée sur la spécialisation du travail artisanal, l’étude a identifié quelques objets dits de prestige (perles classiques harappéennes, bracelets en grès cérame) très probablement liés à une élite. La nature de cette élite est ensuite examinée et un nouveau modèle d’organisation sociopolitique de cette civilisation est proposé.
Resumo:
Dans ma thèse doctorale, j'étudie trois facteurs importants qui caractérisent le commerce international : les différences technologiques entre les pays, les barrières à l'entrée sous la forme de coûts fixes et la migration internationale. Le premier chapitre analyse si les différences technologiques entre les pays peuvent expliquer la spécialisation dans le commerce international entre les pays. Pour mesurer le niveau de la spécialisation, je calcule les index de concentration pour la valeur des importations et des exportations et décompose la concentration totale dans la marge de produits extensive (nombre de produits commercialisés) et la marge de produits intensive (volume de produits commercialisés). En utilisant des données commerciales détaillées au niveau du produit dans 160 pays, mes résultats montrent que les exportations sont plus concentrées que les importations, que la spécialisation se produit principalement au niveau de la marge intensive du produit, et que les économies plus grandes disposent d'importations et d'exportations plus diversifiées, car elles commercialisent plus de produits. Compte tenu de ces faits, j'évalue la capacité du modèle Eaton-Kortum, le principal modèle de la théorie ricardienne du commerce, pour représenter les preuves empiriques. Les résultats montrent que la spécialisation à travers l'avantage comparatif induit par les différences de technologie peut expliquer les faits qualitatifs et quantitatifs. De plus, j'évalue le rôle des déterminants clés de la spécialisation : le degré de l'avantage comparatif, l'élasticité de la substitution et la géographie. Une implication de ces résultats est qu'il est important d’évaluer jusqu'à quel point la volatilité de production mesurée par la volatilité du PIB est motivée par la spécialisation des exportations et des importations. Étant donné le compromis entre l'ouverture du commerce et la volatilité de production, les bénéfices tirés du commerce peuvent s'avérer plus faibles que ceux estimés précédemment. Par conséquent, les politiques commerciales alternatives telles que l'ouverture graduelle au commerce combinée à la diversification de la production pour réduire la concentration de l'exportation peuvent se révéler être une meilleure stratégie que l'approche du laissez-faire. En utilisant la relation entre la taille du marché et l’entrée de firmes et produits, le deuxième chapitre évalue si les barrières à l'entrée sous la forme de coûts fixes à exporter sont au niveau de la firme ou au niveau du produit. Si les coûts fixes se trouvent au niveau de la firme, la firme multiproduits a un avantage de coût de production par rapport aux autres firmes parce qu’elles peuvent diviser les coûts fixes sur plusieurs produits. Dans ce cas, le commerce international sera caractérisé par peu de firmes qui exportent beaucoup des produits. Si les coûts fixes sont au niveau du produit, l’entrée d’un produit est associée avec l’entrée de plusieurs firmes. La raison est qu’une fois que la première firme entre et paye les coûts fixes du produit, elle crée un effet d’entrainement qui réduit les coûts fixes pour des firmes rivales. Dans ce cas, le commerce international sera caractérisé par plusieurs firmes qui vendent des variétés différentes du même produit. En utilisant des données détaillées provenant de 40 pays exportateurs à travers 180 marchés de destination, mes résultats montrent que les barrières à l'entrée se trouvent principalement au niveau du produit. Un marché plus large favorise l'expansion d'un plus grand nombre d’entreprises au sein d'une catégorie de produit plutôt que de permettre aux entreprises produisant plusieurs produits de croître dans une gamme de produits. En regardant la différence entre le nombre d'exportateurs au sein d'une catégorie de produit dans des destinations données, je trouve que le taux d'entrée de firmes augmente significativement après qu'un produit entre la première fois dans le marché. J'en déduis donc que le premier entrant réduit les coûts fixes pour les firmes suivantes. Mes recherches démontrent également que malgré une plus grande compétition sur le marché du produit, les entreprises disposent de revenus d'exportation supérieurs et sont plus susceptibles de rester sur les marchés internationaux. Ces résultats sont cohérents avec l’hypothèse que l’effet d’entrainement incite l'entrée de firmes rivales et permettent aux entreprises de produire à plus grande échelle. Cette recherche dévoile un nombre de conclusions importantes. D'abord, les politiques commerciales encouragent l'entrée de nouveaux produits, par exemple, en promouvant des produits dans les marchés de destination entraînant ainsi des retombées qui se traduiront par un taux de participation plus élevé de l'entreprise et une croissance de l'exportation. Deuxièmement, les consommateurs du pays importateur peuvent bénéficier de prix plus bas pour le produit en réduisant les barrières techniques du commerce. Troisièmement, lorsque l'on effectue des expérimentations politiques sous la forme de réduction des coûts commerciaux, il est de coutume de considérer uniquement une baisse des coûts marginaux et d'évaluer les répercussions sur le bien-être du consommateur. Cependant, un élément important des accords commerciaux est la réduction des barrières techniques au commerce grâce à la négociation de normes communes pour un produit. Négliger l'existence des barrières à l'entrée et les conséquences des réaffectations de l'industrie affaiblit l'impact des réformes commerciales. Le troisième chapitre prend en compte le rôle de l'information dans la facilitation du commerce international. Les immigrants réduisent les coûts de transaction dans le commerce international en fournissant des informations sur les possibilités d'échange avec leur pays d'origine. En utilisant des données géographiques détaillées sur l'immigration et les importations aux États-Unis entre 1970 et 2005, je quantifie l'incidence qu'ont les nouveaux immigrants sur la demande pour les importations de biens intermédiaires aux États-Unis. Pour établir le lien cause à effet entre le commerce et la migration, j’exploite l'important afflux d'immigrants d'Amérique centrale après l'ouragan Mitch. Les résultats montrent que l'augmentation de dix pour cent d'immigrants a fait croître la demande pour les importations de biens intermédiaires de 1,5 pour cent. Mes résultats sont robustes aux problèmes de la causalité inverse ou la décision d’émigrer est causée par des opportunités de faire du commerce.
Resumo:
La sénescence cellulaire, ou l’arrêt irréversible de la prolifération, influence des processus physiologiques et pathologiques, comme le cancer. Parmi les caractéristiques de la sénescence, se retrouve le PSAS ou phénotype sécrétoire associé à la sénescence. Le PSAS est composé d’une variété de cytokines, facteurs de croissance et protéases. Ses actions pro- et anti-tumorale sont connues, mais l’on ignore laquelle prédomine. Mes travaux s’attardent aux effets du PSAS sur l’induction de la sénescence dans les cellules environnantes et à sa régulation. Nous avons démontré que le PSAS ne synergise pas avec la dysfonction télomérique chronique ou aigue, afin de causer un arrêt de croissance. Également, l’étude du mécanisme responsable de l’induction de la sénescence par stress à la chromatine, suggère que la kinase c-Abl n’est pas requise pour cette voie, contrairement à des publications antérieures. Mes travaux éclairent les mécanismes d’action et la régulation du PSAS dans la sénescence induite par dysfonction télomérique et par stress à la chromatine.
Resumo:
Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.
Resumo:
Contexte: Plusieurs études ont démontré que les indices environnementaux associés à la cigarette peuvent provoquer des envies de consommer (« cravings ») chez les fumeurs, ce qui nuit aux efforts d’abandon de la substance et favorise le maintien du tabagisme. Un bon nombre d’études en imagerie cérébrale ont examiné les bases neurophysiologiques de cette caractéristique clinique. Le tabagisme se caractérise aussi par l’incapacité des représentations négatives de la consommation (méfaits médicaux et sociaux) d’influencer la consommation des fumeurs. Étonnamment toutefois, très peu de travaux de recherche se sont intéressés à examiner les bases neurophysiologiques de cette insouciance envers les méfaits de la cigarette chez les fumeurs. En utilisant l'imagerie cérébrale fonctionnelle, l'objectif de cette étude était: d’examiner la réponse neurophysiologique des fumeurs chroniques à des images qui illustrent les effets négatifs de la cigarette (campagne anti-tabac); d’examiner le caractère affectif de cette réactivité utilisant des conditions contrôles (c.-à-d., images aversives non-liées au tabac et appétitives liées au tabac); d'examiner la connectivité fonctionnelle durant cette tâche entre les systèmes affectifs et exécutifs (une interaction qui peut favoriser ou entraver l'impact des évènements aversifs). Méthodes: 30 fumeurs chroniques ont passé une session de neuroimagerie durant laquelle ils devaient regarder des images appétitives et aversives de cigarettes, des images aversives non-reliées au tabac et des images neutres. Résultats: Les images aversives liés au tabagisme suscitent une plus grande activation dans le cortex médial préfrontal, l'amygdale, le gyrus frontal inférieur et le cortex orbitofrontal latéral en comparaison avec les images neutres, mais une moins grande activation dans des structures médiaux / sous-corticales comparé aux images aversives non-reliés et images appétitives reliées aux tabac. L’activité du système exécutif présente une connectivité fonctionnelle négative avec le système affectif lorsque les images aversives sont liées au tabac, mais pas quand elles ne le sont pas. Conclusions: Le modèle d'activation du cerveau observé suggère qu’il y a un biais dans la réactivité des fumeurs chroniques lorsqu’ils observent des représentations négatives de la consommation du tabac. L’activité du système exécutif cérébral semble promouvoir chez les fumeurs une baisse d’activité dans des régions impliquées dans la genèse d’une réponse physiologique affective; il s’agit d’un mécanisme qui permettrait de réduire l’impact persuasif de ces représentations des méfaits de la cigarette sur la consommation des fumeurs.
Resumo:
Alors que les études littéraires tendent à se professionnaliser et la culture à occuper de moins en moins d’espace dans les grands médias traditionnels, les revues culturelles proposent une critique qui se distingue de ces deux pratiques. Liberté, L’Inconvénient, Contre-jour et Spirale offrent aux intellectuels, critiques et universitaires l’espace d’une pratique mitoyenne, entre celles des publications savantes et des médias grand public. Qu’ils se définissent au premier chef comme herméneutes, médiateurs ou érudits, les critiques de ces revues revendiquent tous une parole littéraire. Chacun des chapitres de ce mémoire se penche sur une publication, retraçant son histoire et étudiant les textes métacritiques afin de cerner les différences et les similitudes entre les conceptions, les fonctions et les mises en pratique de la critique. La méthode emprunte à l’histoire des revues en tant que groupes d’affiliation, développée par Andrée Fortin et Michel Lacroix. L’analyse des thèmes récurrents et des filiations, dans la lignée des travaux de Martine-Emmanuelle Lapointe et d’Anne Caumartin, ainsi que de la rhétorique, particulièrement la notion d’ethos telle que définie par Dominique Maingueneau et Ruth Amossy, permet de mettre en lumière ce qui constitue, pour les praticiens de la critique, la singularité et la valeur de la parole littéraire.
Resumo:
La chimie supramoléculaire est basée sur l'assemblage non covalent de blocs simples, des petites molécules aux polymères, pour synthétiser des matériaux fonctionnels ou complexes. La poly(4-vinylpyridine) (P4VP) est l'une des composantes supramoléculaires les plus utilisées en raison de sa chaîne latérale composée d’une pyridine pouvant interagir avec de nombreuses espèces, telles que les petites molécules monofonctionnelles et bifonctionnelles, grâce à divers types d'interactions. Dans cette thèse, des assemblages supramoléculaires de P4VP interagissant par liaisons hydrogène avec de petites molécules sont étudiés, en ayant comme objectifs de faciliter l'électrofilage de polymères et de mieux comprendre et d'optimiser la photoréponse des matériaux contenant des dérivés d'azobenzène. Une nouvelle approche est proposée afin d'élargir l'applicabilité de l'électrofilage, une technique courante pour produire des nanofibres. À cet effet, un complexe entre la P4VP et un agent de réticulation bifonctionnel capable de former deux liaisons hydrogène, le 4,4'-biphénol (BiOH), a été préparé pour faciliter le processus d’électrofilage des solutions de P4VP. Pour mieux comprendre ce complexe, une nouvelle méthode de spectroscopie infrarouge (IR) a d'abord été développée pour quantifier l'étendue de la complexation. Elle permet de déterminer un paramètre clé, le rapport du coefficient d'absorption d'une paire de bandes attribuées aux groupements pyridines libres et liées par liaisons hydrogène, en utilisant la 4-éthylpyridine comme composé modèle à l’état liquide. Cette méthode a été appliquée à de nombreux complexes de P4VP impliquant des liaisons hydrogène et devrait être généralement applicable à d'autres complexes polymères. La microscopie électronique à balayage (SEM) a révélé l'effet significatif du BiOH sur la facilité du processus d’électrofilage de P4VP de masses molaires élevées et faibles. La concentration minimale pour former des fibres présentant des perles diminue dans le N, N'-diméthylformamide (DMF) et diminue encore plus lorsque le nitrométhane, un mauvais solvant pour la P4VP et un non-solvant pour le BiOH, est ajouté pour diminuer l'effet de rupture des liaisons hydrogène causé par le DMF. Les liaisons hydrogène dans les solutions et les fibres de P4VP-BiOH ont été quantifiées par spectroscopie IR et les résultats de rhéologie ont démontré la capacité de points de réticulation effectifs, analogues aux enchevêtrements physiques, à augmenter la viscoélasticité de solutions de P4VP pour mieux résister à la formation de gouttelettes. Cette réticulation effective fonctionne en raison d'interactions entre le BiOH bifonctionnel et deux chaînes de P4VP, et entre les groupements hydroxyles du BiOH complexé de manière monofonctionnelle. Des études sur d’autres agents de réticulation de faible masse molaire ont montré que la plus forte réticulation effective est introduite par des groupes d’acide carboxylique et des ions de zinc (II) qui facilitent le processus d’électrofilage par rapport aux groupements hydroxyles du BiOH. De plus, la sublimation est efficace pour éliminer le BiOH contenu dans les fibres sans affecter leur morphologie, fournissant ainsi une méthode élégante pour préparer des fibres de polymères purs dont le processus d’électrofilage est habituellement difficile. Deux complexes entre la P4VP et des azobenzènes photoactifs portant le même groupement tête hydroxyle et différents groupes queue, soit cyano (ACN) ou hydrogène (AH), ont été étudiés par spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) pour évaluer l'impact des groupements queue sur leur performance lors de l'irradiation avec de la lumière polarisée linéairement. Nous avons constaté que ACN mène à la photo-orientation des chaînes latérales de la P4VP et des azobenzènes, tandis que AH mène seulement à une orientation plus faible des chromophores. La photo-orientation des azobenzènes diminue pour les complexes avec une teneur croissante en chromophore, mais l'orientation de la P4VP augmente. D'autre part, l'orientation résiduelle après la relaxation thermique augmente avec la teneur en ACN, à la fois pour le ACN et la P4VP, mais la tendance opposée est constatée pour AH. Ces différences suggèrent que le moment dipolaire a un impact sur la diffusion rotationnelle des chromophores. Ces résultats contribueront à orienter la conception de matériaux polymères contenant des azobenzène efficaces.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.