11 resultados para TWO-PHASE FLOW

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lors du phénomène d’hémostase primaire ou de thrombose vasculaire, les plaquettes sanguines doivent adhérer aux parois afin de remplir leur fonction réparatrice ou pathologique. Pour ce faire, certains facteurs rhéologiques et hémodynamiques tels que l’hématocrite, le taux de cisaillement local et les contraintes de cisaillement pariétal, entrent en jeu afin d’exclure les plaquettes sanguines de l’écoulement principal et de les transporter vers le site endommagé ou enflammé. Cette exclusion pourrait aussi être influencée par l’agrégation de globules rouges qui est un phénomène naturel présent dans tout le système cardiovasculaire selon les conditions d’écoulement. La dérive de ces agrégats de globules rouges vers le centre des vaisseaux provoque la formation de réseaux d’agrégats dont la taille et la complexité varient en fonction de l’hématocrite et des conditions de cisaillement présentes. Il en résulte un écoulement bi-phasique avec un écoulement central composé d’agrégats de globules rouges avoisinés par une région moins dense en particules où l’on peut trouver des globules rouges singuliers, des petits rouleaux de globules rouges et une importante concentration en plaquettes et globules blancs. De ce fait, il est raisonnable de penser que plus la taille des agrégats qui occupent le centre du vaisseau augmente, plus il y aura de plaquettes expulsées vers les parois vasculaires. L'objectif du projet est de quantifier, in vitro, la migration des plaquettes sanguines en fonction du niveau d’agrégation érythrocytaire présent, en faisant varier l’hématocrite, le taux de cisaillement et en promouvant l’agrégation par l’ajout d’agents tels que le dextran à poids moléculaire élevé. Cependant, le comportement non Newtonien du sang dans un écoulement tubulaire peut être vu comme un facteur confondant à cause de son impact sur l’organisation spatiale des agrégats de globules rouges. De ce fait, les études ont été réalisées dans un appareil permettant de moduler, de façon homogène, la taille et la structure de ces agrégats et de quantifier ainsi leur effet sur la migration axiale des plaquettes. Du sang de porc anti coagulé a été ajusté à différents taux d’hématocrite et insérer dans un appareil à écoulement de Couette, à température ambiante. Les plaquettes sanguines, difficilement isolables in vitro sans en activer certains ligands membranaires, ont été remplacées par des fantômes en polystyrène ayant un revêtement de biotine. La quantification de la migration de ces fantômes de plaquettes a été réalisée grâce à l’utilisation de membranes biologiques fixées sur les parois internes de l’entrefer du rhéomètre de Couette. Ces membranes ont un revêtement de streptavidine assurant une très forte affinité d’adhésion avec les microparticules biotynilées. À 40% d’hématocrite, à un cisaillement de 2 s-1, 566 ± 53 microparticules ont été comptées pour un protocole préétabli avec du sang non agrégeant, comparativement à 1077 ± 229 pour du sang normal et 1568 ± 131 pour du sang hyper agrégeant. Les résultats obtenus suggèrent une nette participation de l’agrégation érythrocytaire sur le transport des fantômes de plaquettes puisque l’adhésion de ces derniers à la paroi du rhéomètre de Couette augmente de façon quasi exponentielle selon le niveau d’agrégation présent.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les canaux calciques de type L CaV1.2 sont principalement responsables de l’entrée des ions calcium pendant la phase plateau du potentiel d’action des cardiomyocytes ventriculaires. Cet influx calcique est requis pour initier la contraction du muscle cardiaque. Le canal CaV1.2 est un complexe oligomérique qui est composé de la sous-unité principale CaVα1 et des sous-unités auxiliaires CaVβ et CaVα2δ1. CaVβ joue un rôle déterminant dans l’adressage membranaire de la sous-unité CaVα1. CaVα2δ1 stabilise l’état ouvert du canal mais le mécanisme moléculaire responsable de cette modulation n’a pas été encore identifié. Nous avons récemment montré que cette modulation requiert une expression membranaire significative de CaVα2δ1 (Bourdin et al. 2015). CaVα2δ1 est une glycoprotéine qui possède 16 sites potentiels de glycosylation de type N. Nous avons donc évalué le rôle de la glycosylation de type-N dans l’adressage membranaire et la stabilité de CaVα2δ1. Nous avons d’abord confirmé que la protéine CaVα2δ1 recombinante, telle la protéine endogène, est significativement glycosylée puisque le traitement à la PNGase F se traduit par une diminution de 50 kDa de sa masse moléculaire, ce qui est compatible avec la présence de 16 sites Asn. Il s’est avéré par ailleurs que la mutation simultanée de 6/16 sites (6xNQ) est suffisante pour 1) réduire significativement la densité de surface de! CaVα2δ1 telle que mesurée par cytométrie en flux et par imagerie confocale 2) accélérer les cinétiques de dégradation telle qu’estimée après arrêt de la synthèse protéique et 3) diminuer la modulation fonctionnelle des courants générés par CaV1.2 telle qu’évaluée par la méthode du « patch-clamp ». Les effets les plus importants ont toutefois été obtenus avec les mutants N663Q, et les doubles mutants N348Q/N468Q, N348Q/N812Q, N468Q/N812Q. Ensemble, ces résultats montrent que Asn663 et à un moindre degré Asn348, Asn468 et Asn812 contribuent à la biogenèse et la stabilité de CaVα2δ1 et confirment que la glycosylation de type N de CaVα2δ1 est nécessaire à la fonction du canal calcique cardiaque de type L.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Notre recherche a pour but de déterminer comment les genres textuels peuvent être exploités dans le design des environnements numériques de travail afin de faciliter l’accomplissement des pratiques textuelles de cadres et de secrétaires dans une municipalité et une administration fédérale canadiennes. À cet effet, le premier objectif consiste à évaluer l’aptitude des environnements numériques de travail à supporter les pratiques textuelles (lecture, écriture et manipulation des textes) de ces employés. Le deuxième objectif est de décrire les rôles des genres textuels au cours des pratiques textuelles. Avec l’exemple du courriel, le troisième objectif vise à examiner comment le genre peut être exploité dans une perspective d’assistance à la réalisation des pratiques textuelles dans les environnements numériques de travail. Cette recherche de nature qualitative comporte une méthodologie en deux étapes. La première étape consiste en un examen minutieux des pratiques textuelles, des difficultés rencontrées au cours de celles-ci, du rôle du genre dans les environnements numériques de travail, ainsi que des indices sollicités au cours de la gestion du courriel. Trois modes de collecte des données qualitatives sont utilisés auprès de 17 cadres et de 17 secrétaires issus de deux administrations publiques : l’entrevue semi-dirigée, le journal de bord et l’enquête cognitive. Les résultats sont examinés à l’aide de stratégies d’analyse de contenu qualitative. La deuxième phase comprend la mise au point d’une chaîne de traitement du courriel, visant à étayer notre réflexion sur le genre textuel et son exploitation dans la conception des environnements numériques de travail. Un corpus de 1703 messages est élaboré à partir d’un échantillon remis par deux cadres gouvernementaux. Les résultats permettent d’abord de dresser un portrait général des pratiques de lecture, d’écriture et de manipulation des textes communes et spécifiques aux cadres et aux secrétaires. L’importance du courriel, qui constitue environ 40% des systèmes notés dans les journaux de bord, est soulignée. Les difficultés rencontrées dans les environnements numériques de travail sont également décrites. Dans un deuxième temps, les rôles du genre au cours des pratiques textuelles sont examinés en fonction d’une matrice tenant à la fois compte de ses dimensions individuelles et collectives, ainsi que de ses trois principales facettes ; la forme, le contenu et la fonction. Ensuite, nous présentons un cadre d’analyse des indices affectant la gestion du courriel qui synthétise le processus d’interprétation des messages par le destinataire. Une typologie des patrons de catégorisation des cadres est également définie, puis employée dans une expérimentation statistique visant la description et la catégorisation automatique du courriel. Au terme de ce processus, on observe des comportements linguistiques marqués en fonction des catégories du courriel. Il s’avère également que la catégorisation automatique basée sur le lexique des messages est beaucoup plus performante que la catégorisation non lexicale. À l’issue de cette recherche, nous suggérons d’enrichir le paradigme traditionnel relevant de l’interaction humain-ordinateur par une sémiotique du genre dans les environnements numériques de travail. L’étude propose également une réflexion sur l’appartenance du courriel à un genre, en ayant recours aux concepts théoriques d’hypergenre, de genre et de sous-genre. Le succès de la catégorisation automatique du courriel en fonction de facettes tributaires du genre (le contenu, la forme et la fonction) offre des perspectives intéressantes sur l’application de ce concept au design des environnements numériques de travail en vue de faciliter l’accomplissement des pratiques textuelles par les employés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans ce travail, j’étudie les relations entre la blogosphère politique dans la ville de São Paulo, au Brésil, et l’ensemble de l’écologie médiatique dans laquelle celle-ci est insérée. En établissant un dialogue avec les théories qui posent la dissémination des blogues comme le moment de répartition des moyens de production et de démocratisation de parole, je propose que la blogosphère doit plutôt être envisagée comme une instance de filtrage des produits des médias de masse. J’emprunte le concept de « dispositif » à Michel Foucault et à Giorgio Agamben, pour définir les médias du monde contemporain selon les termes d’un dispositif médiatique. J’emprunte aussi les concepts de « two-step flow of communications » et de « leader d’opinion » à Paul F. Lazarsfeld et Elihu Katz pour localiser la blogosphère dans l’ensemble de notre espace médiatique. Je défends également l’idée que les blogueurs exercent aujourd’hui une fonction semblable à celle des leaders d’opinion que décrivent Katz et Lazarsfeld – ce que je nomme la fonction-filtre de la blogosphère - et que ces blogueurs se situent dans la couche intermédiaire du flux d’informations dans les démocraties occidentales, c'est-à-dire celle qui se trouve entre les médias de masse et les récepteurs. Pour conduire ma recherche, j’ai réalisé une ethnographie virtuelle auprès des blogueurs de la ville de São Paulo, au Brésil, pendant la période de la campagne électorale de 2008 à la mairie. Ensuite, j’ai soumis l’ensemble de leur production discursive à une analyse sociolinguistique. Et je conclus que plutôt qu’étant le fruit d’une révolution, l’écologie médiatique contemporaine reprend - en les diversifiant et en les étendant - des processus que l’on ne pensait propres qu’aux dynamiques des médias de masse.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Influencée par la critique postmoderne et les études postcoloniales, cette recherche exploratoire invite à une réflexion sur le rôle et la place des ONG comme acteurs du développement des « pays du Sud », dans un monde de plus en plus globalisé. Les données empiriques, d’une part, récoltées suite à une enquête ethnographique au sein du siège social de l’une des ONG les plus influente de Montréal, Oxfam-Québec, et les données théoriques interdisciplinaires, d’autre part, ont permis une analyse en deux temps. Premièrement, il s’agit de comprendre le fonctionnement interne de ces puissantes ONG ainsi que leurs liens avec l’État et les marchés. La seconde partie sera consacrée à l’analyse de la mission de développement ainsi que la constitution du pouvoir et de la légitimité grandissante sur la scène politique mondiale de ces ONG transnationales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La réponse cellulaire aux ultra-violets (UV), ou réponse UV, est une réponse complexe et spécialisée dans l’adaptation et la tolérance des dommages aux UV. Celle-ci est initiée par un grand nombre d’évènements moléculaires et de signalisation nucléaire mais aussi au niveau de la membrane plasmique ou du cytoplasme. L’importance et l’influence exactes de ces évènements sur la réparation par excision de nucléotides (NER) des dommages UV à l’ADN sont encore mal comprises et doivent encore être méthodiquement démontrées. Dans cette thèse, grâce à l’utilisation d’une méthode sensible d’analyse de la réparation NER basée sur la cytométrie en flux, il est montré, dans un premier temps, que l’activité des voies MAPK (Mitogen-Activated Protein Kinases), qui sont des voies de signalisation de stress UV d’origine cytoplsamique, ne participent pas à l’efficacité de réparation NER des dommages UV dans les cellules humaines. En effet, l’abrogation de la signalisation MAPK, par inhibition pharmacologique, par utilisation de mutants dominant-négatifs ou par inhibition de leur expression endogène, ne révèlent aucun changement de la cinétique de réparation des dommages UV par excision de nucléotides. Cependant, l’utilisation de cette même méthode de réparation, mais cette fois, appliquée pour l’étude de réparation NER en fonction du cycle cellulaire, a permis de mettre en évidence la nécessité fonctionnelle de l’ADN polymérase translésionnelle eta (Pol η) dans la réparation NER des dommages UV, uniquement en phase S. Cette observation fut initialement caractérisée dans les cellules de patients affectés du syndrome variant de xérodermie pigmentaire (XP-V) puis, confirmée ensuite par l’inhibition de l’expression de Pol η endogène ou par la complémentation avec des mutants non-fonctionnels dans les cellules XP-V. Ces résultats indiquent que, contrairement à la réponse UV MAPK cytoplasmique, les évènements nucléaires comme la synthèse translésionnelle, peuvent influencer l’efficacité de réparation NER en phase S. Plus particulièrement, ces données établissent un lien possible entre la réparation NER en phase S et les niveaux de stress réplicatifs, révélé ici par la déficience fonctionnelle Pol η ou ATR. Les observations, présentées dans cette thèse, renforcent un rôle du point de contrôle S aux UV sur l’efficacité de la réparation NER et suggèrent que l’inhibition NER, observée en phase S dans les cellules XP-V, est modulée par le stress réplicatif. Un tel moyen de contrôle pourrait avoir une action plutôt protectrice pendant cette phase critique du cycle cellulaire. Mots clés: UV, translésionnelle, eta, MAPK, NER, CPD, cytométrie, phase-S, tolérance.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les polymères semi-conducteurs semicristallins sont utilisés au sein de diodes électroluminescentes, transistors ou dispositifs photovoltaïques organiques. Ces matériaux peuvent être traités à partir de solutions ou directement à partir de leur état solide et forment des agrégats moléculaires dont la morphologie dicte en grande partie leurs propriétés optoélectroniques. Le poly(3-hexylthiophène) est un des polymères semi-conducteurs les plus étudiés. Lorsque le poids moléculaire (Mw) des chaînes est inférieur à 50 kg/mol, la microstructure est polycristalline et composée de chaînes formant des empilements-π. Lorsque Mw>50 kg/mol, la morphologie est semicristalline et composée de domaines cristallins imbriquées dans une matrice de chaînes amorphes. À partir de techniques de spectroscopie en continu et ultrarapide et appuyé de modèles théoriques, nous démontrons que la cohérence spatiale des excitons dans ce matériau est légèrement anisotrope et dépend de Mw. Ceci nous permet d’approfondir la compréhension de la relation intime entre le couplage inter et intramoléculaire sur la forme spectrale en absorption et photoluminescence. De plus, nous démontrons que les excitations photogénérées directement aux interfaces entre les domaines cristallins et les régions amorphes génèrent des paires de polarons liés qui se recombinent par effet tunnel sur des échelles de temps supérieures à 10ns. Le taux de photoluminescence à long temps de vie provenant de ces paires de charges dépend aussi de Mw et varie entre ∼10% et ∼40% pour les faibles et hauts poids moléculaires respectivement. Nous fournissons un modèle permettant d’expliquer le processus de photogénération des paires de polarons et nous élucidons le rôle de la microstructure sur la dynamique de séparation et recombinaison de ces espèces.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La prévalence des allergies alimentaires IgE-médiées aurait triplé au cours de la dernière décennie avec des études Nord-Américaines atteignant les 8% chez les enfants. Quoiqu’il n’y ait à ce jour aucun traitement curatif pour les allergies alimentaires, l’immunothérapie oral (OIT) constitue une nouvelle approche expérimentale prometteuse. Cette dernière consiste en l’administration de doses progressive d’allergènes par voie orale sur une période prolongée dans le but d’instaurer un état de désensibilisation et possiblement une tolérance orale soutenue. Cette approche a été démontrée sécuritaire et permettrait la désensibilisation à haute dose de plus de 80% des participants allergiques aux arachides, lait ou œufs. Dans cette thèse, nous présentons 2 études de phase 1 portant sur des protocoles d’OIT, destinés à optimiser l’efficience du traitement chez les sujets avec allergies alimentaires multiples. Près de 30% des enfants avec allergie alimentaire sont allergiques à plus d’un aliment, une proportion qui augmente à 70% lorsqu’on considère les cas les plus sévères. Ces enfants sont à risque augmenté de réactions accidentelles et souffrent d’un impact plus grand sur leur qualité de vie. Dans la première étude, en créant un mélange individualisé avec un ratio stochiométrique 1:1 entre les protéines des aliments allergiques de l’enfant, nous démontrons qu’il est possible de désensibiliser jusqu’à 5 aliments simultanément avec un profil d’innocuité similaire à une monothérapie. Dans la seconde étude, nous utilisons un traitement à l’omalizumab, un anticorps monoclonal anti-IgE, pour permettre une désensibilisation orale multi-allergénique fortement accélérée. Lorsque comparé à l’approche sans omalizumab, ce protocole s’associe à une nette diminution du temps requis pour atteindre les doses d’entretien, passant d’une médiane de 21 à 4 mois, sans affecter le profil d’innocuité. Alors que ces études fournissent des approches cliniques raisonnables pour désensibiliser la population multi-allergique, plusieurs questions persistent, notamment en ce qui a trait à l’induction de tolérance permanente. Une barrière majeure à cet égard réside dans notre piètre compréhension des mécanismes sous-jacents à l’immunothérapie. Prenant avantage d’échantillons cliniques bien caractérisés provenant des essais cliniques ci-haut mentionnés, nous utilisons les nouvelles technologies de séquençage TCR pour suivre la distribution clonale des lymphocytes T spécifiques aux arachides durant une immunothérapie orale. Nous démontrons que l’OIT s’associe à des changements significatifs dans les fréquences des clones spécifiques, suggérant un processus d’épuisement clonal et de remplacement. Nous démontrons par ailleurs que le test de prolifération lymphocytaire, traditionnellement utilisé pour évaluer la réponse cellulaire allergique, est dominé par une distribution polyclonale hautement non-spécifique. Cette observation a des implications majeures considérant que la plupart de la littérature actuelle sur la réponse T se base sur cette technique. En somme, cette thèse jette les bases pour des programmes de recherche translationnelle pour optimiser et personnaliser les protocoles cliniques actuels et développer de nouvelles avenues d’investigation et de traitement pour améliorer la prise en charge des sujets avec allergies alimentaires.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.