318 resultados para Floquet Multiplier
Resumo:
L’échange de fichiers musicaux par Internet permet de faire très exactement ce que toute loi sur le droit d’auteur cherche à interdire : priver de leurs droits les compositeurs, interprètes et agents de distribution des œuvres musicales. Pour l’industrie du disque, le défi est à la fois d’ordre juridique et d’ordre technique. Les lois actuelles sur le droit d’auteur suffiront-elles d’une part à protéger ses intérêts, et dans le cas où les tribunaux acquiesceraient à ses nombreuses demandes, lui faudra-t-il d’autre part tenter de mettre un frein aux progrès technologiques grâce auxquels les internautes peuvent télécharger massivement et en toute impunité leurs pièces musicales préférées? La jurisprudence américaine montre bien que dans les cas où on a cherché aux États-Unis à se servir de la loi sur le droit d’auteur pour bloquer l’utilisation d’une technologie innovatrice, les tribunaux, pour des motifs politiques et juridiques, n’ont fait preuve d’aucune sympathie pour les titulaires de droits d’auteur. En fait, lorsque les tribunaux ont cherché à trop restreindre l’utilisation d’un nouveau mode de dissémination des œuvres, le Congrès est intervenu pour rétablir l’équilibre entre les intérêts des créateurs et ceux des utilisateurs de cette technologie. Au Canada, le droit protège très bien les compositeurs et les interprètes, mais beaucoup moins bien les compagnies de disques. En ce moment, la loi canadienne sur le droit d’auteur accorde à ces dernières un droit d’auteur limité sur leurs produits. Elles peuvent multiplier les exemplaires d’un disque, et le « reproduire sur un support matériel quelconque ». C’est ici que naissent les difficultés : les compagnies productrices de disques n’ont pas un droit clairement identifié à l’égard d’une « représentation » de l’œuvre musicale ou d’une « exécution publique » ou d’une « transmission au public par télécommunication ». Le Parlement canadien aura des choix importants à faire.
Resumo:
Ce mémoire propose une analyse de la collaboration à l’intérieur de projets cinématographiques dans l’œuvre de Pierre Perrault. Comme la collaboration entre cinéaste et participants soulève des questions éthiques, cette recherche étudie deux films pivots dans la carrière de ce cinéaste soit Pour la suite du monde et La bête lumineuse. Tout en contrastant le discours du cinéaste avec celui d’un protagoniste nommé Stéphane-Albert Boulais, cette étude détaille les dynamiques de pouvoir liées à la représentation et analyse l’éthique du créateur. Ce mémoire présente une description complète de la pensée de Pierre Perrault, ainsi que sa pratique tant au niveau du tournage que du montage. Cette étude se consacre à deux terrains cinématographiques pour soulever les pratiques tant au niveau de l’avant, pendant, et après tournage. Ce mémoire se penche ensuite sur Stéphane-Albert Boulais, qui grâce à ses nombreux écrits sur ses expériences cinématographiques, permet de multiplier les regards sur la collaboration. Après une analyse comparative entre les deux terrains cinématographiques, ce mémoire conclut sur une analyse détaillée de l’éthique du créateur à l’intérieur de projets collaboratifs.
Resumo:
La démarche scientifique (ou expérimentale) en milieu scolaire nécessite des savoir-faire expérimentaux qui ne s’acquièrent habituellement qu’en présentiel, c’est-à-dire en laboratoire institutionnel où l’enseignant ou le technicien sont présents et peuvent, à tout moment, assister pleinement l’apprenant dans sa démarche d’investigation scientifique et technologique. Ils peuvent l’orienter, le diriger, susciter sa réflexion, faire des démonstrations réelles ou contrôler son expérimentation en lui montrant comment paramétrer les outils d’expérimentation assistée par ordinateur (ExAO). Pour répondre aux besoins de la formation à distance, cette recherche de développement en didactique des sciences et de la technologie propose de mettre à la disposition des apprenants et des enseignants un environnement de laboratoire informatisé, contrôlé et assisté à distance. Cet environnement, axé sur un microlaboratoire d’ExAO (MicrolabExAO), que nous avons nommé Ex@O pour le distinguer, a été testé de manière fonctionnelle, puis évalué en situation réelle par des étudiants-maîtres et des élèves de l’éducation des adultes qui ont pratiqué et expérimenté la démarche scientifique, en situation de laboratoire réel, mais à distance. Pour ce faire, nous avons couplé le logiciel MicrolabExAO à un logiciel de prise en main à distance avec outils audio et vidéo (Teamviewer). De plus, nous avons créé et inséré, dans le logiciel MicrolabExAO, une aide en ligne pour télécharger et faciliter la prise en main à distance. Puisque cet environnement Ex@O permet de multiplier les contacts des apprenants avec une expérimentation concrète, ce prototype répond bien à l’un des objectifs du Programme de formation de l’école québécoise (PFEQ) qui est de rendre l’apprenant plus actif dans ses apprentissages. Et parce que ce premier prototype d’environnement Ex@O permet d’effectuer des activités en laboratoire à distance, nous avons pu vérifier qu’il met aussi l’accent, non seulement sur les savoirs, mais également sur les savoir-faire expérimentaux en sciences et technologie, traditionnellement développés dans les locaux des laboratoires institutionnels. Notons ici que la démarche expérimentale s’acquiert très majoritairement en laboratoire en pratiquant, souvent et régulièrement, le processus inductif et déductif propre à cette démarche. Cette pratique de la démarche expérimentale, à distance, avec la technologie Ex@O qui l’accompagne, nous a permis de vérifier que celle-ci était possible, voire comparable à la réalisation, pas-à-pas, d’un protocole expérimental effectué dans un laboratoire institutionnel.
Resumo:
Alors que la question de la responsabilité juridique des entreprises multinationales (EMNs) est sujette à de nombreuses controverses sur la sphère internationale, les victimes collatérales et directes des activités des EMNs sont engagées dans une tout autre bataille. En effet, de quels recours disposent les victimes de pollution environnementale causée par les activités d’une entreprise minière, ou les employés victimes de violations des droits fondamentaux du travail au sein d’une chaîne de production par les sous-traitants d’une très respectable EMN? Telles sont les interrogations animant la présente étude qui se focalise essentiellement sur la mise en oeuvre du droit à la réparation consacrée par le troisième pilier des Principes directeurs adoptés par l’ONU en 2011. Retraçant les fondements du droit à la réparation en droit international, elle met en évidence l’impossibilité de poursuivre les EMNs devant les instances internationales du fait de l’irresponsabilité juridique internationale découlant du statut actuel des EMNS. En l’absence de législation extraterritoriale et d’harmonisation juridique au niveau régional, l’analyse aborde ainsi en profondeur les opportunités et les limites de la mise en oeuvre du droit à réparation devant les instances judiciaires nationales les plus courues du moment par les victimes qui cherchent à obtenir des réparations pour les violations des droits humains par les EMNs. Si les obstacles rencontrés par les victimes devant le prétoire américain n’ont eu de cesse de se multiplier ces dernières années, l’émergence d’un principe de diligence raisonnable sous-tendant l’idée d’une responsabilité civile des EMNS devant le juge européen et canadien peut offrir une base adéquate pour asseoir l’encadrement d’un droit à réparation par les acteurs transnationaux à l’échelle locale. Les Principes directeurs privilégiant également l’implication des EMNs dans la mise en oeuvre du droit à réparation, la recherche se clôt avec l’étude du cas pratique de la réponse apportée par les EMNs aux victimes bangladaises de la tragédie du Rana Plaza survenue en 2013 à Dacca. L’analyse permet ainsi de conclure que de ce combat aux allures de David contre Goliath opposant les EMNs à leurs victimes, il est impératif que les mécanismes judiciaires nationaux soient renforcés et que l’encadrement juridique de la responsabilité internationale des EMNs sorte enfin des sentiers battus afin de remédier à l’asymétrie causée par la poursuite des intérêts économiques sur la protection effective des droits humains.
Resumo:
La multiplication dans le corps de Galois à 2^m éléments (i.e. GF(2^m)) est une opérations très importante pour les applications de la théorie des correcteurs et de la cryptographie. Dans ce mémoire, nous nous intéressons aux réalisations parallèles de multiplicateurs dans GF(2^m) lorsque ce dernier est généré par des trinômes irréductibles. Notre point de départ est le multiplicateur de Montgomery qui calcule A(x)B(x)x^(-u) efficacement, étant donné A(x), B(x) in GF(2^m) pour u choisi judicieusement. Nous étudions ensuite l'algorithme diviser pour régner PCHS qui permet de partitionner les multiplicandes d'un produit dans GF(2^m) lorsque m est impair. Nous l'appliquons pour la partitionnement de A(x) et de B(x) dans la multiplication de Montgomery A(x)B(x)x^(-u) pour GF(2^m) même si m est pair. Basé sur cette nouvelle approche, nous construisons un multiplicateur dans GF(2^m) généré par des trinôme irréductibles. Une nouvelle astuce de réutilisation des résultats intermédiaires nous permet d'éliminer plusieurs portes XOR redondantes. Les complexités de temps (i.e. le délais) et d'espace (i.e. le nombre de portes logiques) du nouveau multiplicateur sont ensuite analysées: 1. Le nouveau multiplicateur demande environ 25% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito lorsque GF(2^m) est généré par des trinômes irréductible et m est suffisamment grand. Le nombre de portes du nouveau multiplicateur est presque identique à celui du multiplicateur de Karatsuba proposé par Elia. 2. Le délai de calcul du nouveau multiplicateur excède celui des meilleurs multiplicateurs d'au plus deux évaluations de portes XOR. 3. Nous determinons le délai et le nombre de portes logiques du nouveau multiplicateur sur les deux corps de Galois recommandés par le National Institute of Standards and Technology (NIST). Nous montrons que notre multiplicateurs contient 15% moins de portes logiques que les multiplicateurs de Montgomery et de Mastrovito au coût d'un délai d'au plus une porte XOR supplémentaire. De plus, notre multiplicateur a un délai d'une porte XOR moindre que celui du multiplicateur d'Elia au coût d'une augmentation de moins de 1% du nombre total de portes logiques.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
This study is to look the effect of change in the ordering of the Fourier system on Szegö’s classical observations of asymptotic distribution of eigenvalues of finite Toeplitz forms.This is done by checking proofs and Szegö’s properties in the new set up.The Fourier system is unconditional [19], any arbitrary ordering of the Fourier system forms a basis for the Hilbert space L2 [-Π, Π].Here study about the classical Szegö’s theorem.Szegö’s type theorem for operators in L2(R+) and check its validity for certain multiplication operators.Since the trigonometric basis is not available in L2(R+) or in L2(R) .This study discussed about the classes of orderings of Haar System in L2 (R+) and in L2(R) in which Szegö’s Type TheoreT Am is valid for certain multiplication operators.It is divided into two sections. In the first section there is an ordering to Haar system in L2(R+) and prove that with respect to this ordering, Szegö’s Type theorem holds for general class of multiplication operators Tƒ with multiplier ƒ ε L2(R+), subject to some conditions on ƒ.Finally in second section more general classes of ordering of Haar system in L2(R+) and in L2(R) are identified in such a way that for certain classes of multiplication operators the asymptotic distribution of eigenvalues exists.
Resumo:
In this thesis, we explore the design, computation, and experimental analysis of photonic crystals, with a special emphasis on structures and devices that make a connection with practically realizable systems. First, we analyze the propenies of photonic-crystal: periodic dielectric structures that have a band gap for propagation. The band gap of periodically loaded air column on a dielectric substrate is computed using Eigen solvers in a plane wave basis. Then this idea is extended to planar filters and antennas at microwave regime. The main objectives covered in this thesis are:• Computation of Band Gap origin in Photonic crystal with the abet of Maxwell's equation and Bloch-Floquet's theorem • Extension of Band Gap to Planar structures at microwave regime • Predict the dielectric constant - synthesized dieletric cmstant of the substrates when loaded with Photonic Band Gap (PBG) structures in a microstrip transmission line • Identify the resonant characteristic of the PBG cell and extract the equivalent circuit based on PBG cell and substrate parameters for microstrip transmission line • Miniaturize PBG as Defected Ground Structures (DGS) and use the property to be implemented in planar filters with microstrip transmission line • Extended the band stop effect of PBG / DGS to coplanar waveguide and asymmetric coplanar waveguide. • Formulate design equations for the PBG / DGS filters • Use these PBG / DGS ground plane as ground plane of microstrip antennas • Analysis of filters and antennas using FDID method
Resumo:
In a sigma-delta analog to digital (A/D) As most of the sigma-delta ADC applications require converter, the most computationally intensive block is decimation filters with linear phase characteristics, the decimation filter and its hardware implementation symmetric Finite Impulse Response (FIR) filters are may require millions of transistors. Since these widely used for implementation. But the number of FIR converters are now targeted for a portable application, filter coefficients will be quite large for implementing a a hardware efficient design is an implicit requirement. narrow band decimation filter. Implementing decimation In this effect, this paper presents a computationally filter in several stages reduces the total number of filter efficient polyphase implementation of non-recursive coefficients, and hence reduces the hardware complexity cascaded integrator comb (CIC) decimators for and power consumption [2]. Sigma-Delta Converters (SDCs). The SDCs are The first stage of decimation filter can be operating at high oversampling frequencies and hence implemented very efficiently using a cascade of integrators require large sampling rate conversions. The filtering and comb filters which do not require multiplication or and rate reduction are performed in several stages to coefficient storage. The remaining filtering is performed reduce hardware complexity and power dissipation. either in single stage or in two stages with more complex The CIC filters are widely adopted as the first stage of FIR or infinite impulse response (IIR) filters according to decimation due to its multiplier free structure. In this the requirements. The amount of passband aliasing or research, the performance of polyphase structure is imaging error can be brought within prescribed bounds by compared with the CICs using recursive and increasing the number of stages in the CIC filter. The non-recursive algorithms in terms of power, speed and width of the passband and the frequency characteristics area. This polyphase implementation offers high speed outside the passband are severely limited. So, CIC filters operation and low power consumption. The polyphase are used to make the transition between high and low implementation of 4th order CIC filter with a sampling rates. Conventional filters operating at low decimation factor of '64' and input word length of sampling rate are used to attain the required transition '4-bits' offers about 70% and 37% of power saving bandwidth and stopband attenuation. compared to the corresponding recursive and Several papers are available in literature that deals non-recursive implementations respectively. The same with different implementations of decimation filter polyphase CIC filter can operate about 7 times faster architecture for sigma-delta ADCs. Hogenauer has than the recursive and about 3.7 times faster than the described the design procedures for decimation and non-recursive CIC filters.
Resumo:
Decimal multiplication is an integral part of financial, commercial, and internet-based computations. A novel design for single digit decimal multiplication that reduces the critical path delay and area for an iterative multiplier is proposed in this research. The partial products are generated using single digit multipliers, and are accumulated based on a novel RPS algorithm. This design uses n single digit multipliers for an n × n multiplication. The latency for the multiplication of two n-digit Binary Coded Decimal (BCD) operands is (n + 1) cycles and a new multiplication can begin every n cycle. The accumulation of final partial products and the first iteration of partial product generation for next set of inputs are done simultaneously. This iterative decimal multiplier offers low latency and high throughput, and can be extended for decimal floating-point multiplication.
Resumo:
A closed-form solution formula for the kinematic control of manipulators with redundancy is derived, using the Lagrangian multiplier method. Differential relationship equivalent to the Resolved Motion Method has been also derived. The proposed method is proved to provide with the exact equilibrium state for the Resolved Motion Method. This exactness in the proposed method fixes the repeatability problem in the Resolved Motion Method, and establishes a fixed transformation from workspace to the joint space. Also the method, owing to the exactness, is demonstrated to give more accurate trajectories than the Resolved Motion Method. In addition, a new performance measure for redundancy control has been developed. This measure, if used with kinematic control methods, helps achieve dexterous movements including singularity avoidance. Compared to other measures such as the manipulability measure and the condition number, this measure tends to give superior performances in terms of preserving the repeatability property and providing with smoother joint velocity trajectories. Using the fixed transformation property, Taylor's Bounded Deviation Paths Algorithm has been extended to the redundant manipulators.
Resumo:
The dynamic power requirement of CMOS circuits is rapidly becoming a major concern in the design of personal information systems and large computers. In this work we present a number of new CMOS logic families, Charge Recovery Logic (CRL) as well as the much improved Split-Level Charge Recovery Logic (SCRL), within which the transfer of charge between the nodes occurs quasistatically. Operating quasistatically, these logic families have an energy dissipation that drops linearly with operating frequency, i.e., their power consumption drops quadratically with operating frequency as opposed to the linear drop of conventional CMOS. The circuit techniques in these new families rely on constructing an explicitly reversible pipelined logic gate, where the information necessary to recover the energy used to compute a value is provided by computing its logical inverse. Information necessary to uncompute the inverse is available from the subsequent inverse logic stage. We demonstrate the low energy operation of SCRL by presenting the results from the testing of the first fully quasistatic 8 x 8 multiplier chip (SCRL-1) employing SCRL circuit techniques.
Resumo:
Emergent phenomena such as urban sprawl, travel intensification and loss of cohesion in contemporary metropolises, impose stronger constraints on its inhabitants. Among them, travel and location capabilities become a fundamental factor of social integration and a multiplier of income inequalities. The simultaneous analysis of housing-travel efforts and accessibility to urban opportunities in Greater Santiago shows that these dimensions are closely related and exert an important influence on spatial mobility and inequalities among its inhabitants. Furthermore, a theoretical model of displacements, considering income and location, confirms the importance of proximity and non-motorized transport in order to optimize daily mobility strategies of households. Overall, the empirical and theoretical results presented show the need to implement coordinated planning strategies between the housing and transport sectors, addressing not only travel acceleration, but mainly the consistency between accommodation and opportu ties location. The creation of such planning tools could be a more sustainable alternative than current growth trends in Greater Santiago.
Resumo:
In an attempt to understand why the Greek economy is collapsing, this Commentary points out two key aspects that are often overlooked – the country’s large multiplier and a bad export performance. When combined with the need for a large fiscal adjustment, these factors help explain how fiscal consolidation in Greece has been associated with such a large drop in GDP.