14 resultados para The Real

em Université de Montréal, Canada


Relevância:

70.00% 70.00%

Publicador:

Resumo:

This paper studies the persistent effects of monetary shocks on output. Previous empirical literature documents this persistence, but standard general equilibrium models with sticky prices fail to generate output responses beyond the duration of nominal contracts. This paper constructs and estimates a general equilibrium model with price rigidities, habit formation, and costly capital adjustment. The model is estimated via Maximum Likelihood using US data on output, the real money stock, and the nominal interest rate. Econometric results suggest that habit formation and adjustment costs to capital play an important role in explaining the output effects of monetary policy. In particular, impulse response analysis indicates that the model generates persistent, hump-shaped output responses to monetary shocks.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

In This Article, It Is Argued That the Long International, Financial and Economic Cycle (50-60 Years) Is More Than a Statistical Aberration, and Is the Result of Institutional Political, Financial and Economic Conditions Which Are Recurrent. It Is Proposed As an Hypothesis That the Breakdown of International Monetary Systems Is At the Origin of Hte Financial and Economic Long Cycle. Such a Breakdown Starts a Process of Unexpected Inflation, of Balance of Payments Imbalances and of International Indebtedness in a Key-Currency. the Last Stage of This Process Is Characterized by Disinflation, a Speculative Stock Market Boom and a Period of Debt-Liquidation Which Negatively Affect the Real Side of the Economy. Without an International and Automatic Mechanism to Correct the Financial and Economic International Imbalances, the World Economy Runs the Risk of Getting More and More Unstable Until the Turning Point. International Monetary Cooperation Could Contribute in Alleviating the Negative Spillovers Accompanying Hte Adjustment of These Imbalances.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

A collective decision problem is described by a set of agents, a profile of single-peaked preferences over the real line and a number k of public facilities to be located. We consider public facilities that do not su¤er from congestion and are non-excludable. We provide a characterization of the class of rules satisfying Pareto-efficiency, object-population monotonicity and sovereignty. Each rule in the class is a priority rule that selects locations according to a predetermined priority ordering among interest groups. We characterize each of the subclasses of priority rules that respectively satisfy anonymity, hiding-proofness and strategy-proofness. In particular, we prove that a priority rule is strategy-proof if and only if it partitions the set of agents into a fixed hierarchy. Alternatively, any such rule can be viewed as a collection of fixed-populations generalized peak-selection median rules (Moulin, 1980), that are linked across populations, in a way that we describe.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

70.00% 70.00%

Publicador:

Resumo:

La thèse présente une description géométrique d’un germe de famille générique déployant un champ de vecteurs réel analytique avec un foyer faible à l’origine et son complexifié : le feuilletage holomorphe singulier associé. On montre que deux germes de telles familles sont orbitalement analytiquement équivalents si et seulement si les germes de familles de difféomorphismes déployant la complexification de leurs fonctions de retour de Poincaré sont conjuguées par une conjugaison analytique réelle. Le “caractère réel” de la famille correspond à sa Z2-équivariance dans R^4, et cela s’exprime comme l’invariance du plan réel sous le flot du système laquelle, à son tour, entraîne que l’expansion asymptotique de la fonction de Poincaré est réelle quand le paramètre est réel. Le pullback du plan réel après éclatement par la projection monoidal standard intersecte le feuilletage en une bande de Möbius réelle. La technique d’éclatement des singularités permet aussi de donner une réponse à la question de la “réalisation” d’un germe de famille déployant un germe de difféomorphisme avec un point fixe de multiplicateur égal à −1 et de codimension un comme application de semi-monodromie d’une famille générique déployant un foyer faible d’ordre un. Afin d’étudier l’espace des orbites de l’application de Poincaré, nous utilisons le point de vue de Glutsyuk, puisque la dynamique est linéarisable auprès des points singuliers : pour les valeurs réels du paramètre, notre démarche, classique, utilise une méthode géométrique, soit un changement de coordonée (coordonée “déroulante”) dans lequel la dynamique devient beaucoup plus simple. Mais le prix à payer est que la géométrie locale du plan complexe ambiante devient une surface de Riemann, sur laquelle deux notions de translation sont définies. Après avoir pris le quotient par le relèvement de la dynamique nous obtenons l’espace des orbites, ce qui s’avère être l’union de trois tores complexes plus les points singuliers (l’espace résultant est non-Hausdorff). Les translations, le caractère réel de l’application de Poincaré et le fait que cette application est un carré relient les différentes composantes du “module de Glutsyuk”. Cette propriété implique donc le fait qu’une seule composante de l’invariant Glutsyuk est indépendante.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

The aim of this paper is to discuss the crisis of the international financial system and the necessity of reforming it by new anchor or benchmark for the international currency, a money-commodity. The need for understanding the definition of a numéraire is a first necessity. Although most economists reject any connection between money and a particular commodity (gold) – because of the existence of legal tender money in every country – it will be shown that it is equivalent to reduce the real space to an abstract number (usually assumed 1) in order to postulate that money is neutral. This is sheer nonsense. It will also be shown that the concept of fiat money or state money does not preclude the existence of commodity money. This paper is divided in four sections. The first section analyses the definition and meaning of a numéraire for the international currency and the justification for a variable standard of value. In the second section, the market value of the US dollar is analysed by looking at new forms of value -the derivative products- the dollar as a safe haven, and the role of SDRs in reforming the international monetary system. In the third and fourth sections, empirical evidence concerning the most recent period of the financial crisis is presented and an econometric model is specified to fit those data. After estimating many different specifications of the model –linear stepwise regression, simultaneous regression with GMM estimator, error correction model- the main econometric result is that there is a one to one correspondence between the price of gold and the value of the US dollar. Indeed, the variance of the price of gold is mainly explained by the Euro exchange rate defined with respect to the US dollar, the inflation rate and negatively influenced by the Dow Jones index and the interest rate.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Cette dissertation explore la carrière de la rencontre manquée Lacanienne dans la littérature canonique américaine du dix-neuvième siècle à travers le prisme de la psychanalyse, la déconstruction, le postmodernisme et le postcolonialisme. Je me concentre particulièrement sur La Lettre Écarlate de Hawthorne et Moby-Dick de Melville, en montrant comment ils sont investis dans l'économie narrative de la rencontre manquée, l'économie de ce qui est au-delà de la symbolisation et l'assimilation. L’introduction examine les contours et les détours historiques, philosophiques et théoriques du concept de la rencontre manquée. Cette dissertation a donc deux objectifs: d'une part, elle tente d'examiner le statut et la fonction de la rencontre manquée dans la littérature américaine du dix-neuvième siècle, et d’autre part, elle explore comment la théorisation de la rencontre manquée pourrait nous aider à aller au-delà de la théorisation binaire qui caractérise les scènes géopolitiques actuelles. Mon premier chapitre sur La Lettre Écarlate de Hawthorne, tente de tracer la carrière du signifiant comme une navette entre l'archive et l'avenir, entre le sujet et l'objet, entre le signifiant et le signifié. Le but de ce chapitre est de rendre compte de la temporalité du signifiant et la temporalité de la subjectivité et d’expliquer comment ils répondent à la temporalité du tuché. En explorant la dimension crypto-temporelle de la rencontre manquée, ce chapitre étudie l'excès de cryptes par la poétique (principalement prosopopée, anasémie, et les tropes d'exhumation). Le deuxième chapitre élabore sur les contours de la rencontre manquée. En adoptant des approches psychanalytiques et déconstructives, ce chapitre négocie la temporalité de la rencontre manquée (la temporalité de l'automaton et de la répétition). En explorant la temporalité narrative (prolepse et analepse) conjointement à la psycho-poétique du double, ce chapitre essaie de dévoiler les vicissitudes de la mélancolie et la “dépression narcissique” dans Moby-Dick (en particulier la répétition d'Achab lors de sa rencontre originelle dénarrée ou jamais racontée avec le cachalot blanc et sa position mélancolique par rapport à l'objet qu'il a perdu). En exposant la nature du trauma comme une rencontre manquée, dont les résidus se manifestent symptomatiquement par la répétition (et le doublement), ce chapitre explique le glissement de la lettre (par l'entremise du supplément et de la différance). Le troisième chapitre élargit la portée de la rencontre manquée pour inclure les Autres de l'Amérique. Le but principal de ce chapitre est d'évaluer les investitures politiques, culturelles, imaginaires et libidinales de la rencontre manquée dans le Réel, le Symbolique nationale des États-Unis et la réalité géopolitique actuelle. Il traite également de la relation ambiguë entre la jouissance et le Symbolique: la manière dont la jouissance anime et régit le Symbolique tout en confondant la distinction entre le Réel et la réalité et en protégeant ses manœuvres excessives.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

"Sur un ton humoristique, les auteurs avouent être des voleurs… d’idées. À quoi riment les lois sur le droit d’auteur demandent-ils ? À l’origine, ce ne sont pas les droits des créateurs que le souverain ou l’État voulait protéger, mais bien les privilèges des éditeurs. Et d’où vient qu’on ait ainsi accordé à ces derniers le droit exclusif de publier ? C’est que dès l’invention de l’imprimerie, les hommes de pouvoir ont bien vu la menace que représentait pour eux la dissémination des idées : le calcul qu’ils ont fait a profité aux imprimeurs. Le phénomène n’est pas étranger à l’existence des permis de radiodiffusion / télévision existant de nos jours dans nos États démocratiques ; et l’histoire se répète comme on l’observe aujourd’hui quant à la régulation du réseau Internet. Quand les éditeurs se rendirent compte qu’ils ne pouvaient plus avoir la main haute sur tout ce qui se publiait, ils ont pris prétexte du droit des créateurs pour protéger leurs propres intérêts. Ni l’éthique ni l’esthétique ne motivaient les éditeurs , mais bien leurs seuls intérêts commerciaux, légitimes au demeurant. Deux factions s’opposent aujourd’hui quant à la question du droit des auteurs à l’ère numérique. La vieille garde se bat pour préserver à peu de choses près le statu quo tandis que ses vis-à-vis proclament la mort du droit d’auteur tel qu’il a existé. Et quel modèle nouveau préconisent ces derniers ? En fait, ils ne s’opposent pas à toute forme de protection pour ceux qui traditionnellement en ont bénéficié, mais songent à des mécanismes nouveaux …, de sorte que la vieille garde n’a pas à s’en faire outre mesure. Le fond du problème est ailleurs soutiennent MM. Benyekhlef et Tresvant : même si les avocats plaideront que ce ne sont pas les idées, mais bien la forme particulière qu’un créateur a choisie pour les exprimer qu’on protège par les lois sur le droit d’auteur, cela ne change rien. Dès qu’une idée est exprimée et fixée d’une certaine manière, il devient plus difficile de l’exprimer à nouveau puisqu’une partie du champ virtuel qu’elle pouvait occuper est déjà conquise, à bon droit selon le droit actuel. Il faut en conclure que le droit d’auteur nouveau, comme le droit d’auteur traditionnel, est une entrave à la libre circulation des idées."

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Les relations de travail et d'emploi sont devenues des enjeux importants en Chine. La Chine a ratifié 25 conventions internationales du travail et a travaillé en étroite collaboration avec l'OIT pour améliorer la sécurité et la santé au travail. Malgré ces efforts, la Chine est souvent critiquée pour des violations du travail. Face à ces problèmes, un système législatif d'administration de travail a été développé au niveau national. Mais l’application de ces règlements demeure problématique.. En particulier, les difficultés rencontrées par les inspecteurs du travail dans l'application de ces lois constituent un élément clé du problème. Notre mémoire s'intéresse essentiellement au rôle de l'inspecteur du travail dans l'administration publique de la sécurité du travail en Chine. Ces fonctionnaires jouent un rôle important et peuvent parfois exercer leur discrétion en tant qu'acteurs de première ligne, faisant d'eux de vrais décideurs politiques. Par conséquent, la compréhension de leur rôle et de leur discrétion dans l'application des normes du travail en Chine est cruciale. Notre mémoire est centré sur une étude de cas qualitative d'un bureau d'inspection du travail dans la région de Beijing. Dans le cadre de notre recherche nous avons examiné le rôle des inspecteurs du travail au moyen d’entretiens semi-structurés, d’une recherche documentaire ainsi qu’à l’occasion d’une brève observation des inspecteurs sur lors de la visite d’un lieu de travail. Les résultats démontrent que la définition du pouvoir discrétionnaire des inspecteurs du travail de première ligne en Chine est un enjeu très complexe. L’étude de cas permet cependant d’élaborer un cadre permettant l’identification des facteurs critiques déterminants pour l'évaluation et la compréhension de la nature du pouvoir discrétionnaire de l'inspecteur du travail en application de la loi.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Cette thèse propose une redéfinition de la notion de frontière dans le contexte américain, avec pour point de départ les romans de trois voix littéraires issues de trois minorités ethniques : Sandra Cisneros (Caramelo), Cristina Garcia (The Agüero Sisters) et David Plante (The Family et The Native). Je conceptualise la frontière comme fluctuation entre mouvement et immobilité, entre porosité et imperméabilité. Dans le premier chapitre, je fournis des repères sur la théorie des frontières et j'analyse les avancées de ce champ d'étude, du concept de terre frontalière (“Borderland Theories”) jusqu'aux récits d'immigration. Je propose un cadre conceptuel que j'appelle « Écrire la frontière à partir de la perspective de la frontière », lequel permet une lecture neuve des récits de frontière, et une redéfinition de la notion elle-même. Prise comme perspective, la frontière est une dynamique vivante, ce qui la rend plurielle et impossible à fixer définitivement; aussi les récits de frontière présentent-ils une grande variété d’expériences, toutes liées à des moments et à des points de vue uniques. Dans le second chapitre, j’analyse la porosité des frontières dans le contexte géopolitique contemporain, en mettant en lumière comment la colonisation, la mondialisation économique et l’immigration sont autant de mécanismes de transgression des frontières qui suivent des orientations transnationales, dénationales et postnationales. Dans le troisième chapitre, j’étudie la résurgence des frontières dans la vie des immigrants qui habitent aux États-Unis. J’identifie l’insécurité capitaliste ainsi que la marchandisation de l’espace et de l’ethnicité comme étant à l'origine du renforcement des frontières délimitant les quartiers ethniques; génératrices de stéréotypes négatifs, ces divisions physiques deviennent une technologie d’exclusion et d’injustice sociale. Le dernier chapitre présente une lecture des aspects esthétiques de la frontière, voyant comment ils peuvent contribuer à écrire la frontière à partir de la perspective de la frontière. Dans les textes à l'étude, j'examine de près la problématisation du concept de représentation, la multiplicité des points de vue narratifs, l’inaccessibilité du réel, et la partialité de la médiation. Mots clés : Théories et écrits sur les frontières, minorités ethniques aux États-Unis, multiculturalisme, culture, immigration, mondialisation, espace, place, territoire, état-nation, nationalisme, histoire, langue et langage, représentation, communauté, justice sociale, citoyenneté

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Cette thèse prend pour objet le nouage entre l’autoréflexivité et la mise en forme esthétique dans la poésie de Christophe Tarkos, produite dans les années 1990. Elle met en lumière les rapports entre l’élaboration d’une théorie du langage au sein de cette œuvre poétique et ses visées esthétiques totalisantes. Il s’agit d’identifier les principes générateurs de la théorie et de fournir une analyse de ses fondements qui s’ancrent dans la crise de la représentation moderne commençant dans la deuxième moitié du dix-neuvième siècle. Les motifs de la crise revisités par Tarkos inscrivent sa poésie dans une historicité, et notre thèse tente d’interpréter cette actualisation dans une œuvre qui donne forme au monde et à la mémoire individuelle. L’hypothèse qui chapeaute notre étude est que la théorie du langage favorise l’intelligibilité de l’œuvre totalisante en lui offrant un support réflexif. Notre thèse, qui privilégie une méthode fondée sur l’analyse des textes, se divise en trois parties. La première propose une recension de la réception critique de l’œuvre, dont nous retraçons les grandes lignes d’interprétation, de Christian Prigent à Jean-Michel Espitallier. Tout en plaçant Tarkos dans le champ poétique français, cette étape nous permet de positionner notre recherche par rapport à certains lieux communs de la critique. La deuxième partie vise à étudier la théorie du langage de Tarkos à partir de ses manifestes principaux (Le Signe =, Manifeste chou, Ma langue est poétique et La poésie est une intelligence) qui révèlent plusieurs principes, pouvoirs et limites de la langue et de la poésie. Afin de montrer la spécificité du concept de la « pâte-mot » de Tarkos, nous l’étudions dans un dialogue avec la figure de la « pâte » langagière chez la poète française Danielle Collobert. La troisième partie propose une étude de la volonté et de l’esthétique totalisantes dans l’œuvre de Tarkos, qui cherche à donner forme au réel. En effet, la poésie répond à l’excès du réel par diverses stratégies. Tout en voulant représenter son caractère débordant par une énonciation logorrhéique ou en usant de procédés comme celui de la répétition, elle cherche à le maîtriser dans des formes textuelles stables comme des fragments de prose « carrés » (Carrés, Caisses), dans des listes énumératives (Anachronisme) ou dans des réseaux d’images. La volonté totalisante chez Tarkos semble également prendre origine dans un sentiment d’urgence qui concerne, en dernière instance, une bataille contre la finitude.