339 resultados para Volonté de Puissance
Resumo:
Ce mémoire a pour objet de recherche le Marché commun du Sud (MERCOSUR) et le Brésil. La problématique est de comprendre pourquoi les États membres du MERCOSUR ne sont pas, à ce jour, parvenus à la création d’un marché commun dans le Cône Sud. Pour ce faire, nous pensons qu’en plus des causes généralement admises dans la littérature (asymétries, divergences d’intérêts et obstacles au niveau économique), il faut davantage mettre l’accent sur l’augmentation de la puissance du Brésil et les stratégies de recherche de l’autonomie. Les hypothèses avancées sont les suivantes : (1) la stratégie de recherche de l’autonomie par la participation a favorisée la création ainsi que l’approfondissement du MERCOSUR durant ses premières années d’existence; (2) la montée en puissance du Brésil et la stratégie de recherche de l’autonomie par la diversification qui en découle ont réduit l’importance du MERCOSUR pour le Brésil et miné l’approfondissement de cette institution d’intégration économique. Pour ce faire, nous analyserons en parallèle les différentes stratégies de recherche de l’autonomie ainsi que l’évolution du MERCOSUR. Nous utiliserons le PIB comme principal indicateur économique afin de témoigner de la montée en puissance du Brésil entre 1990 et 2012.
Resumo:
Étant pourtant un phénomène extrêmement répandu, la procrastination a très peu fait l’objet d’études philosophiques. Inversement, la faiblesse de la volonté et les différents phénomènes qu’on lui rattache sont encore aujourd’hui étudiés en profondeur comme des cas paradigmatiques de défaillance de la rationalité pratique. Or, la procrastination présente un cas de défaillance de la rationalité pratique particulier dans notre rapport avec le temps, rapport qui est très souvent laissé de côté dans l’étude de la faiblesse de la volonté. Après avoir présenté dans le premier chapitre les phénomènes majeurs associés à la faiblesse de la volonté et les problématiques qu’ils soulèvent, dans le deuxième chapitre, nous examinerons leurs liens avec la procrastination. Nous verrons comment la procrastination, avec son emphase sur le caractère temporel de notre agentivité, permet de mieux saisir et d'expliquer les problématiques soulevées par la faiblesse de la volonté en les insérant dans un cadre explicatif plus large.
Resumo:
La thèse insiste sur les différents aspects du terme interprétation. Si son sens varie d’une discipline à l’autre, il varie également d’un juriste à un autre. Partant du constat de l’inadéquation de la théorie classique reposant sur la distinction entre méthode subjective et méthode objective d’interprétation, la thèse propose une nouvelle théorie interprétative basée sur les théories de la communication (la rhétorique et la pragmatique). La théorie pragmatique ainsi développée est par la suite illustrée à l’aide de la jurisprudence de la Cour d’appel du Québec. Ceci afin de démontrer qu’il n’y a pas une théorie interprétative, mais bien des théories interprétatives du contrat au sein des magistrats. Ces théories se distinguent par la prépondérance qu’elles accordent aux arguments de volonté, de logique et d’effectivité. De plus, la thèse fait la démonstration de la nécessité de distinguer entre la production de la norme (opération intellectuelle suivie par l’interprète inaccessible pour l’auditoire) et la justification de la norme (argumentation développée par l’interprète afin de convaincre l’auditoire). S’il peut y avoir adéquation entre ces deux étapes, il peut également y avoir discordance entre le processus suivi afin d’arriver au résultat interprétatif et la justification de ce dernier. Tel est le cas notamment lorsque l’interprète argumente à l’aide de la théorie de l’acte clair voulant qu’un texte clair n’ait pas besoin d’être interprété.
Resumo:
Les implications philosophiques de la Théorie de la Perspective de 1979, notamment celles qui concernent l’introduction d’une fonction de valeur sur les résultats et d’un coefficient de pondération sur les probabilités, n’ont à ce jour jamais été explorées. Le but de ce travail est de construire une théorie philosophique de la volonté à partir des résultats de la Théorie de la Perspective. Afin de comprendre comment cette théorie a pu être élaborée il faut étudier la Théorie de l’Utilité Attendue dont elle est l’aboutissement critique majeur, c’est-à-dire les axiomatisations de la décision de Ramsey (1926), von Neumann et Morgenstern (1947), et enfin Savage (1954), qui constituent les fondements de la théorie classique de la décision. C’est entre autres la critique – par l’économie et la psychologie cognitive – du principe d’indépendance, des axiomes d’ordonnancement et de transitivité qui a permis de faire émerger les éléments représentationnels subjectifs à partir desquels la Théorie de la Perspective a pu être élaborée. Ces critiques ont été menées par Allais (1953), Edwards (1954), Ellsberg (1961), et enfin Slovic et Lichtenstein (1968), l’étude de ces articles permet de comprendre comment s’est opéré le passage de la Théorie de l’Utilité Attendue, à la Théorie de la Perspective. À l’issue de ces analyses et de celle de la Théorie de la Perspective est introduite la notion de Système de Référence Décisionnel, qui est la généralisation naturelle des concepts de fonction de valeur et de coefficient de pondération issus de la Théorie de la Perspective. Ce système, dont le fonctionnement est parfois heuristique, sert à modéliser la prise de décision dans l’élément de la représentation, il s’articule autour de trois phases : la visée, l’édition et l’évaluation. À partir de cette structure est proposée une nouvelle typologie des décisions et une explication inédite des phénomènes d’akrasie et de procrastination fondée sur les concepts d’aversion au risque et de surévaluation du présent, tous deux issus de la Théorie de la Perspective.
Resumo:
L’utilisation de stratégies antisyndicales est un phénomène de plus en plus préconisé par l’acteur patronal (Bronfenbrenner, 2009b). Une piste d’explication de cette croissance serait liée à l’idéologie de gestion se basant sur une amertume inhérente à l’idée de partager le pouvoir avec une tierce partie représentant des travailleurs (Dundon et al., 2006). Dans le but de faire régner cette idéologie et de conserver un environnement de travail sans présence syndicale, des multinationales se sont même positionnées ouvertement contre la syndicalisation, que l’on pense à Wal-Mart, Mc Donald’s ou Disney (Dundon et al., 2006). Avec cette puissance que les multinationales détiennent actuellement, il ne fait nul doute qu’elles exercent une influence auprès des dirigeants des plus petites entreprises (Dundon et al., 2006), ce qui pourrait expliquer ce recours accru aux stratégies antisyndicales, que ce soit avant ou après l’accréditation syndicale. Mais qu’en est-il de l’antisyndicalisme de l’acteur patronal en sol canadien? Pour certains, les employeurs canadiens pratiqueraient davantage une stratégie d’acceptation du syndicalisme comparativement à nos voisins du sud à cause notamment de la plus forte présence syndicale historique dans le système des relations industrielles canadien, des tactiques syndicales canadiennes différentes (Thomason & Pozzebon, 1998) et des lois encadrant davantage les droits d’association et de négociation collective (Boivin, 2010; Thomason & Pozzebon, 1998). Des travaux montrent cependant une réelle volonté de la part des employeurs canadiens à avoir recours à des stratégies d’opposition à la syndicalisation (Bentham, 2002; Martinello & Yates, 2002; Riddell, 2001). Selon les auteurs Martinello et Yates (2002), six pour cent (6 %) des employeurs ontariens couverts dans le cadre de leur étude n’auraient adopté aucune tactique pour éviter ou éliminer le syndicat : quatre-vingt-quatorze pour cent (94 %) des employeurs couverts ont ainsi utilisé différentes tactiques pour s’opposer au syndicalisme. C’est donc dire que l’opposition patronale face au mouvement syndical révélée par l’utilisation de diverses stratégies antisyndicales est aussi présente chez les employeurs canadiens. Peu d’études canadiennes et québécoises ont pourtant enrichi la littérature au sujet de ce phénomène. De manière générale, les travaux effectués sur la question, anglo-saxons et surtout américains, font principalement état du type de stratégies ainsi que de leur fréquence d’utilisation et proposent souvent une méthodologie basée sur une recension des décisions des tribunaux compétents en la matière ou l’enquête par questionnaire. Face à ces constats, nous avons visé à contribuer à la littérature portant sur les stratégies antisyndicales et nous avons construit un modèle d’analyse nous permettant de mieux cerner leurs effets sur les travailleurs et les syndicats. Notre recherche se démarque également de la littérature de par les démarches méthodologiques qu’elle propose. Nous avons en effet réalisé une recherche de nature qualitative, plus spécifiquement une étude de cas d’une entreprise multiétablissement du secteur du commerce au détail. Notre modèle d’analyse nous permet de dégager des constats quant aux effets de l’utilisation des stratégies patronales antisyndicales auprès des travailleurs visés et du syndicat visé, que ce soit sur les intérêts individuels, les intérêts collectifs ainsi que sur les intérêts du syndicat tels que proposés par Slinn (2008b). Également, nous cherchions à comprendre dans quelle mesure les stratégies antisyndicales contribuent à diminuer (effet paralysant) ou à augmenter (effet rebond) la propension à la syndicalisation des travailleurs visés par les stratégies, tout en tenant compte de la propension des travailleurs d’autres succursales qui n’étaient pas visés directement par cette utilisation (effet d’entraînement). Pour atteindre nos objectifs de recherche, nous avons procédé en trois phases. La phase 1 a permis de faire la recension de la littérature et de formuler des propositions théoriques à vérifier sur le terrain. La phase 2 a permis de procéder à la collecte de données grâce aux entrevues semi-dirigées réalisées à deux niveaux d’analyse : auprès de représentants syndicaux et de travailleurs. Au cours de la phase 3, nous avons procédé à la retranscription des entrevues effectuées et nous avons analysé les principaux résultats obtenus. La méthode de l’appariement logique (Yin, 2009) a été utilisée pour comparer les phénomènes observés (données issues du terrain) aux phénomènes prédits (constats de la littérature et propositions théoriques). À la suite de la réalisation de la phase 3, nous constatons que la campagne de peur a été celle qui a été la plus utilisée en réaction à la menace de présence syndicale avec les tactiques dites coercitives qui la composent : la fermeture de deux succursales, un discours devant un auditoire captif, la diffusion d’une vidéo interne, etc. De ce fait, un sentiment de peur généralisé (86 % des répondants) s’attaquant aux intérêts collectifs a été perçu à la suite de l’utilisation des tactiques antisyndicales. Par conséquent, nous avons pu observer l’effet de ces tactiques sur les travailleurs visés et sur le syndicat : elles auraient en effet gelé la propension de travailleurs d’autres succursales à se syndiquer (64 % des répondants) et donc freiné la campagne syndicale en cours. Nous constatons également que bon nombre de tactiques ont été déployées à la suite de l’accréditation syndicale en s’attaquant aux intérêts individuels. Mentionnons, pour n’en citer que quelques-uns, que les travailleurs feraient face à une plus forte discipline (72 % des répondants), qu’ils seraient victimes d’intimidation ou de menaces (80 % des répondants) et que ces tactiques provoquèrent des démissions à cause de l’ambiance de travail alourdie (50 % des répondants).
Resumo:
La guerre et ses conséquences sont trop importantes pour que la réflexion philosophique ne s’y attarde pas. Pour comprendre ses fondements et ses mécanismes internes, il faut une pensée qui creuse au coeur même des comportements guerriers. C’est ce que Thomas Hobbes et Carl von Clausewitz ont chacun tenté de faire en réfléchissant sur la nature de la guerre. Ce mémoire vise entre autres à rendre compte de leur théorie respective sur la nature de la guerre et de voir les rapprochements possibles. L’analyse du concept d’état de guerre et de ses causes chez Hobbes, de même que la pensée de Clausewitz centrée sur la nature de la guerre, rendent compte d’une même dynamique où la relation de réciprocité qu’entretiennent les belligérants conduit à une montée de la violence. La notion de volonté est centrale chez nos auteurs, car elle explique autant cette montée continue de la violence que sa possible résolution vers la paix. Écartant la sphère de la morale et du droit pour penser le phénomène guerrier, leurs réflexions se veulent froides et sans illusion. En saisissant la dynamique relationnelle (et mimétique) qui conduit à un désir illimité de puissance, nos deux auteurs décortiquent l’essence de la guerre par une pensée fondamentalement orientée vers la paix. Ainsi nous donnent-ils des outils pour éviter le pire.
Resumo:
Cette thèse de doctorat se rapporte aux films du cinéaste japonais Ozu Yasujirô (1903-1963) suivant l'hypothèse principale que les enjeux de la destruction qui y sont mis en scène, sous la forme de la disparition des liens familiaux et de la mort, ne peuvent être éclairés par la narration, dont le caractère non dramatique est notoire. En figurant la dislocation de la famille, les films d'Ozu rendent plutôt compte de la vulnérabilité du monde à la prise cinématographique : la destructivité du médium s'y énonce comme sa capacité à mobiliser ce qui entre dans son champ et à le transformer en faire-valoir de son aptitude à produire des effets. Cette étude fait ainsi apparaître les images animées, en tant qu'elles relèvent de la logique technique régie par la modernité, comme une forme de désastre, qui atteint la famille comme expérience de la communauté, c'est-à-dire comme rapport constitutif à un hors-de-soi. Mais à cette destructivité fait également face, au sein même de la pratique cinématographique d'Ozu, une autre possibilité du cinéma, qui peut restaurer ces liens menacés. Cette étude du cinéma d'Ozu montre sa profonde affinité avec la pensée du désœuvrement élaborée par Giorgio Agamben, les films du cinéaste et les travaux du philosophe s'éclairant mutuellement. Le concept de désœuvrement permet de reconsidérer les enjeux essentiels des films d'Ozu à un niveau à la fois thématique et formel, immatériel et matériel, articulant ces deux facettes pour en considérer le registre proprement médiatique. Le propos n'est pas essentiellement esthétique ou formaliste, mais s'intéresse avant tout au travail d'Ozu du point de vue des enjeux éthiques du cinéma, qui se formulent en termes de relation à sa puissance. Celle-ci concerne aussi bien l'attention d'Ozu à la vie collective que le soin qu'il porte aux potentialités expressives du cinéma, c'est-à-dire à la manière dont il se rapporte aux limites de son médium.
Resumo:
Cet essai consiste en une analyse exégétique du texte séminal de Frankfurt « Freedom of the Will and the Concept of a Person » (1971). Je présenterai une interprétation originale de la manière dont Frankfurt explique les notions de volonté, de liberté d’action et de liberté de la volonté. De plus, la thèse selon laquelle Frankfurt donne une explication causale de l’action libre et faite avec liberté de la volonté sera également défendue.
Resumo:
Compte-rendu / Review
Resumo:
Cette communication s'appuie sur des recherches réalisées dans le cadre de notre projet de thèse portant sur les collections particulières et les collectionneurs montréalais au XIXe siècle. Plus précisément, nous tentons de cerner l'identité sociale et l'habitus culturel de ces derniers. Un des principaux objectifs de notre recherche consiste à cibler et à comprendre les motivations des collectionneurs. L'histoire du collectionnement révèle cinq catégories générales de motivations : la collection comme porteur de sens par rapport à soi ou par rapport aux autres, collectionner par volonté de conserver le patrimoine et par souci de garder les traces du passé, collectionner en tant qu'investissement financier ou encore pour répondre à un besoin compulsif. Nous tenterons ici de déterminer quelles ont été les motivations de Louis-François-Georges Baby. Juge et homme politique, Baby fut un collectionneur passionné d'histoire et amateur d'art. Sa collection, d'une ampleur considérable, comprenait des documents historiques, des livres, des tableaux, des gravures, des plans, des monnaies, des médailles ainsi que des objets ethnographiques. Elle fut léguée, selon ses dernières volontés, au Collège de Joliette, à la Société d'archéologie et de numismatique de Montréal qu'il présida de 1884 à son décès ainsi qu'à l'Université Laval à Montréal qui hérita de plus de 20 000 documents d'archives et de 3 400 livres rares, estampes et autres documents.
Resumo:
This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.
Resumo:
In an economy where cash can be stored costlessly (in nominal terms), the nominal interest rate is bounded below by zero. This paper derives the implications of this nonnegativity constraint for the term structure and shows that it induces a nonlinear and convex relation between short- and long-term interest rates. As a result, the long-term rate responds asymmetrically to changes in the short-term rate, and by less than predicted by a benchmark linear model. In particular, a decrease in the short-term rate leads to a decrease in the long-term rate that is smaller in magnitude than the increase in the long-term rate associated with an increase in the short-term rate of the same size. Up to the extent that monetary policy acts by affecting long-term rates through the term structure, its power is considerably reduced at low interest rates. The empirical predictions of the model are examined using data from Japan.
Resumo:
We extend the class of M-tests for a unit root analyzed by Perron and Ng (1996) and Ng and Perron (1997) to the case where a change in the trend function is allowed to occur at an unknown time. These tests M(GLS) adopt the GLS detrending approach of Dufour and King (1991) and Elliott, Rothenberg and Stock (1996) (ERS). Following Perron (1989), we consider two models : one allowing for a change in slope and the other for both a change in intercept and slope. We derive the asymptotic distribution of the tests as well as that of the feasible point optimal tests PT(GLS) suggested by ERS. The asymptotic critical values of the tests are tabulated. Also, we compute the non-centrality parameter used for the local GLS detrending that permits the tests to have 50% asymptotic power at that value. We show that the M(GLS) and PT(GLS) tests have an asymptotic power function close to the power envelope. An extensive simulation study analyzes the size and power in finite samples under various methods to select the truncation lag for the autoregressive spectral density estimator. An empirical application is also provided.