703 resultados para Contrôle classique


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire porte sur les transformations du concept de prudence, de l’Antiquité grecque au XVIIe siècle. Il souligne notamment le lien qui unit les manières d’être et l’art, tant chez les Grecs qu’au début de la modernité. La phronèsis se définissait tout d’abord en relation aux autres manières de faire, dont la technè fait partie. Si Platon et Aristote les distinguent, les auteurs de la modernité assimileront ces deux manières de faire. De plus, on peut voir dans la forme du langage employé pour écrire sur la prudence un reflet de la vertu antique. Il s’agit de donner, tant par le style que par le propos, un exemple de prudence. Cette vertu, qui est d’ailleurs la première des vertus cardinales, est donc fondamentale pour comprendre le rapport entre l’éthique et l’art, de l’Antiquité au début de la modernité. Elle annonce aussi les débuts de l’esthétique moderne, en ce qu’elle donne des règles à suivre pour arriver à ses fins, qu’il s’agisse de n’importe quelle manière de faire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traduit de l'anglais par Jimmy Légaré et Olivier Paradis (Direction des bibliothèques de l'UdeM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper analyzes the dynamics of wages and workers' mobility within firms with a hierarchical structure of job levels. The theoretical model proposed by Gibbons and Waldman (1999), that combines the notions of human capital accumulation, job rank assignments based on comparative advantage and learning about workers' abilities, is implemented empirically to measure the importance of these elements in explaining the wage policy of firms. Survey data from the GSOEP (German Socio-Economic Panel) are used to draw conclusions on the common features characterizing the wage policy of firms from a large sample of firms. The GSOEP survey also provides information on the worker's rank within his firm which is usually not available in other surveys. The results are consistent with non-random selection of workers onto the rungs of a job ladder. There is no direct evidence of learning about workers' unobserved abilities but the analysis reveals that unmeasured ability is an important factor driving wage dynamics. Finally, job rank effects remain significant even after controlling for measured and unmeasured characteristics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper exploits the term structure of interest rates to develop testable economic restrictions on the joint process of long-term interest rates and inflation when the latter is subject to a targeting policy by the Central Bank. Two competing models that econometrically describe agents’ inferences about inflation targets are developed and shown to generate distinct predictions on the behavior of interest rates. In an empirical application to the Canadian inflation target zone, results indicate that agents perceive the band to be substantially narrower than officially announced and asymmetric around the stated mid-point. The latter result (i) suggests that the monetary authority attaches different weights to positive and negative deviations from the central target, and (ii) challenges on empirical grounds the assumption, frequently made in the literature, that the policy maker’s loss function is symmetric (usually a quadratic function) around a desired inflation value.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un résumé en anglais est également disponible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un résumé en anglais est également disponible

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un résumé en anglais est également disponible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1989, le législateur québécois a restreint la liberté contractuelle des époux en imposant à tous les couples l'obligation de partager, au jour de la dissolution matrimoniale, un certain nombre de biens à caractère familial. Selon toute vraisemblance, le législateur souhaitait endiguer les injustices économiques engendrées par le divorce des femmes mariées dans les années 40, 50 et 60 sous un régime de séparation conventionnelle de biens. En visant l'ensemble des couples, le législateur a certes atteint son but, mais au détriment de ceux qui auraient pu raisonnablement et équitablement tirer profit du contrat de mariage. Après avoir mis en relief la rigidité des principes juridiques sur la base desquels le contrat de mariage a pu autrefois s'imposer au mépris d'une justice conjugale élémentaire, l'auteur examine les législations des autres provinces canadiennes qui, de tout temps, accordent aux tribunaux le pouvoir de réviser le contenu d'un marriage contract en cas d'iniquité ou d'abus. À la lumière de ces législations et de l'interprétation qu'en a retenu la Cour suprême du Canada dans l'arrêt Hartshorne, l'auteur propose l'introduction, en droit québécois, d'un pouvoir de révision ou d'annulation judiciaire du contrat de mariage pour cause de lésion et d'imprévision, ces normes de contrôle judiciaire étant à même d'assurer un meilleur équilibre entre liberté et équité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les employés d’un organisme utilisent souvent un schéma de classification personnel pour organiser les documents électroniques qui sont sous leur contrôle direct, ce qui suggère la difficulté pour d’autres employés de repérer ces documents et la perte possible de documentation pour l’organisme. Aucune étude empirique n’a été menée à ce jour afin de vérifier dans quelle mesure les schémas de classification personnels permettent, ou même facilitent, le repérage des documents électroniques par des tiers, dans le cadre d’un travail collaboratif par exemple, ou lorsqu’il s’agit de reconstituer un dossier. Le premier objectif de notre recherche était de décrire les caractéristiques de schémas de classification personnels utilisés pour organiser et classer des documents administratifs électroniques. Le deuxième objectif consistait à vérifier, dans un environnement contrôlé, les différences sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction du schéma de classification utilisé. Nous voulions vérifier s’il était possible de repérer un document avec la même efficacité, quel que soit le schéma de classification utilisé pour ce faire. Une collecte de données en deux étapes fut réalisée pour atteindre ces objectifs. Nous avons d’abord identifié les caractéristiques structurelles, logiques et sémantiques de 21 schémas de classification utilisés par des employés de l’Université de Montréal pour organiser et classer les documents électroniques qui sont sous leur contrôle direct. Par la suite, nous avons comparé, à partir d'une expérimentation contrôlée, la capacité d’un groupe de 70 répondants à repérer des documents électroniques à l’aide de cinq schémas de classification ayant des caractéristiques structurelles, logiques et sémantiques variées. Trois variables ont été utilisées pour mesurer l’efficacité du repérage : la proportion de documents repérés, le temps moyen requis (en secondes) pour repérer les documents et la proportion de documents repérés dès le premier essai. Les résultats révèlent plusieurs caractéristiques structurelles, logiques et sémantiques communes à une majorité de schémas de classification personnels : macro-structure étendue, structure peu profonde, complexe et déséquilibrée, regroupement par thème, ordre alphabétique des classes, etc. Les résultats des tests d’analyse de la variance révèlent des différences significatives sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction des caractéristiques structurelles, logiques et sémantiques du schéma de classification utilisé. Un schéma de classification caractérisé par une macro-structure peu étendue et une logique basée partiellement sur une division par classes d’activités augmente la probabilité de repérer plus rapidement les documents. Au plan sémantique, une dénomination explicite des classes (par exemple, par utilisation de définitions ou en évitant acronymes et abréviations) augmente la probabilité de succès au repérage. Enfin, un schéma de classification caractérisé par une macro-structure peu étendue, une logique basée partiellement sur une division par classes d’activités et une sémantique qui utilise peu d’abréviations augmente la probabilité de repérer les documents dès le premier essai.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Since the advent of the Canadian Charter of Rights and Freedoms in 1982, Canadians courts have become bolder in the law-making entreprise, and have recently resorted to unwritten constitutional principles in an unprecedented fashion. In 1997, in Reference re Remuneration of Judges of the Provincial Court of Prince Edward Island, the Supreme Court of Canada found constitutional justification for the independence of provincially appointed judges in the underlying, unwritten principles of the Canadian Constitution. In 1998, in Reference re Secession of Quebec, the Court went even further in articulating those principles, and held that they have a substantive content which imposes significant limitations on government action. The author considers what the courts' recourse to unwritten principles means for the administrative process. More specifically, he looks at two important areas of uncertainty relating to those principles: their ambiguous normative force and their interrelatedness. He goes on to question the legitimacy of judicial review based on unwritten constitutional principles, and to critize the courts'recourse to such principles in decisions applying the principle of judicial independence to the issue of the remuneration of judges.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vie en société s’organise autour de systèmes structurants : politique, économique, juridique, religieux, etc. En démocratie, le droit a pour mission essentielle d’assurer la paix, la stabilité et la sécurité ; pour ce faire, il tend à rendre toute chose prévisible, en normalisant les comportements, en uniformisant les règles. Ainsi, les rapports privés s’incarneront dans la fixité et la linéarité autour d’une figure relationnelle unique, le duo. La mouvance sociale, l’effervescence économique semblent faire fi de ce moule trop contraignant. Les acteurs s’inscrivent dans la pluralité et tissent des rapports densément enchevêtrés. Selon la théorie juridique classique, le droit doit alors adopter une stratégie de simplification : fragmenter les situations, circonscrire des espaces clos autour de la cellule nucléaire d’origine, en chasser ceux qu’il perçoit comme des parasites. La tactique consiste à se donner une structure binaire, à opposer par exemple les parties aux tiers. L’auteure soutient que la seule présence des tiers, identifiés juridiquement à des étrangers, constitue la marque indélébile du bouillonnement communicationnel. Que le droit refuse d’en rendre compte expressément dévoile l’artificialité de sa construction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis deux siècles, les transformations les plus remarquables du phénomène du suicide concernent la relation avec la variable âge. En effet, le suicide a longtemps progressé avec l'âge pour culminer à la vieillesse, mais le dernier quart de siècle au Québec a vu ce rapport modifié, suggérant qu'il s'agit désormais d'un phénomène de jeunes. Notre étude examine les tendances récentes de l'évolution de la mortalité par suicide au Québec du point de vue de l'âge, discute des effets respectifs possibles de l'âge, de la période et de la génération de 1926 à 2004 et offre des pistes d'interprétation sociologique. Nous présentons dans un premier temps les transformations de la société québécoise depuis 1930 ainsi qu'un bilan synthétique des connaissances sur le suicide au Québec par rapport aux tendances internationales, ceci du point de vue de différentes variables sociodémographiques. Notre étude rappelle ensuite les grandes théories et idées sur le suicide, de la littérature classique aux réflexions contemporaines. On y remarque que la variable âge est rarement au coeur de ces conceptions, mais plutôt en marge de celles-ci, médiatisées par d'autres variables sociales. Les résultats de notre analyse montrent la présence d'un net effet de génération dans l'évolution de la mortalité masculine due au suicide au Québec. Ce phénomène n'est pas présent chez les femmes. Les générations récentes adoptent toutefois un comportement différent de celles des baby-boomers et il sera intéressant de suivre leur trajectoire dans l'avenir.