680 resultados para Prises de contrôle
Resumo:
L’objectif du présent mémoire est double. D’une part, il cherche à identifier les facteurs qui permettent au gouvernement canadien et aux peuples autochtones de s’entendre sur des politiques publiques, malgré la persistance d’une logique coloniale. Nous verrons que l’atteinte d’une entente est conditionnelle à la légitimité du processus d’élaboration de la politique publique d’un point de vue autochtone. D’autre part, ce travail invite à penser le processus d’élaboration des politiques publiques comme espace potentiel d’autodétermination. Étant donné la malléabilité des règles qui encadrent l’élaboration des politiques publiques en contexte canadien, le gouvernement – s’il en a la volonté - peut modeler le processus d’élaboration de façon à le rendre plus égalitaire et donc plus légitime d’un point de vue autochtone. Il sera démontré que, dans une optique de changements progressifs, un tel processus d’élaboration peut permettre aux peuples autochtones de regagner une certaine autonomie décisionnelle et ainsi atténuer les rapports de pouvoir inégalitaires. Notre cadre théorique a été construit à l’aide de différents courants analytiques, issus notamment des littératures sur le colonialisme, sur les politiques publiques et sur la légitimité. La comparaison de deux études de cas, soit les processus d’élaboration de l’Accord de Kelowna et du projet de loi C-33, Loi sur le contrôle par les Premières Nations de leur système d’éducation, permettra d’illustrer nos arguments et d’en démontrer l’applicabilité pratique. En somme, nous verrons comment la première étude de cas permet de concevoir l’élaboration des politiques publiques comme espace potentiel d’autodétermination, et comment la deuxième, au contraire, démontre que cette sphère peut encore en être une d’oppression.
Resumo:
Les textes qui ont été retenus pour former ce livre ont un dénominateur commun. On retrouve dans chacun le thème du changement de la société québécoise, de son évolution récente et actuelle. J'appartiens à cette génération qui s'est longtemps impatientée de voir le Québec stagner dans la peur, l'insécurité, la soumission et l'aliénation, mais qui fut ensuite étonnée et peut-être aussi dépassée par le rythme du changement, lorsqu'il a débuté, et par les directions qu'il a prises. Par profession autant que par engagement personnel, j'ai dû m'interroger sur les sources, les agents et les conditions du changement dans lequel est engagée la société québécoise, et aussi sur les forces de résistance que cette évolution a éveillées.
Resumo:
Traduit de l'anglais par Jimmy Légaré et Olivier Paradis (Direction des bibliothèques de l'UdeM).
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
This paper analyzes the dynamics of wages and workers' mobility within firms with a hierarchical structure of job levels. The theoretical model proposed by Gibbons and Waldman (1999), that combines the notions of human capital accumulation, job rank assignments based on comparative advantage and learning about workers' abilities, is implemented empirically to measure the importance of these elements in explaining the wage policy of firms. Survey data from the GSOEP (German Socio-Economic Panel) are used to draw conclusions on the common features characterizing the wage policy of firms from a large sample of firms. The GSOEP survey also provides information on the worker's rank within his firm which is usually not available in other surveys. The results are consistent with non-random selection of workers onto the rungs of a job ladder. There is no direct evidence of learning about workers' unobserved abilities but the analysis reveals that unmeasured ability is an important factor driving wage dynamics. Finally, job rank effects remain significant even after controlling for measured and unmeasured characteristics.
Resumo:
In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.
Resumo:
This paper exploits the term structure of interest rates to develop testable economic restrictions on the joint process of long-term interest rates and inflation when the latter is subject to a targeting policy by the Central Bank. Two competing models that econometrically describe agents’ inferences about inflation targets are developed and shown to generate distinct predictions on the behavior of interest rates. In an empirical application to the Canadian inflation target zone, results indicate that agents perceive the band to be substantially narrower than officially announced and asymmetric around the stated mid-point. The latter result (i) suggests that the monetary authority attaches different weights to positive and negative deviations from the central target, and (ii) challenges on empirical grounds the assumption, frequently made in the literature, that the policy maker’s loss function is symmetric (usually a quadratic function) around a desired inflation value.
Resumo:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.
Resumo:
En 1989, le législateur québécois a restreint la liberté contractuelle des époux en imposant à tous les couples l'obligation de partager, au jour de la dissolution matrimoniale, un certain nombre de biens à caractère familial. Selon toute vraisemblance, le législateur souhaitait endiguer les injustices économiques engendrées par le divorce des femmes mariées dans les années 40, 50 et 60 sous un régime de séparation conventionnelle de biens. En visant l'ensemble des couples, le législateur a certes atteint son but, mais au détriment de ceux qui auraient pu raisonnablement et équitablement tirer profit du contrat de mariage. Après avoir mis en relief la rigidité des principes juridiques sur la base desquels le contrat de mariage a pu autrefois s'imposer au mépris d'une justice conjugale élémentaire, l'auteur examine les législations des autres provinces canadiennes qui, de tout temps, accordent aux tribunaux le pouvoir de réviser le contenu d'un marriage contract en cas d'iniquité ou d'abus. À la lumière de ces législations et de l'interprétation qu'en a retenu la Cour suprême du Canada dans l'arrêt Hartshorne, l'auteur propose l'introduction, en droit québécois, d'un pouvoir de révision ou d'annulation judiciaire du contrat de mariage pour cause de lésion et d'imprévision, ces normes de contrôle judiciaire étant à même d'assurer un meilleur équilibre entre liberté et équité.
Resumo:
Les employés d’un organisme utilisent souvent un schéma de classification personnel pour organiser les documents électroniques qui sont sous leur contrôle direct, ce qui suggère la difficulté pour d’autres employés de repérer ces documents et la perte possible de documentation pour l’organisme. Aucune étude empirique n’a été menée à ce jour afin de vérifier dans quelle mesure les schémas de classification personnels permettent, ou même facilitent, le repérage des documents électroniques par des tiers, dans le cadre d’un travail collaboratif par exemple, ou lorsqu’il s’agit de reconstituer un dossier. Le premier objectif de notre recherche était de décrire les caractéristiques de schémas de classification personnels utilisés pour organiser et classer des documents administratifs électroniques. Le deuxième objectif consistait à vérifier, dans un environnement contrôlé, les différences sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction du schéma de classification utilisé. Nous voulions vérifier s’il était possible de repérer un document avec la même efficacité, quel que soit le schéma de classification utilisé pour ce faire. Une collecte de données en deux étapes fut réalisée pour atteindre ces objectifs. Nous avons d’abord identifié les caractéristiques structurelles, logiques et sémantiques de 21 schémas de classification utilisés par des employés de l’Université de Montréal pour organiser et classer les documents électroniques qui sont sous leur contrôle direct. Par la suite, nous avons comparé, à partir d'une expérimentation contrôlée, la capacité d’un groupe de 70 répondants à repérer des documents électroniques à l’aide de cinq schémas de classification ayant des caractéristiques structurelles, logiques et sémantiques variées. Trois variables ont été utilisées pour mesurer l’efficacité du repérage : la proportion de documents repérés, le temps moyen requis (en secondes) pour repérer les documents et la proportion de documents repérés dès le premier essai. Les résultats révèlent plusieurs caractéristiques structurelles, logiques et sémantiques communes à une majorité de schémas de classification personnels : macro-structure étendue, structure peu profonde, complexe et déséquilibrée, regroupement par thème, ordre alphabétique des classes, etc. Les résultats des tests d’analyse de la variance révèlent des différences significatives sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction des caractéristiques structurelles, logiques et sémantiques du schéma de classification utilisé. Un schéma de classification caractérisé par une macro-structure peu étendue et une logique basée partiellement sur une division par classes d’activités augmente la probabilité de repérer plus rapidement les documents. Au plan sémantique, une dénomination explicite des classes (par exemple, par utilisation de définitions ou en évitant acronymes et abréviations) augmente la probabilité de succès au repérage. Enfin, un schéma de classification caractérisé par une macro-structure peu étendue, une logique basée partiellement sur une division par classes d’activités et une sémantique qui utilise peu d’abréviations augmente la probabilité de repérer les documents dès le premier essai.
Resumo:
Since the advent of the Canadian Charter of Rights and Freedoms in 1982, Canadians courts have become bolder in the law-making entreprise, and have recently resorted to unwritten constitutional principles in an unprecedented fashion. In 1997, in Reference re Remuneration of Judges of the Provincial Court of Prince Edward Island, the Supreme Court of Canada found constitutional justification for the independence of provincially appointed judges in the underlying, unwritten principles of the Canadian Constitution. In 1998, in Reference re Secession of Quebec, the Court went even further in articulating those principles, and held that they have a substantive content which imposes significant limitations on government action. The author considers what the courts' recourse to unwritten principles means for the administrative process. More specifically, he looks at two important areas of uncertainty relating to those principles: their ambiguous normative force and their interrelatedness. He goes on to question the legitimacy of judicial review based on unwritten constitutional principles, and to critize the courts'recourse to such principles in decisions applying the principle of judicial independence to the issue of the remuneration of judges.
Resumo:
Cette thèse de doctorat se penche sur la contribution de la pensée sociologique de Karl Mannheim (1893-1947) à la question des intellectuels sous la République de Weimar. L’objectif de notre recherche est de montrer que la sensibilité de Mannheim à l’égard de la détresse spirituelle et de la précarité matérielle des intellectuels allemands constitue le fil conducteur de sa pensée sociologique de 1921 à 1933. À cet effet, le concept d’intelligentsia sans attaches occupe une place centrale dans notre analyse, car il permet à Mannheim d’expliquer cette détresse sur le plan sociologique et de repenser les fondements de l’autonomie politique des intellectuels. Notre démarche méthodologique privilégie une histoire intellectuelle qui fait ressortir dans notre analyse une tension heuristique entre d’une part, la signification du concept d’intelligentsia sans attaches dans le cadre de l’histoire de la crise d’autonomie des intellectuels allemands dans le premier tiers du XXe siècle et d’autre part, les implications théoriques de ce concept dans le développement de la pensée sociologique de Mannheim. La tension entre l’étude du contexte historique et celle de l’évolution de l’oeuvre de Mannheim se reflète dans la structure de la thèse qui se divise en deux grandes parties : 1- Les deux premiers chapitres délimitent le contexte historique qui a présidé l’émergence du concept d’intelligentsia sans attaches. Dans le premier chapitre, nous situons le concept en question dans le contexte du déclin de l’hégémonie culturelle de la bourgeoisie éduquée allemande ("Bildungsbürgertum") et de l’émergence d’une nouvelle génération d’intellectuels gravement affectée par la crise économique des années 1920. Le deuxième chapitre fait état des premiers débats théoriques et des controverses politiques qui sont à l’origine de la sociologie des intellectuels au début du XXe siècle. Une attention particulière est portée à deux sociologues importants, Max et Alfred Weber, parce qu’ils contribuent à problématiser la question du statut politique des intellectuels weimariens et inspirent à Mannheim le concept d’intelligentsia sans attaches. 2- Les trois autres chapitres font état de l’évolution du concept d’intelligentsia sans attaches dans les écrits sociologiques de Mannheim. Le troisième chapitre met en lumière la première ébauche de la théorie sociologique des intellectuels dans sa thèse d’habilitation (1925). En imputant les origines historiques des intellectuels sans attaches aux penseurs conservateurs du début du XIXe siècle, Mannheim s’intéresse à la première crise existentielle qui déchira l’intelligentsia allemande, partagée entre la nécessité de s’engager en politique ou de s’enfermer dans un idéal culturel apolitique. Dans le quatrième chapitre, nous voyons que le concept d’intelligentsia sans attaches devient le nerf du programme politique que Mannheim élabore dans son célèbre ouvrage "Ideologie und Utopie" (1929) dans le but de consolider l’autonomie de l’intelligentsia allemande. Dans le cinquième chapitre, nous analysons comment un tel projet est aux prises avec des contradictions que le sociologue est incapable de résoudre dans les dernières années de la République de Weimar. Ces contradictions concrétisent l’échec du concept d’intelligentsia sans attaches dans sa tentative de devenir un modèle d’autonomie pour les intellectuels allemands.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (LL.M.)". Ce mémoire a été accepté à l'unanimité et classé parmi les 15% des mémoires de la discipline.
Resumo:
Le contexte socio-économique marqué par la division du travail favorise les fermetures de marché. La professionnalisation représente un type de fermetures par lequel un groupe occupationnel cherche à obtenir et à maintenir le contrôle de l'environnement interne et externe de son activité économique afin d'éviter que ce contrôle s'exerce exclusivement de l'extérieur. En maintenant le contrôle sur un champ de compétence ou sur une fermeture de marché, un groupe assure la maîtrise de sa survie professionnelle et socio-économique. La recherche de fermeture de marché est une explication possible des considérations sousjacentes à l'intérêt d'un groupe occupationnel pour la professionnalisation. Cette considération ne compromet pas nécessairement la mission de protection du public qui doit guider les ordres professionnels dans l'exercice de leurs pouvoirs de contrôle. En effet, le processus de légitimation favorise au contraire le respect de cette mission. Par ce processus, un groupe occupationnel maintient non seulement la reconnaissance sociale de sa compétence et de son utilité mais également l'exercice des pouvoirs de contrôle qui lui sont octroyés. La légitimité ainsi acquise permet de maintenir le degré de crédibilité nécessaire à la survie du groupe. Cette explication de l'intérêt pour la professionnalisation a été élaborée à partir des critères de trois approches sociologiques qui sont le fonctionnalisme, l'interactionnisme et le conflictualisme. Ces approches ont servi à examiner en premier lieu le Code des professions et en second lieu les stratégies et les arguments de deux acteurs sociaux qui ont un point de vue opposé sur ce phénomène social de l'intérêt pour la professionnalisation.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit, option recherche (LL.M.)"