164 resultados para indépendance judiciaire
Resumo:
Au XIXe siècle, enfanter illégitimement représentait une transgression importante. Honteuses, abandonnées par leur amant, craignant d’être répudiées par leur famille et leur communauté, de nombreuses célibataires ne purent assumer les conséquences de leur grossesse. Confrontées à des méthodes contraceptives et abortives inefficaces, incapables d’intenter un procès pour reconnaissance de paternité ou inconscientes du fait que les orphelinats et les maternités leur offraient des alternatives, ces femmes entreprirent de cacher leur grossesse et se résolurent à tuer leur enfant presque immédiatement après leur naissance. La découverte du cadavre d’un nouveau-né déclenchait une enquête officielle et quelques femmes furent trainées devant les tribunaux. Cette étude met l'accent sur le parcours individuel et social des mères infanticides et tente de comprendre les circonstances qui firent d’elles des meurtrières.
Resumo:
La violence conjugale est un phénomène criminel fréquent au Québec. En 2008, les infractions commises en contexte conjugal représentaient plus de 20 % des crimes contre la personne signalés à la police (Ministère de la Sécurité publique, 2010). L’intervention policière et judiciaire en contexte conjugal est complexe, notamment en raison du lien unissant l’agresseur et la victime. Bien que le pouvoir discrétionnaire des intervenants judiciaires en contexte conjugal ait été grandement limité au cours des dernières décennies, ceux-ci bénéficient toujours d’une certaine latitude dans leur décision de poursuivre, ou non, différentes étapes du processus judiciaire. Au fil du temps, plusieurs études se sont intéressées aux éléments influençant la prise de décision en contexte conjugal. Cependant, celles-ci ne portent généralement que sur une seule étape du processus et certains facteurs décisionnels n’ont jamais été testés empiriquement. C’est notamment le cas des éléments liés aux stéréotypes de la violence conjugale. Certains auteurs mentionnent que les incidents qui ne correspondent pas au stéréotype de l’agresseur masculin violentant une victime qualifiée d’irréprochable et d’innocente font l’objet d’un traitement judiciaire plus sommaire, mais ces affirmations ne reposent, à notre connaissance, sur aucune donnée empirique. Cette étude tente de vérifier cette hypothèse en examinant l’impact de ces éléments sur cinq décisions policières et judiciaires. À partir d’une analyse de contenu quantitative de divers documents liés au cheminement judiciaire de 371 incidents commis en contexte conjugal sur le territoire du Centre opérationnel Nord du Service de police de la Ville de Montréal en 2008, la thèse examine l’utilisation du pouvoir discrétionnaire dans le traitement judiciaire de ces incidents. Elle comporte trois objectifs spécifiques. Le premier objectif permet la description du cheminement judiciaire des incidents commis en contexte conjugal. Nos résultats indiquent que ceux-ci font l’objet d’un traitement plus punitif puisqu’ils font plus fréquemment l’objet de procédures à la cour que les autres types de crimes. Cette judiciarisation plus systématique pourrait expliquer le faible taux de condamnation de ceux-ci (17,2 %). Le second objectif permet la description des principales caractéristiques de ces incidents. La majorité implique des gestes de violence physique et les policiers interviennent généralement auprès de conjoints actuels. La plupart des victimes rapportent la présence de violences antérieures au sein du couple et le tiers veulent porter plainte contre le suspect. Finalement, 78 % des incidents impliquent un agresseur masculin et une victime féminine et 14,29 % des victimes sont soupçonnées d’avoir posé le premier geste hostile ou violent lors de l’incident. Le dernier objectif permet l’identification des principaux éléments associés aux décisions prises en contexte conjugal. Les résultats confirment l’hypothèse selon laquelle les incidents n’impliquant pas un agresseur masculin et une victime féminine ou ceux dont les policiers soupçonnent la victime d’avoir posé le premier geste hostile ou violent font l’objet d’un traitement judiciaire plus sommaire. En outre, la majorité des facteurs décisionnels étudiés perdent de leur influence au cours du processus judiciaire et les décisions prises précédemment influencent fortement les décisions subséquentes. Finalement, le désir de porter plainte de la victime n’influence pas directement les décisions des intervenants judiciaires.
Resumo:
L’objectif de cette thèse est de comprendre de quelle manière le juge décide de la culpabilité de l’accusé, notamment dans les affaires de vol et de trafic de stupéfiants. En s’appuyant sur le programme ethnométhodologique et sur une enquête ethnographique, la recherche se penche sur l’ensemble de pratiques et raisonnements présents dans l’activité décisionnelle des juges, afin de rendre visibles les savoirs d’action mobilisés pour décider de la culpabilité. La thèse montre que la prise de décision est fortement marquée par la présomption de culpabilité qui découle d’un processus de catégorisation des justiciables en tant que « voleurs » et « trafiquants ». Ces catégories typiques sont associées à l’image de l’ennemi, c’est-à-dire, l’individu insoumis et incapable d’un modus vivendi commun (Jakobs, 2009). Prenant appui sur les analyses empiriques réalisées, l’étude fait une analogie entre la figure de l’ennemi et le concept d’homo sacer (Agamben, 1997; 2002) en proposant finalement que le verdict de culpabilité se construit à l’intérieur d’un « camp » - c’est-à-dire, un lieu de suspension de l’ordre juridique (Agamben, 1997) – qui se structure, paradoxalement, au sein même de la justice pénale. Mots-clés: sentencing ; vol ; trafic de stupéfiants ; verdict de culpabilité ; Brésil
Resumo:
La popularité des technologies de l’information et des communications entraîne l’augmentation de la preuve retrouvée sous forme numérique lors d’enquêtes policières. Les organisations policières doivent innover afin d’analyser, gérer et tirer profit de cette preuve numérique. En réponse, elles ont constitué des unités spécialisées en criminalité technologique et en analyse judiciaire informatique. La présente étude utilise les théories de l’innovation afin de déterminer comment l’évolution des technologies et des tendances en matière de criminalité technologique influencent les enquêtes et les organisations policières. Cette recherche vise à augmenter les connaissances sur ces unités spécialisées en quantifiant et en qualifiant leur travail quotidien. Avec la collaboration d’une unité policière canadienne spécialisée en analyse judiciaire informatique, une analyse détaillée des demandes d’expertise adressées à leur service a été effectuée. Les résultats indiquent une augmentation de la preuve numérique avec la prévalence de certaines formes de criminalité et de certains appareils électroniques. Les facteurs influençant le délai de traitement sont soulignés ainsi que les stratégies mises de l’avant afin de gérer efficacement l’accroissement des demandes de service. Finalement, des entrevues ont été menées avec certains membres de l’équipe afin de mettre en lumière les défis et les enjeux relatifs à l’implantation et au fonctionnement d’une telle unité. Les principaux enjeux soulevés concernent les environnements technologiques et juridiques, la formation du personnel, la gestion des ressources et les priorités organisationnelles.
Resumo:
Cette étude a été rendue possible grâce aux bourses doctorales accordées à la première auteure par les organismes suivants : le Conseil de recherche en sciences humaines (CRSH), la Chaire interuniversitaire Marie-Vincent sur les agressions sexuelles envers les enfants (CIMV), l’Équipe violence sexuelle et santé (ÉVISSA) et le Centre de recherche interdisciplinaire sur les problèmes conjugaux et les agressions sexuelles (CRIPCAS). Cette étude a également été soutenue par une subvention de recherche accordée par le Bureau d’aide aux victimes d’actes criminelle (BAVAC) du ministère de la justice du Québec accordée à Mireille Cyr.
Resumo:
Alors que la mobilisation de la diaspora tamoule pendant la guerre civile sri lankaise (1983-2009) a été amplement discutée et analysée, peu de chercheurs se sont penchés sur la mobilisation de la diaspora tamoule après 2009. Pourtant, cette mobilisation d’après-guerre présente une rupture importante avec le discours d’indépendance du Liberation Tigers of Tamil Eelam (LTTE) prédominant pendant la guerre civile sri lankaise, rupture qui s’illustre, entre autres, par l’émergence d’un discours de reconnaissance du génocide. Comment expliquer ce changement de discours? L’objectif de ce mémoire est d’exposer le recadrage des actions collectives de la diaspora tamoule depuis 2009, pour ensuite expliquer comment et pourquoi nous l’observons. Pour ce faire, nous retraçons le discours de cinq acteurs collectifs en matière d’indépendance et de génocide, tel que rapporté par le site web diasporique, Tamilnet.com. Les acteurs collectifs à l’étude sont les suivants : le Liberation Tigers of Tamil Eelam (LTTE), le Global Tamil Forum (GTF), le Transnational Government of Tamil Eelam (TGTE), Tamils Against Genocide (TAG) et le National Council of Canadian Tamils (NCCT). Notre démarche, qui consiste en une analyse de cadrage, à la fois quantitative et qualitative, nous amène à remettre en question la relation causale entre la fenêtre d’opportunité et le recadrage. En revanche, nous démontrons que le recadrage des actions collectives de la diaspora tamoule depuis 2009 s’explique par l’émergence de nouveaux acteurs collectifs, eux-mêmes porteurs d’un nouveau discours. L’apparition de ces nouveaux acteurs collectifs médiate ainsi la relation entre la fenêtre d’opportunité et le recadrage.
Resumo:
Éditorial du 19 mars 2015
Resumo:
Un document accompagne le mémoire et est disponible pour consultation au Centre de conservation des bibliothèques de l'Université de Montréal (http://www.bib.umontreal.ca/conservation/).
Resumo:
Latent variable models in finance originate both from asset pricing theory and time series analysis. These two strands of literature appeal to two different concepts of latent structures, which are both useful to reduce the dimension of a statistical model specified for a multivariate time series of asset prices. In the CAPM or APT beta pricing models, the dimension reduction is cross-sectional in nature, while in time-series state-space models, dimension is reduced longitudinally by assuming conditional independence between consecutive returns, given a small number of state variables. In this paper, we use the concept of Stochastic Discount Factor (SDF) or pricing kernel as a unifying principle to integrate these two concepts of latent variables. Beta pricing relations amount to characterize the factors as a basis of a vectorial space for the SDF. The coefficients of the SDF with respect to the factors are specified as deterministic functions of some state variables which summarize their dynamics. In beta pricing models, it is often said that only the factorial risk is compensated since the remaining idiosyncratic risk is diversifiable. Implicitly, this argument can be interpreted as a conditional cross-sectional factor structure, that is, a conditional independence between contemporaneous returns of a large number of assets, given a small number of factors, like in standard Factor Analysis. We provide this unifying analysis in the context of conditional equilibrium beta pricing as well as asset pricing with stochastic volatility, stochastic interest rates and other state variables. We address the general issue of econometric specifications of dynamic asset pricing models, which cover the modern literature on conditionally heteroskedastic factor models as well as equilibrium-based asset pricing models with an intertemporal specification of preferences and market fundamentals. We interpret various instantaneous causality relationships between state variables and market fundamentals as leverage effects and discuss their central role relative to the validity of standard CAPM-like stock pricing and preference-free option pricing.
Resumo:
This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.
Resumo:
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Resumo:
This paper examines several families of population principles in the light of a set of axioms. In addition to the critical-level utilitarian, number-sensitive critical-level utilitarian and number-dampened families and their generalized counterparts, we consider the restricted number-dampened family (suggested by Hurka) and introduce two new families : the restricted critical-level and restricted number-dependent critical-level families. Subsets of the restricted families have nonnegative critical levels and avoid both the repugnant and sadistic conclusions but fail to satisfy an important independence condition. We defend the critical-level principles with positive critical levels.
Resumo:
In spatial environments, we consider social welfare functions satisfying Arrow's requirements. i.e., weak Pareto and independence of irrelevant alternatives. When the policy space os a one-dimensional continuum, such a welfare function is determined by a collection of 2n strictly quasi-concave preferences and a tie-breaking rule. As a corrollary, we obtain that when the number of voters is odd, simple majority voting is transitive if and only if each voter's preference is strictly quasi-concave. When the policy space is multi-dimensional, we establish Arrow's impossibility theorem. Among others, we show that weak Pareto, independence of irrelevant alternatives, and non-dictatorship are inconsistent if the set of alternatives has a non-empty interior and it is compact and convex.
Resumo:
This paper studies the interdependence between fiscal and monetary policies, and their joint role in the determination of the price level. The government is characterized by a long-run fiscal policy rule whereby a given fraction of the outstanding debt, say d, is backed by the present discounted value of current and future primary surpluses. The remaining debt is backed by seigniorage revenue. The parameter d characterizes the interdependence between fiscal and monetary authorities. It is shown that in a standard monetary economy, this policy rule implies that the price level depends not only on the money stock, but also on the proportion of debt that is backed with money. Empirical estimates of d are obtained for OECD countries using data on nominal consumption, monetary base, and debt. Results indicate that debt plays only a minor role in the determination of the price level in these economies. Estimates of d correlate well with institutional measures of central bank independence.