26 resultados para Libérations conditionnelles
em Université de Montréal, Canada
Resumo:
Rapport de stage présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en criminologie
Resumo:
Ce mémoire a pour objectif de comprendre l’expérience de travail des agents œuvrant en réinsertion sociale auprès de condamnés provinciaux en collectivité au Québec. Plus précisément, cette recherche souhaite saisir le rôle exercé par ces agents, dans un contexte où ils exercent un double mandat de sécurité publique et de réinsertion sociale. L’étude tente aussi de mettre en lumière leurs pratiques de travail, inscrites dans une logique de gestion efficace des risques. Enfin, ce mémoire vise à comprendre la place qu’occupe la réinsertion sociale dans le cadre de leur travail. Pour ce faire, l’approche qualitative a permis de mener quinze (15) entretiens auprès d’agents de probation et d’intervenants issus du secteur communautaire responsables de la surveillance de justiciables provinciaux en collectivité. Deux (2) thèmes principaux émergent de ces entrevues. D’une part, Le travail est décrit par les participants en regard du double rôle exercé, des responsabilités légales et cliniques qui leur incombent, et de l’intervention centrée sur le risque et la réinsertion sociale auprès des contrevenants. D’autre part, Le contexte de travail réfère au partenariat établi entre les intervenants, au recours aux outils actuariels, ainsi qu’aux instances modulant leurs pratiques de travail : les médias, la Commission québécoise des libérations conditionnelles et les Services correctionnels du Québec. Il ressort de nos analyses que la sécurité publique par la gestion efficace des risques se manifeste par une forme de rationalisation des pratiques de travail et par l’intégration d’un rôle de contrôle. Il appert cependant que ces deux (2) aspects sont motivés avant tout par le désir de venir en aide à la population contrevenante. Il résulte finalement de l’étude que la réinsertion sociale ne constitue qu’un objectif de l’intervention parmi d’autres. Les participants doivent jongler avec ces diverses finalités afin de s’ajuster à l’acteur principal de leur travail : le contrevenant.
Resumo:
Rapport de recherche
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès en sciences (M.Sc.) en sciences infirmières option formation en sciences infirmières
Resumo:
In this paper, we develop finite-sample inference procedures for stationary and nonstationary autoregressive (AR) models. The method is based on special properties of Markov processes and a split-sample technique. The results on Markovian processes (intercalary independence and truncation) only require the existence of conditional densities. They are proved for possibly nonstationary and/or non-Gaussian multivariate Markov processes. In the context of a linear regression model with AR(1) errors, we show how these results can be used to simplify the distributional properties of the model by conditioning a subset of the data on the remaining observations. This transformation leads to a new model which has the form of a two-sided autoregression to which standard classical linear regression inference techniques can be applied. We show how to derive tests and confidence sets for the mean and/or autoregressive parameters of the model. We also develop a test on the order of an autoregression. We show that a combination of subsample-based inferences can improve the performance of the procedure. An application to U.S. domestic investment data illustrates the method.
Resumo:
This paper addresses the issue of estimating semiparametric time series models specified by their conditional mean and conditional variance. We stress the importance of using joint restrictions on the mean and variance. This leads us to take into account the covariance between the mean and the variance and the variance of the variance, that is, the skewness and kurtosis. We establish the direct links between the usual parametric estimation methods, namely, the QMLE, the GMM and the M-estimation. The ususal univariate QMLE is, under non-normality, less efficient than the optimal GMM estimator. However, the bivariate QMLE based on the dependent variable and its square is as efficient as the optimal GMM one. A Monte Carlo analysis confirms the relevance of our approach, in particular, the importance of skewness.
Resumo:
The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.
Resumo:
Cette recherche-action vise à déterminer par quels moyens les enseignants de français peuvent contribuer à favoriser le transfert de connaissances grammaticales en situation d’écriture chez leurs élèves de niveau secondaire. Nous avons d’abord constaté que, chez les élèves du secondaire en général, les accords sont plus facilement réussis en contexte d’exercice qu’en contexte de production écrite. Sur la base de propositions didactiques pertinentes concernant l’orthographe grammaticale et/ou le transfert de connaissances, propositions fondées notamment sur une approche inductive, centrée sur le questionnement de l’élève et sur l’analyse de phrases, nous avons conçu et élaboré une séquence didactique portant sur l’accord du participe passé employé avec être ou avec un verbe attributif. Dans un deuxième temps, nous l’avons mise à l’essai auprès d’un groupe d’élèves de troisième secondaire, puis nous en avons vérifié les effets à l’aide d’un prétest et d’un posttest composés respectivement d’un questionnaire, d’un exercice et d’une production écrite. Les résultats révélés par l’analyse des données démontrent l’efficacité de la série de cours. En effet, le taux moyen de réussite des accords en contexte d’exercice passe de 53% à 75%, alors que, pour les productions écrites, il est de 48% avant la série de cours contre 82% après. Les questionnaires recueillis nous portent à attribuer en partie cette forte augmentation du taux de réussite des accords en contexte de production écrite au bon déroulement du processus de transfert grâce au travail effectué en cours de séquence sur les connaissances conditionnelles.
Resumo:
Depuis quelques années déjà, la responsabilité de l’éducation à la citoyenneté est principalement confiée à l’enseignement de l’histoire dans le réseau scolaire québécois. Toutefois, aucune étude expérimentale n’a démontré que l’histoire était la matière la plus apte à éduquer à la citoyenneté. Cette recherche vise donc à savoir si les étudiants de niveau collégial transfèrent leurs connaissances historiques dans la résolution d’un problème d'actualité présentant une connotation historique. Le groupe cible de cette recherche est formé de vingt-cinq étudiants de Sciences humaines (ayant des cours d’histoire) et le groupe contrôle est constitué de vingt-cinq étudiants de Science de la nature (n’ayant pas de cours d’histoire). Durant des entrevues semi-dirigées d’une trentaine de minutes, les étudiants avaient à se prononcer sur une entente signée entre les Innus et les gouvernements fédéral et provincial. Une mise en situation leur était présentée préalablement. Il est ressorti peu de différences entre le groupe cible et le groupe contrôle. Ces deux effectifs considérés ensemble, le quart des répondants n’utilisait aucune connaissance historique. Surtout, la variable influençant le plus le transfert des connaissances historiques s’avère être le sexe. Parmi les répondants n’utilisant aucune connaissance historique, il n’y avait qu’un répondant de sexe masculin; et les seuls répondants à avoir utilisé les connaissances conditionnelles étaient tous de sexe masculin. C’est donc dire que le système scolaire québécois ne favoriserait pas suffisamment le transfert des connaissances historiques dans l’analyse de situations actuelles.
Resumo:
Dans ce travail, nous adaptons la méthode des symétries conditionnelles afin de construire des solutions exprimées en termes des invariants de Riemann. Dans ce contexte, nous considérons des systèmes non elliptiques quasilinéaires homogènes (de type hydrodynamique) du premier ordre d'équations aux dérivées partielles multidimensionnelles. Nous décrivons en détail les conditions nécessaires et suffisantes pour garantir l'existence locale de ce type de solution. Nous étudions les relations entre la structure des éléments intégraux et la possibilité de construire certaines classes de solutions de rang k. Ces classes de solutions incluent les superpositions non linéaires d'ondes de Riemann ainsi que les solutions multisolitoniques. Nous généralisons cette méthode aux systèmes non homogènes quasilinéaires et non elliptiques du premier ordre. Ces méthodes sont appliquées aux équations de la dynamique des fluides en (3+1) dimensions modélisant le flot d'un fluide isentropique. De nouvelles classes de solutions de rang 2 et 3 sont construites et elles incluent des solutions double- et triple-solitoniques. De nouveaux phénomènes non linéaires et linéaires sont établis pour la superposition des ondes de Riemann. Finalement, nous discutons de certains aspects concernant la construction de solutions de rang 2 pour l'équation de Kadomtsev-Petviashvili sans dispersion.
Resumo:
Les astrocytes sont des cellules gliales présentes dans le système nerveux central, qui exercent de nombreuses fonctions physiologiques essentielles et sont impliquées dans la réponse aux lésions et dans plusieurs pathologies du cerveau. Les astrocytes sont générés par les cellules de la glie radiale, les précurseurs communs de la plupart des cellules neuronales et gliales du cerveau, après le début de la production des neurones. Le passage de la neurogenèse à la gliogenèse est le résultat de mécanismes moléculaires complexes induits par des signaux intrinsèques et extrinsèques responsables du changement de propriété des précurseurs et de leur spécification. Le gène Pax6 code pour un facteur de transcription hautement conservé, impliqué dans plusieurs aspects du développement du système nerveux central, tels que la régionalisation et la neurogenèse. Il est exprimé à partir des stades les plus précoces dans les cellules neuroépithéliales (les cellules souches neurales) et dans la glie radiale, dérivant de la différenciation de ces cellules. L’objectif de cette étude est d’analyser le rôle de Pax6 dans la différenciation et dans le développement des astrocytes. À travers l’utilisation d’un modèle murin mutant nul pour Pax6, nous avons obtenu des résultats suggérant que la suppression de ce gène cause l'augmentation de la prolifération et de la capacité d'auto-renouvellement des cellules souches neurales embryonnaires. In vitro, les cellules mutantes prolifèrent de façon aberrante et sous-expriment les gènes p57Kip2, p16Ink4a, p19Arf et p21Cip1, qui inhibent la progression du le cycle cellulaire. De plus, Pax6 promeut la différenciation astrocytaire des cellules souches neurales embryonnaires et est requis pour la différenciation des astrocytes dans la moëlle épinière. Les mutants nuls pour Pax6 meurent après la naissance à cause de graves défauts développementaux dus aux fonctions essentielles de ce gène dans le développement embryonnaire de plusieurs organes. En utilisant un modèle murin conditionnel basé sur le système CRE/ loxP (hGFAP-CRE/ Pax6flox/flox) qui présente l’inactivation de Pax6 dans les cellules de la glie radiale, viable après la naissance, nous avons montré que Pax6 est impliqué dans la maturation et dans le développement post-natal des astrocytes. Le cortex cérébral des souris mutantes conditionnelles ne présente pas d’astrocytes matures à l’âge de 16 jours et une très faible quantité d’astrocytes immatures à l’âge de trois mois, suggérant que Pax6 promeut la différenciation et la maturation des astrocytes. De plus, Pax6 semble jouer un rôle même dans le processus de différenciation et de maturation de cellules gliales rétiniennes. L’étude des gènes et des mécanismes moléculaires impliqués dans la génération des astrocytes est crucial pour mieux comprendre le rôle physiologique et les altérations pathologiques des ces cellules.
Resumo:
Cette thèse questionne l’apport de la conservation du patrimoine urbain à l’urbanisme. Il y est avancé que l’association entre la conservation du patrimoine urbain et l'urbanisme, dans leur cadre conceptuel actuel, plutôt que d’être le catalyseur du renouvellement de l’urbanisme, a perpétué une appréhension fragmentée et une atomisation de l'établissement, consacrant ainsi le paradigme fonctionnaliste, qui conditionne encore largement les pratiques urbanistiques contemporaines, au Québec notamment. En effet, bien que depuis les années 1960 la conservation du patrimoine soit présentée comme le fil rouge dans le redéploiement de la compétence d’édifier, plusieurs études soulignent les résultats mitigés de nombreuses expériences de conservation ainsi qu’une contribution limitée relativement à la formulation des projets urbains. Plus particulièrement, malgré la reconnaissance de l’intérêt de la patrimonialisation et de la fécondité potentielle de l’idée de patrimoine en général, l’urbanisme n’est pas parvenu à en définir les termes de la contribution, tant au plan conceptuel que processuel, en regard de sa propre projectualité. De ce fait, il ne réussit pas à affranchir la réflexion patrimoniale du registre de la conservation afin de se l’approprier véritablement. Cette thèse explique les causes de cette incapacité à partir d’une analyse des conditions de l’appropriation de la notion de patrimoine urbain mises de l’avant par l’approche giovannonienne. Celle-ci, fondamentalement urbanistique, propose une conception du patrimoine urbain qui s’émancipe du monument historique et du registre de la conservation. Indissociable d’une projectualité urbanistique, l’intérêt pour le patrimoine urbain de Giovannoni relève d’une reconnaissance du déjà là qui fonde des modalités de prises en charge de l’existant. Celles-ci posent les bases d’un renouvellement de la manière de penser l’urbanisme. La notion giovannonienne de patrimoine urbain, qui réfère à l’ensemble urbain patrimonial, devient l’élément de base d’une analyse morphologique urbanistique qui permet de conceptualiser l’agglomération contemporaine comme ensemble marqué par les ruptures et les discontinuités. Prenant appui sur une démarche dialogique, l’approche giovannonienne relève d’une mise en tension des singularités et d’une appréhension conjointe des différentes registres, ceux des formes et des forces, de l’existant et du souhaité, du penser et du faire. Giovannoni dépasse ainsi l’opposition entre continuité et rupture portée par les pratiques afin de penser l’articulation du nouveau à l’ancien. La confrontation de l’approche giovannonienne aux différentes perspectives qui ont marqué l’urbanisme moderne, montre que ces modalités de prise en charge de l’existant sont conditionnelles à l’accomplissement des promesses de la considération du patrimoine urbain. Autrement, l’association de la conservation du patrimoine urbain et de l’urbanisme culmine dans une double assimilation : l’assimilation du patrimoine urbain au monument historique d’architecture conduit à confondre projet d’urbanisme et projet de conservation.
Resumo:
L’exposition quotidienne aux polluants atmosphériques tels que le dioxyde de soufre, les particules fines (PM2.5) et l’ozone en milieu urbain sont associés à des effets néfastes sur la santé respiratoire des enfants. Des études épidémiologiques transversales rapportent des associations entre la pollution atmosphérique et des problèmes de santé respiratoires chez les enfants en milieu industriel telles que la prévalence de l’asthme et de l'hyperréactivité bronchique. Ces études épidémiologiques transversales ne permettent pas d’évaluer les effets sur la santé d’une exposition de courte durée. Peu d’études ont évalué les effets respiratoires des expositions aiguës chez les enfants à la pollution atmosphérique d’émissions industrielles. Dans ce mémoire, nous avons analysé l’association entre l’exposition journalière aux émissions d’une aluminerie et l’hospitalisation pour problèmes respiratoires (asthme, bronchiolite) chez les enfants de Shawinigan. Pour étudier ces effets des expositions aiguës, nous avons utilisé le devis épidémiologique de type « case-crossover » qui compare l’exposition lors des jours « cas » (jour d’hospitalisation) avec l’exposition lors des jours « contrôle » (exposition du même individu, les mêmes jours de la semaine, durant le même mois). Les variables d’exposition suivantes ont été calculées pour les enfants vivants dans un rayon de 7.5 km de l’industrie et pour ceux habitant à moins de 2.5 km de la station de mesure de polluants près de l’industrie : i) le nombre d’heures par jour durant lesquelles la résidence de chaque enfant recevait le panache de fumée de l’industrie. ii) les concentrations journalières de PM2.5 et de SO2 (moyenne et maximales) de la station de mesure des polluants localisée près de l’industrie. Des régressions logistiques conditionnelles ont été utilisées pour estimer les rapports de cotes (OR) et leurs intervalles de confiance à 95% (IC95%). Au total, 429 hospitalisations d’enfants pour asthme et bronchiolite ont été recensées pendant la période d’étude allant de 1999 à 2008. Le risque d’hospitalisations pour asthme et bronchiolite a augmenté avec l’augmentation du nombre d’heures d’exposition aux fumées de l’industrie, chez les enfants de moins de 5 ans. Pour les enfants de 2-4 ans, cette association était : OR : 1.27, pour un interquartile de 4.8 heures/jour; intervalle de confiance à 95%: 1.03-1.56. Des tendances moins prononcées sont notées avec les niveaux de SO2 et de PM2.5. Cette étude suggère que l’exposition journalière aux émissions industrielles identifiées par l’exposition horaire des vents venant de l’usine pourrait être associée à une exacerbation des problèmes respiratoires chez les jeunes enfants. De plus, l’effet plus prononcé avec la variable d’exposition basée sur les vents suggère un effet découlant des polluants autres que ceux mesurés (SO2 et PM2.5), possiblement comme les hydrocarbures aromatiques polycycliques (HAP).
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.