913 resultados para Séries Temporais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous allons exposer dans ce mémoire divers résultats sur l’universalité en analyse complexe. Nous énoncerons d’abord des résultats généraux sur les séries universelles, puis sur un type d’universalité dû à Fournier et Nestoridis qui établit un lien nouveau entre l’universalité et la non-normalité d’une famille de fonctions. Par la suite, nous introduirons un type différent de séries universelles obtenues en réarrangeant les termes de séries arbitraires. Nous prouverons dans ce mémoire la généricité algébrique de ce type de séries universelles pour tout espace de Banach et la généricité topologique dans les espaces de dimension finie. Aussi, nous démontrerons que pour toute série universelle par réarrangement il existe un réarrangement de ses termes pour lequel cette série devient universelle au sens usuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les centres d’information sur les tératogènes (CIT) fournissent aux professionnels de la santé ainsi qu’au public de l’information sur les risques et bienfaits associés à l’utilisation des médicaments durant la grossesse et l’allaitement. Le Centre IMAGe (Info-Médicaments en Allaitement et Grossesse) du CHU Sainte-Justine (Centre Hospitalier Universitaire Sainte-Justine) au Québec, est un CIT qui offre depuis 1997 un service téléphonique d’information gratuit aux professionnels de la santé. Deux études ont été réalisées à partir des appels reçus au Centre IMAGe. La première étude a été réalisée sur l’ensemble des appels reçus entre janvier 2004 et avril 2007 au sujet de femmes qui prenaient ou envisageaient prendre un médicament durant la grossesse ou l’allaitement. Les objectifs de cette étude visaient à déterminer les classes de médicaments les plus fréquentes ainsi que les indications d’utilisation et les déterminants d’un appel à leur sujet (caractéristiques maternelles associées). Les antidépresseurs, les anti-inflammatoires, les antibiotiques, les benzodiazépines et les antipsychotiques sont les classes de médicaments qui correspondaient aux plus grands nombres d’appels. Cela porte à croire que pour ces classes de médicaments, il existe chez les professionnels de la santé un besoin d’information en ce qui concerne les risques et bienfaits de leur utilisation durant la grossesse et l’allaitement. La dépression représentait une des trois indications les plus prévalentes chez les femmes qui prenaient ou désiraient prendre des antidépresseurs, des benzodiazépines ou des anti-psychotiques durant la grossesse ou l’allaitement. Le tabagisme était associé à l’utilisation des antidépresseurs et des anti-psychotiques durant la grossesse, ainsi qu’à un appel au sujet des anti-inflammatoires durant l’allaitement. La deuxième étude a été réalisée sur l’ensemble des appels reçus entre janvier 2003 et mars 2008. Cette étude visait à déterminer l’impact des avis émis par Santé Canada concernant les risques de l’exposition aux antidépresseurs durant la grossesse et celui concernant le retrait du rofécoxib, sur le nombre d’appels reçus à IMAGe. L’analyse des séries temporelles du nombre hebdomadaire d’appels reçus a révélé que l’avis de Santé Canada sur les risques de malformations cardiaques associés à l’utilisation de la paroxétine lors du premier trimestre de la grossesse a généré une augmentation statistiquement significative, soudaine et permanente du nombre d’appels reçus à IMAGe au sujet des antidépresseurs. Ces études permettent de mieux comprendre le besoin d’information des professionnels de la santé sur les risques et bienfaits de l’utilisation des médicaments durant la grossesse et l’allaitement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La violence contre les policiers a des répercussions importantes à la fois chez les policiers et pour les administrateurs de la police. En 2005, le taux canadien de voies de fait contre la police a atteint son plus haut sommet en plusieurs décennies, faisant état d’une situation préoccupante. Plusieurs provinces canadiennes connaissent d’ailleurs une hausse marquée de la violence contre leurs policiers depuis plusieurs années. Cette étude vise donc à examiner et à comprendre l’évolution du phénomène de violence contre les policiers au Canada par l’identification de facteurs qui pourraient expliquer les variations du taux de voies de fait contre les policiers. La méthode d’analyse privilégiée dans le cadre de cette étude est une analyse transversale de séries chronologiques regroupées (pooled time series) qui traite des données portant sur les dix provinces canadiennes pour une période allant de 1986 à 2006. Les résultats indiquent que plusieurs facteurs ont un impact sur la violence dont sont victimes les policiers : la proportion de la population âgée entre 15 et 24 ans, la proportion d’hommes de 15 ans et plus, la proportion de la population vivant dans une région urbaine, la proportion de gens divorcés, les taux résiduels de crimes de violence et de crimes rattachés aux drogues, et le nombre d’évasions et de personnes en liberté sans excuse. La présence croissante de policières, qui fait encore l’objet de débats, semble quant à elle réduire le nombre de voies de fait contre la police, quoique l’impact de ce facteur soit de faible portée. Au Québec, la une hausse importante du taux de voies de fait contre les policiers pourrait s’expliquer par la hausse de plusieurs facteurs identifiés comme jouant un rôle dans le phénomène, bien qu’il ne faille pas écarter qu’un changement dans la reportabilité puisse entrer en ligne de compte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bien que les troubles cognitifs soient un aspect essentiel de la schizophrénie, le dysfonctionnement des systèmes émotionnels y est également considéré comme un élément très important de cette maladie d’autant plus que plusieurs régions du cerveau sont concernées par la régulation émotionnelle. Le principal objectif du présent travail était d’explorer, en imagerie par résonnance magnétique fonctionnelle (IRMf), l’effet de la ziprasidone sur les différentes réponses neuronales à l’affichage de stimuli émotionnels au niveau de la région préfrontale,particulièrement dans le cortex cingulaire antérieur [CCA], le cortex orbito-frontal [COF] et le cortex préfrontal dorso-latéral [CPFDL]. Nous avons examiné les activations cérébrales, chez des patients souffrants de schizophrénie avant et après médication à la ziprasidone, en leur présentant des séries d’images émotionnellement chargées (négatives, neutres et positives) associées à différentes instructions quand aux types d’images qu’ils devaient sélectionner (négatives,neutres et positives). Nous avons analysé les différents changements d’activation (avant et après médication) essentiellement pour les valences extrêmes des stimuli (positives et négatives), ensuite nous avons regardé l’effet du type d’instruction sur ces changements. L’échantillon comprenait 13 patients atteints de schizophrénie et 15 témoins sains. Nous avons également effectué une évaluation clinique des symptômes dépressifs, positifs et négatifs de la maladie ainsi que des mesures biochimiques et de poids avant et après 16 semaines de médication. Malgré l’absence de changement significatif sur les mesures cliniques (PANSS et Dépression) avant et après une moyenne de 14.3 semaines de médication à la ziprasidone, plusieurs régions préfrontales (CCA, COF, CPDL) ont sensiblement accru leur réponse aux stimuli positifs par rapport aux stimuli négatifs. En outre, dans les régions habituellement impliquées dans le contrôle cognitif (CCA et CPFDL), cette tendance s'est accentuée lorsque les patients ont été invités à ne sélectionner que les stimuli négatifs (effet du type d’instruction). Nous avons également trouvé plusieurs similitudes dans le fonctionnement préfrontal (à la fois dans le volume et la force d'activation) entre les contrôles sains et les patients après médication en tenant compte du type d’instruction plus que de la valence émotionnelle des images. Pour conclure, les résultats de la présente étude suggèrent que le traitement antipsychotique avec la ziprasidone améliore le fonctionnement cognitif lié au traitement de l'information émotionnelle dans le cortex préfrontal chez les patients souffrant de schizophrénie. Étant donné le mécanisme d'action neuro-pharmacologique de la ziprasidone (plus d'affinité pour la sérotonine que pour les récepteurs de la dopamine dans le cortex préfrontal), nous pensons que nos résultats démontrent que le contrôle cognitif et la régulation des réactions face à des stimuli émotionnellement chargés dans la schizophrénie sont liés à une plus forte concentration de dopamine dans les voies préfrontales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude est consacrée à l’université publique marocaine. Elle se situe dans le champ de l’enseignement supérieur public. Les chercheurs du secteur universitaire au Maroc qualifient la gestion de l’enseignement supérieur de centralisée, bureaucratisée, rigide et incapable de trouver des réponses efficaces à la société. L’université publique marocaine vit une crise : elle a fait l’objet de nombreux critiques sur la nature des services universitaires. Sur le plan académique, elle est inappropriée pour faire face à la demande sociale en matière de l’enseignement universitaire. Sur le plan interne, elle est inadaptée à cause de dysfonctionnement pédagogie, organisationnel et administratif. L’université publique n’a pas été apte à s’adapter au secteur privé en créant des débouchés viables pour ses diplômés. Devant la gravité de la situation de l’enseignement supérieur public marocain, une Commission Royale Spéciale a été créée, dont le mandat était de trouver une meilleure façon de rationaliser le système universitaire. C’est ainsi qu’en 1999, la Commission a établi une Charte nationale de l’éducation et de la formation. Les premiers éléments de la nouvelle réforme ont été mis en application dès la rentrée universitaire 2003-2004. Cette nouvelle réforme est perçue comme un moyen d’améliorer le fonctionnement des établissements universitaires publics. Son objectif principal est de réformer d’une manière globale le système universitaire public. Dans les recherches qui se sont intéressées à la réforme de l’université publique marocaine, nous avons constaté qu’il y a une absence de documentation en ce qui trait aux réactions des acteurs universitaires et professionnels face aux orientations de cette réforme. Dans le but d’apporter des éclaircissements, nous nous sommes fixé un double objectif : déterminer, à partir de la perception d’acteurs universitaires, les effets des orientations de la nouvelle réforme et de ses modalités; connaître les changements organisationnels et leurs exigences. La stratégie de recherche répondant le mieux à notre double objectif était la recherche exploratoire. La démarche que nous avons privilégiée fut celle d’une première étude avant l’implantation de la nouvelle réforme et d’une autre après trois semestres de son implantation. Les questions qui ont soutenu notre recherche sont les suivantes : les attitudes des acteurs universitaires ont-elles été modifiées par l’introduction de la nouvelle réforme? Si oui, dans quel sens ont-elles été modifiées? Est-ce que la nouvelle réforme a modifié les pratiques pédagogiques et financières dans le sens indiqué par la charte? Quelles formes de contribution des acteurs universitaires peuvent-ils apporter à une implantation efficace de la nouvelle réforme? Parmi les quatorze universités publiques que compte le Maroc, nous avons choisi l’Université Mohammed V de Rabat-Salé. Cet établissement est l'une des universités les plus anciennes au Maroc. Elle est caractérisée par un nombre significatif de départements qui ont un potentiel de recherche et une réputation nationale. Aucune université ne dispose d’autant de facultés et de différentes disciplines : lettres, sciences, économie, droit, médecine et pharmacie, médecine dentaire, ingénierie, technologie et autres. La démarche méthodologique retenue est axée sur des entrevues auprès des acteurs universitaires et professionnels de trois facultés : 1) faculté des Lettres et Sciences humaines, 2) faculté des Sciences juridiques, économiques et sociales, 3) faculté des Sciences. Celles-ci sont considérées comme des facultés pilotes par rapport à la nouvelle réforme. Nous avons entrepris deux séries d’entrevues : la première en 2001 avant l’implantation de la nouvelle réforme de l’université et la deuxième en 2005 après son implantation. Nous avons mené au total quarante-cinq (45) entrevues qui se sont déroulées en deux périodes : la première a eu lieu entre décembre 2000 et janvier 2001 et la deuxième entre décembre 2004 et janvier 2005. Lors de la première série d’entrevues, notre protocole était composé de questions spécifiques portant sur les initiatives inhérentes à la mise en application d’un système modulaire, sur les procédures pour restructurer la formation universitaire publique, sur le développement de projets spéciaux et de matériel didactique en rapport avec le nouveau système pédagogique et sur les propositions et les procédures pour la participation de l’université au marché du travail. Nous avons aussi posé des questions concernant les aspects financiers. Enfin, pour mieux comprendre le contexte, des questions portaient sur les évaluations et les recommandations de la nouvelle réforme de l’université publique. Au cours de la deuxième période d’entrevues, nous avons recueilli des données sur le soutien du département au pilotage des objectifs de la nouvelle réforme universitaire, le soutien des instances professionnelles à l’avancement de la réforme, la coopération des enseignants au plan de l’avancement des pratiques pédagogiques et les conditions nécessaires à une implantation efficace. Les réponses obtenues auprès des acteurs universitaires et professionnels ont été soumises à une analyse de contenu. Nous avons opté pour le modèle politique comme cadre conceptuel de notre recherche. Ce modèle nous a aidés à montrer l’importance des acteurs universitaires et professionnels dans les démarches pour l’application de la nouvelle réforme. Il nous a aidés également à comprendre comment les caractéristiques de la communauté universitaire peuvent faciliter ou bloquer la réussite de la réforme en cours. Cette recherche montre dans quelle mesure les objectifs de la nouvelle réforme fixés par la Commission Royale Spéciale sont en voie de réalisation. En ce sens, notre recherche pourrait être utile au plan national marocain : elle pourrait aider les responsables politiques et les administrateurs universitaires à prendre des décisions appropriées au processus d’implantation de la nouvelle réforme universitaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse de sociologie du droit, nous étudions l'influence du droit de l'État sur les sujets de droit. Notre hypothèse générale est que les intermédiaires du droit de l'État contribuent de façon importante à façonner le« rapport au droit» des sujets de droit. C'est-à-dire qu'ils auraient une incidence sur la construction de la relation d'influence du droit sur ces acteurs sociaux et, par là, un effet marqué sur la « légitimité empirique » du droit. Par leurs pratiques professionnelles les intermédiaires du droit auraient une incidence notable, quoique non exclusive, sur les formes concrètes de «rapports au droit» des sujets de droit. Dans l'étude de ce phénomène, nous comparons empiriquement les liens existant entre différents « rapports au droit » des sujets de droit et un droit caractérisé par une rationalité juridique fort différente selon qu'il aurait été porté par un avocat ou un médiateur. Ces deux groupes de professionnels sont les intermédiaires du droit qui font 1’objet de notre observation, laquelle n'est ni générale, ni globale, mais spécifique au divorce, géographiquement localisée à Montréal et historiquement située au début des années 1990. L'intérêt de cette période pour une étude de l'influence du droit sur les sujets de droit est qu'elle constitue un moment unique de l'histoire à Montréal. À cette époque, les différences entre les pratiques professionnelles des avocats et des médiateurs auraient été les plus extrêmes, ce qui favorise un travail de comparaison d'autant plus éclairant. En effet, au début des années 1990, après une dizaine d'années d'expérience, le Service de médiation à la famille de Montréal avait réussi à assurer une solide pratique professionnelle. Par ailleurs, la pratique professionnelle des avocats dans le domaine du divorce était déjà fort « modernisée », mais elle demeurait encore très peu influencée par la médiation familiale. Puisque le « rapport au droit » des personnes qui ont consulté ces intermédiaires du droit en vue de leur divorce est au cœur de 1 'étude, c'est auprès d'eux que nous avons réalisé des entretiens, et c'est l'analyse de ces entretiens qui permet de comprendre leur « rapport au droit». La sociologie de Max Weber est la perspective scientifique dans laquelle nous avons inscrit notre recherche. Une telle ambition exigeait que nous ne restions pas confinée aux seuls concepts les plus populaires. Par conséquent, une partie importante de cette thèse est consacrée à une présentation substantielle de la sociologie wébérienne. Sur cette base, nous avons construit notre stratégie d'enquête et nos instruments d'analyse idéal typiques. Non seulement il n'y a pas, chez Weber, de théorie systémique générale composée de lois explicatives des relations sociales, mais il n'y a pas non plus de modèle de cadre d'analyse particulier préfabriqué qui serait constitué comme un «prêt-à-porter» applicable en vue de réaliser des recherches empiriques, que ce soit dans le domaine du droit ou dans n'importe quel autre domaine d'activité humaine. En revanche, la sociologie wébérienne fournit plusieurs séries de repères conceptuels. Ils permettent d'organiser la recherche empirique sans jamais limiter les objets d'enquêtes possibles, ni l'imagination du chercheur, en autant que celui-ci a pour but de comprendre l'action sociale en l'interprétant et, par-là, de l'expliquer causalement dans son déroulement et ses effets. C'est là le projet de connaissance que Weber désigne par « sociologie ». Il vise ce projet de connaissance, non pas de manière générale et globale, mais toujours de manière particulière selon les domaines d'activité, les lieux, les époques, les sphères de valeurs, etc. Dans cette thèse, nous proposons un cadre d'analyse qui peut servir à poser et à approfondir toutes sortes de questions sur le droit et son influence, sans jamais qu'il soit considéré comme un système de lois à la manière du droit positif. Ce cadre d'analyse vise à appréhender le droit comme une sorte de relation sociale que l'on peut comprendre sociologiquement en considérant, notamment, les représentations juridiques des différentes catégories d'acteurs sociaux. C'est là la première, non pas la seule, condition à rencontrer en vue de respecter les exigences de la connaissance empirique du droit parce que le « droit empirique » ne se trouve pas dans la règle de droit positif. Il se trouve là où il est « porté » par des êtres humains et, en particulier, par des groupes d'humains qui détiennent une importante dose d'influence sociale. Nous souhaitons que cette étude, grâce à 1 'immense apport de la sociologie de Max Weber, contribue à la compréhension sociologique d'un aspect du « droit empirique» de l’État contemporain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte et objectifs. Depuis plusieurs années, la criminalité économique génère des coûts économiques et sociaux importants. Plusieurs acteurs, dont les entreprises privées, se sont mobilisés pour lutter contre ce phénomène. La fraude par carte de débit est un crime économique en expansion contre lequel plusieurs organisations ont entrepris des actions. L’objectif de ce mémoire est d’améliorer les connaissances sur les effets des mesures de prévention situationnelle appliquées dans les succursales d’un commerce de détail et leur impact sur le processus décisionnel des délinquants impliquées dans le clonage de cartes de débit. Méthodologie. Les effets des mesures de prévention mises en place sont évalués à l’aide d’analyses de séries chronologiques interrompues. En complément des analyses statistiques, des entrevues et une analyse documentaire sont effectuées. Les entrevues sont réalisées avec des enquêteurs du service de sécurité de l’entreprise de commerce de détail. L’analyse documentaire est basée sur les rapports d’événement ouverts lors des fraudes par carte de débit. Résultats. Les mesures de prévention ont produit différents effets. Selon la mesure, il fut possible de constater soit une hausse ou une baisse dans le nombre de délits commis. Certaines mesures ont, en outre, provoqué un déplacement spatial, un déplacement dans le choix de la cible, un déplacement dans le type de crime commis et, finalement, un déplacement tactique. Conclusion. Les résultats suggèrent que les mesures de prévention adoptées ont empêché la réalisation des délits associés à la fraude par carte de débit. Par contre, la présence de plusieurs formes de déplacement indique que les fraudeurs se sont adaptés aux mesures de prévention. Afin de documenter adéquatement cette forme de crime et les déplacements générés, d’autres études s’avèrent nécessaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs. L’objectif de ce mémoire est d’améliorer les connaissances quant à l’effet des interventions policières sur la violence imputable aux bandes criminelles. À travers l’évaluation des cinq plus importantes opérations policières réalisées entre 1991 et 2008 au Québec, trois modèles conceptuels sont confrontés : 1) celui du marché qui prévoit une hausse des affrontements entres bandes rivales dont le but est de prendre possession d’un marché criminel maintenant disponible en raison du retrait d’un joueur clé, 2) celui de la dissuasion qui prévoit une baisse des violences criminelles, et 3) celui de l’attrition qui envisage une baisse des violences en raison de l’essoufflement des bandes. Méthodologie. Les données de cette étude proviennent de l’Enquête générale sur les homicides de Statistique Canada. Différents taux d’homicides furent agrégés sur une base annuelle pour différentes provinces et régions métropolitaines de recensement. Des analyses de séries chronologiques interrompues furent ensuite réalisées pour estimer l’effet des interventions policières. Résultats. L’opération Printemps 2001 est la seule intervention policière à être associée à une baisse significative des homicides reliés aux bandes criminelles. « Sans-Frontière », « Colisée » et les deux escouades Carcajou de Montréal et de Québec, n’ont produit aucun effet préventif notable. Au contraire, Carcajou Montréal et Québec ont été associées à une hausse des homicides liés aux gangs. Conclusion. Les présents résultats appuient davantage la thèse de la dissuasion que celles du marché ou de l’attrition. Afin de produire un effet de dissuasion, les résultats suggèrent que l’intervention policière doit : 1) cibler un nombre important de membres de l’organisation criminelle, 2) s’attaquer aux têtes dirigeantes, 3) assurer la neutralisation des membres de l’organisation, et 4) assurer la diffusion du message pénal auprès des délinquants concernés. D’autres études sont toutefois nécessaires pour estimer l’effet des interventions policières dans d’autres contextes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).