11 resultados para Clayton Copula

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le pouvoir de détenir une personne à des fins d'enquête n'est pas une technique d'investigation nouvelle et tire son origine du droit anglais. Mais cette méthode d'enquête, qui consiste à restreindre temporairement la liberté de mouvement d'une personne que l'on soupçonne pour des motifs raisonnables d'être impliquée dans une activité criminelle, ne fut reconnue officiellement au Canada qu'en juillet 2004 suite au jugement rendu par la Cour suprême dans l'affaire R. c. Mann. Au moment d'écrire ces lignes, cette stratégie d'enquête policière ne fait toujours pas l'objet d'une réglementation spécifique au Code criminel. L'approbation de cette technique d'enquête, en l'absence de toute forme de législation, ne s'est pas faite sans critiques de la part des auteurs et des commentateurs judiciaires qui y voient une intrusion dans un champ de compétences normalement réservé au Parlement. L'arrêt Mann laisse également en suspens une question cruciale qui se rapporte directement aux droits constitutionnels des citoyens faisant l'objet d'une détention semblable: il s'agit du droit d'avoir recours sans délai à l'assistance d'un avocat. Le présent travail se veut donc une étude approfondie du concept de la détention à des fins d'enquête en droit criminel canadien et de son impact sur les droits constitutionnels dont bénéficient les citoyens de notre pays. Pour accomplir cette tâche, l'auteur propose une analyse de la question en trois chapitres distincts. Dans le premier chapitre, l'auteur se penche sur le rôle et les fonctions dévolus aux agents de la paix qui exécutent leur mission à l'intérieur d'une société libre et démocratique comme celle qui prévaut au Canada. Cette étude permettra au lecteur de mieux connaître les principaux acteurs qui assurent le maintien de l'ordre sur le territoire québécois, les crimes qu'ils sont le plus souvent appelés à combattre ainsi que les méthodes d'enquête qu'ils emploient pour les réprimer. Le deuxième chapitre est entièrement dédié au concept de la détention à des fins d'enquête en droit criminel canadien. En plus de l'arrêt R. c. Mann qui fera l'objet d'une étude détaillée, plusieurs autres sujets en lien avec cette notion seront abordés. Des thèmes tels que la notion de «détention» au sens des articles 9 et 10b) de la Charte canadienne des droits et libertés, la différence entre la détention à des fins d'enquête et l'arrestation, les motifs pouvant légalement justifier une intervention policière de même que les limites et l'entendue de la détention d'une personne pour fins d'enquête, seront aussi analysés. Au troisième chapitre, l'auteur se consacre à la question du droit d'avoir recours sans délai à l'assistance d'un avocat (et d'être informé de ce droit) ainsi que du droit de garder le silence dans des circonstances permettant aux agents de la paix de détenir une personne à des fins d'enquête. Faisant l'analogie avec d'autres jugements rendus par nos tribunaux, l'auteur suggère quelques pistes de solutions susceptibles de combler les lacunes qui auront été préalablement identifiées dans les arrêts Mann et Clayton.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet ouvrage a été rédigé en LaTeX, ce qui permet d'atteindre directement certaines sections, notes ou références bibliographiques par le biais des hyperliens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les copulas archimédiennes hiérarchiques ont récemment gagné en intérêt puisqu’elles généralisent la famille de copules archimédiennes, car elles introduisent une asymétrie partielle. Des algorithmes d’échantillonnages et des méthodes ont largement été développés pour de telles copules. Néanmoins, concernant l’estimation par maximum de vraisemblance et les tests d’adéquations, il est important d’avoir à disposition la densité de ces variables aléatoires. Ce travail remplie ce manque. Après une courte introduction aux copules et aux copules archimédiennes hiérarchiques, une équation générale sur les dérivées des noeuds et générateurs internes apparaissant dans la densité des copules archimédiennes hiérarchique. sera dérivée. Il en suit une formule tractable pour la densité des copules archimédiennes hiérarchiques. Des exemples incluant les familles archimédiennes usuelles ainsi que leur transformations sont présentés. De plus, une méthode numérique efficiente pour évaluer le logarithme des densités est présentée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objet du travail est d’étudier les prolongements de sous-copules. Un cas important de l’utilisation de tels prolongements est l’estimation non paramétrique d’une copule par le lissage d’une sous-copule (la copule empirique). Lorsque l’estimateur obtenu est une copule, cet estimateur est un prolongement de la souscopule. La thèse présente au chapitre 2 la construction et la convergence uniforme d’un estimateur bona fide d’une copule ou d’une densité de copule. Cet estimateur est un prolongement de type copule empirique basé sur le lissage par le produit tensoriel de fonctions de répartition splines. Le chapitre 3 donne la caractérisation de l’ensemble des prolongements possibles d’une sous-copule. Ce sujet a été traité par le passé; mais les constructions proposées ne s’appliquent pas à la dépendance dans des espaces très généraux. Le chapitre 4 s’attèle à résoudre le problème suivant posé par [Carley, 2002]. Il s’agit de trouver la borne supérieure des prolongements en dimension 3 d’une sous-copule de domaine fini.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent texte est de discuter de la portée épistémique de la méthode axiomatique. Tout d'abord, il sera question du contexte à partir duquel la méthode axiomatique a émergé, ce qui sera suivi d'une discussion des motivations du programme de Hilbert et de ses objectifs. Ensuite, nous exposerons la méthode axiomatique dans un cadre plus moderne afin de mettre en lumière son utilité et sa portée théorique. Finalement, il s'agira d'explorer l'influence de la méthode axiomatique en physique, surtout en ce qui a trait à l'application de la méthode par Hilbert. Nous discuterons de ses objectifs et de l'épistémologie qui accompagnait sa vision du 6 e problème, ce qui nous amènera à discuter des limites épistémiques de la méthode axiomatique et de l'entreprise scientifique en général.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce texte porte sur les principales objections faites à la logique déontique, notamment le dilemme de Jorgensen et les paradoxes de Ross. Pour aborder ces points, nous présenterons d’abord la position de Weinberger quant à la façon dont il considère que la logique doit être appliquée au domaine normatif, ce qui nous permettra d’en arriver à sa critique de la logique déontique. Avant de présenter le dilemme et les paradoxes, nous verrons quelques notions de logique modale afin de faciliter la compréhension des objections et de la critique qui en sera faite. Finalement, nous proposerons une analyse formelle des paradoxes soulevés contre la logique déontique ainsi qu’une critique du présupposé réaliste implicite aux réponses faites au dilemme de Jorgensen. Nous serons alors en mesure de souligner quelques points importants à prendre en compte lors de la formalisation d’un discours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce texte se veut une analyse critique de l'approche de Thomason (1981) quant à la logique déontique. Alors que l'auteur défend que celle-ci doit être formalisée dans le cadre des logiques temporelles, nous soutenons que la temporalité est implicite à l'obligation, et de fait que la logique déontique n'a pas a être traitée dans la cadre d'une logique temporelle. Nous présenterons d'abord la position de Thomason. Il sera question des exemples dont l'auteur se sert pour justifier son point de vue philosophique et du modèle sémantique qu'il propose pour rendre compte de l'obligation. Il sera ensuite sujet d'une critique des exemples de l'auteur et de son modèle sémantique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce texte porte sur l’analyse sémantique de la logique déontique. Nous analyserons de façon critique un texte de Schotch (1981) portant sur une interprétation de la logique déontique dans le cadre d’une sémantique non-kripkéenne. Nous laisserons de côté les choix relatifs à la syntaxe de son système afin de se concentrer sur l’analyse sémantique qu’il expose contre la logique déontique et sur celle qu’il propose en retour. Avant de voir le détail de son raisonnement, nous présenterons brièvement quelques notions de logique modale afin de faciliter la compréhension de l’argument de Schotch. Nous présenterons ensuite l’argument de l’auteur contre la logique déontique afin de pouvoir exposer sa solution, ce qui ouvrira la porte à une lecture critique de son analyse.