169 resultados para Le Bail method


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte et objectifs. La carrière criminelle est un sujet d’intérêt criminologique depuis plus de 80 ans. Les travaux sur cette question ont permis de mieux comprendre l’évolution des personnes contrevenantes et leurs crimes au fil du temps. Bien que beaucoup d’efforts aient été déployés pour étudier les hommes, les recherches portant sur les trajectoires criminelles des femmes demeurent relativement rares, ceci étant notamment attribuable à la petite taille des échantillons. L’objectif de ce mémoire est de réaliser une étude comparative de la carrière criminelle d’hommes et de femmes de 18 à 47 ans relevant de la juridiction de la province de Québec. Méthodologie. L’échantillon est composé de 3320 délinquants sous responsabilité provinciale, soit 216 femmes (6,5 %) et 3104 hommes (93,5 %). Des statistiques descriptives seront réalisées afin de dresser un portrait de la clientèle et une approche par variable latente catégorielle sera utilisée pour modéliser les parcours criminels. Plus précisément, cette analyse permet d’estimer des sous-groupes de délinquants au sein de la population qui suivent des courbes de croissance distinctes. La proportion d’individus appartenant à chacun de ces sous-groupes peut donc être estimée. Résultats. Les analyses indiquent que les femmes ont une fréquence de délits commis plus faible que les hommes, et ce, particulièrement au début de leur carrière criminelle. En effet, la différence quant à la fréquence tend à s’atténuer avec le temps, pour disparaître vers 40 ans. Également, il apparaît que les hommes et les femmes suivent un nombre de trajectoires criminelles similaires; cependant, la prévalence chez ces dernières apparaît relativement différente. En effet, il ressort que les femmes commencent plus tardivement leur carrière criminelle que les hommes, avec une proportion plus importante pour les crimes contre les biens. Finalement, les antécédents juvéniles influent sur la chronicité et la persistance, quel que soit le genre ou le type de crime. Conclusion. Les résultats démontrent que la différence selon le sexe est un sujet d’intérêt criminologique primordial puisque les femmes présentent des risques différents quant à la fréquence et au type de crime. Qui plus est, ces dernières semblent commencer leur carrière criminelle plus tardivement que les hommes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La réplication et l’assemblage du virus de l’hépatite C (VHC) sont régulés finement dans le temps et l’espace par les interactions protéiques entre le virus avec l’hôte. La compréhension de la biologie du virus ainsi que sa pathogénicité passe par les connaissances relatives aux interactions virus/hôte. Afin d’identifier ces interactions, nous avons exploité une approche d’immunoprécipitation (IP) couplée à une détection par spectrométrie de masse (MS), pour ensuite évaluer le rôle des protéines identifiées dans le cycle viral par une technique de silençage génique. Les protéines virales Core, NS2, NS3/4A, NS4B, NS5A et NS5B ont été exprimées individuellement dans les cellules humaines 293T et immunoprécipitées afin d’isoler des complexes protéiques qui ont été soumis à l’analyse MS. Ainsi, 98 protéines de l’hôte ont été identifiées avec un enrichissement significatif et illustrant une spécificité d’interaction. L’enrichissement de protéines connues dans la littérature a démontré la force de l’approche, ainsi que la validation de 6 nouvelles interactions virus/hôte. Enfin, le rôle de ces interactants sur la réplication virale a été évalué dans un criblage génomique par ARN interférant (ARNi). Deux systèmes rapporteurs de la réplication virale ont été utilisés : le système de réplicon sous-génomique (Huh7-Con1-Fluc) et le système infectieux (J6/JFH-1/p7Rluc2a), ainsi qu’un essai de toxicité cellulaire (Alamar Blue). Parmi les protéines de l’hôte interagissant avec le VHC, 28 protéines ont démontré un effet significatif sans effet de toxicité cellulaire, suggérant fortement un rôle dans la réplication du VHC. Globalement, l’étude a mené à l’identification de nouvelles interactions virus/hôte et l’identification de nouvelles cibles thérapeutiques potentielles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option expertise-conseil en soins infirmiers

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le parasite Varroa destructor provoque depuis plus de 30 ans la perte de nombreuses colonies à travers le monde. L’utilisation d’acaricides de synthèse s’est avérée inefficace au Canada et ailleurs dans le monde à la suite de la sélection de varroas résistants. Dans ce contexte, il est devenu impératif de trouver de nouveaux moyens pour contrôler cette peste apicole. Ce travail original de recherche a pour but de déterminer les paramètres fondamentaux d’une lutte intégrée contre la varroase fondée sur l’utilisation périodique de différents pesticides organiques (l’acide oxalique, l’acide formique et le thymol) associée à des seuils d’interventions. Les seuils d’intervention ont été déterminés à l’aide de régressions linéaires entre les taux de parasitisme par V. destructor et la formance zootechnique des colonies d’abeilles mellifères (production de miel et force des colonies). Un total de 154 colonies d’abeilles du Centre de recherche en sciences animales de Deschambault (CRSAD) ont été suivies de septembre 2005 à septembre 2006. Les seuils calculés et proposés à la suite de cette recherche sont de 2 varroas par jour (chute naturelle) au début mai, 10 varroas par jour à la fin juillet et de 9 varroas par jour au début septembre. L’efficacité des traitements organiques avec l’acide oxalique (AO), l’acide formique (AF) et le thymol a été vérifiée en mai (avant la première miellée) en juillet (entre deux miellées), en septembre (après la miellée et pendant le nourrissage des colonies) et en novembre (avant l’hivernage). L’acide oxalique a été appliqué en utilisant la méthode d’égouttement (4% d’AO p/v dans un sirop de sucrose 1 :1 p/v). L’acide formique a été appliquée sous forme de MiteAwayII™ (tampon commercial imbibé d’AF 65% v/v placé sur le dessus des cadres à couvain), Mitewipe (tampons Dri-Loc™ 10/15cm imbibés de 35 mL d’AF 65% v/v placés sur le dessus des cadres à couvain) ou Flash (AF 65% coulé directement sur le plateau inférieur d’une colonie, 2 mL par cadre avec abeilles). Le thymol a été appliqué sous forme d’Apiguard™ (gélose contenant 25% de thymol p/v placée sur le dessus des cadres à couvain). Les essais d’efficacité ont été réalisés de 2006 à 2008 sur un total de 170 colonies (98 appartenant au CRSAD et 72 appartenant au privé). Les résultats montrent que les traitements de printemps testés ont une faible efficacité pour le contrôle des varroas qui sont en pleine croissance durant cette période. Un traitement avec l’AF à la mi-été permet de réduire les taux de parasites sous le seuil en septembre mais il y a risque de contaminer la récolte de miel avec des résidus d’AF. Les traitements en septembre avec le MiteAwayII™ suivis par un traitement à l’acide oxalique en novembre (5 mL par égouttement entre chaque cadre avec abeilles, 4% d’AO p/v dans un sirop de sucrose 1 :1 p/v) sont les plus efficaces : ils réduisent les niveaux de varroase sous le seuil de 2 varroas par jour au printemps. Nos résultats montrent également que les traitements réalisés tôt en septembre sont plus efficaces et produisent des colonies plus fortes au printemps comparativement à un traitement réalisé un mois plus tard en octobre. En conclusion, ce travail de recherche démontre qu’il est possible de contenir le développement de la varroase dans les ruchers au Québec en utilisant une méthode de lutte intégrée basée sur une combinaison d’applications d’acaricides organiques associée à des seuils d’intervention.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche vise à mieux comprendre la mobilisation des ressources de pouvoir, par les associations patronales, dans le but d’influencer les politiques publiques, plus précisément dans le secteur de l’aérospatiale. Dans un premier temps, cette recherche tente de répondre à notre première question de recherche qui s’attarde à l’impact de la logique de représentation sur la détermination du champ d’intervention en matière de politiques publiques. Dans un deuxième temps, notre seconde question de recherche tente de cerner comment les associations patronales utilisent leurs ressources de pouvoir dans le but d’influencer les politiques publiques. D’un angle théorique, cette recherche s’inscrit dans le courant des travaux néo-institutionnalistes. Tout d’abord, les associations patronales sont perçues comme étant des «entrepreneurs institutionnels» capables d’influencer leur environnement institutionnel (Campbell, 2004 ; Streeck et Thelen, 2005 ; Crouch, 2005). Plus précisément, nous constatons également que les employeurs et leurs associations sont en mesure de mobiliser plusieurs leviers de pouvoir pour influencer, à leur avantage, les développements politiques et économiques des sociétés capitalistes (Traxler et Huemer, 2007). D’un angle empirique, notre recherche vise trois objectifs : cerner les logiques de représentation des associations patronales; identifier quels types de ressources sont à la disposition des associations patronales; analyser comment s’exerce le lien entre les ressources de pouvoir (internes et externes) et l’influence potentielle sur les politiques publiques (commerciales et du travail). Afin de rencontrer nos objectifs de recherche, nous avons utilisé la technique de l’étude de cas. Cette méthode qualitative est l’un des meilleurs moyens pour analyser un phénomène inconnu car elle fournit des données en profondeur. Cette recherche suit les recommandations de Merriem (1998) qui propose de mener la recherche en trois grandes étapes : la préparation, la collecte des données et l’interprétation. Nous avons recueilli nos données à l’aide d’entrevues semi-dirigées, conduites à l’hiver 2012. Ces entrevues ont été menées auprès de représentants des associations patronales du secteur de l’aérospatiale. Nous avons effectué une analyse qualitative des données en fonction de notre revue de littérature et nos propositions de recherche. Dans cette perspective, nous avons utilisé la technique de l’appariement logique de Yin (1994) qui consistait à comparer nos observations avec nos propositions de recherche. Enfin, il faut mentionner que cette méthode de recherche (étude de cas) comporte une importante limite de recherche : la généralisation. Effectivement, nous pouvons difficilement généraliser les résultats de notre recherche à une autre population, considérant les nombreuses particularités du secteur de l’aérospatiale. Toutefois, cette recherche a tout de même contribué à enrichir les connaissances sur l’acteur patronal organisé au Canada.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : La force d’adhésion à l'interface métal-céramique avec les résines auto-polymérisantes destinées au collage indirect des boîtiers orthodontiques n'a pas été évaluée à ce jour et un protocole clinique basé sur la littérature scientifique est inexistant. Objectifs : 1) Comparer la force de cisaillement maximale entre des boîtiers métalliques et des surfaces en porcelaine préparées selon différentes méthodes; 2) Suggérer un protocole clinique efficace et prévisible. Matériel et méthodes : Quatre-vingt-dix disques en leucite (6 groupes; n = 15/groupe) ont été préparés selon 6 combinaisons de traitements de surface : mécaniques (+ / - fraisage pour créer les rugosités) et chimiques (acide fluorhydrique, apprêt, silane). Des bases en résine composite Transbond XT (3M Unitek, Monrovia, California) faites sur mesure ont été collées avec le système de résine adhésive auto-polymérisante Sondhi A + B Rapid Set (3M Unitek, Monrovia, California). Les échantillons ont été préservés (H2O/24hrs), thermocyclés (500 cycles) et testés en cisaillement (Instron, Norwood, Massachusetts). Des mesures d’Index d’adhésif résiduel (IAR) ont été compilées. Des tests ANOVAs ont été réalisés sur les rangs étant donné que les données suivaient une distribution anormale et ont été ajustés selon Tukey. Un Kruskall-Wallis, U-Mann Whitney par comparaison pairée et une analyse de Weibull ont aussi été réalisés. Résultats : Les médianes des groupes varient entre 17.0 MPa (- fraisage + acide fluorhydrique) à 26.7 MPa (- fraisage + acide fluorhydrique + silane). Le fraisage en surface ne semble pas affecter l’adhésion. La combinaison chimique (- fraisage + silane + apprêt) a démontré des forces de cisaillement significativement plus élevées que le traitement avec (- fraisage + acide fluorhydrique), p<0,05, tout en possédant des forces similaires au protocole typiquement suggéré à l’acide fluorhydrique suivi d’une application de silane, l’équivalence de (- fraisage + acide fluorhydrique + silane). Les mesures d’IAR sont significativement plus basses dans le groupe (- fraisage + acide fluorhydrique) en comparaison avec celles des 5 autres groupes, avec p<0,05. Malheureusement, ces 5 groupes ont des taux de fracture élévés de 80 à 100% suite à la décimentation des boîtiers. Conclusion : Toutes les combinaisons de traitement de surface testées offrent une force d’adhésion cliniquement suffisante pour accomplir les mouvements dentaires en orthodontie. Une application de silane suivie d’un apprêt est forte intéressante, car elle est simple à appliquer cliniquement tout en permettant une excellente adhésion. Il faut cependant avertir les patients qu’il y a un risque de fracture des restorations en céramique lorsque vient le moment d’enlever les broches. Si la priorité est de diminuer le risque d’endommager la porcelaine, un mordançage seul à l’acide hydrofluorique sera suffisant.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse présente à la fois des résultats de simulations numériques en plus de ré- sultats expérimentaux obtenus en laboratoire sur lele joué par les défauts de structure dans le silicium amorphe. Nos travaux de simulation numérique furent réalisés avec une nouvelle méthode de simulation Monte-Carlo cinétique pour décrire l’évolution tempo- relle de modèles de silicium amorphe endommagés sur plusieurs échelles de temps jus- qu’à une seconde à la température pièce. Ces simulations montrent que les lacunes dans le silicium amorphe sont instables et ne diffusent pas sans être détruites. Nous montrons également que l’évolution d’un modèle de silicium amorphe endommagé par une colli- sion ionique lors d’un recuit peut être divisée en deux phases : la première est dominée exclusivement par la diffusion et la création/destruction de défauts de liaison, alors que la deuxième voit les créations/destructions de liens remplacées par des échanges de liens entre atomes parfaitement coordonnés. Les défauts ont aussi un effet sur la viscosité du silicium amorphe. Afin d’approfondir cette question, nous avons mesuré la viscosité du silicium amorphe et du silicium amorphe hydrogéné sous l’effet d’un faisceau d’ions. Nous montrons que la variation de la viscosité dans les deux matériaux est différente : le silicium amorphe hydrogéné a une viscosité constante en fonction de la fluence des ions alors que le silicium amorphe pur a une viscosité qui augmente de façon linéaire. Pour de faibles fluences, la viscosité du silicium hydrogéné est plus grande que la viscosité sans hydrogène. La présence d’hydrogène diminue également l’amplitude de la variation logarithmique de la contrainte observée lors de la relaxation à la température de la pièce.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire a pour objet d’étude la notion du rapport aux savoirs historiques des élèves de l’ordre secondaire. Plus précisément, il sera question des relations existant entre la conception qu’entretiennent les élèves de l’histoire et du métier de l’historien, leur conception de l’action humaine dans l’histoire et leur sentiment d’être eux-mêmes, aujourd’hui, des acteurs politiques effectifs. Ce sujet est ancré dans le contexte de l’introduction des prescriptions en matière d’éducation à la citoyenneté dans le programme d’histoire de niveau secondaire. Cet ajout a pour conséquence d’introduire de nouveaux objectifs en matière d’éducation à la citoyenneté : l’élève, par l’étude de l’évolution démocratique, doit être amené à comprendre lele de l’action humaine dans l’histoire, lui faisant ainsi comprendre la valeur de sa propre participation à la vie sociale et politique. Cela étant dit, les recherches montrent que les enseignants et les enseignantes tardent à adopter la terminologie propre aux compétences du programme de formation en histoire et éducation à la citoyenneté et perpétuent un enseignement de l’histoire-récit qui fait la part belle aux grands évènements et aux grands hommes (Bouhon, 2009; Moisan, 2011). De plus, les manuels utilisés laissent peu de place aux individus ou aux groupes d’individus agissants et présentent rarement leurs actions de manière à rendre compte de leur efficacité (Éthier, 2001; Lefrançois, Éthier et Demers, 2011). Enfin, les recherches montrent que les élèves sont enclins à expliquer les changements à l’aide d’une histoire personnalisante, occupée principalement par les grands hommes et les hauts faits de l’histoire politique et militaire (Hallden, 1986 ; Carretero, Jacott, Limon, Lopez-Manjon et Leon, 1994 ; Carretero, Asuncion et Jacott, 1997 ; Tutiaux-Guillon et Fourmond, 1998). En explorant les conséquences complexes de ces différents constats, nous avons ressenti une insatisfaction à l’égard de la capacité d’explication de ce phénomène qu’offrait le champ conceptuel de didactique de l’histoire. Par conséquent, ce mémoire portera sur le transfert de la notion de rapport au savoir au domaine de la didactique de l’histoire à partir de la sociologie et de l’anthropologie. Le modèle théorique proposé a été obtenu grâce à une recherche spéculative qui a été inspirée des méthodes de Martineau, Simard et Gauthier (2001) et de Van der Maren (1996).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse réalisé en cotutelle avec l'Université libre de Bruxelles (Belgique)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objectif : Les auteurs s’intéressant à la relation entre le déni, la minimisation et les distorsions cognitives ont tous utilisé des méthodes et des définitions différentes pour décrire ces concepts, entrainant une importante variabilité des résultats. La recherche actuelle a donc pour objectif de clarifier la mesure du déni, de la minimisation et des distorsions cognitives. Méthode : Les participants étaient 313 détenus masculins ayant complété le programme national de traitement pour délinquants sexuels du Service correctionnel du Canada entre 2000 et 2004. Ces individus ont complété une série de tests psychométriques avant et après leur participation au programme, dont le SOARS et les échelles de Bumby. L’analyse des données a suivi le processus de validation de construit établi par Nunnally et Bernstein (1994). Résultats : Les résultats des analyses statistiques indiquent que le Sex Offender Acceptance of Responsibility Scales (SOARS; Peacock, 2000) ne mesure pas efficacement le construit du déni et de la minimisation. Ses propriétés psychométriques sont discutables. La réduction de l’instrument à dix variables permet cependant d’améliorer la mesure. L’échelle résultante est composée de deux facteurs, soit l’« acceptation du tort sexuel » et l’« acceptation de l’intention sexuelle ». Ces deux facteurs ont été mis en relation avec les facteurs des échelles de Bumby afin d’explorer les similitudes entre les concepts de déni, minimisation et distorsion cognitive. Or, malgré des corrélations faibles à moyennes, les différentes variables ne convergent en aucun facteur lors d’une analyse factorielle et les variables du SOARS corrèlent très peu au total de l’échelle, suggérant qu’il s’agit de concepts distincts.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans une séquence d'arrêts rendus à partir de 1996, la Cour suprême du Canada établit que les recours pour « atteinte illicite » prévus à l'article 49 de la Charte des droits et libertés de la personne doivent être soumis au régime de responsabilité civile de droit commun. La Cour suprême indique à cette occasion que, pour qu’il y ait atteinte illicite à un droit, la violation de ce droit devra être qualifiée de fautive. Cette qualification pourra être démontrée par « la transgression d’une norme de conduite jugée raisonnable dans les circonstances selon le droit commun » ou, « comme c’est le cas pour certains droits », lorsqu’un comportement transgresse « […] une norme dictée par la Charte elle-même ». Dans le premier cas, la notion de faute absorbe la notion d’illicéité, alors que dans le deuxième cas elle se dissout dans l’illicite (ce qui en fait une faute objective in abstracto). Or, dans ce dernier cas, la Cour suprême du Canada, en 2008, dans l’arrêt Ciment du Saint-Laurent, a indiqué que la faute constitue une obligation de moyens, qui s’évalue selon le critère de la personne prudente et diligente. Il ne peut donc s’agir d’une obligation de résultats. Il serait donc maintenant difficile de concilier cette caractérisation de la faute avec la politique adoptée par la Cour suprême en matière de Charte. Puisque le texte de la Charte contient lui-même les conditions matérielles et formelles dans lesquelles il sera possible de conclure à l’existence d’une atteinte illicite, il serait souhaitable, aux fins d’assurer la cohérence du droit, que la méthode de convergence des recours entre le Code et la Charte soit délaissée afin de reconnaître la pleine autonomie matérielle des recours prévus à la Charte, ce qui, du même coup, aurait pour effet de ne pas dénaturer la notion de faute. De plus, alors que la Cour suprême établissait dans ces arrêts qu’une atteinte illicite ne comporte pas un préjudice en soi, l’auteure soutien que le dommage causé à un droit comporte toujours un préjudice inhérent, que le droit se doit de sanctionner.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.