183 resultados para Probabilité de fixation
Resumo:
Les agences de notation de crédit ont permis la banalisation des véhicules de titrisation. Elles ont sous-estimé la probabilité que les émetteurs de certains instruments financiers complexes ne puissent pas honorer leurs dettes. Elles ont tardé à refléter la détérioration du marché de leurs notes. Les agences de notation ont donc été en partie responsables de la tempête que traversent les places financières mondiales et ont exposé les entreprises à un risque sérieux de défiance. Alors que les entreprises doivent à l’heure actuelle maîtriser de multiples risques, celles-ci ont été les premières victimes des professionnels de la notation. Pour apporter une réponse au risque de la notation, les régulateurs tentent de réagir. Par l’intermédiaire de leur autorité boursière, les Etats-Unis ont été les premiers à modifier le cadre règlementaire de l’activité de la notation. C’est ce cadre règlementaire, adopté au premier trimestre 2009, qui fait l’objet du présent papier.
Resumo:
My aim in the present paper is to develop a new kind of argument in support of the ideal of liberal neutrality. This argument combines some basic moral principles with a thesis about the relationship between the correct standards of justification for a belief/action and certain contextual factors. The idea is that the level of importance of what is at stake in a specific context of action determines how demanding the correct standards to justify an action based on a specific set of beliefs ought to be. In certain exceptional contexts –where the seriousness of harm in case of mistake and the level of an agent’s responsibility for the outcome of his action are specially high– a very small probability of making a mistake should be recognized as a good reason to avoid to act based on beliefs that we nonetheless affirm with a high degree of confidence and that actually justify our action in other contexts. The further steps of the argument consist in probing 1) that the fundamental state’s policies are such a case of exceptional context, 2) that perfectionist policies are the type of actions we should avoid, and 3) that policies that satisfy neutral standards of justification are not affected by the reasons which lead to reject perfectionist policies.
Resumo:
De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.
Resumo:
À la lecture de la Loi sur le droit d'auteur, il n'est pas clair que la mise en scène y soit protégée. C'est pourquoi nous nous questionnons sur la qualification juridique la plus adéquate pour la mise en scène. Le metteur en scène est-il un artiste-interprète ou un auteur? Après avoir étudié les caractéristiques artistiques des mises en scène, par types de productions et à la lumière de facteurs faisant varier la latitude du metteur en scène, nous étudions les différentes possibilités de qualification juridique de la mise en scène. Les possibilités sont vastes, car le metteur en scène évolue dans un cadre comprenant plusieurs intervenants. De plus, la mise en scène rencontre deux obstacles caractéristiques à sa qualification juridique en droit d'auteur: la fixation et l'originalité. Nous en venons à la conclusion que le metteur en scène est un auteur, car chacun des aspects de la mise en scène serait protégeable sous différentes qualifications juridiques.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Objectif: Nous avons effectué une étude chez 135 patients ayant subis une chirurgie lombo-sacrée avec vissage pédiculaire sous navigation par tomographie axiale. Nous avons évalué la précision des vis pédiculaires et les résultats cliniques. Méthodes: Cette étude comporte 44 hommes et 91 femmes (âge moyen=61, intervalle 24-90 ans). Les diamètres, longueurs et trajectoires des 836 vis ont été planifiés en préopératoire avec un système de navigation (SNN, Surgical Navigation Network, Mississauga). Les patients ont subi une fusion lombaire (55), lombo-sacrée (73) et thoraco-lombo-sacrée (7). La perforation pédiculaire, la longueur des vis et les spondylolisthesis sont évalués par tomographies axiales postopératoires. Le niveau de douleur est mesuré par autoévaluations, échelles visuelles analogues et questionnaires (Oswestry et SF-36). La fusion osseuse a été évaluée par l’examen des radiographies postopératoires. Résultats: Une perforation des pédicules est présente pour 49/836 (5.9%) des vis (2.4% latéral, 1.7% inférieur, 1.1% supérieur, 0.7% médial). Les erreurs ont été mineures (0.1-2mm, 46/49) ou intermédiaires (2.1 - 4mm, 3/49 en latéral). Il y a aucune erreur majeure (≥ 4.1mm). Certaines vis ont été jugées trop longues (66/836, 8%). Le temps moyen pour insérer une vis en navigation a été de 19.1 minutes de l΄application au retrait du cadre de référence. Un an postopératoire on note une amélioration de la douleur des jambes et lombaire de 72% et 48% en moyenne respectivement. L’amélioration reste stable après 2 ans. La dégénérescence radiologique au dessus et sous la fusion a été retrouvée chez 44 patients (33%) and 3 patients respectivement (2%). Elle est survenue en moyenne 22.2 ± 2.6 mois après la chirurgie. Les fusions se terminant à L2 ont été associées à plus de dégénération (14/25, 56%). Conclusion: La navigation spinale basée sur des images tomographiques préopératoires est une technique sécuritaire et précise. Elle donne de bons résultats à court terme justifiant l’investissement de temps chirurgical. La dégénérescence segmentaire peut avoir un impact négatif sur les résultats radiologique et cliniques.
Resumo:
La présente recherche a pour but de faire le point sur l'état du droit canadien et sur ses perspectives futures en relation avec les œuvres créées par ordinateurs. L'outil terminologique choisi pour notre objectif est le logiciel de traduction automatique multilingue qui, à cause de sa complexité, s'éloigne le plus du programmeur « créateur» et se rapproche le plus d'œuvres qui ne peuvent être directement attribuées aux linguistes et programmeurs. Ces outils et leurs créations seront d'après nous les prochains outils technologiques à confronter le droit. En effet, dans un avenir prévisible, considérant l'évolution technologique, ces logiciels produiront des textes qui bénéficieront d'une valeur commerciale ajoutée et c'est alors que certains feront valoir leurs « droits », non seulement sur les textes mais aussi sur la technologie. Pour atteindre cet objectif, nous débuterons par un retour historique sur la technologie et ses origines. Par la suite, nous ferons une analyse de la protection actuelle accordée aux logiciels, aux banques de données et aux traductions qu'ils produisent. Nous déterminerons ensuite qui sera responsable des textes produits en relation avec le texte d'origine et avec sa résultante au niveau du droit d'auteur et de celui de la responsabilité civile. Cette recherche nous amènera à conclure que le droit actuel est « mésadapté » tant à l'égard de la protection qu'au niveau de la responsabilité. Ces conclusions devront d'après nous imposer un retour aux principes fondamentaux du droit. Ce fondamentalisme légal sera pour nous le prix à payer pour la légitimité. En effet, plus particulièrement concernant le droit d'auteur, nous conclurons qu'il devra cesser d'être le « fourre-tout» du droit de la propriété intellectuelle et redevenir ce qu'il doit être: un droit qui protège la créativité. Cette démarche prospective tirera ses racines du fait que nous serons obligés de conclure que les juristes canadiens ont refusé, à tort à notre point de vue, de renvoyer au monde des brevets les méthodes et procédés nouveaux et inventifs, ce qui donc a introduit des problématiques inutiles qui exacerbent l'incertitude. Finalement, notre cheminement nous dirigera vers le droit de la responsabilité où nous soutiendrons que le fournisseur ne peut actuellement être responsable du texte produit puisqu'il ne participe pas directement aux choix et ne porte pas atteinte au contenu. Voici donc en quelques mots le cœur de notre recherche qui entrouvre une boîte de Pandore.
Resumo:
Les cellules épithéliales des voies aériennes respiratoires sécrètent du Cl- via le canal CFTR. La fibrose kystique est une maladie génétique fatale causée par des mutations de ce canal. La mutation la plus fréquente en Amérique du Nord, ∆F508, met en péril la maturation de la protéine et affecte les mécanismes d’activation du canal. Au cours des dernières années, plusieurs molécules ont été identifiées par criblage à haut débit qui peuvent rétablir l’activation de protéines CFTR mutées. Ces molécules sont nommées potentiateurs. Les canaux K+ basolatéraux, dont KCa3.1, jouent un rôle bien documenté dans l’établissement d’une force électromotrice favorable à la sécrétion de Cl- par CFTR dans les cellules épithéliales des voies aériennes respiratoires. Il a par exemple été démontré que l’application de 1-EBIO, un activateur de KCa3.1, sur des monocouches T84 résulte en une augmentation soutenue de la sécrétion de Cl- et que cette augmentation était réversible suite à l’application de CTX, un inhibiteur de KCa3.1(Devor et al., 1996). Dans le cadre d’une recherche de potentiateurs efficaces en conditions physiologiques et dans un contexte global de transport trans-cellulaire, il devient essentiel de considérer les effets des potentiateurs de CFTR sur KCa3.1. Une caractérisation électrophysiologique par la méthode du patch clamp et structurelle via l’utilisation de canaux modifiés par mutagenèse dirigée de différents potentiateurs de CFTR sur KCa3.1 fut donc entreprise afin de déterminer l’action de ces molécules sur l’activité de KCa3.1 et d’en établir les mécanismes. Nous présentons ici des résultats portant sur les effets sur KCa3.1 de quelques potentiateurs de CFTR possédant différentes structures. Un criblage des effets de ces molécules sur KCa3.1 a révélé que la genisteine, le SF-03, la curcumine et le VRT-532 ont des effets inhibiteurs sur KCa3.1. Nos résultats suggèrent que le SF-03 pourrait agir sur une protéine accessoire et avoir un effet indirect sur KCa3.1. La curcumine aurait aussi une action inhibitrice indirecte, probablement via la membrane cellulaire. Nos recherches sur les effets du VRT-532 ont montré que l’accessibilité au site d’action de cette v molécule est indépendante de l’état d’ouverture de KCa3.1. L’absence d’effets inhibiteurs de VRT-532 sur le mutant constitutivement actif V282G indique que cette molécule pourrait agir via l’interaction CaM-KCa3.1 et nécessiter la présence de Ca2+ pour agir. Par ailleurs, un autre potentiateur de CFTR, le CBIQ, a des effets potentiateurs sur KCa3.1. Nos résultats en canal unitaire indiquent qu’il déstabilise un état fermé du canal. Nos travaux montrent aussi que CBIQ augmente la probabilité d’ouverture de KCa3.1 en conditions sursaturantes de Ca2+, ainsi que son affinité apparente pour le Ca2+. Des expériences où CBIQ est appliqué en présence ou en absence de Ca2+ ont indiqué que l’accessibilité à son site d’action est indépendante de l’état d’ouverture de KCa3.1, mais que la présence de Ca2+ est nécessaire à son action. Ces résultats sont compatibles avec une action de CBIQ déstabilisant un état fermé du canal. Finalement, des expériences en Ba2+ nous ont permis d’investiguer la région du filtre de sélectivité de KCa3.1 lors de l’action de CBIQ et nos résultats pointent vers une action de CBIQ dans cette région. Sur la base de nos résultats nous concluons que CBIQ, un potentiateur de CFTR, aurait un effet activateur sur KCa3.1 via la déstabilisation d’un état fermé du canal à travers une action sur sa ‘gate’ au niveau du filtre de sélectivité. De plus, les potentiateurs de CFTR ayant montré des effets inhibiteurs sur KCa3.1 pourraient agir via la membrane ou via une protéine accessoire du canal ou sur l’interaction CaM-KCa3.1. Dans l’optique de traitements potentiels de la fibrose kystique, nos résultats indiquent que le CBIQ pourrait être un potentiateur efficace pusiqu’il est capable de trimuler à la fois KCa3.1 et CFTR. Par contre, dans les cas du VRT-532 et du SF-03, une inhibition de KCa3.1 pourraient en faire des potentiateurs moins efficaces.
Resumo:
Cette thèse porte sur le comportement des élites politiques durant les périodes de crise nationale et plus particulièrement sur leurs réactions aux attentats terroristes. Elle démontre que les crises terroristes sont tout comme les conflits militaires ou diplomatiques propices aux unions nationales et notamment aux ralliements des partis d’opposition auprès du gouvernement. L’analyse statistique d’actes terroristes s’étant produits dans cinq états démocratiques (Allemagne, Espagne, États-Unis d’Amérique, France et Royaume-Uni) entre 1990 et 2006 révèle que l’ampleur d’un attentat en termes de pertes humaines ainsi que la répétition de ces attentats influencent dans une large mesure la réaction des élites politiques. Ainsi plus l’ampleur d’un attentat est élevée, plus la probabilité d’un ralliement est grande. En revanche, la multiplication des attentats augmente la possibilité de dissension entre l’opposition et le gouvernement. Par ailleurs, l’opposition est plus susceptible de se rallier au gouvernement lorsque l’attentat est perpétré par des terroristes provenant de l’étranger. L’analyse quantitative indique également que l’existence d’un accord formel de coopération dans la lutte antiterroriste entre le gouvernement et l’opposition favorise l’union des élites. Enfin, les données analysées suggèrent que la proportion des ralliements dans les cinq pays est plus importante depuis les attentats du 11 septembre 2001. Une analyse qualitative portant exclusivement sur la France et couvrant la période 1980-2006 confirme la validité des variables identifiées dans la partie quantitative, mais suggère que les élites réagissent au nombre total de victimes (morts mais aussi blessés) et que la répétition des actes terroristes a moins d’impact lors des vagues d’attentats. Par ailleurs, les analyses de cas confirment que les élites politiques françaises sont plus susceptibles de se rallier quand un attentat vise un haut-fonctionnaire de l’État. Il apparaît également que les rivalités et rancœurs politiques propre à la France (notamment suite à l’arrivée de la gauche au pouvoir en 1981) ont parfois empêché le ralliement des élites. Enfin, cette analyse qualitative révèle que si l’extrême gauche française soutient généralement le gouvernement, qu’il soit de gauche ou de droite, en période de crise terroriste, l’extrême droite en revanche saisit quasi systématiquement l’opportunité offerte par l’acte terroriste pour critiquer le gouvernement ainsi que les partis de l’establishment. La thèse est divisée en sept chapitres. Le premier chapitre suggère que le comportement des élites politiques en période de crises internationales graves (guerres et conflits diplomatiques) est souvent influencé par la raison d’État et non par l’intérêt électoral qui prédomine lors des périodes plus paisibles. Le second chapitre discute du phénomène terroriste et de la littérature afférente. Le troisième chapitre analyse les causes du phénomène d’union nationale, soumet un cadre pour l’analyse de la réaction des élites aux actes terroristes, et présente une série d’hypothèses. Le quatrième chapitre détaille la méthodologie utilisée au cours de cette recherche. Les chapitres cinq et six présentent respectivement les résultats des analyses quantitatives et qualitatives. Enfin, le chapitre sept conclut cette thèse en résumant la contribution de l’auteur et en suggérant des pistes de recherche.
Resumo:
En dépit de nombreuses interventions en santé reproductive en Afrique subsaharienne, la trilogie « IST/VIH/SIDA - grossesses précoces - avortements » persiste à des niveaux très élevés par rapport aux autres parties du monde. Cela indique que les nombreuses interventions en santé reproductive auprès des adolescents et des jeunes ont enregistré peu de succès en ce qui concerne le changement des comportements sexuels. Ces interventions se focalisent souvent sur l’individu, et négligent les environnements sociaux et culturels dans lesquels se forge le vécu de la sexualité chez les jeunes. Un de ces agents de socialisation est la famille, où les individus naissent, grandissent, et sont socialisés selon les valeurs et normes en vigueur. Fort de ce constat, l’objectif principal de la présente thèse est de resituer l’environnement familial au cœur des débats en santé reproductive chez les adolescents et les jeunes en Afrique subsaharienne. Trois questions spécifiques sont examinées dans cette thèse. Premièrement, elle aborde les associations entre les structures familiales et l’entrée en sexualité. Deuxièmement, elle analyse leurs influences sur les connaissances des modes de transmission et des moyens de prévention du VIH/SIDA. Troisièmement, elle cherche à déterminer les forces potentielles dans les familles dites « à risque » (ayant au plus un parent biologique) à partir de la théorie de résilience selon laquelle des facteurs familiaux et contextuels peuvent atténuer les comportements sexuels à risque chez les adolescents et jeunes. Cette thèse démontre substantiellement que vivre avec ses deux parents biologiques, la nature des relations entre parents/tuteurs et le jeune et un niveau élevé du contrôle parental sont significativement associés à de faibles risques des rapports sexuels prémaritaux. Par contre, les unions polygamiques, un statut socioéconomique élevé du ménage, et le fait d’être orphelin augmentent significativement le risque de rapports sexuels prémaritaux. L’étude démontre aussi que l’environnement familial et la communication sur la sexualité, aussi bien avec les parents/tuteurs qu’avec les pairs, jouent un rôle fondamental dans l’acquisition des connaissances correctes des modes de transmission et de prévention du VIH/SIDA. Néanmoins, le rôle des parents/tuteurs sur l’acquisition des connaissances sur le VIH/SIDA s’avère indirect puisqu’elle repose sur une hypothèse implicite. Seule une mesure directe des connaissances des parents sur les modes de transmission et les moyens de prévention peut mieux rendre compte de cette association. Les résultats obtenus à partir de la théorie de résilience indiquent, dans chaque type de familles, que la qualité des relations entre les parents/tuteurs et le jeune est significativement associée à une faible probabilité de comportement sexuel à risque, défini comme étant la cooccurrence de plusieurs partenaires sexuels au cours de 12 derniers mois et de non-utilisation du condom. Par contre, le contrôle parental est associé à une faible probabilité de comportement sexuel à risque seulement dans les familles à deux parents biologiques. Ce résultat suggère que l’influence du contrôle parental baisse une fois que les jeunes ont eu une expérience sexuelle. Les interventions en santé reproductive devraient promouvoir chez les parents/tuteurs les facteurs familiaux susceptibles de réduire les comportements sexuels à risque.
Resumo:
On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature.
Resumo:
Bien que les règles de droits et des directives administratives dictent leur conduite, les policiers jouissent d’une latitude considérable dans la manière d’appliquer la loi et de dispenser des services. Puisque l’exercice efficient de toute forme d’autorité nécessite la reconnaissance de sa légitimité (Tyler, 2004), plus l’application de leurs pouvoirs discrétionnaires est jugée arbitraire ou excessive, plus les citoyens risquent d’utiliser des mécanismes normaux d’opposition ou de riposte. Dans cette optique, la présente étude cherche à départager les causes des 15 023 épisodes de voie de fait, menace, harcèlement, entrave et intimidation, qualifiés de défiance, dont les policiers du Service de police de la ville de Montréal (SPVM) ont été la cible entre 1998-2008 selon leur registre des événements (Module d’information policière – MIP). Elle présume qu’à interactions constantes entre la police et les citoyens, les comportements de défiance policière seront fonction du niveau de désordre du quartier et des caractéristiques des personnes impliquées. Plus les policiers interceptent de jeunes, de minorités ethniques et d’individus associés aux gangs de rue, plus ils risquent d’être défiés. Elle suppose également que la probabilité qu’une intervention soit défiée dépend de l’excessivité des activités policières menées dans le quartier. Plus un quartier est sur-contrôlé par rapport à son volume de crimes (overpoliced), plus le climat local est tendu, plus les policiers sont perçus comme étant illégitimes et plus ils risquent d’être défiés lorsqu’ils procèdent à une intervention. Enfin, les comportements de défiance sont peut-être simplement fonction du niveau d’interactions entre les policiers et les citoyens, à conditions sociales et criminogènes des quartiers tenues constantes. Une série d’analyses de corrélation tend à confirmer que les comportements de défiance varient en fonction de l’âge, de l’ethnicité et de l’appartenance à un gang de rue de l’auteur. Par contre, les conditions sociales et criminogènes des quartiers paraissent être des causes antécédentes à la défiance puisqu’elles encouragent un volume plus élevé d’interventions dans les quartiers désorganisés, lequel influe sur le nombre d’incidents de défiance. Contrairement à notre hypothèse, les résultats tendent à démontrer que les policiers risquent davantage d’être défiés dans les quartiers sous-contrôlés (underpoliced). Quant à elles, les analyses multiniveaux suggèrent que le nombre d’incidents de défiance augmente à chaque fois qu’une intervention policière est effectuée, mais que cette augmentation est influencée par les quartiers propices aux activités criminelles des gangs de rue. En ce sens, il est probable que l’approche policière dans les quartiers d’activités « gangs de rue » soit différente, par souci de protection ou par anticipation de problèmes, résultant plus fréquemment en des actes de défiance à l’égard des policiers.
Resumo:
Alors que dans les sociétés de l’Afrique de l’Ouest, le mariage représente traditionnellement le point de départ de la séquence des événements démographiques associés à la formation de la famille, aujourd’hui cette séquence s’est complexifiée. Suite à l’effritement des modes traditionnels du passage à l’âge adulte, les jeunes citadins reportent leur mariage, le contexte de l’initiation sexuelle est plus fréquemment prénuptial et le nombre de naissances hors mariage semble augmenter. Peu d’études se sont penchées sur l’analyse de la séquence de ces événements sous l’angle du parcours individuel. L’objectif central de ce mémoire est d’explorer, de décrire et d’expliquer les changements survenus dans les parcours d’entrée en vie féconde des femmes durant leur jeunesse en utilisant comme unité d’analyse l’entièreté des parcours. Utilisant les données EDS du Burkina Faso, nous synthétisons en parcours, sous forme des séquences d’épisodes, les calendriers du premier rapport sexuel, de la première union et de la première naissance. Avec l’analyse séquentielle, nous identifions quatre catégories de parcours : nuptial, sexualité prénuptiale, maternité prénuptiale et célibataires. La méthode permet également une catégorisation plus fine des parcours et une visualisation de modèles de transitions. Nous analysons ensuite l’association entre les caractéristiques individuelles et les parcours suivis grâce à des modèles multinomiaux. Nos résultats confirment l’augmentation des parcours non nuptiaux auprès des jeunes. De plus, ils montrent qu’un niveau de scolarité plus élevé augmente la probabilité de suivre un parcours non-traditionnel, notamment chez les femmes urbaines, le milieu de socialisation à l’enfance ayant aussi un effet sur le choix du parcours.
Resumo:
L’essor continu de l’économie canadienne repose grandement sur l’immigration. Toutefois, le Canada a encore du chemin à faire pour assurer l’intégration des nouveaux arrivants sur le marché du travail. Notre recherche porte sur un moyen souvent considéré comme essentiel pour accomplir cette intégration : la formation liée à l’emploi. L’expression « formation liée à l’emploi » fait référence aux activités d’apprentissage en lien avec un emploi et parrainées par l’employeur. Nous avons deux objectifs. Le premier est de déterminer si les immigrants et les Canadiens de naissance ont les mêmes chances de participer à des activités de formation liée à l’emploi. Le deuxième est d’examiner l’effet du sexe et de la durée depuis l’immigration sur la probabilité qu’un immigrant participe à la formation liée à l’emploi. Notre analyse est de type quantitatif et utilise les données de l’Enquête sur l’éducation et la formation des adultes de l’année 2003, menée par Statistiques Canada. Concernant le premier objectif, il ressort de nos analyses que les travailleurs immigrants sont moins susceptibles que les Canadiens de naissance de participer à la formation liée à l’emploi. Même si d'autres études ont remarqué un écart semblable entre ces deux groupes, notre recherche a la particularité de contrôler l'impact de six variables qui, selon la littérature, affectent le niveau de participation à la formation liée à l’emploi. Cette particularité réduit la probabilité que la différence observée entre les immigrants et les Canadiens de naissance puisse être le résultat d'un facteur autre que le statut d'immigrant. Quant au deuxième objectif, notre étude montre que la durée depuis l'immigration augmente les chances qu'un immigrant participe à la formation liée à l’emploi. Néanmoins, la question concernant l'impact du sexe de l’immigrant demeure ouverte. En effet, à l’encontre de nos attentes, nous n’avons pas observé d’effet statistiquement significatif du sexe sur la relation entre le statut d’immigrant et la participation à la formation liée à l’emploi. Notre recherche permet d'attirer le regard sur un possible facteur modérateur qui mérite plus de réflexion de la part des chercheurs.
Resumo:
Pourquoi, comment et quand y a-t-il changement institutionnel et politique en Afrique ? En examinant les stratégies de développement économique de l’Afrique postcoloniale et en s’intéressant à l’évolution du rôle de l’État – État comme acteur central du développement, tentative du retrait de l’État, interventionnisme limité au social, retour de l’État dans la sphère économique –, la présente thèse se propose d’expliquer le changement sous l’angle original des innovations politiques et institutionnelles. En effet, derrière l’apparente continuité que la plupart des auteurs tant analytiques que normatifs fustigent, il se produit des innovations dont nous proposons de rendre compte par le biais des variables idéationnelles, stratégiques, temporelles et institutionnelles. Cette thèse propose ainsi une analyse comparative inédite du rôle des acteurs nationaux (élites, États, administrations publiques du Bénin, Burkina Faso, Cameroun, Côte d’Ivoire, Congo, Sénégal, Mali, Niger, Togo), des institutions internationales (FMI, Banque mondiale, ONU) et des organisations d’intégration régionale (Union africaine, NEPAD) dans l’émergence et les trajectoires des stratégies de développement en Afrique. Les contextes temporels favorables, les crises des modèles précédents, les configurations et héritages institutionnels structurants, les stratégies instrumentales des acteurs intéressés, l’apprentissage politique, les dimensions cognitives et normatives des idées permettent d’expliquer la diffusion, la sédimentation et la conversion institutionnelles comme processus privilégiés d’innovation en Afrique. La critique de ces concepts permet de développer des outils mieux adaptés pour expliquer certaines innovations, soit l’inclusion et l’intrusion institutionnelles. L’inclusion institutionnelle est un processus mi-stratégique et mi-idéationnel à travers lequel les acteurs nationaux ou régionaux incluent intentionnellement des stratégies (ou solutions) internationales déjà existantes dans une nouvelle institution ou politique dans le but d’accroître la probabilité d’acceptation (reconnaissance, convenance sociale, partage réel ou supposé des mêmes valeurs) ou de succès (pour faire valoir les intérêts) de cette dernière dans un environnement politique structuré. Les idées sont constitutives des intérêts dans ce processus. L’intrusion institutionnelle renvoie à un processus mi-stratégique et mi-structurel par lequel les acteurs nationaux se font relativement imposer de nouvelles institutions ou politiques qu’ils n’acceptent qu’en raison de l’asymétrie de pouvoir, de la contrainte structurelle (structure), ou des gains escomptés (stratégies) des acteurs internationaux, alors que des solutions de rechange pertinentes et non contraignantes sont quasi inexistantes. Ceci n’exclut pas l’existence d’une marge de manœuvre des acteurs nationaux. Inspirés de spécialistes comme Nicolas van de Walle, Kathleen Thelen, Robert Bates, Barry Weingast, Alexander Wendt, Peter Hall, Theda Skocpol et Paul Pierson, ces concepts d’intrusion et d’inclusion institutionnelles que nous proposons réconcilient des approches parfois jugées contradictoires en intégrant les dimensions stratégiques, institutionnelles, historiques et idéationnelles à l’analyse d’un même objet scientifique. Au niveau empirique, la présente thèse permet d’avoir une meilleure compréhension des processus d’émergence des stratégies de développement économique en Afrique, ainsi qu’une meilleure connaissance des relations entre les acteurs internationaux, régionaux et nationaux en ce qui concerne l’émergence et le développement des institutions et des politiques publiques relatives au développement. Une attention particulière est accordée à la dynamique entre différents acteurs et variables (idées, intérêts, institution, temps) pour expliquer les principales stratégies des trois dernières décennies : les stratégies nationales de développement du Bénin, Burkina Faso, Cameroun, Côte d’Ivoire, Congo, Sénégal, Mali, Niger, Togo, le Plan d’action de Lagos, les programmes d’ajustement structurel, le Nouveau Partenariat pour le Développement de l’Afrique, les Documents de stratégie pour la réduction de la pauvreté et certaines interventions du Fonds monétaire international, de Banque mondiale et de l’ONU. En s’intéressant à la question de l’innovation délaissée à tort par la plupart des analyses sérieuses, la présente thèse renouvelle la discussion sur le changement et l’innovation politiques et institutionnels en Afrique et en science politique.