990 resultados para Break-even-Analyse


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le sionisme est un mouvement politique et une idéologie nationale. Son histoire, si elle est celle d'une libération nationale, est aussi celle d'une tragédie. C'est une tragédie partagée par deux peuples dont les aspirations sont tout autant légitimes. Afin de bien comprendre et éventuellement d'être en mesure de surmonter cette tragédie, une analyse morphologique du sionisme est entreprise. L'approche morphologique de l'étude des idéologies a été développée par Michael Freeden. Appliquée au sionisme, elle fait ressortir quatre concepts fondamentaux de cette idéologie : la nation, l'antisémitisme, galout et la renaissance nationale. L'analyse de ces quatre concepts permettra de suivre l'évolution conceptuelle du sionisme à travers le temps et ses différentes variations idéationnelles. De plus, cela permettra de montrer comment le sionisme en tant qu'idéologie nationale s'est transformé en fonction des contextes sociopolitiques auxquels il était confronté.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’aliénation est une problématique clé de la littérature haïtienne. Ce thème, abordé à de nombreuses reprises, est renouvelé dans les œuvres de l’écrivain Gary Victor, plus particulièrement dans les romans À l’angle des rues parallèles et Je sais quand Dieu vient se promener dans mon jardin. Ce mémoire a pour but d’étudier l’aliénation due à l’assimilation des différents discours qui circulent dans la société. Victor ne fait pas que montrer l’aliénation collective et individuelle ainsi que les différents mécanismes qui provoquent cette «folie». Il campe ses récits dans un univers chaotique où les modalités interdiscursives de la représentation des lieux et des milieux viennent renforcer cette impression d’aliénation quasi généralisée, et les personnages les plus fous apparaissent finalement comme étant les plus lucides. Des notions empruntées à la sociocritique nous ont servi de cadre théorique pour cette recherche. Le mémoire est composé de cinq chapitres. Les quatre premiers procèdent à l’analyse des discours qui sont présentés comme les sources de l’aliénation des personnages. Le chapitre un est consacré aux discours qui découlent de la société de consommation, qui ne s’appliquent plus uniquement aux objets, mais bien à la gestion des relations interpersonnelles. Le second chapitre se penche sur la question des croyances religieuses, que ce soient les croyances traditionnelles indigènes ou la religion catholique, et montre comment elles peuvent être potentiellement dangereuses pour ceux et celles qui sont trop crédules et comment elles peuvent devenir une arme pour les personnes malintentionnées. Le troisième chapitre étudie la façon dont les discours politiques et historiques sont devenus des lieux de référence pernicieux pour la société haïtienne et la manière dont les personnes au pouvoir les utilisent afin de manipuler le peuple. Le quatrième chapitre aborde les effets pervers des différents discours des savoirs en sciences humaines, plus particulièrement ceux de la philosophie et de la psychanalyse. Il montre les conséquences désastreuses qu’ils peuvent entraîner lorsqu’ils sont transformés en principes immuables. Le dernier chapitre analyse quelques modalités de cette représentation inédite de l’aliénation. Des lieux hostiles, des personnages violents ainsi que l’utilisation de références littéraires et cinématographiques marquant l’imaginaire social font partie des techniques employées par Victor. Ce chapitre fait ressortir également les différentes figures qui traduisent la résistance à cet univers démentiel. Notre lecture des romans de Victor conduit à une réflexion sur la définition du roman populaire, en lien avec la modernité telle que définie par Alexis Nouss. D’après ce qui se dégage de l’œuvre de Gary Victor, ce genre, objet de nombreuses critiques et défini comme servant uniquement au simple divertissement des lecteurs, peut aussi aider à prévenir les dérives des sociétés en perte de repères.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le taux d’homicide est un bon indicateur de la violence générale dans un pays. De plus, il s’agit du crime le mieux mesuré car il est rare qu’un homicide passe inaperçu. De nombreux auteurs ont donc cherché à expliquer ce qui pouvait influencer la variation du taux d’homicide dans les pays du monde. Leurs résultats ont mis à jour certains prédicteurs qui influenceraient le taux d’homicide dans les pays du monde. Il s’agit notamment du niveau de vie mesuré à l’aide du PIB par habitant, de l’inégalité, mesuré à l’aide du coefficient GINI ou encore des facteurs démographiques. Ces facteurs criminogènes sont tous de niveau macroscopique sur lesquels il est difficile d’agir. Ce mémoire intégrera au modèle, en plus des prédicteurs déjà connus, des variables plus proximales (consommation d’alcool, de drogue, présence de criminalité organisée, corruption, taux de criminalité, etc.) afin de voir s’ils pourraient également influencer la variation du taux d’homicide. Cette étude se concentrera sur le taux d’homicide de 41 pays européens. Une sélection de nos variables sera effectuée à l’aide d’analyses bivariées (corrélation, corrélation partielle) avant d’intégrer les variables restantes dans plusieurs modèles de régression multiple qui permettra in fine d’isoler les variables ayant une réelle influence sur le taux d’homicide. Les résultats indiquent que les facteurs proximaux ont une réelle influence sur le taux d’homicide. En effet, non seulement deux variables proximales (l’abus de la consommation d’alcool, et le pourcentage de personne s’étant déclaré victime de cambriolage) sont, après avoir pris en considération de nombreuses variables de niveau macroscopique, significativement liées au taux d’homicide mais en plus, le fait d’intégrer ce type de variables dans un modèle de régression multiple fait augmenter la variance expliquée. Ces variables de type proximales ont donc une grande importance dans l’explication de la variation du taux d’homicide.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le but de ce mémoire est d’effectuer une analyse détaillée de ce chapitre de la Critique de la raison pure de Kant à partir de l’idée qu’il présente les « résultats » de la démarche critique menée jusque-là concernant les limites de la connaissance. Le mémoire sera divisé en deux parties. Dans la première partie, nous montrerons que ce chapitre dresse un bilan provisoire et que pour cette raison il soulève deux enjeux : 1 – montrer que les concepts purs de l'entendement – en dépit de leur caractère a priori et de leur origine dans l'entendement pur – ne sont susceptibles d'un usage objectif qu'appliqués aux données de la sensibilité (A 246/B 303 : « L'Analytique transcendantale a donc cet important résultat... ») ; 2 – montrer que, à son tour, la sensibilité est elle-même limitée par l'entendement et qu'elle ne renferme pas la totalité des objets possibles (A 251 : « Tel a été le résultat de toute l'Esthétique transcendantale... »). Dans la seconde partie, nous analyserons les différences entre les deux éditions de la Critique de la raison pure concernant ce chapitre en insistant tout particulièrement sur la distinction faite dans la deuxième édition entre noumène au sens positif et noumène au sens négatif.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La voie de la polarité planaire cellulaire (PCP), aussi connue sous le nom de la voie non-canonique du Frizzled/Dishevelled, contrôle le processus morphogénétique de l'extension convergente (CE) qui est essentiel pour la gastrulation et la formation du tube neural pendant l'embryogenèse. La signalisation du PCP a été récemment associée avec des anomalies du tube neural (ATN) dans des modèles animaux et chez l'humain. Prickle1 est une protéine centrale de la voie PCP, exprimée dans la ligne primitive et le mésoderme pendant l'embryogenèse de la souris. La perte ou le gain de fonction de Prickle1 mène à des mouvements de CE fautifs chez le poisson zèbre et la grenouille. PRICKLE1 interagit directement avec deux autres membres de la voie PCP, Dishevelled et Strabismus/Vang. Dans notre étude, nous avons investigué le rôle de PRICKLE1 dans l'étiologie des ATN dans une cohorte de 810 patients par le re-séquençage de son cadre de lecture et des jonctions exon-intron. Le potentiel pathogénique des mutations ainsi identifiées a été évalué par des méthodes bioinformatiques, suivi par une validation fonctionnelle in vivo dans un système poisson zèbre. Nous avons identifié dans notre cohorte un total de 9 nouvelles mutations dont sept: p.Ile69Thr, p.Asn81His, p.Thr275Met, p.Arg682Cys et p.Ser739Phe, p.Val550Met et p.Asp771Asn qui affectent des acides aminés conservés. Ces mutations ont été prédites in silico d’affecter la fonction de la protéine et sont absentes dans une large cohorte de contrôles de même origine ethnique. La co-injection de ces variantes avec le gène prickle1a de type sauvage chez l’embryon de poisson zèbre a démontré qu’une mutation, p.Arg682Cys, modifie dans un sens négatif le phénotype du défaut de la CE produit par pk1 de type sauvage. Notre étude démontre que PK1 peut agir comme facteur prédisposant pour les ATN chez l’humain et élargit encore plus nos connaissances sur le rôle des gènes de la PCP dans la pathogenèse de ces malformations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les travaux traditionnels sur le crime organisé indiquent que le statut d’un individu déterminerait son succès individuel. Des recherches alternatives sur les réseaux des organisations criminelles et de la réussite criminelle indiquent que le rang est moins important que la croyance générale et que les mesures de positionnement stratégique de réseau sont plus susceptibles de déterminer le succès criminel. Ce mémoire étudie les variations des gains criminels au sein de l’organisation de distribution illicite de stupéfiants des Hells Angels. Son objectif est de distinguer, à l’aide de données de comptabilité autorévélées, les éléments influençant ces différences dans le succès criminel en fonction du positionnement plus stratégique ou vulnérable d’un individu au sein de son réseau. Les résultats révèlent des moyennes de volume d’argent transigé beaucoup plus élevées que ce qui est généralement recensé. La distribution de ces capitaux est largement inégale. La disparité des chances liées à l’association criminelle se retrouve aussi dans la polarisation entre les individus fortement privilégiés et les autres qui ont une capacité de positionnement médiocre. Le croisement entre les positions et l’inégalité des gains présente que le positionnement de l’individu dans son réseau est un meilleur prédicteur de réussite criminelle que toute autre variable contextuelle ou de rang. Enfin et surtout, en contradiction avec la littérature, le fait d’atteindre de haut rang hiérarchique nuirait au succès criminel, les résultats montrant que cet état réduit l’accès au crédit, réduit les quantités de drogue par transaction et augmente le prix de la drogue à l’unité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’agent régulateur des temps sociaux de la famille québécoise a été la religion catholique pendant des décennies. Les mouvements d’après-guerre et la Révolution tranquille, ont amené un changement de paradigme avec la laïcisation des institutions et la multiplication des programmes sociaux de l’État-providence. Pour cerner l’importance de ce changement, nous avons utilisé la clef analytique de Léon Gérin pour produire une analyse comparative entre deux familles à deux époques : en 1886 et en 2010. Or, au moment où l’État est de plus en plus présent dans toutes les sphères de la vie de la famille tout en leur laissant une autonomie et une liberté, la population se montre de plus en plus sceptique envers les institutions étatiques. Un fossé s’est créé entre la société officielle, celle du social, des institutions, et la société officieuse, celle de la culture populaire qui agit à partir de l’esprit de corps de son groupe, virtuel ou non. La crise de confiance des gens envers les institutions annonce un nouveau changement de paradigme. La rationalité qui a été le moteur de la modernité fait graduellement place à l’émotionnel et à la valeur du temps présent. Le travail, agent régulateur qui comblait les besoins matériels à la modernité, serait remplacé progressivement par des besoins immatériels devenant l’agent régulateur des temps sociaux de la famille.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’équilibre économique mondial repose sur une asymétrie structurelle dont les pôles antagonistes principaux sont les États-Unis et l’Asie orientale. À la base de cet axe de tension géographique se trouve la question de la représentation mondiale de la richesse. La domination du dollar permet aux États-Unis un accès disproportionné aux ressources planétaires. Les pays créanciers, dont fait partie la Chine, hésitent à laisser flotter leur monnaie et attaquer l’hégémonie du dollar. Entre temps, les déséquilibres s’intensifient, tout comme les tensions politiques, par l’effet de ce système monétaire qui participe au maintien d’un monde unipolaire. Le système monétaire actuel n’offre aucune perspective endogène quant à la résolution des déséquilibres que son équilibre requiert. Ce mémoire cherche à identifier les stratégies géoéconomiques de la Chine pour se soustraire de l’emprise du dollar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

But : La radiothérapie (RT) est disponible seulement dans les grandes villes au Québec. Les patients atteints de cancer vivant en zone rurale doivent voyager pour obtenir ces soins. Toute proportion gardée, moins de ces patients accèdent à la RT. L’accessibilité serait améliorée en instaurant de petits centres de RT qui dépendraient de la télémédecine (téléRT). Cette étude tente (1) de décrire un modèle (population visée et technologie) réaliste de téléRT; (2) d’en estimer les coûts, comparativement à la situation actuelle où les patients voyagent (itineRT). Méthode : (1) À l’aide de données probantes, le modèle de téléRT a été développé selon des critères de : faisabilité, sécurité, absence de transfert des patients et minimisation du personnel. (2) Les coûts ont été estimés du point de vue du payeur unique en utilisant une méthode publiée qui tient compte des coûts en capitaux, de la main d’oeuvre et des frais généraux. Résultats : (1) Le modèle de téléRT proposé se limiterait aux traitements palliatifs à 250 patients par année. (2) Les coûts sont de 5918$/patient (95% I.C. 4985 à 7095$) pour téléRT comparativement à 4541$/patient (95%I.C. 4351 à 4739$) pour itineRT. Les coûts annuels de téléRT sont de 1,48 M$ (d.s. 0,6 M$), avec une augmentation des coûts nets de seulement 0,54 M$ (d.s. 0,26 M$) comparativement à itineRT. Si on modifiait certaines conditions, le service de téléRT pourrait s’étendre au traitement curatif du cancer de prostate et du sein, à coûts similaires à itineRT. Conclusion : Ce modèle de téléRT pourrait améliorer l’accessibilité et l’équité aux soins, à des coûts modestes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La perchaude (Perca flavescens) constitue une ressource socioéconomique de grande importance dans le Lac Saint-Pierre (Québec, Canada). Bien que ce lac fluvial soit désigné réserve de la biosphère par l’UNESCO, le statut de la perchaude est préoccupant. Afin de permettre à l’espèce de persister en fonction des diverses pressions anthropiques, il est important de comprendre sa dynamique populationnelle et les mécanismes qui en sont responsables. La perchaude est connue pour sa philopatrie ; le fait de toujours se reproduire à son site de naissance peut entraîner la subdivision d’une espèce en de multiples populations, où chacune pourra être pourvue d’adaptations locales distinctes. Il est possible d’étudier ces processus à l’aide des signaux génétiques associés à la reproduction des individus. Toutefois, une faible différentiation génétique entre les populations du Lac Saint-Pierre est envisagée en raison de la colonisation récente du système (moins de 8000 ans). L’objectif de cette étude est de déterminer s’il existe plusieurs populations de perchaude dans le Lac Saint-Pierre. Les simulations réalisées ont révélé que l’utilisation de marqueurs AFLP (amplified fragment length polymorphism), permettant une analyse globale du génome, affiche une meilleure détection de la différentiation des populations que celle des marqueurs microsatellites. Afin d’associer les individus à leur site de naissance, la méthode d’AFLP et des microsatellites ont été utilisées sur des larves capturées suite à l’éclosion des oeufs. Trois analyses distinctes d’AFLP ont indiqué une corrélation entre la composition génétique des individus et des sites géographiques, confirmant ainsi la présence de plusieurs populations sympatriques dans le Lac Saint-Pierre, découlant vraisemblablement de la philopatrie de l’espèce. L’absence de différentiation génétique relatée par les marqueurs microsatellites vient confirmer l’importance du choix des marqueurs génétiques. Bien que la différentiation génétique observée soit relativement faible, la gestion de la perchaude devrait tenir compte de la dynamique des populations distinctes dans ce système.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De nombreuses études concluent que la charge mécanique supportée par le genou, qu’elle soit reliée à l’obésité, aux sports intenses, à une altération biomécanique des structures de l’articulation ou à une exposition à des charges lourdes durant les activités occupationnelles, est considérée comme un facteur de risque important au développement de la gonarthrose. La gonarthrose reliée au travail a été le sujet de nombreuses études et plusieurs d’entre elles ont rapporté une prévalence accrue de la gonarthrose chez les travailleurs de certains domaines en particulier, comme la construction, la pose de plancher, la peinture, l’exploitation minière, l’agriculture et le travail en atelier et en milieu de la santé. Les personnes qui travaillent dans ces métiers sont exposées à des positions ou des activités nuisibles, comme travailler à genoux ou accroupi, monter des escaliers ou des échelles, transporter des changes lourdes et marcher de façon prolongée. Ces gestes surchargent l’articulation du genou, ce qui cause des modifications aux structures de l’articulation du genou ou aux adaptations neuromusculaires de patron de mouvement du genou. Ces modifications structurelles et adaptations neuromusculaires peuvent apporter des changements cinématiques à la marche qui peuvent initier la gonarthrose ou contribuer à sa progression. L’objectif principal de la présente étude était d’analyser l’effet d’une surcharge mécanique sur l’articulation fémoro-tibiale (AF-T) subie au travail lors d’une tâche de marche et comparer le patron cinématique de l’articulation fémoro-tibiale des travailleurs exposés à une surcharge mécanique à celui des travailleurs non exposés. Vingt-quatre travailleurs exposés à une surcharge mécanique et neuf travailleurs non exposés ont participé à l’étude. Les données cinématiques de la marche ont été enregistrées au niveau du genou dans des conditions cliniques en utilisant un système de suivi du mouvement électromagnétique. Les paramètres suivant ont été extraits et utilisés pour la comparaison des groupes : l’angle maximum lors du contact initial, l’angle ii maximum de flexion durant la réponse à la charge, l’angle minimum au moment de l’appui unipodal et l’étendue max-min du cycle. La comparaison des groupes pour les variables cliniques et cinématiques a été effectué par l’utilisation de tests-t bilatéraux (« Student-t tests ») et de tests ANCOVA utilisant le poids et la vitesse comme covariables. Les travailleurs exposés à une surcharge mécanique présentaient un plus grand angle de flexion de l’articulation fémoro-tibiale au contact initial, durant la réponse au chargement et à la phase unipodale et ils ont démontré une étendue d’angle moindre que les travailleurs non exposés. Nous croyons que les données cinématiques de la marche peuvent donner des idées sur les facteurs biomécaniques qui pourraient prédisposer les travailleurs au développement ou à la progression de la gonarthrose. Une meilleure compréhension de ces facteurs pourrait être un premier pas vers le développement d’une intervention plus efficace pour cette population.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire propose une conception naturaliste et normative de l'axiologie scientifique contemporaine, c'est-à-dire des buts de la science et des scientifiques. Nous commençons par présenter le naturalisme en philosophie des sciences, en particulier ses dimensions scientifique, méthodologique et ontologique. Nous discutons le sophisme naturaliste et l'objection de la normativité souvent adressée aux approches naturalistes, principalement à travers le prisme de l'épistémologie naturalisée de Quine (1969). Nous illustrons ensuite ces thèmes - naturalisme, normativité, et axiologie scientifique - au moyen de la théorie de Laudan (1987), qui articule un début de théorie axiologique de la science qui se veut naturaliste et normative. Nous soulignons le caractère insatisfaisant de sa théorie, et proposons une conception plus riche et plus détaillée de l'axiologie scientifique. Nous analysons pour ce faire différents liens entre la science, l'industrie, le gouvernement et la société. Nous dégageons en particulier une tendance axiologique pragmatique de la science contemporaine. Finalement, nous ébauchons un cadre normatif instrumental inspiré de Laudan (1987)pour réfléchir sur l'axiologie scientifique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Même si la coopération policière transnationale est l’objet ces dernières années d’un engouement souvent attribué à des vertus d’efficacité, il reste que relativement peu d’informations sont disponibles sur le processus en lui-même. L’objectif général de la thèse était de fournir une analyse englobant à la fois les préoccupations des autorités politiques et celles des acteurs judiciaires et policiers. Ces acteurs occupent tous des rôles nécessaires dans le système de la coopération policière transnationale, mais outre cette constatation, les études à leur sujet ne se recoupent pas véritablement. C’est donc dire que, d’une part, les études sur les acteurs politiques se concentrent sur les décisions prises par ceux-ci, sur l’élaboration de concepts et sur la signature de conventions. D’autre part, les études sur les acteurs policiers et judiciaires mettent l’accent sur le déroulement quotidien des activités policières transnationales et sur ce qui s’ensuit, c’est-à-dire les procédures judiciaires. À l’aide de concepts tels que la discrétion et la souplesse, la familiarité, la confiance, la méfiance, le scepticisme et l’évitement, nous tentons de rallier les récents concepts de reconnaissance mutuelle et de confiance mutuelle avec ce qui se passe effectivement dans le monde opérationnel. La thèse, qui s’intéresse principalement à la coopération policière transnationale en matière de trafic de drogues, s’appuie sur deux types de données. Tout d’abord, des entrevues qualitatives semi-dirigées ont été menées auprès de 21 policiers et procureurs. Ensuite, une analyse documentaire a été effectuée sur des documents canadiens, soit les sept jurisprudences sur l’extranéité et un guide rédigé par un procureur à l’intention des enquêteurs œuvrant dans les enquêtes. Nous allons présenter rapidement les résultats les plus importants de la thèse. Dans le premier chapitre, il a été question de deux niveaux de structures de pouvoir, qui n’évoluent pas en vases clos, mais qui s’influencent mutuellement. C’est dire que le levier d’influence des acteurs étatiques sur les acteurs du policing transnational peut être relativement puissant, mais que des parades peuvent toujours être utilisées par les policiers dans des cas spécifiques. Nadelmann (1993) avait raison lorsqu’il a soutenu qu’une norme adoptée au niveau transnational n’est pas nécessairement utile à la réalisation des objectifs communs des États, c’est-à-dire l’immobilisation des criminels. La norme est le produit d’une négociation politique et d’un jeu de pouvoir. Au final, elle n’influe pas énormément sur les décisions prises par les policiers dans les enquêtes à composantes transnationales. Au mieux, elle est un guide de règles à ne pas violer ouvertement et impunément. De plus, alors que les pays et les organisations utilisent un système de récompense, d’incitatifs ou de menace de sanctions pour favoriser la coopération policière transnationale en vu d’une participation à une enquête à composantes transnationales, les individus qui travaillent dans les enquêtes à composantes transnationales utilisent la familiarité et valorisent la confiance comme moyen pour établir et maintenir des liens. Ces individus ne peuvent pas s’obliger entre eux, alors qu’il existe la possibilité d’imposer des sanctions réelles entre acteurs étatiques. Il s’agit donc de deux niveaux d’analyse, dans lesquelles la configuration des relations est différente. Dans le deuxième chapitre d’analyse, nous avons examiné les jurisprudences canadiennes et le guide d’un procureur à l’intention des policiers, ce qui nous a amené à constater la discrétion laissée par les agents judiciaires aux policiers travaillant au sein d’enquêtes à composantes transnationales. En fait, nous avons trouvé que les agents judiciaires sont conscients des difficultés des enquêtes à composantes transnationales et qu’ils sont plus flexibles dans ces cas que dans les enquêtes nationales. Le troisième chapitre d’analyse a montré que de nombreux moyens sont à la disposition des agents de l’enquête, et qu’une certaine logique sous-tendait les choix des policiers. Plus particulièrement, c’est la gestion des incertitudes, la nature de l’information et son utilisation envisagée qui importe pour les agents de l’enquête à composantes transnationale. Finalement, le dernier chapitre d’analyse illustre les différents types de relations entretenues entre agents de l’enquête. Nous avons trouvé que le scepticisme est prépondérant mais que la coopération demeure le plus souvent possible, lorsque les acteurs ont des intérêts en commun. Une certaine familiarité entre les acteurs est nécessaire, mais la confiance n’est pas toujours essentielle à la mise en œuvre des activités policières transnationales. En fait, cela dépend du niveau d’échanges nécessaires et du contexte. Gambetta (1988) avait d’ailleurs montré qu’une structure sociale relativement stable puisse se maintenir dans un contexte généralisé de méfiance.