304 resultados para États cohérents et comprimés généralisés
Resumo:
Les fichiers sons qui accompagne mon document sont au format midi. Le programme que nous avons développés pour ce travail est en language Python.
Resumo:
Huit cent trente et un troupeaux de vaches laitières répartis dans 5 états américains ont été enrôlés dans une étude de cohorte prospective. Un modèle d’équations d'estimation généralisées a été utilisé pour étudier l'association entre les signes cliniques et la détection de salmonelles dans les fèces des animaux soupçonnés de salmonellose clinique. La sensibilité et la spécificité de la culture bactériologique ont été estimées à l’aide d’un modèle de classes latentes. Dix-huit pour cent des 874 échantillons provenant de veaux et 29% des 1479 échantillons de vaches adultes étaient positifs pour Salmonella spp. Il n’a pas été possible d’établir une association claire entre les différents signes cliniques observés et la détection de salmonelles. Les 2 sérotypes les plus fréquemment isolés étaient Typhimurium et Newport. La probabilité de détecter des salmonelles était plus élevée chez les veaux où un autre agent entéropathogène était également détecté. La proportion d’échantillons positifs était plus élevée parmi les vaches ayant reçu des antibiotiques dans les jours précédant l’échantillonnage. La sensibilité de la culture a été estimée à 0,48 (intervalle de crédibilité à 95% [ICr95%]: 0,22-0,95) pour les veaux et 0,78 (ICr95%: 0,55-0,99) pour les vaches. La spécificité de la culture était de 0,94 (ICr95%: 0,87-1,00) pour les veaux et de 0,96 (ICr95%: 0,90-1,00) pour les vaches. Malgré une sensibilité imparfaite, la culture bactériologique demeure utile pour obtenir une meilleure estimation de la probabilité post-test de salmonellose clinique chez un bovin laitier, par rapport à la probabilité estimée suite au seul examen clinique.
Resumo:
Depuis quelques années, les États adoptent des politiques qui cherchent à séparer l’admission des réfugiés sur le territoire d’un État et l’attribution du statut de réfugié. En Europe, ce genre de politique est désigné par le terme externalisation. Cependant, par souci d’objectivité, nous avons choisi d’employer le terme extraterritorial. En effet, l’expression externalisation comporte en elle-même la critique de son objet. En Europe, aucune politique qui dissocie l’attribution du statut de réfugié et l’entrée sur le territoire d’un État n’a été mise en place, toutefois, cette idée fait partie des réflexions institutionnelles et elle reste un objectif de l’agenda européen. Ce mémoire cherche donc à analyser la proposition de traitement extraterritorial des demandes de statut de réfugié, faite en Europe, au regard de l’obligation la plus contraignante au sein du droit international des réfugiés : le principe de non refoulement. En ce sens, il sera nécessaire d'analyser l'étendue ainsi que les limites du principe de non refoulement, au regard de l’interprétation et de la mise en œuvre qui en sont faites. Ce mémoire démontrera que derrière une vive polémique sur la question, la proposition de traitement extraterritorial des demandes de statut de réfugié est compatible avec l’article 33 alinéa 1 de la Convention relative au statut des réfugiés.
Resumo:
Parmi les critiques visant l'Organisation mondiale du commerce (OMC), il est souvent reproché à celle-ci d’accorder trop peu d’importance aux préoccupations non commerciales des consommateurs et des États, reflet de leurs valeurs sociétales ou culturelles, sous prétexte de lutter contre les entraves au commerce international. Pourtant, dans le domaine du commerce des marchandises, l’article XX du GATT prévoit certaines exceptions générales, permettant éventuellement aux États de justifier une mesure restrictive pour le commerce, notamment pour des raisons de protection de la moralité publique. Or, cette « exception de moralité publique », rarement invoquée à ce jour, est au cœur du différend commercial opposant actuellement le Canada à l’Union européenne, après l’embargo adopté en 2009 par celle-ci sur les produits issus de la chasse au phoque, considérée comme cruelle par de nombreux Européens. Dans ce mémoire, nous avons tenté d’envisager l’issue possible de ce litige. À cette fin, nous avons réalisé une étude préliminaire du concept de moralité publique en droit international public et présenté en détails le contexte, notamment politique, de ce différend; puis nous avons procédé à son analyse par étapes, selon la méthode retenue à ce jour par l’Organe de règlement des différends (ORD). À l’issue de nos réflexions, nous avons conclu que l’ORD devrait constater que la mesure européenne contestée vise à répondre à un réel souci de protection de la moralité publique en Europe; toutefois, il est probable, selon nous, que l’embargo européen ne soit pas considéré comme « nécessaire » à cette fin, au sens de l’article XX du GATT : en effet, l’ORD estimera sans doute que l’Union européenne aurait pu mettre en œuvre des solutions moins incompatibles avec ses obligations au titre du GATT. Nous pensons donc, hélas, que l’issue de ce litige ne satisfera pas ceux qui réclament une plus grande ouverture de l’OMC vis-à-vis de considérations non commerciales légitimes.
Resumo:
L’un des aspects les plus percutants des avancées de la technologie des quinze dernières années a trait à la communication médiée par ordinateur : clavardage, messagerie instantanée, courrier électronique, forums de discussion, blogues, sites de réseautage social, etc. En plus d’avoir eu un impact significatif sur la société contemporaine, ces outils de communication ont largement modifié les pratiques d’écriture. Notre objet d’étude est le clavardage en groupe qui offre la possibilité aux scripteurs de communiquer simultanément entre eux. Cet outil de communication présente deux caractéristiques importantes aux plans discursif et communicationnel. Premièrement, on admet de façon générale que le clavardage est une forme de communication hybride : le code utilisé est l’écrit, mais les échanges de messages entrent dans une structure de dialogue qui rappelle l’oral. Deuxièmement, le caractère spontané du clavardage impose la rapidité, tant pour l’encodage que pour le décodage des messages. Dans le cadre d’une étude comparative réalisée sur les pratiques scripturales des clavardeurs francophones (Tatossian et Dagenais 2008), nous avons établi quatre catégories générales pour rendre compte de toutes les variantes scripturales de notre corpus : procédés abréviatifs, substitutions de graphèmes, neutralisations en finale absolue et procédés expressifs. Nous voulons maintenant tester la solidité de notre typologie pour des langues dont le degré de correspondance phonético-graphique diffère. En vertu de l’hypothèse de la profondeur de l’orthographe (orthographic depth hypothesis [ODH]; Katz et Frost 1992) selon laquelle un système orthographique transparent (comme l’italien, l’espagnol ou le serbo-croate) transpose les phonèmes directement dans l’orthographe, nous vérifierons si nos résultats pour le français peuvent être généralisés à des langues dont l’orthographe est dite « transparente » (l’espagnol) comparativement à des langues dont l’orthographe est dite « opaque » (le français et l’anglais). Pour chacune des langues, nous avons voulu répondre à deux question, soit : 1. De quelle manière peut-on classifier les usages scripturaux attestés ? 2. Ces usages graphiques sont-ils les mêmes chez les adolescents et les adultes aux plans qualitatif et quantitatif ? Les phénomènes scripturaux du clavardage impliquent également l’identité générationnelle. L’adolescence est une période caractérisée par la quête d’identité. L’étude de Sebba (2003) sur l’anglais démontre qu’il existe un rapport entre le « détournement de l’orthographe » et la construction identitaire chez les adolescents (par ex. les graffitis, la CMO). De plus, dans ces espaces communicationnels, nous assistons à la formation de communautés d’usagers fondée sur des intérêts communs (Crystal 2006), comme l’est la communauté des adolescents. Pour la collecte des corpus, nous recourrons à des échanges effectués au moyen du protocole Internet Relay Chat (IRC). Aux fins de notre étude, nous délimitons dans chacune des langues deux sous-corpus sociolinguistiquement distincts : le premier constitué à partir de forums de clavardage destinés aux adolescents, le second à partir de forums pour adultes. Pour chacune des langues, nous avons analysé 4 520 énoncés extraits de divers canaux IRC pour adolescents et pour adultes. Nous dressons d’abord un inventaire quantifié des différents phénomènes scripturaux recensés et procédons ensuite à la comparaison des résultats.
Resumo:
En octobre 2005, l’assemblée générale de l’UNESCO adoptait la Déclaration universelle sur la bioéthique et les droits de l’Homme. Le projet de cette déclaration a été élaboré par le Comité international de bioéthique (CIB) en consultation avec le Comité intergouvernemental de bioéthique (CIGB), les États membres, le comité interagences des Nations Unies, des organisations gouvernementales et non gouvernementales, des comités nationaux d’éthiques et de multiples acteurs impliqués en bioéthique. Cette déclaration faisait suite à deux autres textes sur le même sujet produits en 1997 et 2003, la Déclaration sur le génome humain et les droits de l’homme et la Déclaration internationale sur les données génétiques humaines. Les nouvelles questions éthiques que suscitaient les développements scientifiques et technologiques ainsi que la mondialisation de la recherche avaient incité cette organisation à se doter d’instruments normatifs pouvant rejoindre toutes les nations. Seule organisation mondiale ayant une vocation spécifique en éthique, l’UNESCO a voulu par cette dernière déclaration fournir à ses États membres un cadre normatif susceptible de les aider à formuler des lois et des lignes directrices. Ayant été impliquée, à titre de présidente du Comité international de bioéthique dans la préparation de cet instrument nous nous sommes posée la question suivante : Dans un contexte de mondialisation, une bioéthique qui vise le bien commun universel est-elle possible au sein de la diversité et de la pluralité culturelle des nations ? L’exemple de l’élaboration de la déclaration universelle sur la bioéthique et les droits de l’homme de l’UNESCO. Le bien commun étant un concept fréquemment mentionné et à peu près jamais défini clairement, il nous a semblé intéressant d’en retracer l’histoire et de dégager un cadre conceptuel qui a ensuite servi à étudier et dégager le sens donné à ces concepts dans la préparation de la déclaration. Un premier chapitre présente le contexte et la problématique. Le deuxième chapitre présente la revue de la littérature et la définition des concepts ainsi que le cadre conceptuel. Le troisième chapitre présente le cadre théorique et les données analysées et la méthodologie. Le quatrième chapitre présente l’analyse détaillée des différentes étapes de l’élaboration de la déclaration. Le cinquième chapitre présente la portée et les limites de la thèse et le cinquième chapitre la conclusion. Nous concluons que la déclaration en ayant utilisé une méthode de consultation, de délibération et de consensus pragmatique, offre un texte avec une vision d’un bien commun universel susceptible d’être utilisé dans tous les contextes culturels et par toutes les nations, spécialement les nations en développement. En effet, son architecture flexible et son souci de ne pas catégoriser les principes, mais plutôt de les utiliser en complémentarité les uns avec les autres, en fait un texte souple et adaptable au plan mondial. Ce travail pourra aussi contribuer à enrichir la réflexion et l’action des organisations internationales impliquées en bioéthique. Il pourra aussi inspirer les recherches actuelles en sciences politiques et en droit alors que sont explorés de nouveaux modèles de gouvernance et de nouvelles façons de construire les législations et les normes et de faire face aux défis actuels qui se posent aux droits de l’homme.
Resumo:
Nous présentons un relevé et une analyse spectroscopiques de plus de 1300 naines blanches brillantes (V < 17.5) et riches en hydrogène. Des spectres dans le domaine du visible avec un rapport signal-sur-bruit élevé ont été obtenus et les données ont ensuite été analysées avec notre méthode spectroscopique habituelle qui compare les profils observés des raies de Balmer à des spectres synthétiques calculés à partir de la dernière génération de modèles d’atmosphère. D’abord, nous présentons une analyse détaillée de 29 naines blanches de type DAO utilisant une nouvelle grille de modèles qui inclut du carbone, de l’azote et de l’oxygène aux abondances solaires. Nous démontrons que l’ajout de ces métaux dans les modèles d’atmosphère est essentiel pour surmonter le problème des raies de Balmer qui empêche un ajustement simultané de toutes les raies de Balmer avec des paramètres atmosphériques cohérents. Nous identifions également 18 naines blanches chaudes de type DA qui souffrent aussi du problème des raies de Balmer. Des spectres dans l’ultraviolet lointain obtenus des archives du satellite FUSE sont ensuite examinés pour démontrer qu’il existe une corrélation entre les abondances métalliques élevées et les cas du problème des raies de Balmer. Les conséquences de ces résultats pour toutes les naines blanches chaudes et riches en hydrogène sont discutées. En particulier, le scénario évolutif pour les naines blanches DAO est révisé et nous n’avons plus besoin d’évoquer l’évolution post-EHB pour expliquer la majorité des étoiles DAO. Finalement, nous élaborons un scénario dans lequel les métaux engendrent un faible vent stellaire qui expliquerait la présence d’hélium dans les étoiles DAO. Ensuite, nous présentons les résultats globaux de notre relevé, ce qui inclut une analyse spectroscopique de plus de 1200 naines blanches de type DA. En premier lieu, nous présentons le contenu spectroscopique de notre échantillon qui contient de nombreuses classifications erronées ainsi que plusieurs naines blanches de type DAB, DAZ et magnétiques. Nous discutons ensuite des nouveaux modèles d'atmosphère utilisés dans notre analyse. De plus, nous utilisons des modèles de naines M pour obtenir de meilleures valeurs des paramètres atmosphériques pour les naines blanches qui sont membres de systèmes binaires DA+dM. Certaines naines blanches uniques et quelques systèmes binaires double-dégénérées sont également analysés de manière plus détaillée. Nous examinons ensuite les propriétés globales de notre échantillon incluant la distribution de masse et la distribution de masse en fonction de la température. Nous étudions également la façon dont les nouveaux profils de raies de Balmer affectent la détermination des paramètres atmosphériques. Nous testons la précision et la robustesse de nos méthodes en comparant nos résultats avec ceux du projet SPY, dans le cadre duquel plus de 300 des mêmes naines blanches ont été analysées d'une manière complètement indépendante. Finalement, nous faisons un retour sur la bande d'instabilité des naines blanches pulsantes de type ZZ Ceti pour voir quels effets ont les nouveaux profils de raies sur la détermination de ses frontières empiriques.
Resumo:
La politique militaire de la France en Afrique est en évolution. La véracité factuelle de ce constat est désormais difficilement contestable. Ce changement s’observe d’abord dans le discours où l’on parle de plus en plus d’anciennes pratiques dépassées et reconnaît que ce qui était politiquement possible et admis il y a vingt ans ne l’est plus aujourd’hui. Ce processus s’incarne ensuite dans la modification des instruments d’action ainsi que dans les modes et les niveaux d’utilisation de ces instruments. Partant de ces considérations, le présent travail se propose d’examiner les facteurs à l’origine de cette évolution. Il part des réponses jusqu’ici proposées pour apporter un éclairage nouveau au sujet des forces et dynamiques à la base des changements annoncés ou observés. Contrairement à la littérature existante qui a jusqu’ici privilégié les approches matérialistes et utilitaristes pour expliquer les transformations entreprises et celles promises dans la politique militaire africaine de la France, cette étude propose, à l’inverse, une perspective inspirée des approches cognitives et axée sur le processus d’apprentissage. Ainsi, plutôt que de voir dans les réformes ici analysées le résultat exclusif de changements structurels ou systémiques survenus dans l’environnement économique, social ou international des États, notre analyse fera davantage valoir que cette transformation a pour l’essentiel été une adaptation faite à la lumière des leçons tirées d’expériences antérieures. Cette analyse s’appuie sur l’Advocacy Coalition Framework. Développée par Paul A Sabatier et ses collègues, il postule que la prise de décision en matière de politique publique peut être mieux comprise comme une compétition entre coalitions de cause, chacune étant constituée d’acteurs provenant d’une multitudes d’institutions (leaders de groupes d’intérêt, agences administratives, chercheurs, journalistes) qui partagent un système de croyances lié à l’action publique et qui s’engagent dans un effort concerté afin de traduire des éléments de leur système de croyances en une politique publique.
Resumo:
La dialectique pluralisme religieux/incertitude religieuse, sur laquelle porte cette thèse, se révèle être un thème majeur dans la pensée de Peter L. Berger, en sociologie des religions et en théologie protestante. Une analyse systématique et détaillée des concepts-clés qui la constituent débouche sur la question des rapports entre sociologie et théologie à laquelle Berger lui-même s’est confronté. Abordée sous l’angle de l’idée du principe protestant, cette question s’est résolue, dès la fin des années 1960, en un certain « mariage » entre son approche de la sociologie de la connaissance et son approche théologique libérale. Les concepts de foi et théologie « inductives », de « voie médiane entre le fondamentalisme et le relativisme », semblent jaillir de cette dialectique et de ce « mariage ». Si néanmoins cette dialectique se retrace dans la pensée de Berger dès ses premières œuvres, la défense d’une via media théologique appliquée à toutes les religions se révèle être la conséquence de l’abandon (dès 1967), de sa posture théologique néo-orthodoxe. Dans cette posture, la dialectique bergérienne s’appliquait à toutes les religions mais laissait la foi chrétienne intouchée et pensée en termes de certitude. Or, une analyse critique de sa pensée permet de situer au moins à trois niveaux un certain nombre de problèmes : le niveau de sa conception de la religion manifestant une ambiguïté; le niveau des rapports entre sociologie et théologie révélant un biais libéral et une absence de contenu religieux concret pour le principe protestant; enfin le niveau de sa critique des quêtes contemporaines de certitudes religieuses, critique dont le fondement sur sa dialectique peut être questionné par des exemples de conception différente de la religion et de la certitude religieuse. Pour ces trois niveaux, l’exemple de la conception de la certitude religieuse par les protestants évangéliques permet au moins une ébauche d’un tel questionnement. Cette conception, surtout dans son idée de l’« assurance du salut», se fonde, dans son approche surnaturelle de la certitude religieuse, sur une adhésion et une confiance fortes quant aux contenus traditionnels de la foi chrétienne. Si les arguments avancés dans cette perspective demeurent discutables, ils semblent assez pertinents puisque la vitalité contemporaine de la religion à l’ère du pluralisme religieux (voir notamment le protestantisme évangélique aux États-Unis) constitue une indication que la validité empirique de la dialectique bergérienne, et la critique qu’elle fonde, sont largement problématiques si l’on tient compte de l’auto-compréhension des groupes religieux eux-mêmes.
Resumo:
Ce mémoire porte sur la question de l’innovation militaire en temps de guerre et plus particulièrement sur la transition de la guerre conventionnelle vers la contre-insurrection des forces armées américaines au cours de la guerre d’Irak. Cette transition est un cas d’innovation militaire intéressant puisqu’il s’agit d’un changement radical dans les pratiques militaires de l’Armée américaine et du Corps des marines particulièrement parce qu’ils ont régulièrement tenté d’éviter les missions de contre-insurrection au cours de leur histoire. Cette recherche tentera d’expliquer comment les forces américaines ont innové au cours de la guerre d’Irak Nous considérons que le passage de la guerre conventionnelle à la contre-insurrection des forces américaines est le résultat d’un processus d’innovation militaire en temps de guerre qui se produit simultanément à partir de la base et du sommet de l’organisation militaire américaine. Tout d’abord, à la base, nous estimons que les unités américaines de l’Armée et des marines ont développé de nouvelles capacités de contre-insurrection à la suite d’un processus d’exploration de nouvelles tactiques et de nouvelles techniques sur le champ de bataille. Ensuite, à partir du sommet, nous croyons que la contre-insurrection est le résultat d’un changement stratégique au niveau des opérations des forces américaines. Ce mémoire est divisé en quatre chapitres. Le premier est consacré aux modèles théoriques d’innovation militaire. Le deuxième présente un aperçu de la guerre d’Irak de 2003 à 2007. Les chapitres 3 et 4 analysent respectivement la contre-insurrection comme un processus d’innovation militaire par la base et par le sommet.
Resumo:
Notre recherche vise à vérifier s'il existe un lien entre l'intérêt des Américains pour les investissements étrangers et le maintien des structures opaques de la finance internationale. Les pratiques d'opacité financière (utilisation abusive du secret bancaire, faibles mesures d'identification du client, faible règlementation bancaire, absence d’échange d’information fiscale, absence d’obligations d’enregistrements de compagnies et de fiducies, possibilité d’établir la propriété d’une société avec des prête-noms, utilisation de bons au porteur, manque d’encadrement des fiducies, etc.) semblent accommoder les États qui les dénoncent. Utilisant les théories des jeux à deux niveaux de Putnam, de la règlementation et de l’équilibre de Nash, nous faisons le lien entre le niveau national et international. Notre recherche consiste en deux études de cas. La première traite d’un projet de règlement de l’Internal Revenue Service visant à assurer la déclaration de revenus d’intérêt sur les dépôts bancaires des non-résidents. La seconde traite d’une série de projets de loi déposés au Sénat et à la Chambre des représentants des États-Unis. Ils cherchent à assurer la transparence du processus d’enregistrement de compagnies de manière à faciliter l’accès des agences d’application de la loi à l’information sur les bénéficiaires effectifs des compagnies formées en sol américain. Notre recherche ne permet pas de confirmer notre hypothèse avec certitude. Cependant, nos données tendent à indiquer que les groupes d’intellectuels et les groupes de pression financiers incitent le gouvernement des États-Unis à freiner la mise en application de certaines mesures prévues par le régime antiblanchiment (particulièrement l’identification du client et le partage d’information avec des pays tiers) pour attirer l’investissement étranger.
Resumo:
Cette recherche vise à examiner les relations entre la perception que des membres du personnel enseignant ont des pratiques du leadership transformationnel de la direction d’école, du contexte scolaire et des conditions favorisant leur engagement à implanter le renouveau pédagogique dans leur école. Le schéma conceptuel et le questionnaire qui sous-tendent cette recherche sont une adaptation de ceux élaborés par Yu, Leithwood et Jantzi (2002). Le questionnaire a été complété par 31 membres du personnel enseignant de quatre écoles primaires montréalaises appartenant à des commissions scolaires anglophones et francophones. À partir de ces données, nous avons calculé des moyennes et nous avons comparé les écoles, à l’aide des tests Mann-Whitney, selon leur niveau d’implantation du renouveau pédagogique, leur niveau socioéconomique et la langue de la commission scolaire d’appartenance. De plus, pour compléter nos données quantitatives, nous avons repris quelques citations des entrevues faites auprès des directions de ces écoles que les professeurs du département d’Administration et fondements de l’éducation de l’Université de Montréal, qui font partie du Groupe de recherche sur l’éducation en milieux défavorisés (GRÉMD), ont effectuées dans le cadre d’une autre étude. Les comparaisons des écoles selon leur niveau d’implantation du renouveau pédagogique révèlent que le personnel enseignant des deux écoles en changement se distingue de celui des deux écoles peu engagées dans le changement sur un seul point majeur : il a évalué moins positivement le contexte scolaire, un résultat appuyé par les analyses non paramétriques. Il semble que, dans les écoles qui ont participé à notre étude, le fait de soutenir l’implantation du renouveau pédagogique serait associé à une évaluation plus faible du contexte scolaire ; la culture de l’école et l’environnement étant les conditions les plus touchées. Un autre résultat de cette recherche est le fait que les enseignantes de l’école favorisée ont évalué le contexte scolaire, notamment la culture, l’environnement et les stratégies pour le changement, moins positivement que les enseignantes des écoles défavorisées. Enfin, les comparaisons des écoles en fonction de la langue de la commission scolaire indiquent qu’il n’existe pas de différence significative dans les évaluations faites des trois variables, que les enseignantes travaillent dans une école appartenant à une commission scolaire anglophone ou francophone. Étant donné que l’échantillon d’enseignantes qui a participé à notre étude est modeste, les résultats de cette recherche ne peuvent pas être généralisés, cependant ils pourraient constituer une base pour des recherches ultérieures dans ce domaine.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Même si la coopération policière transnationale est l’objet ces dernières années d’un engouement souvent attribué à des vertus d’efficacité, il reste que relativement peu d’informations sont disponibles sur le processus en lui-même. L’objectif général de la thèse était de fournir une analyse englobant à la fois les préoccupations des autorités politiques et celles des acteurs judiciaires et policiers. Ces acteurs occupent tous des rôles nécessaires dans le système de la coopération policière transnationale, mais outre cette constatation, les études à leur sujet ne se recoupent pas véritablement. C’est donc dire que, d’une part, les études sur les acteurs politiques se concentrent sur les décisions prises par ceux-ci, sur l’élaboration de concepts et sur la signature de conventions. D’autre part, les études sur les acteurs policiers et judiciaires mettent l’accent sur le déroulement quotidien des activités policières transnationales et sur ce qui s’ensuit, c’est-à-dire les procédures judiciaires. À l’aide de concepts tels que la discrétion et la souplesse, la familiarité, la confiance, la méfiance, le scepticisme et l’évitement, nous tentons de rallier les récents concepts de reconnaissance mutuelle et de confiance mutuelle avec ce qui se passe effectivement dans le monde opérationnel. La thèse, qui s’intéresse principalement à la coopération policière transnationale en matière de trafic de drogues, s’appuie sur deux types de données. Tout d’abord, des entrevues qualitatives semi-dirigées ont été menées auprès de 21 policiers et procureurs. Ensuite, une analyse documentaire a été effectuée sur des documents canadiens, soit les sept jurisprudences sur l’extranéité et un guide rédigé par un procureur à l’intention des enquêteurs œuvrant dans les enquêtes. Nous allons présenter rapidement les résultats les plus importants de la thèse. Dans le premier chapitre, il a été question de deux niveaux de structures de pouvoir, qui n’évoluent pas en vases clos, mais qui s’influencent mutuellement. C’est dire que le levier d’influence des acteurs étatiques sur les acteurs du policing transnational peut être relativement puissant, mais que des parades peuvent toujours être utilisées par les policiers dans des cas spécifiques. Nadelmann (1993) avait raison lorsqu’il a soutenu qu’une norme adoptée au niveau transnational n’est pas nécessairement utile à la réalisation des objectifs communs des États, c’est-à-dire l’immobilisation des criminels. La norme est le produit d’une négociation politique et d’un jeu de pouvoir. Au final, elle n’influe pas énormément sur les décisions prises par les policiers dans les enquêtes à composantes transnationales. Au mieux, elle est un guide de règles à ne pas violer ouvertement et impunément. De plus, alors que les pays et les organisations utilisent un système de récompense, d’incitatifs ou de menace de sanctions pour favoriser la coopération policière transnationale en vu d’une participation à une enquête à composantes transnationales, les individus qui travaillent dans les enquêtes à composantes transnationales utilisent la familiarité et valorisent la confiance comme moyen pour établir et maintenir des liens. Ces individus ne peuvent pas s’obliger entre eux, alors qu’il existe la possibilité d’imposer des sanctions réelles entre acteurs étatiques. Il s’agit donc de deux niveaux d’analyse, dans lesquelles la configuration des relations est différente. Dans le deuxième chapitre d’analyse, nous avons examiné les jurisprudences canadiennes et le guide d’un procureur à l’intention des policiers, ce qui nous a amené à constater la discrétion laissée par les agents judiciaires aux policiers travaillant au sein d’enquêtes à composantes transnationales. En fait, nous avons trouvé que les agents judiciaires sont conscients des difficultés des enquêtes à composantes transnationales et qu’ils sont plus flexibles dans ces cas que dans les enquêtes nationales. Le troisième chapitre d’analyse a montré que de nombreux moyens sont à la disposition des agents de l’enquête, et qu’une certaine logique sous-tendait les choix des policiers. Plus particulièrement, c’est la gestion des incertitudes, la nature de l’information et son utilisation envisagée qui importe pour les agents de l’enquête à composantes transnationale. Finalement, le dernier chapitre d’analyse illustre les différents types de relations entretenues entre agents de l’enquête. Nous avons trouvé que le scepticisme est prépondérant mais que la coopération demeure le plus souvent possible, lorsque les acteurs ont des intérêts en commun. Une certaine familiarité entre les acteurs est nécessaire, mais la confiance n’est pas toujours essentielle à la mise en œuvre des activités policières transnationales. En fait, cela dépend du niveau d’échanges nécessaires et du contexte. Gambetta (1988) avait d’ailleurs montré qu’une structure sociale relativement stable puisse se maintenir dans un contexte généralisé de méfiance.
Resumo:
Essai critique de stage présenté à la faculté des études supérieures en vue de l’obtention du grade de la maîtrise ès sciences (M.Sc.) en service social