12 resultados para intelligence-led policing
em Université de Montréal, Canada
Resumo:
En Grande-Bretagne et en Amérique du Nord, la police est une institution publique qui suscite de nombreux travaux académiques. En France, elle est perçue comme un objet sale jusqu’aux travaux de Montjardet. En Suisse, la police est le reflet de la structure fédérale du pays. A travers un cadre réglementaire et légal, chaque canton a organisé sa police. Ainsi, le canton de Vaud s’est doté d’une police cantonale et de polices municipales dont le fonctionnement se fonde sur la proximité. Seules la police cantonale et celle de Lausanne disposent d’une compétence maximale. Bien que la police de proximité soit bien documentée au niveau légal, il n’existe pas de recherche compréhensive sur le fonctionnement de cet ensemble de principes policiers. Ce manque de connaissance pratique est problématique car le canton a entrepris une réforme policière qui est entrée en vigueur au 1er Janvier 2012. Dans ses pratiques liées à l’information, la police de proximité semble s’inspirer de deux modèles incompatibles que sont la police de communauté et l’intelligence led policing. C’est pourquoi, dans cette recherche, nous souhaitons comprendre comment les modèles théoriques trouvent à s’appliquer dans la pratique de la police de proximité. Nous avons opté pour une démarche qualitative semi-dirigée en réalisant 23 entretiens avec des policiers vaudois. L’analyse thématique a été réalisée à l’aide du logiciel Atlas Ti. Trois résultats ont retenu notre attention. Tout d’abord, notre analyse a permis de clarifier la notion de proximité par rapport à celle de communauté tout en tenant compte des particularismes locaux de redevabilité. Ensuite, nous avons identifié les divers circuits de l’information et mis en évidence les divergences dans le vocabulaire lié à l’analyse criminelle. Enfin, il apparaît que la police vaudoise se positionne comme une interface qui coordonne les partenaires susceptibles de résoudre les problèmes de la population.
Resumo:
La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.
Resumo:
L'application de classifieurs linéaires à l'analyse des données d'imagerie cérébrale (fMRI) a mené à plusieurs percées intéressantes au cours des dernières années. Ces classifieurs combinent linéairement les réponses des voxels pour détecter et catégoriser différents états du cerveau. Ils sont plus agnostics que les méthodes d'analyses conventionnelles qui traitent systématiquement les patterns faibles et distribués comme du bruit. Dans le présent projet, nous utilisons ces classifieurs pour valider une hypothèse portant sur l'encodage des sons dans le cerveau humain. Plus précisément, nous cherchons à localiser des neurones, dans le cortex auditif primaire, qui détecteraient les modulations spectrales et temporelles présentes dans les sons. Nous utilisons les enregistrements fMRI de sujets soumis à 49 modulations spectro-temporelles différentes. L'analyse fMRI au moyen de classifieurs linéaires n'est pas standard, jusqu'à maintenant, dans ce domaine. De plus, à long terme, nous avons aussi pour objectif le développement de nouveaux algorithmes d'apprentissage automatique spécialisés pour les données fMRI. Pour ces raisons, une bonne partie des expériences vise surtout à étudier le comportement des classifieurs. Nous nous intéressons principalement à 3 classifieurs linéaires standards, soient l'algorithme machine à vecteurs de support (linéaire), l'algorithme régression logistique (régularisée) et le modèle bayésien gaussien naïf (variances partagées).
Resumo:
Cette recherche part du constat de l’utilisation des nouvelles technologies qui se généralise dans l’enseignement universitaire (tant sur campus qu’en enseignement à distance), et traite cette question sous trois aspects institutionnel, pédagogique et technologique. La recherche a été menée à travers quinze universités canadiennes où nous avons interrogé vingt-quatre universitaires, nommément des responsables de centres de pédagogie universitaire et des experts sur la question de l’intégration des technologies à l’enseignement universitaire. Pour le volet institutionnel, nous avons eu recours à un cadre théorique qui met en relief le changement de structure et de fonctionnement des universités à l’ère d’Internet, suivant le modèle théorique de l’Open System Communications Net de Kershaw et Safford (1998, 2001). Les résultats, à l’aune de ce modèle, confirment que les universités conventionnelles sont dans une phase de transformation due à l’utilisation des technologies de l'information et de la communication (TIC). De plus, les cours hybrides, la bimodalité, des universités entièrement à distance visant une clientèle estudiantine au-delà des frontières régionales et nationales, des universités associant plusieurs modèles, des universités fonctionnant à base d’intelligence artificielle, sont les modèles principaux qui ont la forte possibilité de s’imposer dans le paysage universitaire nord-américain au cours des prochaines décennies. Enfin, à la lumière du modèle théorique, nous avons exploré le rôle de l’université, ainsi en transformation, au sein de la société tout comme les rapports éventuels entre les institutions universitaires. S’agissant de l’aspect pédagogique, nous avons utilisé une perspective théorique fondée sur le modèle du Community of Inquiry (CoI) de Garrison, Anderson et Archer (2000), revu par Vaughan et Garrison (2005) et Garrison et Arbaugh (2007) qui prône notamment une nouvelle culture de travail à l’université fondée sur trois niveaux de présence. Les résultats indiquent l’importance d’éléments relatifs à la présence d’enseignement, à la présence cognitive et à la présence sociale, comme le suggère le modèle. Cependant, la récurrence -dans les trois niveaux de présence- de certains indicateurs, suggérés par les répondants, tels que l’échange d’information, la discussion et la collaboration, nous ont amenés à conclure à la non-étanchéité du modèle du CoI. De plus, certaines catégories, de par leur fréquence d’apparition dans les propos des interviewés, mériteraient d’avoir une considération plus grande dans les exigences pédagogiques que requiert le nouveau contexte prévalant dans les universités conventionnelles. C’est le cas par exemple de la catégorie « cohésion de groupe ». Enfin, dans le troisième volet de la recherche relatif à la dimension technologique, nous nous sommes inspirés du modèle théorique d’Olapiriyakul et Scher (2006) qui postule que l’infrastructure dans l’enseignement doit être à la fois une technologie pédagogique et une technologie d’apprentissage pour les étudiants (instructional technology and student learning technology). Partant de cette approche, le volet technologique de notre recherche a consisté à identifier les fonctionnalités exigées de la technologie pour induire une évolution institutionnelle et pédagogique. Les résultats à cet égard ont indiqué que les raisons pour lesquelles les universités choisissent d’intégrer les TIC à l’enseignement ne sont pas toujours d’ordre pédagogique, ce qui explique que la technologie elle-même ne revête pas forcément les qualités a priori requises pour une évolution pédagogique et institutionnelle. De ce constat, les technologies appropriées pour une réelle évolution pédagogique et institutionnelle des universités ont été identifiées.
Resumo:
La participation des organisations policières à des opérations de paix des Nations Unies est un phénomène datant de quelques décennies, mais qui suscite de plus en plus d’intérêt dans la communauté scientifique ainsi que chez les organisations contributrices. À titre indicatif, en 2010, près de 13 000 policiers étaient déployés dans 13 opérations de paix des Nations Unies, ce qui représente une augmentation de 810 % par rapport aux 1 600 policiers qui étaient déployés en 1995 . Cette augmentation marquée de la participation policière à ce type d’opération à l’étranger remet en question les conceptions traditionnelles que les chercheurs avaient de l’institution policière. Bel exemple de la transnationalisation des organisations policières, la participation des policiers à des opérations de paix soulève toutefois de nombreux questionnements. Alors que la majorité des recherches se sont penchées sur les problématiques opérationnelles reliées à l’envoi de policiers dans ces zones en sortie de guerre, peu d’entre elles se sont penchées sur les questions reliées au post-déploiement, c'est-à-dire à la réintégration des policiers dans leur société d’origine. Puisque la contribution des services de police québécois aux missions de paix des Nations Unies semble maintenant faire partie intégrante de la mission de certaines de ces organisations, il serait intéressant de valider quelles sont les retombées organisationnelles de cette participation. C’est précisément dans cette lignée que le présent mémoire prend tout son sens. Plus précisément, la présente recherche a pour objectif d’étudier la relation entre la participation d’un policier à ce type de mission et la modification de ses habitudes et méthodes de travail lors de sa réintégration dans son unité d’origine. La perspective organisationnelle utilisée dans ce mémoire est novatrice au sens où elle permet de questionner l’utilité et les retombées de ces missions, non pas sur les sociétés bénéficiaires de l’aide internationale, mais plutôt sur les acteurs contribuant à la mise en place de ces missions. De tels questionnements sont pertinents si l’on veut mesurer les retombées que peuvent avoir les opérations de paix sur les policiers eux-mêmes, sur les organisations policières participantes, mais aussi sur les services fournis aux citoyens par ces mêmes organisations. Les données qui nous permettront de répondre à ces questions proviennent de dix-neuf entretiens semi-directifs réalisés auprès de policiers de la Sûreté du Québec qui ont participé à une mission de paix en Haïti entre 2005 et 2010. En somme, il est possible d’affirmer que les méthodes de travail d’un policier revenant de mission peuvent être modifiées positivement ou négativement par différents facteurs tels que l’acquisition de compétences, la modification des traits de personnalité ou encore par un changement au niveau de la perception qu’on ces policiers de leur travail.
Resumo:
L’Amérique centrale, théâtre des dernières batailles rangées de la guerre froide, est aujourd’hui la région la plus violente au monde, selon les Nations unies. Notre étude s’intéresse à la forme de guerre irrégulière livrée par l’État guatémaltèque contre sa propre population pendant la deuxième moitié du vingtième siècle. À la lumière de rares témoignages d’exécutants et d’archives militaires et policières, nous examinons un mécanisme clandestin de répression dont les trois principales composantes – les enlèvements, la torture et les exécutions sommaires – pouvaient s’abattre sur toute personne soupçonnée, à tort ou à raison, de conspirer contre un statu quo d’exclusion. Au moment de leur articulation, ces moyens répressifs ont constitué un dispositif qui, à partir de 1966, s’est avéré d’une redoutable efficacité. Arme de prédilection des adeptes de la guerre antisubversive pendant plus de vingt ans, le dispositif permettait, telle une chaîne de production, l’accumulation des renseignements jugés indispensables à cette forme de guerre, ainsi que les cadavres dont l’absence éternelle ou la présence outrageuse sur la place publique servaient d’avertissement funeste à l’ensemble du corps social. Où chercher les origines d’un tel dispositif? À partir des ouvrages de référence cités dans le manuel de guerre contre-subversive de l’armée guatémaltèque, la réponse à cette question nous fera découvrir des parachutistes français pour qui la défaite militaire en Indochine et en Algérie pendant les années 1950 n’était pas une option et pour qui la victoire justifiait absolument tous les moyens. Le penchant de ces pionniers de la guerre hors-norme pour les cours magistraux, les entrevues et les articles, nous a permis d’étudier les méthodes qu’ils préconisaient et de repérer leurs traces au Guatemala. Alors que la guerre qui avait servi de prétexte au maintien du dispositif est terminée, sa très réputée efficacité assure encore aujourd’hui sa pérennité auprès de ceux qui peuvent s’offrir le service. En ce sens, la contre-insurrection se poursuit, et ce, malgré l’absence depuis une quinzaine d’années d’un conflit armé. Cette thèse aborde l’histoire de la guerre irrégulière et son déroulement au Guatemala. Les archives et les témoignages à notre disposition contredisent le déni des crimes commis dans les villes et les campagnes guatémaltèques, dont le génocide de 1982. Finalement, certains signes avant-coureurs indiquent que la violence et l’impunité actuelles au pays pourraient mener à la répétition de tels crimes à l’avenir.
Resumo:
La perception est de plus en plus reconnue comme fondamentale à la compréhension du phénotype autistique. La première description de l’autisme, par Kanner en 1947, fait état d’un profil cognitif hétérogène caractérisé par des habiletés exceptionnelles à l’intérieur de domaines spécifiques de la perception (ex., la musique). L’accumulation des observations cliniques sur la présence de particularités perceptives a mené à l’élaboration d’études empiriques permettant d’objectiver des surfonctionnements dans le traitement élémentaire de l’information perceptive dans l’autisme. Parallèlement, des études cognitives suggèrent la présence d’une « intelligence différente » chez les personnes autistes. Celle-ci serait caractérisée par une dissociation entre des performances à différents tests d’intelligence fortement corrélés ensemble chez les personnes typiques. Le potentiel intellectuel des personnes autistes serait sous-estimé lorsque mesuré par l’échelle de Wechsler, plutôt que des mesures d’intelligence fluide comme les Matrices Progressives de Raven. Avec l’appui d’études en imagerie cérébrale, ces résultats suggèrent une relation unique entre la perception et l’intelligence chez cette population clinique. Étant donné l’accumulation de preuves sur 1) la présence d’atypies perceptuelles, 2) le rôle différent de la perception dans l’intelligence et 3) l’importance des comportements répétitifs et intérêts restreints dans le phénotype autistique (DSM-5), le premier volet de cette thèse s’est intéressé à la relation entre les performances perceptives des personnes autistes et celle des personnes ayant un développement typique, au-delà de ce qui est expliqué par l’intelligence. À l’aide de modèles de régression linéaire, les résultats démontrent un profil de covariation spécifique à l’autisme pour les habiletés plurimodales. Contrairement aux personnes ayant un développement typique, ces associations persistent au-delà de ce qui est expliqué par l’intelligence générale ou par l’efficacité générale des systèmes perceptifs. Ce profil de covariation résiduelle propre aux personnes autistes suggère la présence d’un facteur plurimodal spécifique à ce groupe clinique : le facteur « p ». Le deuxième volet de cette thèse s’est intéressé à la prévalence des habiletés exceptionnelles au niveau individuel, la relation les forces perceptives et les talents, ainsi qu’aux facteurs de prédisposition en lien avec le développement d’habiletés exceptionnelles. Les forces perceptives des personnes autistes furent évaluées à l’aide de tâches expérimentales sensibles à la détection de surfonctionnements perceptifs, soit une tâche de discrimination de hauteurs sonores et une version modifiée du sous-test « Blocs » de l’échelle d’intelligence de Wechsler. Les talents furent évalués de manière clinique à l’aide de l’ADI-R (« Autism Diagnostic Interview-Revised »). Les données indiquent que 88.4 % des personnes autistes avec une intelligence dans la normale présentent au moins une habileté exceptionnelle (force perceptive ou talent). Les talents sont rapportés chez 62.5 % des cas et les forces perceptives se retrouvent chez 58 % des cas. La cooccurrence des forces perceptives entre les modalités perceptives est relativement peu fréquente (24 % à 27 %) et la présence d’un talent dans une modalité n’augmente pas les chances de présenter une force perceptive dans une même modalité. Une plus grande intelligence augmente les chances de présenter au moins un talent. En revanche, une intelligence plus faible, mais se situant tout de même dans les limites de la normale, est associée à un profil cognitif plus hétérogène avec des forces perceptives plus fréquentes. En somme, l’intelligence autistique serait caractérisée par un rôle plus important de la perception, indépendamment des surfonctionnements perceptifs. Cette particularité cognitive se manifesterait par la présence d’un facteur plurimodal, « p », spécifique à l’autisme. Théoriquement, le facteur « p » reflèterait des modifications innées (ou « hardwired ») dans l’organisation corticale des microcircuits responsables de l'encodage des dimensions perceptives élémentaires. En revanche, une faible association intermodale entre les forces perceptives suggère que des modifications corticales sont essentielles, mais non suffisantes pour le développement d’habiletés exceptionnelles. Par des processus de plasticité, des modifications corticales auraient des répercussions sur le phénotype autistique en offrant une base plus « fertile » pour le développement d’habiletés exceptionnelles, voire savantes, lorsque la personne autiste serait exposée à des expériences de vie avantageuses. Par ailleurs, les résultats de cette thèse, combinés à la littérature existante sur l’intelligence et l’apprentissage des personnes autistes, nous amènent à réfléchir sur les approches d’évaluation et d’intervention les mieux adaptées au fonctionnement spécifique de cette population clinique.
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
À l’heure où les limites du modèle de la démocratie représentative traditionnelle apparaissent de plus en plus évidentes, on a pu défendre, dans la littérature récente, un modèle sensiblement différent : celui d’une démocratie épistémique, tirant parti, par le mécanisme de la délibération inclusive, d’une forme d’intelligence collective qui serait disséminée à travers les agents d’une collectivité. Or, les partisans d’une telle approche se réclament souvent d’un argument qu’on trouve sous la plume d’Aristote en Politique, III, 11. L’objectif de cette étude est d’examiner la légitimité d’une telle filiation, en examinant de manière comparative les arguments modernes en faveur de la démocratie épistémique délibérative et le texte aristotélicien. Un tel travail permet de nuancer la portée du recours à Aristote dans les justifications épistémiques de la démocratie : d’une part, le mécanisme auquel songe Aristote dans le texte de la Politique ne saurait se ramener à une forme quelconque de délibération inclusive ; et, d’autre part, l’argument épistémique se trouve restreint par la mise en évidence des limites intrinsèques du régime démocratique. Plutôt que la source d’une position moderne en faveur de la démocratie, on trouverait alors chez Aristote l’occasion de penser le danger concret qui guette tout modèle délibératif : c’est-à-dire, la confiscation du débat public par une minorité de démagogues, qui empêche la collectivité de tirer parti de la diversité cognitive qu’elle contient.
Resumo:
Dans ce texte, nous soumettons à examen la conception de l'autisme avancée par Laurent Mottron dans son ouvrage L'autisme : une autre intelligence (Mottron, 2004). Le texte comprend quatre parties. Dans la première partie, nous présentons le cadre paradigmatique de l'auteur en matière de troubles envahissants et l'emphase mise sur une catégorie qu'il tient pour majoritaire bien que négligée dans la littérature scientifique et dans les réseaux de services : les troubles envahissants du développement sans déficienceintellectuelle (TEDSDI). Il assimile ce groupe à un nouvel autisme dominant. Dans la deuxième partie, nous montronsque souscrire à l'idée de l'autisme comme une autre forme d'intelligence ne permet pas une conceptualisation adéquate des capacités ni des déficits des personnes concernées. La troisième partie, aborde le problème du traitement de l'autisme. À l'encontre des propos de Mottron, nous défendons la pertinence de traiter l'autisme, notamment par I'intervention comportementale intensive (lCI) et l'analyse appliquée du comportement et jugeons sa position anachronique. D'autre part, la prépondérance et quasiexclusivité qu'il accorde à TEACCH comme réponse sociopsycho-pédagogique apparaît injustifiée. La quatrième partie constitue une critique de l'analyse des émotions chez les personnes autistes que fait l'auteur à partir d'écrits autobiographiques, un retour vers l'introspection comme méthode de recherche. En conclusion, nous déplorons le ton général du propos, trop dialectique, notamment dans sa dichotomisation entre autistes et non autistes. Le militantisme de Mottron pour les « autistes » sans déficience intellectuelle déçoit, de même que le débordement idéologique de sa théorie en faveur de la reconnaissance d'une culture autistique.