986 resultados para riconoscimento volto alterazione digitale immagini morphing
Resumo:
De nombreuses méthodes de classification automatique de textes (supervisée ou non) existent. Elles se sont particulièrement développées depuis la création du web en vue d'améliorer les moteurs de recherche. Au delà de ce champs d'application, elles peuvent aussi être utiles pour « découvrir » ou « redécouvrir » ce qui caractérise une classe de textes aussi simplement que possible. Dans l'approche statistique développée ici, il s'agira de partitionner des parties de textes en types de discours tels que narratif, explicatif, argumentatif etc. en utilisant un minimum d'information, à savoir les catégories morphosyntaxiques (CMS). Les premiers résultats obtenus mettent en évidence des liens significatifs entre les CMS, les types de discours et des textes annotés par un expert humain ; ces relations sont toutefois encore incomplètes et difficiles à interpréter d'un point de vue linguistique.
Resumo:
«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-‐variabilité) et entre les traces digitales de donneurs différents (inter-‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-‐variabilité des résidus était significativement plus basse que l'inter-‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-‐variability) and between fingermarks of different donors (inter-‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-‐variability of the fingermark residue was significantly lower than the inter-‐variability, but that it was possible to reduce both kind of variability using different statistical pre-‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.
Resumo:
À l'ère des données massives, comment l'historien.ne voit-il facebook? Facebook pourra-t-il servir de source primaire, sous quelles conditions?
Resumo:
As important social stimuli, faces playa critical role in our lives. Much of our interaction with other people depends on our ability to recognize faces accurately. It has been proposed that face processing consists of different stages and interacts with other systems (Bruce & Young, 1986). At a perceptual level, the initial two stages, namely structural encoding and face recognition, are particularly relevant and are the focus of this dissertation. Event-related potentials (ERPs) are averaged EEG signals time-locked to a particular event (such as the presentation of a face). With their excellent temporal resolution, ERPs can provide important timing information about neural processes. Previous research has identified several ERP components that are especially related to face processing, including the N 170, the P2 and the N250. Their nature with respect to the stages of face processing is still unclear, and is examined in Studies 1 and 2. In Study 1, participants made gender decisions on a large set of female faces interspersed with a few male faces. The ERP responses to facial characteristics of the female faces indicated that the N 170 amplitude from each side of the head was affected by information from eye region and by facial layout: the right N 170 was affected by eye color and by face width, while the left N 170 was affected by eye size and by the relation between the sizes of the top and bottom parts of a face. In contrast, the P100 and the N250 components were largely unaffected by facial characteristics. These results thus provided direct evidence for the link between the N 170 and structural encoding of faces. In Study 2, focusing on the face recognition stage, we manipulated face identity strength by morphing individual faces to an "average" face. Participants performed a face identification task. The effect of face identity strength was found on the late P2 and the N250 components: as identity strength decreased from an individual face to the "average" face, the late P2 increased and the N250 decreased. In contrast, the P100, the N170 and the early P2 components were not affected by face identity strength. These results suggest that face recognition occurs after 200 ms, but not earlier. Finally, because faces are often associated with social information, we investigated in Study 3 how group membership might affect ERP responses to faces. After participants learned in- and out-group memberships of the face stimuli based on arbitrarily assigned nationality and university affiliation, we found that the N170 latency differentiated in-group and out-group faces, taking longer to process the latter. In comparison, without group memberships, there was no difference in N170 latency among the faces. This dissertation provides evidence that at a neural level, structural encoding of faces, indexed by the N170, occurs within 200 ms. Face recognition, indexed by the late P2 and the N250, occurs shortly afterwards between 200 and 300 ms. Social cognitive factors can also influence face processing. The effect is already evident as early as 130-200 ms at the structural encoding stage.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
But: Cette étude a pour but de comparer : a)la morphologie du plancher pelvien (PP), du col vésical et du sphincter urogénital strié (SUS) par IRM et b) la fonction du PP par palpation digitale (PERFECT scheme) chez les femmes âgées continentes ou avec incontinence urinaire à l’effort (IUE) et mixte (IUM). Méthode: Les femmes ont appris à contracter correctement leur PP et la fonction de leur PP a été évaluée. Une séance d’IRM dynamique 3T a suivi. Résultats: 66 femmes ont participé à l’étude. Les groupes étaient similaires en âge, IMC, nombre d’accouchements vaginaux et d’hystérectomie. La validité et la fidélité des différentes mesures anatomiques utilisées ont été confirmées au début de cette étude. Afin de contrôler l’effet potentiel de la taille du bassin sur les autres paramètres, les femmes ont été appariées par la longueur de leur inlet pelvien. Les femmes avec IUM ont un PP plus bas et un support des organes pelviens plus faible, selon leurs ligne M, angle LPC/Ligne H et hauteur de la jonction urétro-vésicale (UV). Les femmes avec IUE ont un PP similaire à celui des continentes, mais présentent plus d’ouverture du col vésical et un angle UV postérieur plus large au repos que les autres groupes. Il n’y a aucune différence de morphologie du SUS entre les groupes. De plus, selon les résultats du PERFECT scheme, les femmes avec IU ont une force du PP plus faible que les continentes. Les femmes avec IUM montrent aussi une faible élévation des muscles du PP à la contraction. Les femmes avec IUE ont, quant à elle, un problème de coordination à la toux. Conclusion: Les déficits causant l’IUE et l’IUM sont différents, mais supportent tous le rationnel des exercices du PP pour le traitement de l’IUE et l’IUM. Ces résultats supportent le besoin de traitements de rééducation spécifiques aux déficits de chacun des types d’IU.
Resumo:
"L’auteur présente une analyse générale de l’évolution historique et des développements récents du régime des droits d’auteur au Canada. Avec le développement des nouvelles technologies de l’information, et plus spécifiquement de l’Internet, le régime canadien des droits d’auteur nécessiterait d’importantes réformes. L’auteur déplore toutefois les modifications récentes issues de la loi C-60. En effet, selon lui, ces changements ne correspondent pas au régime international proposé par l’Organisation Mondiale de Propriété Intellectuelle. En fait, ceux-ci cadrent beaucoup plus avec la perspective américaine de protection limitative des droits d’auteur. Michael Geist trace d’abord l’historique du développement du régime de protection des droits d’auteur au Canada. Il souligne notamment les modifications législatives importantes de la fin des années 1980 et 1990 qui visaient à renforcer les règles de reconnaissance et de protection des droits que les auteurs canadiens possèdent sur leurs œuvres. Parallèlement, à ces modifications législatives, la Cour Suprême du Canada s’est aussi prononcée sur la question des droits d’auteur en interprétant limitativement la portée de ce régime, facilitant ainsi l’accès des œuvres artistiques au domaine public. L’auteur souligne les divergences et les contradictions entre la conception législative et celle jurisprudentielle de la fonction du régime canadien des droits d’auteur. Le législateur canadien a récemment proposé une nouvelle modification du régime de droits d’auteurs qui consisterait en l’extension des délais obligatoire avant qu’une œuvre couverte par le régime ne soit incluse dans le domaine public. Michael Geist s’oppose à une telle modification et soutient qu’elle entraînerait de nombreuses conséquences négatives pour les auteurs et les artistes canadiens. En effet, cette modification limiterait l’accès des auteurs aux oeuvres antérieures, elle entraverait les opportunités et les capacités commerciales des œuvres canadiennes et restreindrait les domaines de recherche académique. L’auteur aborde par la suite la problématique reliée aux ""Mesures de Protection Techniques"" et à la législation qui les encadre. En analysant les problèmes causés par ces mesures aux États-Unis, il présente leurs effets nuisibles pour les domaines fondamentaux de la liberté de parole et de la recherche académique. Les réformes possibles du régime canadien des droits d’auteur se situent dans une perspective plus ouverte du régime de protection et de promotion des œuvres canadiennes. Ces réformes auraient l’avantage de promouvoir et de protéger les œuvres canadiennes tout en évitant les problèmes causés par les mesures trop limitatives. À ce sujet, l’auteur propose l’établissement d’une bibliothèque digitale nationale, l’abrogation des droits d’auteur de la couronne et un nouveau régime permettant l’utilisation du matériel radiodiffusé de la Société Radio-Canada."
Resumo:
« Dissimuler » un trésor a toujours fasciné. Mais à l’heure actuelle, le trésor n’est plus toujours une caisse pleine de pierres précieuses ou d’or, il peut s’agir d’une simple information ou d’une donnée informatique importante que l’on souhaite cacher pour mieux la protéger. Avec le développement d’Internet, le domaine de la stéganographie, technique consistant à dissimuler une information pour la faire passer inaperçue, prend alors une nouvelle ampleur : il est désormais facile de dissimuler un fichier qui n’est qu’une goutte d’eau dans un océan informationnel. Si cette possibilité ouvre de nouvelles perspectives en termes de sécurité de l’information (car si personne ne sait qu’il y a un message secret, personne ne cherchera à le regarder ou le récupérer…), sa couverture sur le plan juridique n’est encore qu’embryonnaire. Dans la première partie, après avoir présenté les principes de la stéganographie informatique, nous montrerons combien un tel procédé est complémentaire et s’accorde bien avec la cryptographie, et le mettrons en perspective avec d’autres techniques voisines de dissimulation d’information (tatouage et empreinte digitale). Nous illustrerons finalement quelques pratiques de stéganographie appliquée à deux catégories de données numériques, l’image et le texte. Dans la seconde partie, nous plaçant résolument sur le plan juridique, nous tenterons tout d’abord de voir si la stéganographie peut faire partie des mesures techniques de protection que doit mettre en place un responsable de système d’information au titre de l’obligation de sécurité informationnelle. Ensuite, après avoir constaté que certains usages déviants de la stéganographie pouvaient impacter la sécurité publique, nous nous interrogerons sur ses répercussions, compte tenu des exigences d’accessibilité et d’intégrité de l’information.
Resumo:
Le présent projet doctoral vise à considérer les lacunes dans la documentation scientifique sur le Trouble Paraphilique Coercitif (TPC) en mettant l’accent sur la validité des critères diagnostiques proposés pour inclusion dans le DSM-5 et les marqueurs comportementaux. À ce fait, les données archivées d’individus ayant sexuellement agressé des femmes adultes ont été étudiées. La thèse est constituée de trois articles empiriques. Le premier article présente des résultats clés découlant des analyses, élaborés dans les articles subséquents. Le second (N = 47) évalue les fréquences observées du TPC, la validité et l’impact du recours au nombre minimal de victimes comme critère diagnostique, ainsi que les indices prédisant la récidive sexuelle. Le troisième article (N = 52) compare les groupes diagnostiques sur une série de comportements délictuels, tels que les gestes sexuels et les comportements violents, dans le but d’identifier les marqueurs comportementaux associés avec la propension au viol qui pourraient assister dans le processus diagnostique. Dans le même ordre d’idées, nous avons créé des typologies de violeurs à partir des gestes sexuels commis, d’un côté, et des comportements violents, de l’autre côté. Conséquemment, les caractéristiques des typologies ainsi obtenues et leur association avec le TPC furent examinées. Dans l’ensemble, nos résultats ne soutiennent pas le recours au nombre de victimes. Nos données suggèrent que, globalement, les violeurs avec le TPC utilisent un niveau de gestes sexuels plus envahissant et un niveau de violence moindre que les violeurs n’ayant pas ce diagnostic, et que l’exhibitionnisme et l’attouchement pourraient servir de marqueurs comportementaux pour le TPC. En outre, les violeurs avec le TPC sont caractérisés davantage par demande indécente, exhibitionnisme, attouchement, masturbation, tentative de pénétration et pénétration digitale que par pénétration vaginale et sodomie. De plus, ces derniers font moins recours à l’utilisation d’armes, semblent ne pas frapper/donner des coups à la victime et sont caractérisés par la manipulation plutôt que par le recours aux menaces de mort, force excessive et utilisation d’armes. En somme, nos données soulignent la nécessité de s’appuyer sur une combinaison de méthodes d’évaluation afin d’améliorer la validité diagnostique et discriminante du TPC.