1000 resultados para Développement des capacités


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les étudiantes et étudiants inscrits dans le programme technique Informatique de gestion au collégial ont comme tâche de concevoir, coder et mettre au point divers programmes informatiques. La capacité pour réaliser cette dernière tâche, soit la mise au point de programmes ou débogage de programmes, est très peu développée chez les élèves. Ils ne prennent pas le temps de vérifier si leurs programmes fonctionnent adéquatement. Selon les superviseurs de stage en milieu de travail, ils ne testent pas assez leurs programmes. La procédure pour supprimer les erreurs de programmation qui leur est proposée ne semble pas suffisante en elle-même pour les soutenir dans leur apprentissage. Les ouvrages consultés sur le sujet de la métacognition nous incitent à penser qu’il manque à la procédure de débogage générale une dimension métacognitive qui pourrait leur être enseignée. L’objectif de cette recherche est de développer une stratégie pédagogique socioconstructiviste intervenant sur la métacognition pour soutenir le développement de la capacité à déboguer des programmes informatiques et à améliorer le sentiment d’auto-efficacité des élèves face à cette tâche. L’autoquestionnement semble être une stratégie métacognitive à développer chez les élèves, car il est primordial que les élèves se questionnent avant de débuter et pendant une tâche quelconque, en particulier celle du débogage de programmes. Trop souvent, les élèves escamotent cette étape d’auto-questionnement, ils ont trop hâte de pianoter sur l’ordinateur et voir si cela fonctionne. Notre type d’essai consiste en l’élaboration d’une intervention pédagogique, sa validation et sa mise à l’essai auprès des élèves. Le matériel nécessaire pour l’intervention a été tiré et adapté du livre sur la métacognition de Lafortune et St-Pierre. Plusieurs activités d’apprentissage ont été construites pour ce projet : un exercice de prise de conscience sur des stratégies d’apprentissage efficaces, une activité d’autoévaluation pour vérifier les connaissances des étudiantes et étudiants sur le débogage de programmes et une troisième activité concernant la planification du processus de résolution de problèmes qui a été reprise tout le long de la session. Ces activités ont été mises à l’essai auprès d’un groupe d’étudiants de 2e année en Technique Informatique à la session Hiver 2004. Les résultats de cette mise à l’essai sont intéressants. Dans un premier temps, l’objectif concernant le développement des habiletés métacognitives de planification a été atteint. De même, le développement de la démarche de débogage a été nettement amélioré, car au début, la démarche était très générale et peu efficace tandis qu’à la fin, la démarche était beaucoup plus structurée et détaillée. L’atteinte de l’objectif, concernant le sentiment d’autoefficacité des élèves, est difficile à évaluer car l’objectif semblait être déjà présent au début selon leurs réponses au questionnaire initial. Cela est très surprenant, car les élèves n’ont pas nécessairement une bonne démarche de débogage mais ils pensent que leur démarche est efficace. Les retombées de ce projet ont permis d’approfondir mes connaissances personnelles au sujet de la métacognition, de l’approche socioconstructiviste et du sentiment d’autoefficacité. En ce qui concerne les élèves, ils ont pris conscience de l’importance du débogage de programmes dans leurs fonctions de travail et ils possèdent une procédure efficace de débogage générale qu’ils peuvent utiliser en tout temps. La stratégie pédagogique, les activités prévues et les outils utilisés nécessitent certains ajustements. Entre autres, utiliser davantage la technique du modelage par le professeur en classe et modifier la procédure générale de débogage en la schématisant pour développer davantage l’autoquestionnement chez les élèves.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans la profession d’éducatrice et d’éducateur, le savoir-être revêt une importance particulière. Pour plusieurs, cet apprentissage se fait sans heurt, mais pour d’autres, il arrive que cet apprentissage soit problématique. Dès mon entrée dans la profession d’enseignante au collégial, j’ai rapidement été confrontée à la gestion des attitudes parmi la clientèle étudiante. Les discussions entre collègues renforçaient cette impression que certaines et certains étudiants éprouvaient de sérieuses difficultés à développer les savoir-être essentiels à la profession d’éducatrice et d’éducateur spécialisé. Au fil des trimestres, l’idée s’est imposée d’elle-même : sensibiliser la clientèle étudiante à la gestion des attitudes. Ce champ d’études étant très large, il a fallu circonscrire mon objet de recherche. Cet essai se limite à identifier les savoir-être signifiants à la profession d’éducatrice et d’éducateur spécialisé, afin d’améliorer le développement des compétences professionnelles des étudiantes et des étudiants. Le cadre conceptuel s’articule autour des différents concepts utilisés dans le domaine. Certains auteurs parlent d’attitudes, d’autres exploitent le thème des savoir-être et certains autres encore, utilisent le thème des habiletés socioprofessionnelles. Cette analyse a permis de dégager ma position de chercheuse. Je retiens trois principes de base : - Le savoir-être permet à la personne de réaliser une tâche professionnelle de la meilleure façon qu’il soit. (Boudreault, 2004) - Le savoir-être est un indicateur de performance élevé. (Scallon, 2004) - Le savoir-être est une compétence qui est source de réussite professionnelle. (Bellier, 2004). Les écrits de Bellier (2004), de Boudreault (2004) et de Scallon (2004) cités ci-hauts, font bien comprendre la valeur ajoutée de ce concept en lien avec une profession. Le savoir-être, en contexte de travail, permet à la personne de développer sa compétence professionnelle. Dans cette optique, la première étape pour découvrir les savoir-être signifiants à la profession a été de faire le parallèle entre trois grilles identifiant différents savoir-être. Ces modèles sont inspirés de Boudreault (2004), de Grisé et Trottier (1997) et de l’équipe enseignante en Techniques d’éducation spécialisée du cégep de Granby – Haute-Yamaska. Cette démarche a permis de regrouper les savoir-être similaires ou équivalents. À partir de ces regroupements, un groupe d’enseignantes et d’enseignants du Département des Techniques d’éducation spécialisée du cégep de Granby – Haute-Yamaska s’est prononcé, par l’entremise d’entrevues individuelles, sur les savoir-être les plus pertinents à utiliser pour bâtir un sondage électronique. Par la suite, ce sondage a été réalisé avec la collaboration des différents partenaires de stage de la région de la Montérégie ainsi qu’avec la participation de l’équipe enseignante afin de sélectionner les savoir-être signifiants à la profession. Cet exercice a permis d’identifier quatre savoir-être. L’identification de ces savoir-être aidera certainement l’équipe enseignante et les différents milieux de stage, dans leurs interventions pédagogiques. Il reste à souhaiter que la clientèle étudiante profite des résultats de cette recherche en étant mieux outillée pour développer ses compétences professionnelles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La mise en oeuvre de l’approche par compétences (APC) dans les programmes de formation au Québec a suscité un lot de changements dans les pratiques d’enseignement et d’évaluation durant les deux dernières décennies. Cette approche a occasionné un renouvellement des programmes d’études. Maintenant, les programmes d’études ciblent le développement des compétences. Le renouveau de l’enseignement est accompagné par la modification de certains articles du Règlement sur le régime des études collégiales (RREC), on y ajoute une nouvelle exigence de sanction des études pour les programmes collégiaux. Chacun des programmes d’études collégiales doit désormais mettre en place une activité synthèse d’évaluation des apprentissages. Cette activité doit se situer à la fin du parcours de formation et témoigner de l’intégration des compétences et des apprentissages essentiels réalisés dans l’ensemble du programme d’études. L’épreuve synthèse de programme (ÉSP) est sous la responsabilité des collèges et elle est encadrée par la politique institutionnelle d’évaluation des apprentissages (PIEA) de chaque établissement. Cette imposition ministérielle est toutefois peu documentée et laisse une grande latitude aux programmes d’études quant aux choix de la stratégie, aux modalités de passation et d’évaluation. Ceci amène le programme Technologie de radio-oncologie du collège Ahuntsic à se questionner sur la validité de leur ÉSP. Cette recherche porte sur le thème de l’ÉSP d’études collégiales. La problématique s’articule autour du fait qu’il est possible de créer une ÉSP qui s’appuie sur les principes de l’évaluation certificative des apprentissages, mais qui ne permet pas d’attester de l’atteinte des compétences de l’ensemble du programme d’études. Par conséquent, le premier objectif de cette recherche vise l’expérimentation d’un outil de validation de l’ÉSP. Le deuxième objectif consiste à analyser les résultats d’expérimentation et de bonifier l’outil de validation au regard des commentaires des participantes et des participants. Dans le cadre du présent essai, un outil de validation de l’ÉSP a été mis au point et mis à l’essai à travers une recherche-expérimentation, qui repose sur une approche méthodologique qualitative et une posture épistémologique de recherche. L’outil de validation de l’ÉSP est inspiré des travaux du Pôle de l’Est (1996). Il propose une série de questions regroupées selon cinq thématiques pour que les enseignantes et les enseignants du cours porteur de l’ÉSP puissent poser un diagnostic sur l’ÉSP de leur programme d’études. Chaque thématique est accompagnée d’une grille d’évaluation à échelle descriptive pour faciliter la réflexion sur les forces, les limites et reconnaître les correctifs devant être apportés à l’ÉSP. Un plan de travail est également suggéré, facilitant ainsi les travaux à entrevoir pour assurer l’amélioration de l’ÉSP. L’expérimentation de l’outil de validation de l’ÉSP par quatre équipes enseignantes a permis de recueillir des résultats à partir des réponses à un questionnaire électronique et à une entrevue téléphonique semi-dirigée, ceci en tenant compte des considérations éthiques. Ces résultats ont été analysés, compilés et comparés pour aider à concevoir une version finale de l’outil de validation de l’ÉSP. La version finale de l’outil de validation de l’ÉSP intègre les propositions d’amélioration émises par les quatre équipes d’enseignantes et d’enseignants qui ont accepté d’expérimenter l’outil. La triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur des travaux. Les commentaires tels que l’ajout d’une piste de réflexion concernant la charge de travail associé à la réalisation de l’ÉSP, l’ajout d’une définition concernant une caractéristique de l’évaluation certificative ainsi que la correction de deux critères d’évaluation inscrits dans la grille d’évaluation à échelle descriptive, ont favorisé la conception d’un outil de validation de l’ÉSP qui répond davantage aux besoins des programmes d’études collégiales. Les résultats obtenus portent à croire que l’outil de validation de l’ÉSP est complet et utile. Il peut être utilisé autant par les programmes préuniversitaires que les programmes techniques. Bien qu’il propose une démarche simple, il nécessite une concertation en équipe programme et il peut s’avérer aidant que cette démarche soit soutenue par une conseillère ou un conseiller pédagogique. De cette recherche-expérimentation sont ressorties des pistes de recherches future notamment la conception d’un outil de validation pour les épreuves terminales de cours. De plus, une connaissance plus approfondie des notions concernant l’évaluation certificative peut soulever également des questionnements concernant les différentes stratégies d’évaluation à envisager dans le cadre d’une ÉSP.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Traditional teaching methods in the classroom also limit opportunities for student engagement due to large class sizes and the desire to ensure students receive all of the material required in a particular session. It has been documented that the use of Information Technolgy (IT); in particular «clickers», can increase student participation, improve knowledge retention and assist in stimulating critical thinking in a classroom setting. However, the introduction of IT, on top of normal teaching demands, can be probelmatic as it requires changes to course planners, IT training, support staff and additional funding, all of wich have been documented in research. Wolski and Jackson (1999) have postulated that success is a function of the usefulness and the ease of use of a particular technology for faculty members. Research has shown that classroom technology is simply a tool to be used by educators as one of many. Those who tend to use it well are already innovative and technically adept (Zhao, Pugh, Sheldon & Bryers, 2002).||Résumé : Les méthodes d'enseignement traditionnelles en cour magistral ont aussi tendance à limiter l'engagement et la participation des étudiants dû à la taille souvent excessive des classes, mais aussi à cause du désire de l'enseignant de vouloir s'assurer de la transmission du contenu pédagogique complet. Il est bien documenté que l'usage des nouvelles technologies, en particulier les télévoteurs («clickers», peut accroître la participation des étudiants, améliorer la rétention de l'information mais aussi de stimuler, dans le contexte académique, la pensée critique. Malheureusement, tel que démontré par la recherche, l'introduction de ces nouvelles technologies pose problème lorsqu'additionné aux contraintes normales d'enseignement puisque qu'elle nécessite des changements à la planification des cours, requiert une formation spécifique, un support additionnel ainsi que le financement nécessaire. Wolski and Jackson (1999) ont postulé de plus que le succès de l'implantation d'une nouvelle technologie était en fonction de son utilité et de sa facilité d'utilisation par les membres de la faculté. Il a aussi été démontré que la technologie de l'enseignement en classe n'était en fait qu'un outil de plus à la disposition des enseignants, et que ceux qui avaient tendance à bien l'utiliser étaient de fait inoovateurs, possédant des capacités techniques (Zhao, Pugh, Sheldon et Bryers, 2002).

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La fabrication, la distribution et l'usage de fausses pièces d'identité constituent une menace pour la sécurité autant publique que privée. Ces faux documents représentent en effet un catalyseur pour une multitude de formes de criminalité, des plus anodines aux formes les plus graves et organisées. La dimension, la complexité, la faible visibilité, ainsi que les caractères répétitif et évolutif de la fraude aux documents d'identité appellent des réponses nouvelles qui vont au-delà d'une approche traditionnelle au cas par cas ou de la stratégie du tout technologique dont la perspective historique révèle l'échec. Ces nouvelles réponses passent par un renforcement de la capacité de comprendre les problèmes criminels que posent la fraude aux documents d'identité et les phénomènes qui l'animent. Cette compréhension est tout bonnement nécessaire pour permettre d'imaginer, d'évaluer et de décider les solutions et mesures les plus appropriées. Elle requière de développer les capacités d'analyse et la fonction de renseignement criminel qui fondent en particulier les modèles d'action de sécurité les plus récents, tels que l'intelligence-led policing ou le problem-oriented policing par exemple. Dans ce contexte, le travail doctoral adopte une position originale en postulant que les fausses pièces d'identité se conçoivent utilement comme la trace matérielle ou le vestige résultant de l'activité de fabrication ou d'altération d'un document d'identité menée par les faussaires. Sur la base de ce postulat fondamental, il est avancé que l'exploitation scientifique, méthodique et systématique de ces traces au travers d'un processus de renseignement forensique permet de générer des connaissances phénoménologiques sur les formes de criminalité qui fabriquent, diffusent ou utilisent les fausses pièces d'identité, connaissances qui s'intègrent et se mettent avantageusement au service du renseignement criminel. A l'appui de l'épreuve de cette thèse de départ et de l'étude plus générale du renseignement forensique, le travail doctoral propose des définitions et des modèles. Il décrit des nouvelles méthodes de profilage et initie la constitution d'un catalogue de formes d'analyses. Il recourt également à des expérimentations et des études de cas. Les résultats obtenus démontrent que le traitement systématique de la donnée forensique apporte une contribution utile et pertinente pour le renseignement criminel stratégique, opérationnel et tactique, ou encore la criminologie. Combiné aux informations disponibles par ailleurs, le renseignement forensique produit est susceptible de soutenir l'action de sécurité dans ses dimensions répressive, proactive, préventive et de contrôle. En particulier, les méthodes de profilage des fausses pièces d'identité proposées permettent de révéler des tendances au travers de jeux de données étendus, d'analyser des modus operandi ou d'inférer une communauté ou différence de source. Ces méthodes appuient des moyens de détection et de suivi des séries, des problèmes et des phénomènes criminels qui s'intègrent dans le cadre de la veille opérationnelle. Ils permettent de regrouper par problèmes les cas isolés, de mettre en évidence les formes organisées de criminalité qui méritent le plus d'attention, ou de produire des connaissances robustes et inédites qui offrent une perception plus profonde de la criminalité. Le travail discute également les difficultés associées à la gestion de données et d'informations propres à différents niveaux de généralité, ou les difficultés relatives à l'implémentation du processus de renseignement forensique dans la pratique. Ce travail doctoral porte en premier lieu sur les fausses pièces d'identité et leur traitement par les protagonistes de l'action de sécurité. Au travers d'une démarche inductive, il procède également à une généralisation qui souligne que les observations ci-dessus ne valent pas uniquement pour le traitement systématique des fausses pièces d'identité, mais pour celui de tout type de trace dès lors qu'un profil en est extrait. Il ressort de ces travaux une définition et une compréhension plus transversales de la notion et de la fonction de renseignement forensique. The production, distribution and use of false identity documents constitute a threat to both public and private security. Fraudulent documents are a catalyser for a multitude of crimes, from the most trivial to the most serious and organised forms. The dimension, complexity, low visibility as well as the repetitive and evolving character of the production and use of false identity documents call for new solutions that go beyond the traditional case-by-case approach, or the technology-focused strategy whose failure is revealed by the historic perspective. These new solutions require to strengthen the ability to understand crime phenomena and crime problems posed by false identity documents. Such an understanding is pivotal in order to be able to imagine, evaluate and decide on the most appropriate measures and responses. Therefore, analysis capacities and crime intelligence functions, which found the most recent policing models such as intelligence-led policing or problem-oriented policing for instance, have to be developed. In this context, the doctoral research work adopts an original position by postulating that false identity documents can be usefully perceived as the material remnant resulting from the criminal activity undertook by forgers, namely the manufacture or the modification of identity documents. Based on this fundamental postulate, it is proposed that a scientific, methodical and systematic processing of these traces through a forensic intelligence approach can generate phenomenological knowledge on the forms of crime that produce, distribute and use false identity documents. Such knowledge should integrate and serve advantageously crime intelligence efforts. In support of this original thesis and of a more general study of forensic intelligence, the doctoral work proposes definitions and models. It describes new profiling methods and initiates the construction of a catalogue of analysis forms. It also leverages experimentations and case studies. Results demonstrate that the systematic processing of forensic data usefully and relevantly contributes to strategic, tactical and operational crime intelligence, and also to criminology. Combined with alternative information available, forensic intelligence may support policing in its repressive, proactive, preventive and control activities. In particular, the proposed profiling methods enable to reveal trends among extended datasets, to analyse modus operandi, or to infer that false identity documents have a common or different source. These methods support the detection and follow-up of crime series, crime problems and phenomena and therefore contribute to crime monitoring efforts. They enable to link and regroup by problems cases that were previously viewed as isolated, to highlight organised forms of crime which deserve greatest attention, and to elicit robust and novel knowledge offering a deeper perception of crime. The doctoral research work discusses also difficulties associated with the management of data and information relating to different levels of generality, or difficulties associated with the implementation in practice of the forensic intelligence process. The doctoral work focuses primarily on false identity documents and their treatment by policing stakeholders. However, through an inductive process, it makes a generalisation which underlines that observations do not only apply to false identity documents but to any kind of trace as soon as a profile is extracted. A more transversal definition and understanding of the concept and function of forensic intelligence therefore derives from the doctoral work.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Dans le contexte d’urbanisation fulgurante de l’Asie du sud-est, les zones périurbaines agricoles vietnamiennes subissent des pressions environnementales croissantes et sont loin d’être équipées en infrastructures. L’assainissement présente un important manque d’investissement. La thèse s’est intéressée aux stratégies et aux mécanismes de financement qui aideront à réduire l’écart entre l’offre et la demande d’assainissement. Deux hypothèses principales ont été posées. D’abord, des fonds supplémentaires doivent provenir des ressources nationales, locales et celles des utilisateurs. La seconde hypothèse pose qu’il faudra investir avantage dans des activités qui augmenteront la durabilité des services d’assainissement, comme l’éducation et la promotion, qui en plus favorisent les contributions locales. La thèse a tenté de répondre à la question suivante : Dans le contexte périurbain d’Hanoi, comment mettre à contribution les ressources locales pour améliorer l’accès et la durabilité de l’assainissement? L’étude de cas est un projet communautaire pilote de gestion des eaux usées en banlieue d’Hanoi. Les facteurs de demande pour de l’assainissement et leurs effets sur la durabilité du projet ont été analysés auprès des ménages, des acteurs du village et des acteurs nationaux liés à l’assainissement. La thèse a d’abord permis d’actualiser les connaissances sur deux aspects importants : le cadre institutionnel qui encadre le financement de l’assainissement et les coûts et bénéfices de l’assainissement alternatif au Vietnam. Ces deux sujets présentaient une lacune sérieuse au niveau de la documentation. Puis, malgré de faibles capacités au niveau local, la demande réelle pour de l’assainissement était beaucoup plus importante que celle relevée dans la littérature. La recherche a permis de conclure que les institutions gouvernementales pourraient compter sur une plus grande contribution du milieu local si la planification ciblait ces facteurs : l’éducation et promotion, une grande part de décision et de gestion au niveau local et des technologies plus simples.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc) en sciences infirmières option formation des sciences infirmières.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Résumé Ce travail a commencé avec une confrontation entre les pensées de P. Ricoeur et E. Levinas sur le thème du rapport à autrui, cette confrontation portant particulièrement sur la place accordée par Levinas, dans son éthique, au thème de la vulnérabilité (ainsi que sur celui de la passivité), tandis que P. Ricoeur reste, selon moi, prioritairement un philosophe de l'activité et qui met, dans la question du rapport à autrui, l'accent sur la reconnaissance de l'autre dans l'empire de ses capacités. Ce débat, et les points qui retenaient en particulier mon attention, m'ont semblé pouvoir être inséré dans le contexte plus large d'une opposition entre éthique de l'autonomie et éthique de la vulnérabilité sur la base de lectures que j'effectuais par ailleurs dans le domaine des éthiques féminines, ou de ce que l'on appelle les éthiques du « care ». Les éthiques féminines, qui se sont développées les 30 dernières années, veulent revenir sur ce qu'elles identifient comme le modèle anthropologique de la modernité, qui privilégie une approche de l'homme en termes d'activité, de rationalité et d'autonomie au mépris d'autres traits comme la passivité, l'affectivité, la dépendance ou la vulnérabilité. Sans nier la rationalité ou l'autonomie de l'homme, elles veulent plutôt compléter une image qu'elles considèrent comme étant incomplète. Sur la base de leur anthropologie alternative, les auteurs qui appartiennent à ce courant proposent une nouvelle définition de l'éthique. Les éthiques du « care » se situent d'une manière générale dans une relation critique avec les éthiques de la justice comme avec les conceptions de l'agent et du patient moral héritées de la philosophie kantienne. Disons brièvement que, plutôt que de faire de l'autonomie et de son respect l'axe de leur réflexion morale, les éthiciennes du « care » insistent sur la signification morale de nos rapports de responsabilité ou de sollicitude à l'égard des personnes vulnérables. Dans la première partie de ma thèse, je reviens sur la genèse de la notion d'autonomie dans la philosophie morale et politique de la pré-modernité, en mettant le développement de ce concept en lien non seulement avec ce que J. Scheewind appelle les « morales de l'autogouvernement », mais aussi avec la naissance des philosophies du sujet et un mouvement général d'intériorisation des sources morales. J'essaye ensuite de dégager le sens de l'idée d'autonomie, sur la base de la notion de liberté positive élaborée par Berlin, avant de distinguer ses différentes significations (autonomie politique, personnelle, morale/autonomie procédurale vs substantielle, autonomie comme capacité, comme droit ou comme idéal). Je me concentre particulièrement sur la conception hiérarchique de l'autonomie personnelle développée par Frankfurt et Dworkin, avant de revenir à la conception kantienne de l'autonomie morale. Je consacre ensuite une section aux conceptions relationnelles de l'autonomie, ce qui me permet de faire le lien avec le thème de la vulnérabilité. Pour le développement historique de cette notion dans la pensée contemporaine, j'insiste, outre sur les éthiques du « care », sur les développements de la bioéthique et la philosophie de H. Jonas. Après un travail de définition du concept de vulnérabilité, j'élabore les éléments d'une éthique de la vulnérabilité que j'essaie d'articuler à la notion d'autonomie. Dans la deuxième partie, je confronte les éthiques de Ricoeur et de Levinas dans la perspective de l'opposition autonomie/vulnérabilité, en montrant leurs limites respectives.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

[Table des matières] 1. Introduction. 2. Méthode. 3. Théorie d'action et plan de monitorage des résultats des activités du Cipret (Centre d'information et de prévention du tabagisme) : priorités pour l'année 2008: Axe 1: Informer sur les conséquences de la consommation de tabac et sur la promotion de la santé. Axe 2: Contribuer à la cohérence de la politique de santé publique en matière de tabac. Axe 3: Diminuer le nombre de nouveaux fumeurs. Axe 4: Aider au sevrage du tabac. Annexes.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le travail policier et l'enquête judiciaire nécessitent de prendre de nombreuses décisions : choisir quelle trace analyser, mettre sous surveillance ou en détention un suspect, sont autant de décisions qui sont prises quotidiennement par les acteurs du système judiciaire. Ces décisions font l'objet de pesées d'intérêts qui se fondent sur l'analyse de l'information accessible. C'est le rôle de l'analyse criminelle de mettre en perspective l'information colligée pour la rendre intelligible aux décideurs compétents. L'usage de représentations graphiques est notamment recommandé pour soutenir l'analyse et la communication de ces informations.Des techniques de visualisation relationnelle sont notamment exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés sous la forme de schémas décrivant les relations entre les événements et les entités d'intérêts (tel que des personnes, des objets et des traces). Les exploitations classiques de ces techniques qui s'apparentent à des graphes, sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier, voire soutenir une argumentation lors du procès.La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Leur utilisation semble néanmoins soulever des difficultés. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Ce constat révèle la nécessité de consolider les méthodes pratiquées.Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence d'un consensus émergeant sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés.Au cours des vingt dernières années, plusieurs axes de développement ont été proposés pour traiter les difficultés observées, tels que l'amélioration des automatismes facilitant la conception d'une représentation, l'exploitation des techniques de réseaux sociaux, l'automatisation de l'identification et de l'extraction des entités dans du texte non-structuré et la définition de langages formels. Cette recherche propose une approche parallèle fondée sur une exploitation adaptée de structures de graphe et de propriétés visuelles pour optimiser la représentation en fonction des objectifs définis et de la nature des informations à représenter.Des solutions ont été recherchées selon plusieurs axes. Des recommandations générales, issues de diverses communautés de recherche liées à la visualisation, ont été recherchées afin de proposer une démarche générale de conception des schémas relationnels. Par ailleurs, le développement d'un catalogue de bonnes pratiques formalisées sous la forme de patterns de visualisation a été amorcé. Chaque pattern décrit une solution particulière pour un problème d'analyse récurrent, tel que l'analyse d'une série de cambriolages. Finalement, l'impact sur les outils de la méthodologie proposée est discuté en regard des limites qu'ils imposent. Un prototype de visualisation multidimensionnel a été élaboré.Cette recherche met en évidence les difficultés rencontrées lors de l'exploitation de représentations graphiques pour soutenir le processus de l'enquête judiciaire et propose des éléments de méthode et des innovations techniques utiles tant pour l'enseignement de la discipline que pour sa pratique.