929 resultados para Outils préhistoriques
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
Resume : L'utilisation de l'encre comme indice en sciences forensiques est décrite et encadrée par une littérature abondante, comprenant entre autres deux standards de l'American Society for Testing and Materials (ASTM). La grande majorité de cette littérature se préoccupe de l'analyse des caractéristiques physiques ou chimiques des encres. Les standards ASTM proposent quelques principes de base qui concernent la comparaison et l'interprétation de la valeur d'indice des encres en sciences forensiques. L'étude de cette littérature et plus particulièrement des standards ASTM, en ayant a l'esprit les développements intervenus dans le domaine de l'interprétation de l'indice forensique, montre qu'il existe un potentiel certain pour l'amélioration de l'utilisation de l'indice encre et de son impact dans l'enquête criminelle. Cette thèse propose d'interpréter l'indice encre en se basant sur le cadre défini par le théorème de Bayes. Cette proposition a nécessité le développement d'un système d'assurance qualité pour l'analyse et la comparaison d'échantillons d'encre. Ce système d'assurance qualité tire parti d'un cadre théorique nouvellement défini. La méthodologie qui est proposée dans ce travail a été testée de manière compréhensive, en tirant parti d'un set de données spécialement créer pour l'occasion et d'outils importés de la biométrie. Cette recherche répond de manière convaincante à un problème concret généralement rencontré en sciences forensiques. L'information fournie par le criminaliste, lors de l'examen de traces, est souvent bridée, car celui-ci essaie de répondre à la mauvaise question. L'utilisation d'un cadre théorique explicite qui définit et formalise le goal de l'examen criminaliste, permet de déterminer les besoins technologiques et en matière de données. Le développement de cette technologie et la collection des données pertinentes peut être justifiées économiquement et achevée de manière scientifique. Abstract : The contribution of ink evidence to forensic science is described and supported by an abundant literature and by two standards from the American Society for Testing and Materials (ASTM). The vast majority of the available literature is concerned with the physical and chemical analysis of ink evidence. The relevant ASTM standards mention some principles regarding the comparison of pairs of ink samples and the evaluation of their evidential value. The review of this literature and, more specifically, of the ASTM standards in the light of recent developments in the interpretation of forensic evidence has shown some potential improvements, which would maximise the benefits of the use of ink evidence in forensic science. This thesis proposes to interpret ink evidence using the widely accepted and recommended Bayesian theorem. This proposition has required the development of a new quality assurance process for the analysis and comparison of ink samples, as well as of the definition of a theoretical framework for ink evidence. The proposed technology has been extensively tested using a large dataset of ink samples and state of the art tools, commonly used in biometry. Overall, this research successfully answers to a concrete problem generally encountered in forensic science, where scientists tend to self-limit the usefulness of the information that is present in various types of evidence, by trying to answer to the wrong questions. The declaration of an explicit framework, which defines and formalises their goals and expected contributions to the criminal and civil justice system, enables the determination of their needs in terms of technology and data. The development of this technology and the collection of the data is then justified economically, structured scientifically and can be proceeded efficiently.
Resumo:
(Résumé de l'ouvrage) Cet ouvrage présente les résultats du premier Colloque international consacré à l'analyse narrative de la Bible (Lausanne, mars 2002). De la Genèse à l'Apocalypse, la Bible est un immense trésor d'histoires. Une nouvelle lecture explore depuis peu cet art du raconter. Ses outils sont empruntés à Paul Ricoeur, Gérard Genette, Meir Sternberg ou Jan Fokkelman. Les biblistes sont ainsi à même d'exhumer la stratégie narrative des auteurs bibliques: temporalité du récit, gestion de l'espace, construction des personnages, point de vue du narrateur. Certains des plus grands spécialistes de l'Ancien comme du Nouveau Testament explicitent ici ces texte fondateurs à la lumière de la narratologie.
Resumo:
(Résumé de l'ouvrage) Cet ouvrage présente les résultats du premier Colloque international consacré à l'analyse narrative de la Bible (Lausanne, mars 2002). De la Genèse à l'Apocalypse, la Bible est un immense trésor d'histoires. Une nouvelle lecture explore depuis peu cet art du raconter. Ses outils sont empruntés à Paul Ricoeur, Gérard Genette, Meir Sternberg ou Jan Fokkelman. Les biblistes sont ainsi à même d'exhumer la stratégie narrative des auteurs bibliques: temporalité du récit, gestion de l'espace, construction des personnages, point de vue du narrateur. Certains des plus grands spécialistes de l'Ancien comme du Nouveau Testament explicitent ici ces texte fondateurs à la lumière de la narratologie
Resumo:
(Résumé de l'ouvrage) Cet ouvrage présente les résultats du premier Colloque international consacré à l'analyse narrative de la Bible (Lausanne, mars 2002). De la Genèse à l'Apocalypse, la Bible est un immense trésor d'histoires. Une nouvelle lecture explore depuis peu cet art du raconter. Ses outils sont empruntés à Paul Ricoeur, Gérard Genette, Meir Sternberg ou Jan Fokkelman. Les biblistes sont ainsi à même d'exhumer la stratégie narrative des auteurs bibliques: temporalité du récit, gestion de l'espace, construction des personnages, point de vue du narrateur. Certains des plus grands spécialistes de l'Ancien comme du Nouveau Testament explicitent ici ces texte fondateurs à la lumière de la narratologie.
Resumo:
La Bible est un immense trésor d'histoires racontées. De la Genèse à l'Apocalypse, chaque récit déploie un monde que le lecteur est invité à habiter. Une discipline récente, la narratologie, s'attache à étudier cet art millénaire du « raconter ». Qu'il soit romancier ou écrivain biblique, tout conteur utilise les mêmes outils : il construit une intrigue, il tisse un réseau de personnages, il induit un système de valeurs, il sollicite l'imaginaire du lecteur et le fait voyager dans l'espace et le temps... Sept biblistes présentent ici des « travaux pratiques » d'analyse narrative appliquée à la Bible. Après avoir été invité par Daniel Marguerat à «Entrer dans le monde du récit », le lecteur goûtera la magie du raconter : qu'ils aient été bergers ou érudits, les conteurs bibliques étaient des artistes !
Resumo:
La Bible est un immense trésor d'histoires racontées. De la Genèse à l'Apocalypse, chaque récit déploie un monde que le lecteur est invité à habiter. Une discipline récente, la narratologie, s'attache à étudier cet art millénaire du « raconter ». Qu'il soit romancier ou écrivain biblique, tout conteur utilise les mêmes outils : il construit une intrigue, il tisse un réseau de personnages, il induit un système de valeurs, il sollicite l'imaginaire du lecteur et le fait voyager dans l'espace et le temps... Sept biblistes présentent ici des « travaux pratiques » d'analyse narrative appliquée à la Bible. Après avoir été invité par Daniel Marguerat à «Entrer dans le monde du récit », le lecteur goûtera la magie du raconter : qu'ils aient été bergers ou érudits, les conteurs bibliques étaient des artistes !
Resumo:
Cet ouvrage présente les résultats du premier Colloque international consacré à l'analyse narrative de la Bible (Lausanne, mars 2002). De la Genèse à l'Apocalypse, la Bible est un immense trésor d'histoires. Une nouvelle lecture explore depuis peu cet art du raconter. Ses outils sont empruntés à Paul Ricoeur, Gérard Genette, Meir Sternberg ou Jan Fokkelman. Les biblistes sont ainsi à même d'exhumer la stratégie narrative des auteurs bibliques: temporalité du récit, gestion de l'espace, construction des personnages, point de vue du narrateur. Certains des plus grands spécialistes de l'Ancien comme du Nouveau Testament explicitent ici ces texte fondateurs à la lumière de la narratologie.
Resumo:
La Bible est un immense trésor d'histoires racontées. De la Genèse à l'Apocalypse, chaque récit déploie un monde que le lecteur est invité à habiter. Une discipline récente, la narratologie, s'attache à étudier cet art millénaire du « raconter ». Qu'il soit romancier ou écrivain biblique, tout conteur utilise les mêmes outils : il construit une intrigue, il tisse un réseau de personnages, il induit un système de valeurs, il sollicite l'imaginaire du lecteur et le fait voyager dans l'espace et le temps... Sept biblistes présentent ici des « travaux pratiques » d'analyse narrative appliquée à la Bible. Après avoir été invité par Daniel Marguerat à «Entrer dans le monde du récit », le lecteur goûtera la magie du raconter : qu'ils aient été bergers ou érudits, les conteurs bibliques étaient des artistes !
Resumo:
Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.
Resumo:
Le développement de méthodes de mesure de la qualité des soins et les actions visant à son amélioration font partie intégrante de la pratique quotidienne. Les infections nosocomiales représentent un Indicateur Incontournable et leur prévention apparaît comme un champ d'action privilégié du concept de l'amélioration continue de la qualité des soins. Dans ce domaine, de nombreuses mesures ont fait l'objet d'études répondant à des critères méthodologiques de qualité élevée, dont les résultats sont hautement significatifs au plan statistique. Les interventions complexes concernant par exemple l'ensemble des patients d'un service ou d'une institution ne permettent que difficilement de satisfaire à ces exigences méthodologiques. Sous certaines conditions, elle peuvent cependant avoir un impact réel et parfois durable sur la qualité des soins. A titre d'exemple, nous discutons deux interventions complexes dans le domaine de la prévention des infections nosocomiales, résultant de démarches visant à une amélioration globale et durable de la qualité des soins. L'utilisation d'outils épidémiologiques adaptés permet également d'estimer le bénéfice des Interventions en milieu hospitalier conformément à ce que la communauté scientifique reconnaît comme étant une recherche clinique de qualité.
Resumo:
Les virus sont présents dans la plupart des environnements. Grâce aux outils moléculaires, il est maintenant possible de les mettre en évidence facilement, ce qui était difficile auparavant car cela nécessitait une infrastructure relativement complexe (cultures cellulaires ou inoculation à des animaux). En 2002, à l'aide de la métagénomique, une approche expérimentale a permis de montrer la présence de > 5 000 virus différents dans 200 litres d'eau de mer (Breitbart et al., 2002). Tous ces virus étaient essentiellement de nouvelles espèces. Ainsi, les études cherchant à détecter des virus pathogènes dans des échantillons environnementaux se sont multipliées afin de mieux comprendre leurs cycles vitaux, leurs voies de contamination et leur survie dans la nature. L'homme et les animaux contractent des virus essentiellement par ingestion d'eau contaminée ou par voies manuportée et aéroportée. Certains de ces virus (i.e. virus de la grippe aviaire H5N1, SRAS) sont à l'origine de sérieux problèmes de santé publique de par : leur dissémination rapide, leur caractère zoonotique et la difficulté à traiter les personnes atteintes.Les trois articles présentés dans cette note montrent 1) les propriétés de survie étonnantes de l'adénovirus dans les eaux souterraines ; 2) la dynamique saisonnière du norovirus également dans les eaux souterraines et 3) le rôle de la toux dans la dissémination du virus de la grippe. [Auteurs]
Resumo:
Notre étude consiste en une recherche longitudinale pour laquelle une cohorte d'élèves a été suivie depuis la Grande Section de l'école maternelle française (élèves de 5-6 ans) jusqu'au Cours Élémentaire 1re année de l'école élémentaire française (élèves de 7-8 ans) dans des situations ordinaires de classe. À ces niveaux scolaires, l'un des principaux objectifs du curriculum est l'apprentissage de la lecture. Nous considérons que l'élève construit les compétences de lecture à acquérir, i.e. les compétences caractérisant son développement potentiel, en s'appuyant sur les compétences caractérisant son développement actuel (Vygotski, 1934/1997). Lorsqu'il apprend à lire, l'élève a à sa disposition des moyens sémiotiques relatifs à la connaissance des objets et leurs usages, ainsi qu'aux gestes et leur signification (Moro & Rodriguez, 2005), ce que nous appelons globalement la matérialité. En conséquence, dans cette recherche, nous faisons l'hypothèse que ces premières habiletés relatives à la matérialité, constituent une ressource dans les situations d'enseignement- apprentissage de la lecture. Nous réalisons une étude de cas dont le recueil des données, à caractère ethnographique, est constitué de moments de classe enregistrés en vidéo, et ce, quatre fois par année scolaire. Ces douze enregistrements vidéo sont complétés par deux entretiens semi-directifs et un entretien d'auto- confrontation ; ils sont aussi mis en lien avec les Instructions officielles (programmes scolaires). L'analyse est à la fois macrogénétique et microgénétique. Pour chaque observation, concernant l'analyse macrogénétique, nous réalisons le synopsis à partir duquel nous sélectionnons des épisodes significatifs porteurs de matérialité. Les épisodes significatifs sont constitués des événements remarquables dont les analyses microgénétiques nécessitent l'utilisation d'outils, à savoir les tableaux des matérialités et les photogrammes. Notre étude montre que la matérialité permet aux élèves de devenir lecteurs et que les formes de cette matérialité changent en fonction de l'avancée des acquisitions des élèves et des dimensions de la lecture (code et compréhension) à apprendre. - Our research consists of a longitudinal study in which one group of pupils in ordinary classroom situations has been followed from the top level of French pre-elementary school (5- to 6 year-old pupils) to the second level of French primary school (7- to 8 year-old pupils). For these three school grades, one of the main objectives in the curriculum is learning to read. We consider that pupils build their new reading skills, i.e. the skills characterizing their potential development, by relying on skills characterizing their actual development (Vygotski, 1934/1997). When learning to read, pupils yet have at their disposal semiotic abilities related to knowledge both of material objects and their uses, and of basic gestures and their meaning (Moro & Rodriguez, 2005), all of this we sum up under the term of materiality. Consequently, in our research, we make the hypothesis that the children's basic abilities related to materiality constitute a resource in teaching-learning situations. We have chosen to carry out a case study. The data collected consist of videos of class sequences carried out four times a year for three years. These twelve videos are supplemented by two semi- structured interviews with the teacher, one "self-confronting" interview in which the teacher is brought to discuss her actions and by the analysis of the ministry's school curricula. Our analysis is both macrogenetic and microgenetic. For each teaching sequence, on the level of macrogenetic analysis, we have made up the synopsis from which we have selected significant episodes in terms of materiality. The significant episodes are composed of remarkable events the microgenetic analysis of which requires the use of tools such as materiality boards and photograms. Our study shows that materiality enables pupils to develop reading skills and that the forms that materiality takes on change according to the pupils' acquisition progress and the aspects of reading (code and comprehension) still to be learned.
Resumo:
Objectif Le but de cette recherche est d'observer un possible rôle de la gémellité dans la qualité de l'interaction précoce mère-enfant et dans le développement de l'attachement à une année par rapport à des non-jumeaux respectivement prématurés et non prématurés selon l'observation directe selon la description des enfants par leurs mères. Méthode Il s'agit d'une étude longitudinale exploratoire qui vise à comparer les compétences sociales et communicatives de trois populations: prématurés respectivement jumeaux et non- jumeaux ainsi qu'enfants nés à terme non-jumeaux à 4, 6, 12 et 18 mois. Cette recherche est réalisée dans le cadre de deux études prospectives menées au Service Universitaire de Psychiatrie de l'Enfant et de l'Adolescent sur le devenir des grands prématurés. Les outils utilisés sont le CARE-Index qui évalue la qualité de l'interaction mère-enfant, la situation étrange qui détermine le type d'attachement de l'enfant et le Toddler tempérament scale (TTS) qui permet d'apprécier le tempérament de l'enfant tel que perçu par leurs mères. Limites Les deux principales limites de ce travail sont certainement le nombre restreint de sujets observés et le fait que les sujets étudiés proviennent de deux études différentes et soient comparés entre eux. Les questionnaires du TTS remplis par les mères représentent également une limite car peuvent comporter une part de "désirabilité sociale". Résultats Cette étude a permis de retrouver les résultats de certaines théories de base de l'interaction mère-enfant et du processus d'attachement en les appliquant à un groupe de jumeaux prématurés. Nous avons retrouvé des différences significatives dans les résultats du CARE- Index qui suggère que la gémellité influencerait la qualité de l'interaction précoce. Celle-ci ne semble par contre pas empêcher le développement d'un attachement secure à une année.
Resumo:
L'avènement des modèles numériques d'altitude (MNA) de haute résolution améliore considérablement la connaissance du territoire offrant de nouvelles représentations du paysage et de sa morphologie et ouvrant la voie à de nouvelles méthodes d'investigation. Cet article illustre quelques exemples concrets d'utilisation des MNA de haute résolution dans le domaine de la cartographie géologique, de l'analyse structurale et des dangers naturels. Les quelques exemples choisis montrent qu'à l'avenir de telles données devraient faire partie des outils de base de tout spécialiste en géosciences amené à aborder une problématique de terrain. Ces données devraient ainsi permettre d'optimiser la préparation de campagnes de terrain, de mieux formuler des hypothèses de travail et ainsi de faciliter toute approche basée sur le terrain comme la cartographie.