427 resultados para Erreurs conceptuelles
Resumo:
Les acteurs du système judiciaire prennent des décisions à des niveaux différents. La distribution des rôles et des responsabilités se définissent par des procédures et des formes d'organisations qui varient parfois fortement d'une juridiction à l'autre. Ainsi, selon le contexte particulier et la nature de la tâche, le forensicien peut par exemple décider lui-même de cibler la recherche d'indices sur des lieux ou d'effectuer des traitements particuliers sur une trace. Il est susceptible dans d'autres rôles de recommander des pistes d'enquête ou d'évaluer la valeur probante d'un indice au profit d'une autorité judiciaire qui prend les décisions de condamnation. De mauvais choix peuvent aboutir in fine à des erreurs judiciaires. Comme les décisions se prennent sur la base d'informations incertaines et incomplètes, les risques d'erreurs doivent s'évaluer dans des cadres formels bien maîtrisés. L'erreur "acceptable" devient ainsi un thème crucial, surtout lorsque les systèmes automatisés sont susceptibles de prendre certaines décisions, notamment dans le cadre du contrôle de l'identité.
Resumo:
Cet article présente les résultats d'analyses réalisées sur les objets de l'inventaire suisse des géotopes d'importance nationale (état juin 2009). Il s'agit d'une tentative de représenter de manière synthétique et visuelle la répartition spatiale des sites sélectionnés et de mettre en évidence l'influence de certains facteurs sur cette localisation. Un accent particulier est mis sur la vulnérabilité et le degré de protection des géotopes sélectionnés. La portée des analyses est fortement limitée par le caractère descriptif de l'inventaire et par le fait que ce dernier est encore en construction, donc lacunaire. Les résultats consistent essentiellement en des statistiques descriptives présentées sous forme de graphiques et de cartes. Cette exploration visuelle a permis d'identifier plusieurs erreurs de saisie dans l'inventaire. Elle représente également une première étape dans la création d'une application de cartographie interactive sur internet donnant accès aux données de cet inventaire.
Resumo:
Summary : Forensic science - both as a source of and as a remedy for error potentially leading to judicial error - has been studied empirically in this research. A comprehensive literature review, experimental tests on the influence of observational biases in fingermark comparison, and semistructured interviews with heads of forensic science laboratories/units in Switzerland and abroad were the tools used. For the literature review, some of the areas studied are: the quality of forensic science work in general, the complex interaction between science and law, and specific propositions as to error sources not directly related to the interaction between law and science. A list of potential error sources all the way from the crime scene to the writing of the report has been established as well. For the empirical tests, the ACE-V (Analysis, Comparison, Evaluation, and Verification) process of fingermark comparison was selected as an area of special interest for the study of observational biases, due to its heavy reliance on visual observation and recent cases of misidentifications. Results of the tests performed with forensic science students tend to show that decision-making stages are the most vulnerable to stimuli inducing observational biases. For the semi-structured interviews, eleven senior forensic scientists answered questions on several subjects, for example on potential and existing error sources in their work, of the limitations of what can be done with forensic science, and of the possibilities and tools to minimise errors. Training and education to augment the quality of forensic science have been discussed together with possible solutions to minimise the risk of errors in forensic science. In addition, the time that samples of physical evidence are kept has been determined as well. Results tend to show considerable agreement on most subjects among the international participants. Their opinions on possible explanations for the occurrence of such problems and the relative weight of such errors in the three stages of crime scene, laboratory, and report writing, disagree, however, with opinions widely represented in existing literature. Through the present research it was therefore possible to obtain a better view of the interaction of forensic science and judicial error to propose practical recommendations to minimise their occurrence. Résumé : Les sciences forensiques - considérés aussi bien comme source de que comme remède à l'erreur judiciaire - ont été étudiées empiriquement dans cette recherche. Une revue complète de littérature, des tests expérimentaux sur l'influence du biais de l'observation dans l'individualisation de traces digitales et des entretiens semi-directifs avec des responsables de laboratoires et unités de sciences forensiques en Suisse et à l'étranger étaient les outils utilisés. Pour la revue de littérature, quelques éléments étudies comprennent: la qualité du travail en sciences forensiques en général, l'interaction complexe entre la science et le droit, et des propositions spécifiques quant aux sources d'erreur pas directement liées à l'interaction entre droit et science. Une liste des sources potentielles d'erreur tout le long du processus de la scène de crime à la rédaction du rapport a également été établie. Pour les tests empiriques, le processus d'ACE-V (analyse, comparaison, évaluation et vérification) de l'individualisation de traces digitales a été choisi comme un sujet d'intérêt spécial pour l'étude des effets d'observation, due à son fort recours à l'observation visuelle et dû à des cas récents d'identification erronée. Les résultats des tests avec des étudiants tendent à prouver que les étapes de prise de décision sont les plus vulnérables aux stimuli induisant des biais d'observation. Pour les entretiens semi-structurés, onze forensiciens ont répondu à des questions sur des sujets variés, par exemple sur des sources potentielles et existantes d'erreur dans leur travail, des limitations de ce qui peut être fait en sciences forensiques, et des possibilités et des outils pour réduire au minimum ses erreurs. La formation et l'éducation pour augmenter la qualité des sciences forensiques ont été discutées ainsi que les solutions possibles pour réduire au minimum le risque d'erreurs en sciences forensiques. Le temps que des échantillons sont gardés a été également déterminé. En général, les résultats tendent à montrer un grand accord sur la plupart des sujets abordés pour les divers participants internationaux. Leur avis sur des explications possibles pour l'occurrence de tels problèmes et sur le poids relatif de telles erreurs dans les trois étapes scène de crime;', laboratoire et rédaction de rapports est cependant en désaccord avec les avis largement représentés dans la littérature existante. Par cette recherche il était donc possible d'obtenir une meilleure vue de l'interaction des sciences forensiques et de l'erreur judiciaire afin de proposer des recommandations pratiques pour réduire au minimum leur occurrence. Zusammenfassung : Forensische Wissenschaften - als Ursache und als Hilfsmittel gegen Fehler, die möglicherweise zu Justizirrtümern führen könnten - sind hier empirisch erforscht worden. Die eingestzten Methoden waren eine Literaturübersicht, experimentelle Tests über den Einfluss von Beobachtungseffekten (observer bias) in der Individualisierung von Fingerabdrücken und halbstandardisierte Interviews mit Verantwortlichen von kriminalistischen Labors/Diensten in der Schweiz und im Ausland. Der Literaturüberblick umfasst unter anderem: die Qualität der kriminalistischen Arbeit im Allgemeinen, die komplizierte Interaktion zwischen Wissenschaft und Recht und spezifische Fehlerquellen, welche nicht direkt auf der Interaktion von Recht und Wissenschaft beruhen. Eine Liste möglicher Fehlerquellen vom Tatort zum Rapportschreiben ist zudem erstellt worden. Für die empirischen Tests wurde der ACE-V (Analyse, Vergleich, Auswertung und Überprüfung) Prozess in der Fingerabdruck-Individualisierung als speziell interessantes Fachgebiet für die Studie von Beobachtungseffekten gewählt. Gründe sind die Wichtigkeit von visuellen Beobachtungen und kürzliche Fälle von Fehlidentifizierungen. Resultate der Tests, die mit Studenten durchgeführt wurden, neigen dazu Entscheidungsphasen als die anfälligsten für Stimuli aufzuzeigen, die Beobachtungseffekte anregen könnten. Für die halbstandardisierten Interviews beantworteten elf Forensiker Fragen über Themen wie zum Beispiel mögliche und vorhandene Fehlerquellen in ihrer Arbeit, Grenzen der forensischen Wissenschaften und Möglichkeiten und Mittel um Fehler zu verringern. Wie Training und Ausbildung die Qualität der forensischen Wissenschaften verbessern können ist zusammen mit möglichen Lösungen zur Fehlervermeidung im selben Bereich diskutiert worden. Wie lange Beweismitten aufbewahrt werden wurde auch festgehalten. Resultate neigen dazu, für die meisten Themen eine grosse Übereinstimmung zwischen den verschiedenen internationalen Teilnehmern zu zeigen. Ihre Meinungen über mögliche Erklärungen für das Auftreten solcher Probleme und des relativen Gewichts solcher Fehler in den drei Phasen Tatort, Labor und Rapportschreiben gehen jedoch mit den Meinungen, welche in der Literatur vertreten werden auseinander. Durch diese Forschungsarbeit war es folglich möglich, ein besseres Verständnis der Interaktion von forensischen Wissenschaften und Justizirrtümer zu erhalten, um somit praktische Empfehlungen vorzuschlagen, welche diese verringern. Resumen : Esta investigación ha analizado de manera empírica el rol de las ciencias forenses como fuente y como remedio de potenciales errores judiciales. La metodología empleada consistió en una revisión integral de la literatura, en una serie de experimentos sobre la influencia de los sesgos de observación en la individualización de huellas dactilares y en una serie de entrevistas semiestructuradas con jefes de laboratorios o unidades de ciencias forenses en Suiza y en el extranjero. En la revisión de la literatura, algunas de las áreas estudiadas fueron: la calidad del trabajo en ciencias forenses en general, la interacción compleja entre la ciencia y el derecho, así como otras fuentes de error no relacionadas directamente con la interacción entre derecho y ciencia. También se ha establecido una lista exhaustiva de las fuentes potenciales de error desde la llegada a la escena del crimen a la redacción del informe. En el marco de los tests empíricos, al analizar los sesgos de observación dedicamos especial interés al proceso de ACE-V (análisis, comparación, evaluación y verificación) para la individualización de huellas dactilares puesto que este reposa sobre la observación visual y ha originado varios casos recientes de identificaciones erróneas. Los resultados de las experimentaciones realizadas con estudiantes sugieren que las etapas en las que deben tornarse decisiones son las más vulnerables a lös factores que pueden generar sesgos de observación. En el contexto de las entrevistas semi-estructuradas, once científicos forenses de diversos países contestaron preguntas sobre varios temas, incluyendo las fuentes potenciales y existehtes de error en su trabajo, las limitaciones propias a las ciencias forenses, las posibilidades de reducir al mínimo los errores y las herramientas que podrían ser utilizadas para ello. Se han sugerido diversas soluciones para alcanzar este objetivo, incluyendo el entrenamiento y la educación para aumentar la calidad de las ciencias forenses. Además, se ha establecido el periodo de conservación de las muestras judiciales. Los resultados apuntan a un elevado grado de consenso entre los entrevistados en la mayoría de los temas. Sin embargo, sus opiniones sobre las posibles causas de estos errores y su importancia relativa en las tres etapas de la investigación -la escena del crimen, el laboratorio y la redacción de informe- discrepan con las que predominan ampliamente en la literatura actual. De este modo, esta investigación nos ha permitido obtener una mejor imagen de la interacción entre ciencias forenses y errores judiciales, y comenzar a formular una serie de recomendaciones prácticas para reducirlos al minimo.
Resumo:
De nos jours, les tribunaux se basent couramment sur des résultats d'analyses ADN pour étudier le lien potentiel entre du matériel biologique prélevé sur une scène de crime et un suspect. Malheureusement, plusieurs cas d'erreurs de laboratoire ou de manipulation de traces lors de leur collecte ou de leur transport ont été découverts ces dernières années. Dès lors, quelle est la valeur réelle d'un tel rapprochement entre une trace et un suspect ? Faut-il douter de la fiabilité des analyses ADN ? Et si oui, comment maîtriser le risque sans devoir écarter totalement la preuve ? Le praticien peut rencontrer des difficultés avec ces questions car la littérature existante se limite à mentionner le potentiel d'erreur, sans pour autant fournir des pistes sur la façon de gérer concrètement ce problème. L'objet de la présente contribution est d'examiner ces questions à la lumière d'un arrêt récent du Tribunal pénal fédéral. Nous verrons qu'une approche utile consiste à apprécier le risque d'erreur au cas par cas et de manière concrète, plutôt que de réfléchir de façon globale et abstraite.
Resumo:
Problème : Les ambulanciers effectuent souvent des tâches en contexte de division de l'attention. Cette caractéristique du travail peut contribuer à augmenter les risques d'erreurs ou ralentir le déroulement des interventions. Dans les situations d'urgences préhospitalières, cela peut avoir des conséquences dramatiques pour le patient et pour les intervenants. Méthode : Nous avons analysé l'activité réelle de travail d'ambulanciers en contexte d'intervention d'urgences. Notre démarche a impliqué l'accompagnement d'ambulanciers lors d'interventions réelles qu'il nous a été possible de filmer. Les analyses effectuées par une équipe multidisciplinaire ont de plus été complétées et validées par des séances en auto-confrontation. Résultats : Nos analyses ont permis de constater plusieurs exemples de travail en contexte de division de l'attention. De plus, nous avons aussi été en mesure de documenter certaines stratégies mises en oeuvre par ces professionnels afin de diminuer la charge cognitive attribuable à la division de l'attention. Conclusion : Notre étude pilote a permis de mieux comprendre le travail des ambulanciers. Nous avons constaté que la division de l'attention est fréquente et que les professionnels confrontés à cette exigence développent diverses stratégies pour y faire face. Nous avons aussi montré la faisabilité et la pertinence de l'analyse de l'activité réelle de travail lors d'interventions d'urgences préhospitalières. [Auteurs]
Resumo:
Introduction et objectif: Lors d'essais cliniques, le pharmacien est responsable de la préparation et de la dispensation des médicaments à évaluer. Un article récent a toutefois montré que les aspects pharmaceutiques liés au contrôle de la dose administrée in fine étaient souvent mal contrôlés. Il peut exister une différence entre la dose nominale fournie par le certificat d'analyse du fabricant et la dose réellement administrée au sujet, biais qui se reporte en cascade sur l'estimation des paramètres pharmaco¬cinétiques (PK), comme la clairance ou le volume de distribution. Ce travail visait à évaluer les biais entachant la quantité de médicament réellement injectée (iv/sc) aux volontaires d'un essai clinique étudiant la PK et la relation dose-réponse d'un nouveau produit biotechnologique. Méthode: La dose de médicament administrée lors de l'essai clinique (D) a été calculée de la manière suivante: D = C ? V - pertes. La concentration du produit (C; titre nominal du fabricant) a été vérifiée par immuno-essai. Le volume de médicament injecté (V) a été déterminé pour chaque injection par pesée (n=72), en utilisant la masse de la seringue avant et après injection et la densité du produit. Enfin, une analyse in vitro a permis d'évaluer les pertes liées à l'adsorption du produit dans les lignes de perfusion et de choisir le dispositif adéquat in vivo. Résultats: La concentration du médicament s'est révélée proche du titre nominal (96 ± 7%), et a été utilisée comme référence. Le volume injecté était quant à lui entaché d'un biais systématique par rapport à la valeur théorique correspondant à 0.03 mL pour la dose minimale (i.e. 75% du volume à injecter à cette dose). Une analyse complémentaire a montré que cela s'expliquait par une réaspiration partielle de la solution médica-menteuse avant le retrait de la seringue après injection sc, due à l'élasticité du piston. En iv, le biais était par contre provoqué par une réaspiration du soluté de perfusion co-administré. Enfin, la mesure des quantités de médicament récupérées après injection dans le dispositif de perfusion a démontré des pertes minimales par adsorption. Discussion-conclusion: Cette étude confirme l'existence de biais inversement corrélés au volume et à la concentration du médicament administré, pouvant provoquer des erreurs importantes sur les paramètres PK. Ce problème est négligé ou insuffisamment considéré dans les protocoles de Phase I et nécessiterait une planification rigoureuse. Les procédures opératoires devraient attirer l'attention sur ce point crucial.
Resumo:
Executive control refers to a set of abilities enabling us to plan, control and implement our behavior to rapidly and flexibly adapt to environmental requirements. These adaptations notably involve the suppression of intended or ongoing cognitive or motor processes, a skill referred to as "inhibitory control". To implement efficient executive control of behavior, one must monitor our performance following errors to adjust our behavior accordingly. Deficits in inhibitory control have been associated with the emergènce of a wide range of psychiatric disorders, ranging from drug addiction to attention deficit/hyperactivity disorders. Inhibitory control deficits could, however, be remediated- The brain has indeed the amazing possibility to reorganize following training to allow for behavioral improvements. This mechanism is referred to as neural and behavioral plasticity. Here, our aim is to investigate training-induced plasticity in inhibitory control and propose a model of inhibitory control explaining the spatio- temporal brain mechanisms supporting inhibitory control processes and their plasticity. In the two studies entitled "Brain dynamics underlying training-induced improvement in suppressing inappropriate action" (Manuel et al., 2010) and "Training-induced neuroplastic reinforcement óf top-down inhibitory control" (Manuel et al., 2012c), we investigated the neurophysiological and behavioral changes induced by inhibitory control training with two different tasks and populations of healthy participants. We report that different inhibitory control training developed either automatic/bottom-up inhibition in parietal areas or reinforced controlled/top-down inhibitory control in frontal brain regions. We discuss the results of both studies in the light of a model of fronto-basal inhibition processes. In "Spatio-temporal brain dynamics mediating post-error behavioral adjustments" (Manuel et al., 2012a), we investigated how error detection modulates the processing of following stimuli and in turn impact behavior. We showed that during early integration of stimuli, the activity of prefrontal and parietal areas is modulated according to previous performance and impacts the post-error behavioral adjustments. We discuss these results in terms of a shift from an automatic to a controlled form of inhibition induced by the detection of errors, which in turn influenced response speed. In "Inter- and intra-hemispheric dissociations in ideomotor apraxia: a large-scale lesion- symptom mapping study in subacute brain-damaged patients" (Manuel et al., 2012b), we investigated ideomotor apraxia, a deficit in performing pantomime gestures of object use, and identified the anatomical correlates of distinct ideomotor apraxia error types in 150 subacute brain-damaged patients. Our results reveal a left intra-hemispheric dissociation for different pantomime error types, but with an unspecific role for inferior frontal areas. Les fonctions exécutives désignent un ensemble de processus nous permettant de planifier et contrôler notre comportement afin de nous adapter de manière rapide et flexible à l'environnement. L'une des manières de s'adapter consiste à arrêter un processus cognitif ou moteur en cours ; le contrôle de l'inhibition. Afin que le contrôle exécutif soit optimal il est nécessaire d'ajuster notre comportement après avoir fait des erreurs. Les déficits du contrôle de l'inhibition sont à l'origine de divers troubles psychiatriques tels que l'addiction à la drogue ou les déficits d'attention et d'hyperactivité. De tels déficits pourraient être réhabilités. En effet, le cerveau a l'incroyable capacité de se réorganiser après un entraînement et ainsi engendrer des améliorations comportementales. Ce mécanisme s'appelle la plasticité neuronale et comportementale. Ici, notre but èst d'étudier la plasticité du contrôle de l'inhibition après un bref entraînement et de proposer un modèle du contrôle de l'inhibition qui permette d'expliquer les mécanismes cérébraux spatiaux-temporels sous-tendant l'amélioration du contrôle de l'inhibition et de leur plasticité. Dans les deux études intitulées "Brain dynamics underlying training-induced improvement in suppressing inappropriate action" (Manuel et al., 2010) et "Training-induced neuroplastic reinforcement of top-down inhibitory control" (Manuel et al., 2012c), nous nous sommes intéressés aux changements neurophysiologiques et comportementaux liés à un entraînement du contrôle de l'inhibition. Pour ce faire, nous avons étudié l'inhibition à l'aide de deux différentes tâches et deux populations de sujets sains. Nous avons démontré que différents entraînements pouvaient soit développer une inhibition automatique/bottom-up dans les aires pariétales soit renforcer une inhibition contrôlée/top-down dans les aires frontales. Nous discutons ces résultats dans le contexte du modèle fronto-basal du contrôle de l'inhibition. Dans "Spatio-temporal brain dynamics mediating post-error behavioral adjustments" (Manuel et al., 2012a), nous avons investigué comment la détection d'erreurs influençait le traitement du prochain stimulus et comment elle agissait sur le comportement post-erreur. Nous avons montré que pendant l'intégration précoce des stimuli, l'activité des aires préfrontales et pariétales était modulée en fonction de la performance précédente et avait un impact sur les ajustements post-erreur. Nous proposons que la détection d'erreur ait induit un « shift » d'un mode d'inhibition automatique à un mode contrôlé qui a à son tour influencé le temps de réponse. Dans "Inter- and intra-hemispheric dissociations in ideomotor apraxia: a large-scale lesion-symptom mapping study in subacute brain-damaged patients" (Manuel et al., 2012b), nous avons examiné l'apraxie idémotrice, une incapacité à exécuter des gestes d'utilisation d'objets, chez 150 patients cérébro-lésés. Nous avons mis en avant une dissociation intra-hémisphérique pour différents types d'erreurs avec un rôle non spécifique pour les aires frontales inférieures.
Resumo:
THESIS ABSTRACT : Low-temperature thermochronology relies on application of radioisotopic systems whose closure temperatures are below temperatures at which the dated phases are formed. In that sense, the results are interpreted as "cooling ages" in contrast to "formation ages". Owing to the low closure-temperatures, it is possible to reconstruct exhumation and cooling paths of rocks during their residence at shallow levels of the crust, i.e. within first ~10 km of depth. Processes occurring at these shallow depths such as final exhumation, faulting and relief formation are fundamental for evolution of the mountain belts. This thesis aims at reconstructing the tectono-thermal history of the Aar massif in the Central Swiss Alps by means of zircon (U-Th)/He, apatite (U-Th)/He and apatite fission track thermochronology. The strategy involved acquisition of a large number of samples from a wide range of elevations in the deeply incised Lötschen valley and a nearby NEAT tunnel. This unique location allowed to precisely constrain timing, amount and mechanisms of exhumation of the main orographic feature of the Central Alps, evaluate the role of topography on the thermochronological record and test the impact of hydrothermal activity. Samples were collected from altitudes ranging between 650 and 3930 m and were grouped into five vertical profiles on the surface and one horizontal in the tunnel. Where possible, all three radiometric systems were applied to each sample. Zircon (U-Th)/He ages range from 5.1 to 9.4 Ma and are generally positively correlated with altitude. Age-elevation plots reveal a distinct break in slope, which translates into exhumation rate increasing from ~0.4 to ~3 km/Ma at 6 Ma. This acceleration is independently confirmed by increased cooling rates on the order of 100°C/Ma constrained on the basis of age differences between the zircon (U-Th)/He and the remaining systems. Apatite fission track data also plot on a steep age-elevation curve indicating rapid exhumation until the end of the Miocene. The 6 Ma event is interpreted as reflecting tectonically driven uplift of the Aar massif. The late Miocene timing implies that the increase of precipitation in the Pliocene did not trigger rapid exhumation in the Aar massif. The Messinian salinity crisis in the Mediterranean could not directly intensify erosion of the Aar but associated erosional output from the entire Alps may have tapered the orogenic wedge and caused reactivation of thrusting in the Aar massif. The high exhumation rates in the Messinian were followed by a decrease to ~1.3 km/Ma as evidenced by ~8 km of exhumation during last 6 Ma. The slowing of exhumation is also apparent from apatite (U-Th)1He age-elevation data in the northern part of the Lötschen valley where they plot on a ~0.5km/Ma line and range from 2.4 to 6.4 Ma However, from the apatite (U-Th)/He and fission track data from the NEAT tunnel, there is an indication of a perturbation of the record. The apatite ages are youngest under the axis of the valley, in contrast to an expected pattern where they would be youngest in the deepest sections of the tunnel due to heat advection into ridges. The valley however, developed in relatively soft schists while the ridges are built of solid granitoids. In line with hydrological observations from the tunnel, we suggest that the relatively permeable rocks under the valley floor, served as conduits of geothermal fluids that caused reheating leading to partial Helium loss and fission track annealing in apatites. In consequence, apatite ages from the lowermost samples are too young and the calculated exhumation rates may underestimate true values. This study demonstrated that high-density sampling is indispensable to provide meaningful thermochronological data in the Alpine setting. The multi-system approach allows verifying plausibility of the data and highlighting sources of perturbation. RÉSUMÉ DE THÈSE : La thermochronologie de basse température dépend de l'utilisation de systèmes radiométriques dont la température de fermeture est nettement inférieure à la température de cristallisation du minéral. Les résultats obtenus sont par conséquent interprétés comme des âges de refroidissement qui diffèrent des âges de formation obtenus par le biais d'autres systèmes de datation. Grâce aux températures de refroidissement basses, il est aisé de reconstruire les chemins de refroidissement et d'exhumation des roches lors de leur résidence dans la croute superficielle (jusqu'à 10 km). Les processus qui entrent en jeu à ces faibles profondeurs tels que l'exhumation finale, la fracturation et le faillage ainsi que la formation du relief sont fondamentaux dans l'évolution des chaînes de montagne. Ces dernières années, il est devenu clair que l'enregistrement thermochronologique dans les orogènes peut être influencé par le relief et réinitialisé par l'advection de la chaleur liée à la circulation de fluides géothermaux après le refroidissement initial. L'objectif de cette thèse est de reconstruire l'histoire tectono-thermique du massif de l'Aar dans les Alpes suisses Centrales à l'aide de trois thermochronomètres; (U-Th)/He sur zircon, (U-Th)/He sur apatite et les traces de fission sur apatite. Afin d'atteindre cet objectif, nous avons récolté un grand nombre d'échantillons provenant de différentes altitudes dans la vallée fortement incisée de Lötschental ainsi que du tunnel de NEAT. Cette stratégie d'échantillonnage nous a permis de contraindre de manière précise la chronologie, les quantités et les mécanismes d'exhumation de cette zone des Alpes Centrales, d'évaluer le rôle de la topographie sur l'enregistrement thermochronologique et de tester l'impact de l'hydrothermalisme sur les géochronomètres. Les échantillons ont été prélevés à des altitudes comprises entre 650 et 3930m selon 5 profils verticaux en surface et un dans le tunnel. Quand cela à été possible, les trois systèmes radiométriques ont été appliqués aux échantillons. Les âges (U-Th)\He obtenus sur zircons sont compris entre 5.l et 9.4 Ma et sont corrélés de manière positive avec l'altitude. Les graphiques représentant l'âge et l'élévation montrent une nette rupture de la pente qui traduisent un accroissement de la vitesse d'exhumation de 0.4 à 3 km\Ma il y a 6 Ma. Cette accélération de l'exhumation est confirmée par les vitesses de refroidissement de l'ordre de 100°C\Ma obtenus à partir des différents âges sur zircons et à partir des autres systèmes géochronologiques. Les données obtenues par traces de fission sur apatite nous indiquent également une exhumation rapide jusqu'à la fin du Miocène. Nous interprétons cet évènement à 6 Ma comme étant lié à l'uplift tectonique du massif de l'Aar. Le fait que cet évènement soit tardi-miocène implique qu'une augmentation des précipitations au Pliocène n'a pas engendré cette exhumation rapide du massif de l'Aar. La crise Messinienne de la mer méditerranée n'a pas pu avoir une incidence directe sur l'érosion du massif de l'Aar mais l'érosion associée à ce phénomène à pu réduire le coin orogénique alpin et causer la réactivation des chevauchements du massif de l'Aar. L'exhumation rapide Miocène a été suivie pas une diminution des taux d'exhumation lors des derniers 6 Ma (jusqu'à 1.3 km\Ma). Cependant, les âges (U-Th)\He sur apatite ainsi que les traces de fission sur apatite des échantillons du tunnel enregistrent une perturbation de l'enregistrement décrit ci-dessus. Les âges obtenus sur les apatites sont sensiblement plus jeunes sous l'axe de la vallée en comparaison du profil d'âges attendus. En effet, on attendrait des âges plus jeunes sous les parties les plus profondes du tunnel à cause de l'advection de la chaleur dans les flancs de la vallée. La vallée est creusée dans des schistes alors que les flancs de celle-ci sont constitués de granitoïdes plus durs. En accord avec les observations hydrologiques du tunnel, nous suggérons que la perméabilité élevée des roches sous l'axe de la vallée à permi l'infiltration de fluides géothermaux qui a généré un réchauffement des roches. Ce réchauffement aurait donc induit une perte d'Hélium et un recuit des traces de fission dans les apatites. Ceci résulterait en un rajeunissement des âges apatite et en une sous-estimation des vitesses d'exhumation sous l'axe de la vallée. Cette étude à servi à démontrer la nécessité d'un échantillonnage fin et précis afin d'apporter des données thermochronologiques de qualité dans le contexte alpin. Cette approche multi-système nous a permi de contrôler la pertinence des données acquises ainsi que d'identifier les sources possibles d'erreurs lors d'études thermochronologiques. RÉSUMÉ LARGE PUBLIC Lors d'une orogenèse, les roches subissent un cycle comprenant une subduction, de la déformation, du métamorphisme et, finalement, un retour à la surface (ou exhumation). L'exhumation résulte de la déformation au sein de la zone de collision, menant à un raccourcissement et un apaissessement de l'édifice rocheux, qui se traduit par une remontée des roches, création d'une topographie et érosion. Puisque l'érosion agit comme un racloir sur la partie supérieure de l'édifice, des tentatives de corrélation entre les épisodes d'exhumation rapide et les périodes d'érosion intensive, dues aux changements climatiques, ont été effectuées. La connaissance de la chronologie et du lieu précis est d'une importance capitale pour une quelconque reconstruction de l'évolution d'une chaîne de montagne. Ces critères sont donnés par un retraçage des changements de la température de la roche en fonction du temps, nous donnant le taux de refroidissement. L'instant auquel les roches ont refroidit, passant une certaine température, est contraint par l'application de techniques de datation par radiométrie. Ces méthodes reposent sur la désintégration des isotopes radiogéniques, tels que l'uranium et le potassium, tous deux abondants dans les roches de la croûte terrestre. Les produits de cette désintégration ne sont pas retenus dans les minéraux hôtes jusqu'au moment du refroidissement de la roche sous une température appelée 'de fermeture' , spécifique à chaque système de datation. Par exemple, la désintégration radioactive des atomes d'uranium et de thorium produit des atomes d'hélium qui s'échappent d'un cristal de zircon à des températures supérieures à 200°C. En mesurant la teneur en uranium-parent, l'hélium accumulé et en connaissant le taux de désintégration, il est possible de calculer à quel moment la roche échantillonnée est passée sous la température de 200°C. Si le gradient géothermal est connu, les températures de fermeture peuvent être converties en profondeurs actuelles (p. ex. 200°C ≈ 7km), et le taux de refroidissement en taux d'exhumation. De plus, en datant par système radiométrique des échantillons espacés verticalement, il est possible de contraindre directement le taux d'exhumation de la section échantillonnée en observant les différences d'âges entre des échantillons voisins. Dans les Alpes suisses, le massif de l'Aar forme une structure orographique majeure. Avec des altitudes supérieures à 4000m et un relief spectaculaire de plus de 2000m, le massif domine la partie centrale de la chaîne de montagne. Les roches aujourd'hui exposées à la surface ont été enfouies à plus de 10 km de profond il y a 20 Ma, mais la topographie actuelle du massif de l'Aar semble surtout s'être développée par un soulèvement actif depuis quelques millions d'années, c'est-à-dire depuis le Néogène supérieur. Cette période comprend un changement climatique soudain ayant touché l'Europe il y a environ 5 Ma et qui a occasionné de fortes précipitations, entraînant certainement une augmentation de l'érosion et accélérant l'exhumation des Alpes. Dans cette étude, nous avons employé le système de datation (U-TH)/He sur zircon, dont la température de fermeture de 200°C est suffisamment basse pour caractériser l'exhumation du Néogène sup. /Pliocène. Les échantillons proviennent du Lötschental et du tunnel ferroviaire le plus profond du monde (NEAT) situé dans la partie ouest du massif de l'Aar. Considérés dans l'ensemble, ces échantillons se répartissent sur un dénivelé de 3000m et des âges de 5.1 à 9.4 Ma. Les échantillons d'altitude supérieure (et donc plus vieux) documentent un taux d'exhumation de 0.4 km/Ma jusqu'à il y a 6 Ma, alors que les échantillons situés les plus bas ont des âges similaires allant de 6 à 5.4 Ma, donnant un taux jusqu'à 3km /Ma. Ces données montrent une accélération dramatique de l'exhumation du massif de l'Aar il y a 6 Ma. L'exhumation miocène sup. du massif prédate donc le changement climatique Pliocène. Cependant, lors de la crise de salinité d'il y a 6-5.3 Ma (Messinien), le niveau de la mer Méditerranée est descendu de 3km. Un tel abaissement de la surface d'érosion peut avoir accéléré l'exhumation des Alpes, mais le bassin sud alpin était trop loin du massif de l'Aar pour influencer son érosion. Nous arrivons à la conclusion que la datation (U-Th)/He permet de contraindre précisément la chronologie et l'exhumation du massif de l'Aar. Concernant la dualité tectonique-érosion, nous suggérons que, dans le cas du massif de l'Aar, la tectonique prédomine.
Resumo:
Cette contribution se penche sur les initiatives participatives conçues et mises en oeuvre par la Ville de Genève. Elle se compose d'une première partie, retraçant les principales lignes conceptuelles soutenant la démocratie participative; ceci aussi bien dans le domaine des sciences politiques, que dans celui des disciplines psychosociales. La deuxième partie est constituée d'un inventaire et une analyse des principaux processus participatifs s'étant déroulé dans la commune au cours de ces dix dernières années. Leurs caractéristiques et effets sont examinés selon une grille comprenant trois critères : - les résultats substantiels, inhérents à la pertinence des décisions issues des processus participatifs - la promotion de la cohésion et émancipation sociales, obtenues par le biais de dispositifs participatifs - l'ouverture de l'espace politique, au niveau local, que l'on peut attribuer à la poursuite de la participation comme mode d'intervention au sein de la collectivité. L'étude a été effectuée dans le cadre d'un mandat confié à l'étudiante par l'Unité Agenda 21 de la Ville de Genève. Elle servira comme base de travail pour un groupe d'accompagnement chargé de mettre en place des standards et une marche à suivre en matière de participation pour l'ensemble de la commune, conformément aux Engagements d'Aalborg, auxquels la Ville de Genève a adhéré en 2010. Il convient cependant de noter que le choix des données récoltées, ainsi que la critique qui en est présentée, sont de la seule responsabilité de l'autrice.
Resumo:
In vivo dosimetry is a way to verify the radiation dose delivered to the patient in measuring the dose generally during the first fraction of the treatment. It is the only dose delivery control based on a measurement performed during the treatment. In today's radiotherapy practice, the dose delivered to the patient is planned using 3D dose calculation algorithms and volumetric images representing the patient. Due to the high accuracy and precision necessary in radiation treatments, national and international organisations like ICRU and AAPM recommend the use of in vivo dosimetry. It is also mandatory in some countries like France. Various in vivo dosimetry methods have been developed during the past years. These methods are point-, line-, plane- or 3D dose controls. A 3D in vivo dosimetry provides the most information about the dose delivered to the patient, with respect to ID and 2D methods. However, to our knowledge, it is generally not routinely applied to patient treatments yet. The aim of this PhD thesis was to determine whether it is possible to reconstruct the 3D delivered dose using transmitted beam measurements in the context of narrow beams. An iterative dose reconstruction method has been described and implemented. The iterative algorithm includes a simple 3D dose calculation algorithm based on the convolution/superposition principle. The methodology was applied to narrow beams produced by a conventional 6 MV linac. The transmitted dose was measured using an array of ion chambers, as to simulate the linear nature of a tomotherapy detector. We showed that the iterative algorithm converges quickly and reconstructs the dose within a good agreement (at least 3% / 3 mm locally), which is inside the 5% recommended by the ICRU. Moreover it was demonstrated on phantom measurements that the proposed method allows us detecting some set-up errors and interfraction geometry modifications. We also have discussed the limitations of the 3D dose reconstruction for dose delivery error detection. Afterwards, stability tests of the tomotherapy MVCT built-in onboard detector was performed in order to evaluate if such a detector is suitable for 3D in-vivo dosimetry. The detector showed stability on short and long terms comparable to other imaging devices as the EPIDs, also used for in vivo dosimetry. Subsequently, a methodology for the dose reconstruction using the tomotherapy MVCT detector is proposed in the context of static irradiations. This manuscript is composed of two articles and a script providing further information related to this work. In the latter, the first chapter introduces the state-of-the-art of in vivo dosimetry and adaptive radiotherapy, and explains why we are interested in performing 3D dose reconstructions. In chapter 2 a dose calculation algorithm implemented for this work is reviewed with a detailed description of the physical parameters needed for calculating 3D absorbed dose distributions. The tomotherapy MVCT detector used for transit measurements and its characteristics are described in chapter 3. Chapter 4 contains a first article entitled '3D dose reconstruction for narrow beams using ion chamber array measurements', which describes the dose reconstruction method and presents tests of the methodology on phantoms irradiated with 6 MV narrow photon beams. Chapter 5 contains a second article 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations. A dose reconstruction process specific to the use of the tomotherapy MVCT detector is presented in chapter 6. A discussion and perspectives of the PhD thesis are presented in chapter 7, followed by a conclusion in chapter 8. The tomotherapy treatment device is described in appendix 1 and an overview of 3D conformai- and intensity modulated radiotherapy is presented in appendix 2. - La dosimétrie in vivo est une technique utilisée pour vérifier la dose délivrée au patient en faisant une mesure, généralement pendant la première séance du traitement. Il s'agit de la seule technique de contrôle de la dose délivrée basée sur une mesure réalisée durant l'irradiation du patient. La dose au patient est calculée au moyen d'algorithmes 3D utilisant des images volumétriques du patient. En raison de la haute précision nécessaire lors des traitements de radiothérapie, des organismes nationaux et internationaux tels que l'ICRU et l'AAPM recommandent l'utilisation de la dosimétrie in vivo, qui est devenue obligatoire dans certains pays dont la France. Diverses méthodes de dosimétrie in vivo existent. Elles peuvent être classées en dosimétrie ponctuelle, planaire ou tridimensionnelle. La dosimétrie 3D est celle qui fournit le plus d'information sur la dose délivrée. Cependant, à notre connaissance, elle n'est généralement pas appliquée dans la routine clinique. Le but de cette recherche était de déterminer s'il est possible de reconstruire la dose 3D délivrée en se basant sur des mesures de la dose transmise, dans le contexte des faisceaux étroits. Une méthode itérative de reconstruction de la dose a été décrite et implémentée. L'algorithme itératif contient un algorithme simple basé sur le principe de convolution/superposition pour le calcul de la dose. La dose transmise a été mesurée à l'aide d'une série de chambres à ionisations alignées afin de simuler la nature linéaire du détecteur de la tomothérapie. Nous avons montré que l'algorithme itératif converge rapidement et qu'il permet de reconstruire la dose délivrée avec une bonne précision (au moins 3 % localement / 3 mm). De plus, nous avons démontré que cette méthode permet de détecter certaines erreurs de positionnement du patient, ainsi que des modifications géométriques qui peuvent subvenir entre les séances de traitement. Nous avons discuté les limites de cette méthode pour la détection de certaines erreurs d'irradiation. Par la suite, des tests de stabilité du détecteur MVCT intégré à la tomothérapie ont été effectués, dans le but de déterminer si ce dernier peut être utilisé pour la dosimétrie in vivo. Ce détecteur a démontré une stabilité à court et à long terme comparable à d'autres détecteurs tels que les EPIDs également utilisés pour l'imagerie et la dosimétrie in vivo. Pour finir, une adaptation de la méthode de reconstruction de la dose a été proposée afin de pouvoir l'implémenter sur une installation de tomothérapie. Ce manuscrit est composé de deux articles et d'un script contenant des informations supplémentaires sur ce travail. Dans ce dernier, le premier chapitre introduit l'état de l'art de la dosimétrie in vivo et de la radiothérapie adaptative, et explique pourquoi nous nous intéressons à la reconstruction 3D de la dose délivrée. Dans le chapitre 2, l'algorithme 3D de calcul de dose implémenté pour ce travail est décrit, ainsi que les paramètres physiques principaux nécessaires pour le calcul de dose. Les caractéristiques du détecteur MVCT de la tomothérapie utilisé pour les mesures de transit sont décrites dans le chapitre 3. Le chapitre 4 contient un premier article intitulé '3D dose reconstruction for narrow beams using ion chamber array measurements', qui décrit la méthode de reconstruction et présente des tests de la méthodologie sur des fantômes irradiés avec des faisceaux étroits. Le chapitre 5 contient un second article intitulé 'Stability of the Helical TomoTherapy HiArt II detector for treatment beam irradiations'. Un procédé de reconstruction de la dose spécifique pour l'utilisation du détecteur MVCT de la tomothérapie est présenté au chapitre 6. Une discussion et les perspectives de la thèse de doctorat sont présentées au chapitre 7, suivies par une conclusion au chapitre 8. Le concept de la tomothérapie est exposé dans l'annexe 1. Pour finir, la radiothérapie «informationnelle 3D et la radiothérapie par modulation d'intensité sont présentées dans l'annexe 2.
Resumo:
Contre les erreurs du bouddhisme. Par Xu Guang qi, de Wu song. 16 feuillets (8 sections). Catalogus librorum 22 (Bi wang).
Resumo:
Objectif : La prise en charge des patients avec hyperglycémie en soins aigus estdifficile et les erreurs de prescription d'insuline sont fréquentes. Notre objectifest de promouvoir l'évolution des pratiques vers une gestion efficace et sécuritairede l'hyperglycémie.Matériels et méthodes : Création d'un programme de formation structuré pourla gestion de l'hyperglycémie en soins aigus. Ce programme est le produit dumétissage entre le modèle de l'accompagnement thérapeutique et la systémiquedu management. Il vise l'acquisition d'une métacognition pour une réflexiontransversale face à l'hyperglycémie. Les objectifs spécifiques sont : comprendreles particularités de l'hyperglycémie en aigu ; gérer le basal/bolus ; argumenterle choix thérapeutique ; s'approprier l'outil sécuritaire d'aide à l'insulinothérapie ;anticiper la sortie du patient. Une analyse mixte a été effectuée : quantitative,glycémies, hypoglycémies, durée de séjour et qualitative, évolution de la réflexionautour de l'hyperglycémie.Résultats : Nov. 2009-2010, dans le Service de Médecine du CHUV, nous avonsdispensé 3 sessions de formation (15 cours), suivies d'une période de coaching,pour 78 internes. Évaluation quantitative : 85 patients (56,4 % H), âge moyen72,7 ± 9,6 ans, glycémies à J3 dans la cible (4-8,5 mmol/l) 44,6 %, glycémiemoyenne 8,5 ± 1,8 mmol/l, hypoglycémies 0,9 %, durée moyenne de séjour9,7 ± 5,4 J. Évaluation qualitative : choix du schéma thérapeutique pertinentdans la majorité des cas, environ 90 % des internes ont intégré les éléments depondération de l'insulinothérapie, estiment que cette formation a eu un impactpositif sur leur gestion, sont plus confiants dans leurs capacités et ont unmeilleur sentiment d'auto-efficacité. Les modalités pédagogiques adoptées ontfavorisé le transfert des compétences et le niveau de satisfaction globale atteint90 %.Conclusion : Le développement d'un programme de formation des soignants,basé sur l'approche réflexive et participative, permet une amélioration importantede la gestion de l'hyperglycémie. Notre projet s'inscrit dans une démarcheglobale visant à doter les bénéficiaires d'une vision systémique du diabète.
Resumo:
Objectifs : Présenter des cas cliniques d'imagerie d'urgences en imagerie abdominale. Détailler le raisonnement qui conduit à la liste des hypothèses et comment le diagnostic final peut être retenu. Définir en quoi ces dossiers sont intéressants, soit du fait de leur présentation caractéristique, soit en raison de leur caractère inhabituel mais pas exceptionnel, soit parce qu'ils ont conduit à des erreurs d'interprétation lorsqu'ils se sont présentés.
Resumo:
Messages à retenir: Les séquences de ciné MR sont utiles pour rechercher une bicuspidie. Les séquences en contraste de phase permettent de mesurer les vitesses et flux transvalvulaires. La fraction de régurgitation est corrélée à la sévérité de l'insuffisance aortique. Une planimétrie peut être effectuée sur les séquences de ciné MR ou de flux. Résumé: L'étude de la valve aortique en IRM nécessite un placement rigoureux des plans de coupes à partir de 2 incidences orthogonales passant par la chambre de chasse. Les séquences de ciné IRM permettent une analyse dynamique de l'ouverture de la valve et sont utiles pour rechercher une bicuspidie et une dilatation de l'aorte. Leur sensibilité au flux turbulents est relativement faible vu leur TE court, à l'inverse des séquences en écho de gradient à TE long. Les séquences de ciné MR permettent également de calculer les volumes ventriculaires gauches et la fraction d'éjection, paramètres importants dans le traitement. Les séquences en contraste permettent de mesurer la vitesse trans-valvulaire et de calculer le volume éjecté dans l'aorte et le volume régurgité dans le ventricule gauche. Elles peuvent être réalisées dans le plan du flux ou au travers du plan. Il est important de régler correctement la vitesse de codage maximale afin d'éviter des erreurs de codage de vitesse (phénomène d'"aliasing"). Dans le cadre d'une insuffisance aortique, le ratio volume régurgité / volume éjecté, appelé fraction de régurgitation, est relié à la sévérité de la valvulopathie. L'IRM peut également permettre de réaliser une planimétrie de l'orifice valvulaire aortique.
Resumo:
Em S.Tomé e Príncipe a língua portuguesa foi instituída como língua oficial após a proclamação da Independência a 12 de Julho de 1975. Esta língua, porém, vive em regime de coabitação com outros sistemas nacionais: o Forro, o Lunga Ngola, o Lunguyé e o Crioulo de Cabo Verde. Do contacto resultam as inevitáveis interferências que têm conferido à situação linguística são-tomense uma especificidade muito particular: é que a grande maioria da população estudantil tem como língua materna um sistema que se situa num continuum linguístico entre o Crioulo e o Português cuja norma é a do europeu e que à falta de uma designação mais adequada, à semelhança de Fernanda Pontífice, apelidaremos de falar são-tomense. Tal facto tem constituído um sério problema no processo de ensino/aprendizagem da língua portuguesa no país. Dada esta situação, por imperativos pedagógicos, a implementação de métodos e técnicas de ensino adequados se tornam indispensáveis. Impõem-se, pois, a premência e a necessidade de estudos e pesquisas sobre este falar para que se possa encontrar um quadro de intervenção pedagógica que melhor se adeque a essa especificidade. Impõe-se um estudo sobre as interferências, impõe-se que os professores possam dispor de informação e formação que lhes permitam distinguir nas produções dos seus alunos o que são desvios, portanto o que é tolerável, e como tal pode ser aceite como marca específica da identidade linguística do sujeito falante e o que são erros e enquanto tais, têm de ser corrigidos. Conscientes da necessidade e da importância do estudo desta problemática, desenvolvemos o presente trabalho com o objectivo de sensibilizar os diversos sectores e entidades para a necessidade de se desenvolver a investigação e trabalhos de pesquisa linguística e se dotarem os professores e agentes educativos de formação adequada. Só assim estes estarão em condições de responder às exigências que nestas circunstâncias o ensino-aprendizagem da língua oficial impõe.