77 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation
Resumo:
Le Vallon de Nant, situé dans les Alpes vaudoises, attire depuis longtemps les naturalistes et scientifiques. Il a été classé comme réserve naturelle en 1969. Les premières Journées de la biodiversité en Romandie y ont été organisées les 5 et 6 juillet 2008 afin d'améliorer la connaissance des espèces vivant dans le Vallon de Nant, avant l'établissement d'un plan de gestion de la réserve naturelle. Une cinquantaine de scientifiques ont participé à cet inventaire de la faune et de la flore. Ce chapitre présente une introduction au climat et à la géologie du Vallon de Nant ainsi que les différents milieux naturels présents. Il est complété par une description des méthodes utilisées durant les Journées de la biodiversité, en particulier la définition des placettes de référence établies pour concentrer les inventaires de différents groupes taxonomiques dans un même lieu et pour permettre un suivi dans le temps. Le chapitre se termine par une brève présentation du contenu des chapitres suivants et des perspectives pour les futures Journées de la biodiversité dans le Canton de Vaud.
Resumo:
Background: The SNARE (Soluble N-ethylmaleimide-sensitive factor Attachment protein Receptors) and SM (Sec1/Munc18) family of proteins form the core machinery that drives the fusion of vesicles in different membrane trafficking steps. They are highly conserved, implying a similar mode of binding and function. In vertebrates, Munc18a is essential for neuronal exocytosis. It binds to its partner syntaxin1a (Syx1a) at both its N-peptide and closed conformation, and thereby inhibits SNARE complex formation in vitro. By contrast, its close homolog Munc18c is thought to interact with only the N-peptide of its partner Syx4. Moreover, different effects of Munc18c on SNARE complex formation have been reported, suggesting that the two Munc18/Syx pairs act differently. Objective: The aim of the present study was to investigate whether the mechanism of action of Munc18c indeed deviates from that of Munc18a by using sensitive biochemical and biophysical methods. Results: I found that Munc18c does have a similar binding mode as Munc18a and interacts tightly with Syx4 at both the N-peptide and closed conformation. Moreover, I established, through a novel assay, that Munc18c inhibits SNARE complex assembly, with both the binding sites contributing to inhibition, similar to Munc18a. However, there were several subtle differences between the two Munc18/Syx pairs. Munc18a exerted stronger inhibition than Munc18c. Also their respective Syx partners were found to differ in the rate of binding to SNAP25, suggesting that the equilibrium of their open and closed conformations is different. Moreover, Munc18a was found to interact with Syx 1, 2, 3 but not 4, while Munc18c bound to Syx 2, 4 and 1 but not 3. By comparing the kinetics of interaction of Syx with either Munc18 or SNAP25, I found that the block of SNARE complex assembly by Munc18 is effective on a shorter time scale, but SNAP25 eventually binds to Syx resulting in SNARE complex formation. Nevertheless, these findings do not explain how Syx can escape the tight grip of Munc18, suggesting that other proteins or mechanisms are needed for this step. I also discovered that Munc18 is able to bind on the surface of the SNARE core complex; however, this observation needs to be tested more rigorously. Conclusion: Munc18c was found to be similar to Munc18a in its mode of binding to Syx and inhibition of SNARE complex assembly. However, differences in kinetics and interaction specificities were observed between the different Munc18/Syx pairs. -- Contexte : Les familles des protéines SNARE (Soluble N-ethylmaleimide-sensitive factor At- tachment protein Receptors) et SM (Sec1/Munc18) forment le coeur de la machinerie chargée de la fusion vésiculaire au cours des différentes étapes du trafic intracellulaire. Elles sont très conservées, suggérant un mode d'interaction et des fonctions semblables. Chez les Verté- brés, Munc18a est essentielle à l'exocytose neuronale. Elle se lie à sa partenaire d'interaction syntaxin1a (Syx1a) à la fois via un peptide N-terminal et la conformation fermée de celle-ci, inhibant ainsi la formation du complexe SNARE in vitro. Son homologue proche Munc18c au contraire, est supposée interagir seulement avec le peptide N-terminal de sa partenaire Syx4. En outre, différents effets de Munc18c sur la formation du complexe SNARE ont été décrits, suggérant que les deux paires Munc18/Syx fonctionnent différemment. Objectif : Le but de cette étude est de tester si les mécanismes de fonctionnement de Munc18c diffèrent vraiment de ceux de Munc18a par le biais de méthodes biochimiques et biophysiques très précises. Résultats : J'ai pu démontrer que Munc18c se comporte en effet de façon semblable à Munc18a, et interagit étroitement avec Syx4 à ses deux sites de liaison. J'ai pu de surcroît montrer par une nouvelle méthode que Munc18c inhibe l'assemblage du complexe SNARE en impliquant ces deux sites de liaison, comme le fait Munc18a. il existe cependant de subtiles différences entre les deux paires Munc18/Syx : Munc18a exerce une inhibition plus forte que Munc18c ; leurs Syx partenaires diffèrent également dans leur degré de liaison à SNAP25, ce qui suggère un équilibre different de leurs conformations ouverte et fermée. De plus, Munc18a interagit avec Syx 1, 2 et 3 mais pas Syx 4, alors que Munc18c se lie à Syx 2, 4 et 1 mais pas Syx 3. En comparant les cinétiques d'interaction de Syx avec Munc18 ou SNAP25, j'ai découvert que le blocage par Munc18 de l'assemblage du complexe SNARE est effectif de façon brève, bien que SNAP25 finisse par se lier à Syx et aboutir ainsi à la formation du complexe SNARE. Ces découvertes n'expliquent cependant pas comment Syx parvient à échapper à la solide emprise de Munc18, et suggèrent ainsi l'intervention nécessaire d'autres protéines ou mécanismes à cette étape. J'ai également découvert que Munc18 peut se lier à la surface de la partie centrale du complexe SNARE - cette observation reste à être testée de façon plus stringente. Conclusion : Il a pu être établi que Munc18c est semblable à Munc18a quant à son mode de liaison à Syx et d'inhibition de l'assemblage du complexe SNARE. Des différences de cinétique et de spécificité d'interaction entre les diverses paires Munc18/Syx ont cependant été identifiées.
Resumo:
Data mining can be defined as the extraction of previously unknown and potentially useful information from large datasets. The main principle is to devise computer programs that run through databases and automatically seek deterministic patterns. It is applied in different fields of application, e.g., remote sensing, biometry, speech recognition, but has seldom been applied to forensic case data. The intrinsic difficulty related to the use of such data lies in its heterogeneity, which comes from the many different sources of information. The aim of this study is to highlight potential uses of pattern recognition that would provide relevant results from a criminal intelligence point of view. The role of data mining within a global crime analysis methodology is to detect all types of structures in a dataset. Once filtered and interpreted, those structures can point to previously unseen criminal activities. The interpretation of patterns for intelligence purposes is the final stage of the process. It allows the researcher to validate the whole methodology and to refine each step if necessary. An application to cutting agents found in illicit drug seizures was performed. A combinatorial approach was done, using the presence and the absence of products. Methods coming from the graph theory field were used to extract patterns in data constituted by links between products and place and date of seizure. A data mining process completed using graphing techniques is called ``graph mining''. Patterns were detected that had to be interpreted and compared with preliminary knowledge to establish their relevancy. The illicit drug profiling process is actually an intelligence process that uses preliminary illicit drug classes to classify new samples. Methods proposed in this study could be used \textit{a priori} to compare structures from preliminary and post-detection patterns. This new knowledge of a repeated structure may provide valuable complementary information to profiling and become a source of intelligence.
Resumo:
Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.
Resumo:
La simulation sous ses différentes formes est devenue un outil incontournable dans la formation des professionnels de la santé. Il n'en demeure pas moins que la simulation intervient dans un environnement complexe où le comportement humain est une variable essentielle. Dans ce contexte, la recherche en simulation est indispensable : elle doit produire des connaissances qui nous permettent de mieux comprendre l'apprentissage par la simulation. Pour atteindre cet objectif, la recherche en simulation doit être aussi rigoureuse que toute recherche clinique, afin qu'elle puisse produire des connaissances de qualité. De par la complexité de l'environnement simulé, la recherche dans ce domaine est riche et recourt à des méthodes variées issues des sciences du comportement, de l'éducation et plus largement des sciences sociales.
Resumo:
Les études de cas en psychothérapie connaissent une phase de renouveau auprès des chercheurs en psychothérapie et des psychothérapeutes. L'auteur discute de deux paradigmes qui ont grandement influencé ce nouvel intérêt : le paradigme pragmatique et le paradigme qui vise la construction d'une théorie. L'article présente les origines, les développements et les concepts clés des deux paradigmes et leurs spécificités méthodologiques et éthiques. Des exemples d'études de cas ou de modèles au sein des paradigmes sont évoqués. L'influence différentielle des courants postmodernes sur les deux paradigmes, et leurs apports respectifs dans le champ des méthodes d'études de cas, sont discutés et évalués par rapport aux implications pour le chercheur et le psychothérapeute.
Resumo:
This work is focused on the development of a methodology for the use of chemical characteristic of tire traces to help answer the following question: "Is the offending tire at the origin of the trace found on the crime scene?". This methodology goes from the trace sampling on the road to statistical analysis of its chemical characteristics. Knowledge about the composition and manufacture of tread tires as well as a review of instrumental techniques used for the analysis of polymeric materials were studied to select, as an ansi vi cal technique for this research, pyrolysis coupled to a gas Chromatograph with a mass spectrometry detector (Py-GC/MS). An analytical method was developed and optimized to obtain the lowest variability between replicates of the same sample. Within-variability of the tread was evaluated regarding width and circumference with several samples taken from twelve tires of different brands and/or models. The variability within each of the treads (within-variability) and between the treads (between-variability) could be quantified. Different statistical methods have shown that within-variability is lower than between-variability, which helped differentiate these tires. Ten tire traces were produced with tires of different brands and/or models by braking tests. These traces have been adequately sampled using sheets of gelatine. Particles of each trace were analysed using the same methodology as for the tires at their origin. The general chemical profile of a trace or of a tire has been characterized by eighty-six compounds. Based on a statistical comparison of the chemical profiles obtained, it has been shown that a tire trace is not differentiable from the tire at its origin but is generally differentiable from tires that are not at its origin. Thereafter, a sample containing sixty tires was analysed to assess the discrimination potential of the developed methodology. The statistical results showed that most of the tires of different brands and models are differentiable. However, tires of the same brand and model with identical characteristics, such as country of manufacture, size and DOT number, are not differentiable. A model, based on a likelihood ratio approach, was chosen to evaluate the results of the comparisons between the chemical profiles of the traces and tires. The methodology developed was finally blindly tested using three simulated scenarios. Each scenario involved a trace of an unknown tire as well as two tires possibly at its origin. The correct results for the three scenarios were used to validate the developed methodology. The different steps of this work were useful to collect the required information to test and validate the underlying assumption that it is possible to help determine if an offending tire » or is not at the origin of a trace, by means of a statistical comparison of their chemical profile. This aid was formalized by a measure of the probative value of the evidence, which is represented by the chemical profile of the trace of the tire. - Ce travail s'est proposé de développer une méthodologie pour l'exploitation des caractéristiques chimiques des traces de pneumatiques dans le but d'aider à répondre à la question suivante : «Est-ce que le pneumatique incriminé est ou n'est pas à l'origine de la trace relevée sur les lieux ? ». Cette méthodologie s'est intéressée du prélèvement de la trace de pneumatique sur la chaussée à l'exploitation statistique de ses caractéristiques chimiques. L'acquisition de connaissances sur la composition et la fabrication de la bande de roulement des pneumatiques ainsi que la revue de techniques instrumentales utilisées pour l'analyse de matériaux polymériques ont permis de choisir, comme technique analytique pour la présente recherche, la pyrolyse couplée à un chromatographe en phase gazeuse avec un détecteur de spectrométrie de masse (Py-GC/MS). Une méthode analytique a été développée et optimisée afin d'obtenir la plus faible variabilité entre les réplicas d'un même échantillon. L'évaluation de l'intravariabilité de la bande de roulement a été entreprise dans sa largeur et sa circonférence à l'aide de plusieurs prélèvements effectués sur douze pneumatiques de marques et/ou modèles différents. La variabilité au sein de chacune des bandes de roulement (intravariabilité) ainsi qu'entre les bandes de roulement considérées (intervariabilité) a pu être quantifiée. Les différentes méthodes statistiques appliquées ont montré que l'intravariabilité est plus faible que l'intervariabilité, ce qui a permis de différencier ces pneumatiques. Dix traces de pneumatiques ont été produites à l'aide de pneumatiques de marques et/ou modèles différents en effectuant des tests de freinage. Ces traces ont pu être adéquatement prélevées à l'aide de feuilles de gélatine. Des particules de chaque trace ont été analysées selon la même méthodologie que pour les pneumatiques à leur origine. Le profil chimique général d'une trace de pneumatique ou d'un pneumatique a été caractérisé à l'aide de huitante-six composés. Sur la base de la comparaison statistique des profils chimiques obtenus, il a pu être montré qu'une trace de pneumatique n'est pas différenciable du pneumatique à son origine mais est, généralement, différenciable des pneumatiques qui ne sont pas à son origine. Par la suite, un échantillonnage comprenant soixante pneumatiques a été analysé afin d'évaluer le potentiel de discrimination de la méthodologie développée. Les méthodes statistiques appliquées ont mis en évidence que des pneumatiques de marques et modèles différents sont, majoritairement, différenciables entre eux. La méthodologie développée présente ainsi un bon potentiel de discrimination. Toutefois, des pneumatiques de la même marque et du même modèle qui présentent des caractéristiques PTD (i.e. pays de fabrication, taille et numéro DOT) identiques ne sont pas différenciables. Un modèle d'évaluation, basé sur une approche dite du likelihood ratio, a été adopté pour apporter une signification au résultat des comparaisons entre les profils chimiques des traces et des pneumatiques. La méthodologie mise en place a finalement été testée à l'aveugle à l'aide de la simulation de trois scénarios. Chaque scénario impliquait une trace de pneumatique inconnue et deux pneumatiques suspectés d'être à l'origine de cette trace. Les résultats corrects obtenus pour les trois scénarios ont permis de valider la méthodologie développée. Les différentes étapes de ce travail ont permis d'acquérir les informations nécessaires au test et à la validation de l'hypothèse fondamentale selon laquelle il est possible d'aider à déterminer si un pneumatique incriminé est ou n'est pas à l'origine d'une trace, par le biais d'une comparaison statistique de leur profil chimique. Cette aide a été formalisée par une mesure de la force probante de l'indice, qui est représenté par le profil chimique de la trace de pneumatique.
Resumo:
Objectifs: Optimiser la visualisation du plexus brachial dans le cadre d'un examen par résonance magnétique (IRM), avec prise en compte des paramètres techniques. Matériels et méthodes: L'IRM est devenue la technique de choix pour explorer le plexus brachial en raison de ses capacités techniques (rapport signal/bruit, contraste). Pour cela, nousavons optimisé d'une part des séquences de routine et d'autre part des séquences 3D, dans le but de différencier les structures nerveuses et les tissusenvironnants. Une analyse technique des examens sera réalisée sur la base d'un échantillon de patients de morphotypes variés. Résultats: La morphologie de la région étudiée, différente d'un patient à l'autre, influence la qualité de l'examen. Effectivement, l'épaisseur de tissu (graisseux oumusculaire) présent au niveau du plexus brachial et plus particulièrement celle qui sépare l'air ambiant de l'air présent dans les poumons , demande certainsajustements techniques tels que : shimming, plan d'acquisition et reconstruction issue des séquences 3D. Conclusion: Dans le cadre de cet examen peu fréquent, le manipulateur joue un rôle important tant par les ajustements techniques que par ses connaissances anatomiques,afin de produire une imagerie du plexus brachial de haute précision et de grande qualité.
Resumo:
Le travail policier et l'enquête judiciaire nécessitent de prendre de nombreuses décisions : choisir quelle trace analyser, mettre sous surveillance ou en détention un suspect, sont autant de décisions qui sont prises quotidiennement par les acteurs du système judiciaire. Ces décisions font l'objet de pesées d'intérêts qui se fondent sur l'analyse de l'information accessible. C'est le rôle de l'analyse criminelle de mettre en perspective l'information colligée pour la rendre intelligible aux décideurs compétents. L'usage de représentations graphiques est notamment recommandé pour soutenir l'analyse et la communication de ces informations.Des techniques de visualisation relationnelle sont notamment exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés sous la forme de schémas décrivant les relations entre les événements et les entités d'intérêts (tel que des personnes, des objets et des traces). Les exploitations classiques de ces techniques qui s'apparentent à des graphes, sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier, voire soutenir une argumentation lors du procès.La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Leur utilisation semble néanmoins soulever des difficultés. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Ce constat révèle la nécessité de consolider les méthodes pratiquées.Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence d'un consensus émergeant sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés.Au cours des vingt dernières années, plusieurs axes de développement ont été proposés pour traiter les difficultés observées, tels que l'amélioration des automatismes facilitant la conception d'une représentation, l'exploitation des techniques de réseaux sociaux, l'automatisation de l'identification et de l'extraction des entités dans du texte non-structuré et la définition de langages formels. Cette recherche propose une approche parallèle fondée sur une exploitation adaptée de structures de graphe et de propriétés visuelles pour optimiser la représentation en fonction des objectifs définis et de la nature des informations à représenter.Des solutions ont été recherchées selon plusieurs axes. Des recommandations générales, issues de diverses communautés de recherche liées à la visualisation, ont été recherchées afin de proposer une démarche générale de conception des schémas relationnels. Par ailleurs, le développement d'un catalogue de bonnes pratiques formalisées sous la forme de patterns de visualisation a été amorcé. Chaque pattern décrit une solution particulière pour un problème d'analyse récurrent, tel que l'analyse d'une série de cambriolages. Finalement, l'impact sur les outils de la méthodologie proposée est discuté en regard des limites qu'ils imposent. Un prototype de visualisation multidimensionnel a été élaboré.Cette recherche met en évidence les difficultés rencontrées lors de l'exploitation de représentations graphiques pour soutenir le processus de l'enquête judiciaire et propose des éléments de méthode et des innovations techniques utiles tant pour l'enseignement de la discipline que pour sa pratique.
Resumo:
Introduction : Le syndrome de Brugada, décrit en 1992 par Pedro et Josep Brugada, est un syndrome cardiaque caractérisé par un sus-décalage particulier du segment ST associé à un bloc de branche droit atypique au niveau des dérivations ECG V1 à V3. Les altérations ECG du syndrome de Brugada sont classifiées en 3 types dont seul le type 1 est diagnostique. Les mécanismes physiopathologiques exacts de ce syndrome sont pour le moment encore controversés. Plusieurs hypothèses sont proposées dans la littérature dont deux principales retiennent l'attention : 1) le modèle du trouble de repolarisation stipule des potentiels d'action réduits en durée et en amplitude liés à un changement de répartition de canaux potassiques 2) le modèle du trouble de dépolarisation spécifie un retard de conduction se traduisant par une dépolarisation retardée. Dans le STEMI, un sus-décalage ST ressemblant à celui du syndrome de Brugada est expliqué par deux théories : 1) le courant de lésion diastolique suggère une élévation du potentiel diastolique transformé artificiellement en sus-décalage ST par les filtres utilisés dans tous les appareils ECG.¦Objectif : Recréer les manifestations ECG du syndrome de Brugada en appliquant les modifications du potentiel d'action des cardiomyocytes rapportées dans la littérature.¦Méthode : Pour ce travail, nous avons utilisé "ECGsim", un simulateur informatique réaliste d'ECG disponible gratuitement sur www.ecgsim.org. Ce programme est basé sur une reconstruction de l'ECG de surface à l'aide de 1500 noeuds représentant chacun les potentiels d'action des ventricules droit et gauche, épicardiques et endocardiques. L'ECG simulé peut être donc vu comme l'intégration de l'ensemble de ces potentiels d'action en tenant compte des propriétés de conductivité des tissus s'interposant entre les électrodes de surface et le coeur. Dans ce programme, nous avons définit trois zones, de taille différente, comprenant la chambre de chasse du ventricule droit. Pour chaque zone, nous avons reproduit les modifications des potentiels d'action citées dans les modèles du trouble de repolarisation et de dépolarisation et des théories de courant de lésion systolique et diastolique. Nous avons utilisé, en plus des douze dérivations habituelles, une électrode positionnée en V2IC3 (i.e. 3ème espace intercostal) sur le thorax virtuel du programme ECGsim.¦Résultats : Pour des raisons techniques, le modèle du trouble de repolarisation n'a pas pu être entièrement réalisée dans ce travail. Le modèle du trouble de dépolarisation ne reproduit pas d'altération de type Brugada mais un bloc de branche droit plus ou moins complet. Le courant de lésion diastolique permet d'obtenir un sus-décalage ST en augmentant le potentiel diastolique épicardique des cardiomyocytes de la chambre de chasse du ventricule droit. Une inversion de l'onde T apparaît lorsque la durée du potentiel d'action est prolongée. L'amplitude du sus-décalage ST dépend de la valeur du potentiel diastolique, de la taille de la lésion et de sa localisation épicardique ou transmurale. Le courant de lésion systolique n'entraîne pas de sus-décalage ST mais accentue l'amplitude de l'onde T.¦Discussion et conclusion : Dans ce travail, l'élévation du potentiel diastolique avec un prolongement de la durée du potentiel d'action est la combinaison qui reproduit le mieux les altérations ECG du Brugada. Une persistance de cellules de type nodal au niveau de la chambre de chasse du ventricule droit pourrait être une explication à ces modifications particulières du potentiel d'action. Le risque d'arythmie dans la Brugada pourrait également être expliqué par une automaticité anormale des cellules de type nodal. Ainsi, des altérations des mécanismes cellulaires impliqués dans le maintien du potentiel diastolique pourraient être présentes dans le syndrome de Brugada, ce qui, à notre connaissance, n'a jamais été rapporté dans la littérature.
Resumo:
Le géopatrimoine regroupe des objets géologiques lato sensu auxquels certaines valeurs sont attribuées, en fonction de leur intérêt pour la science, de leur rareté, de leurs particularités culturelles ou écologiques, etc. Valoriser le géopatrimoine signifie avant tout faire partager cette approche aux non-spécialistes, en expliquant ce qui fait la valeur de ces objets. Cette valorisation peut s'effectuer, entre autres, sous la forme d'une activité touristique et contribuer ainsi au développement régional. Faire comprendre l'origine, la singularité et la valeur des formes du relief implique le recours à une communication éducative, désignée par le terme de médiation. Les implications de la dimension éducative du processus, comme la prise en compte des connaissances et attentes du public, la création d'un environnement favorable à l'apprentissage ou l'attractivité du contenu, sont souvent négligées. Du point de vue conceptuel, un modèle de la médiation indirecte (c'est-à-dire au moyen de supports médiatiques) a été proposé et appliqué au développement empirique de produits de médiation et à leur évaluation. Ce modèle ne garantit pas la réussite de la communication éducative, mais contribue à créer un cadre favorable au processus. De plus, plusieurs lignes directrices pour le choix du type de média et sa mise en forme ont été définies sur la base d'une compilation de résultats de la psychologie cognitive sur l'usage des médias pour l'apprentissage. Des méthodes qualitatives et quantitatives variées ont été mobilisées: enquêtes par questionnaire ex situ et in situ, auprès des visiteurs de géomorphosites de montagne, réalisation de médias interactifs testés ensuite auprès de divers publics (parcours enregistré, pré- et post-questionnaires) et entretiens collectifs. Les résultats obtenus éclairent divers aspects de la problématique. L'étude du public a montré, par exemple, que le géotourisme possède un réel public parmi les visiteurs des sites de montagnes: trois-quarts d'entre eux expriment de l'intérêt pour des explications sur la géologie et l'évolution du paysage. Cette thèse a exploré ces aspects liés au processus d'apprentissage en se focalisant sur les médias visuels, surtout interactifs. La plupart des médias visuels couramment utilisés en géomorphologie ont été considérés. Le développement de versions interactives de ces médias sous forme d'applications web a fourni un aperçu concret des possibilités des nouvelles technologies. Les utilisateurs apprécient en particulier a richesse du contenu, le haut degré d'interactivité et la variété de ces applications. De tels médias incitent à visiter le site naturel et semblent aussi répondre aux intérêts de publics variés.