999 resultados para Méthodes mixtes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un cas exemplaire, un cas d'école, un beau cas, un cas de figure, un cas extrême, un cas particulier, un cas épineux, un cas limite ... Les modalités de l'étude de cas sont multiples et expriment le fait que tout raisonnement suivi, toute explication, toute théorie bute une fois ou l'autre sur la nécessité d'explorer et d'approfondir les propriétés d'une singularité accessible à l'observation. Publier un ouvrage sur la question du cas unique, c'est participer à ce moment de réflexion sur les méthodes scientifiques en psychologie. C'est aussi oeuvrer à un repositionnement constructif de cette modalité de faire science, en donnant la parole aux auteurs spécialistes de ces questions ou directement concernés par celles-ci à travers leurs recherches ou leurs pratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lorsque de l'essence est employée pour allumer et/ou propager un incendie, l'inférence de la source de l'essence peut permettre d'établir un lien entre le sinistre et une source potentielle. Cette inférence de la source constitue une alternative intéressante pour fournir des éléments de preuve dans ce type d'événements où les preuves matérielles laissées par l'auteur sont rares. Le but principal de cette recherche était le développement d'une méthode d'analyse de spécimens d'essence par GC-IRMS, méthode pas routinière et peu étudiée en science forensique, puis l'évaluation de son potentiel à inférer la source de traces d'essence en comparaison aux performances de la GC-MS. Un appareillage permettant d'analyser simultanément les échantillons par MS et par IRMS a été utilisé dans cette recherche. Une méthode d'analyse a été développée, optimisée et validée pour cet appareillage. Par la suite, des prélèvements d'essence provenant d'un échantillonnage conséquent et représentatif du marché de la région lausannoise ont été analysés. Finalement, les données obtenues ont été traitées et interprétées à l'aide de méthodes chimiométriques. Les analyses effectuées ont permis de montrer que la méthodologie mise en place, aussi bien pour la composante MS que pour l'IRMS, permet de différencier des échantillons d'essence non altérée provenant de différentes stations-service. Il a également pu être démontré qu'à chaque nouveau remplissage des cuves d'une station-service, la composition de l'essence distribuée par cette station est quasi unique. La GC-MS permet une meilleure différenciation d'échantillons prélevés dans différentes stations, alors que la GC-IRMS est plus performante lorsqu'il s'agit de comparer des échantillons collectés après chacun des remplissages d'une cuve. Ainsi, ces résultats indiquent que les deux composantes de la méthode peuvent être complémentaires pour l'analyse d'échantillons d'essence non altérée. Les résultats obtenus ont également permis de montrer que l'évaporation des échantillons d'essence ne compromet pas la possibilité de grouper des échantillons de même source par GC-MS. Il est toutefois nécessaire d'effectuer une sélection des variables afin d'éliminer celles qui sont influencées par le phénomène d'évaporation. Par contre, les analyses effectuées ont montré que l'évaporation des échantillons d'essence a une forte influence sur la composition isotopique des échantillons. Cette influence est telle qu'il n'est pas possible, même en effectuant une sélection des variables, de grouper correctement des échantillons évaporés par GC-IRMS. Par conséquent, seule la composante MS de la méthodologie mise en place permet d'inférer la source d'échantillons d'essence évaporée. _________________________________________________________________________________________________ When gasoline is used to start and / or propagate an arson, source inference of gasoline can allow to establish a link between the fire and a potential source. This source inference is an interesting alternative to provide evidence in this type of events where physical evidence left by the author are rare. The main purpose of this research was to develop a GC-IRMS method for the analysis of gasoline samples, a non-routine method and little investigated in forensic science, and to evaluate its potential to infer the source of gasoline traces compared to the GC-MS performances. An instrument allowing to analyze simultaneously samples by MS and IRMS was used in this research. An analytical method was developed, optimized and validated for this instrument. Thereafter, gasoline samples from a large sampling and representative of the Lausanne area market were analyzed. Finally, the obtained data were processed and interpreted using chemometric methods. The analyses have shown that the methodology, both for MS and for IRMS, allow to differentiate unweathered gasoline samples from different service stations. It has also been demonstrated that each new filling of the tanks of a station generates an almost unique composition of gasoline. GC-MS achieves a better differentiation of samples coming from different stations, while GC-IRMS is more efficient to distinguish samples collected after each filling of a tank. Thus, these results indicate that the two components of the method can be complementary to the analysis of unweathered gasoline samples. The results have also shown that the evaporation of gasoline samples does not compromise the possibility to group samples coming from the same source by GC-MS. It is however necessary to make a selection of variables in order to eliminate those which are influenced by the evaporation. On the other hand, the carried out analyses have shown that the evaporation of gasoline samples has such a strong influence on the isotopic composition of the samples that it is not possible, even by performing a selection of variables, to properly group evaporated samples by GC-IRMS. Therefore, only the MS allows to infer the source of evaporated gasoline samples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Les dermatophytes sont des champignons filamenteux parasites spécialisés qui dégradent les tissus kératinisés. Ils sont responsables de la plupart des mycoses de la peau, du cuir chevelu et des cheveux, et des ongles. Le choix du traitement des dermatophytoses dépend des symptômes et du dermatophyte incriminé parmi une quinzaine d'espèces possibles. L'identification des dermatophytes se fait en général sur la base des caractères macroscopiques et microscopiques des cultures. L'identification est parfois difficile ou reste incertaine car il peut y avoir des variations d'un isolat à l'autre au sein d'une même espèce. Cependant, les espèces sont facilement identifiées sur la base de séquences d'ADN. En pratique, des séquences d'ADN ribosomique suffisamment polymorphes sont le plus souvent utilisées pour discriminer les espèces de dermatophytes. Des méthodes spécialisées et sophistiquées telles que les séquences d'ADN et la spectrométrie de masse sont de plus en plus proposées dans la littérature pour identifier les dermatophytes. Toutefois, ces méthodes ne peuvent pas être utilisées directement par un médecin dans un cabinet médical. C'est pourquoi des méthodes plus simples basées sur l'observation de caractères phénotypiques des champignons en culture ne devraient pas être abandonnées. Objectif : Etablir une clé d'identification dichotomique se basant sur des caractères macroscopiques et microscopiques permettant une identification fiable du dermatophyte par la culture. Des clés d'identification des espèces seront élaborées et testées pour leur validation en parallèle avec leur identification par des méthodes de Biologie Moléculaire. Créer un outil simple qui pourra être utilisé au laboratoire par des médecins ou des biologistes non spécialisés en mycologie pour identifier les dermatophytes sans avoir recours à une technologie sophistiquée. Méthodes : Inventaire des espèces isolées de 2001 à 2012 au laboratoire de dermatologie du CHUV. Inventaire des caractères phénotypiques permettant de caractériser chaque espèce. Création d'un système dichotomique sur la base des caractères phénotypiques pour séparer et identifier les espèces (clé d'identification des espèces). Résultats attendus : Les résultats attendus sont définis au niveau des objectifs. L'outil doit être accessible pour des personnes inexpérimentées qui pourront alors identifier les dermatophytes. Plus-value : Les dermatophytoses sont fréquemment diagnostiquées. Cet outil est destiné à tous les dermatologues installés et au personnel de laboratoire qui ne sont pas nécessairement spécialisés en la matière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: L'hyperglycémie est un phénomène connu chez les patients gravement agressés, et surtout chez ceux nécessitant un séjour aux soins intensifs, alors que l'hypoglycémie est une complication menaçante. Des valeurs de glycémies anormales sont associées avec une mortalité et morbidité augmentées chez les patients de soins intensifs, y compris les grands brûlés. Des glycémies jusqu'à 15mmol/l ont longtemps été tolérées sans traitement. En 2001, une grande étude randomisée a complètement changé les pratiques du contrôle glycémique aux soins intensifs. Van den Berghe et al. ont montré qu'un contrôle glycémique strict atteint au moyen d'une « intensive insulin therapy » (HT) visant une glycémie 4.1-6.0 mmol/l réduisait la mortalité chez les patients chirurgicaux traités plus que 5. Par la suite plusieurs études contradictoires ont questionné la validité externe de l'étude de Louvain: avec la publication de l'étude « NICE-SUGAR » en 2009 enrôlant plus de 6000 patients cette hypothèse a été réfutée, aboutissant à un contrôle modéré de la glycémie (6-8 mmol/l). Bien que plusieurs études sur le contrôle glycémique aient également inclus quelques patients brûlés, à ce jour il n'y a pas de recommandation ferme concernant la gestion de la glycémie chez les patients brûlés adultes. Le but de l'étude était d'évaluer la sécurité du protocole de contrôle de la glycémie qui avait été introduit aux soins intensifs adultes chez des patients grand brûlés nécessitant un traitement prolongé aux soins intensifs. Méthodes : 11 s'agit d'une étude rétrospective uni-centrique sur des patients brûlés admis aux soins intensifs du CHUV à Lausanne entre de 2000 à juin 2014. Critères d'inclusions : Age >16 ans, brûlures nécessitant un traitement aux soins intensifs >10 jours. Critères d'exclusion : Décès ou transfert hors des soins intensifs <10 jours. Les investigations ont été limitées aux 21 premiers jours de l'hospitalisation aux soins intensifs. Variables : Variables démographiques, surface brûlée (TBSA), scores de sévérité, infections, durée d'intubation, durée du séjour aux soins intensifs, mortalité. Variables métaboliques : Administration totale de glucides, énergie et insuline/2411, valeurs de glycémie artérielle et CRP. Quatre périodes (P) ont été analysées, correspondant à l'évolution du protocole de contrôle de glycémie du service. P1: Avant son introduction (2000-2001) ; P2: Contrôle glycémie serré géré par les médecins (2002-2006) ; P3: Contrôle glycémie serré géré par lés infirmières (2007-2010); P4: Contrôle modéré géré par les infirmières (2011-2014). Les limites glycémiques ont été définis de manière suivante: Hypoglycémie extrême <2.3mmol/l ; hypoglycémie modéré <4.0mmol/l ; hyperglycémie modérée 8.1-10.0mmol/l ; hyperglycémie sévère >10.0mmol/l. Toutes les valeurs de glycémies artérielles ont été extraites depuis le système informatisé des soins intensifs (MetaVision ®). Statistiques: Wilcoxon rank test, Two- way Anova, Tuckey Kramer test, area under the curve (AUC), Spearman's test et odds ratio. STATA 12 1 ' StataCorp, College station, TX, USA and JPM V 10.1 (SAS Institute, Cary, NC, USA). Résultats: Sur les 508 patients brûlés admis durant la période étudiée, 229 patients correspondaient aux critères d'inclusion, âgés de 45±20ans (X±SD) et brûlés sur 32±20% de la surface corporelle. Les scores de sévérité sont restés stables. Au total 28'690 glycémies artérielles ont été analysées. La valeur médiane de glycémie est restée stable avec une diminution progressive de la variabilité intra-patient. Après initiation du protocole, les valeurs normoglycémiques ont augmenté de 34.7% à 65.9% avec diminution des événements hypoglycémiques (pas d'hypoglycémie extrême en P4). Le nombre d'hyperglycémies sévères est resté stable durant les périodes 1 à 3, avec une diminution en P4 (9.25%) : les doses d'insuline ont aussi diminué. L'interprétation des résultats de P4 a été compliquée par une diminution concomitante des apports d'énergie et de glucose (p<0.0001). Conclusions: L'application du protocole destiné aux patients de soins intensifs non brûlés a amélioré le contrôle glycémique chez les patients adultes brûlés, aboutissant à une diminution significative de la variabilité des glycémies. Un contrôle modéré de la glycémie peut être appliqué en sécurité, considérant le nombre très faible d'hypoglycémies. La gestion du protocole par les infirmières s'avère plus sûre qu'un contrôle par les médecins, avec diminution des hypoglycémies. Cependant le nombre d'hyperglycémies reste trop élevé. L'hyperglycémie' n'est pas contrôlable uniquement par l'administration d'insuline, mais nécessite également une approche multifactorielle comprenant une optimisation de la nutrition adaptée aux besoins énergétiques élevés des grands brûlés. Plus d'études seront nécessaire pour mieux comprendre la complexité du mécanisme de l'hyperglycémie chez le patient adulte brûlé et pour en améliorer le contrôle glycémique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Que ce soit d'un point de vue, urbanistique, social, ou encore de la gouvernance, l'évolution des villes est un défi majeur de nos sociétés contemporaines. En offrant la possibilité d'analyser des configurations spatiales et sociales existantes ou en tentant de simuler celles à venir, les systèmes d'information géographique sont devenus incontournables dans la gestion et dans la planification urbaine. En cinq ans la population de la ville de Lausanne est passée de 134'700 à 140'570 habitants, alors que les effectifs de l'école publique ont crû de 12'200 à 13'500 élèves. Cet accroissement démographique associé à un vaste processus d'harmonisation de la scolarité obligatoire en Suisse ont amené le Service des écoles à mettre en place et à développer en collaboration avec l'université de Lausanne des solutions SIG à même de répondre à différentes problématiques spatiales. Établies en 1989, les limites des établissements scolaires (bassins de recrutement) ont dû être redéfinies afin de les réadapter aux réalités d'un paysage urbain et politique en pleine mutation. Dans un contexte de mobilité et de durabilité, un système d'attribution de subventions pour les transports publics basé sur la distance domicile-école et sur l'âge des écoliers, a été conçu. La réalisation de ces projets a nécessité la construction de bases de données géographiques ainsi que l'élaboration de nouvelles méthodes d'analyses exposées dans ce travail. Cette thèse s'est ainsi faite selon une dialectique permanente entre recherches théoriques et nécessités pratiques. La première partie de ce travail porte sur l'analyse du réseau piéton de la ville. La morphologie du réseau est investiguée au travers d'approches multi-échelles du concept de centralité. La première conception, nommée sinuo-centralité ("straightness centrality"), stipule qu'être central c'est être relié aux autres en ligne droite. La deuxième, sans doute plus intuitive, est intitulée centricité ("closeness centrality") et exprime le fait qu'être central c'est être proche des autres (fig. 1, II). Les méthodes développées ont pour but d'évaluer la connectivité et la marchabilité du réseau, tout en suggérant de possibles améliorations (création de raccourcis piétons). Le troisième et dernier volet théorique expose et développe un algorithme de transport optimal régularisé. En minimisant la distance domicile-école et en respectant la taille des écoles, l'algorithme permet de réaliser des scénarios d'enclassement. L'implémentation des multiplicateurs de Lagrange offre une visualisation du "coût spatial" des infrastructures scolaires et des lieux de résidence des écoliers. La deuxième partie de cette thèse retrace les aspects principaux de trois projets réalisés dans le cadre de la gestion scolaire. À savoir : la conception d'un système d'attribution de subventions pour les transports publics, la redéfinition de la carte scolaire, ou encore la simulation des flux d'élèves se rendant à l'école à pied. *** May it be from an urbanistic, a social or from a governance point of view, the evolution of cities is a major challenge in our contemporary societies. By giving the opportunity to analyse spatial and social configurations or attempting to simulate future ones, geographic information systems cannot be overlooked in urban planning and management. In five years, the population of the city of Lausanne has grown from 134'700 to 140'570 inhabitants while the numbers in public schools have increased from 12'200 to 13'500 students. Associated to a considerable harmonisation process of compulsory schooling in Switzerland, this demographic rise has driven schooling services, in collaboration with the University of Lausanne, to set up and develop GIS capable of tackling various spatial issues. Established in 1989, the school districts had to be altered so that they might fit the reality of a continuously changing urban and political landscape. In a context of mobility and durability, an attribution system for public transport subventions based on the distance between residence and school and on the age of the students was designed. The implementation of these projects required the built of geographical databases as well as the elaboration of new analysis methods exposed in this thesis. The first part of this work focuses on the analysis of the city's pedestrian network. Its morphology is investigated through multi-scale approaches of the concept of centrality. The first conception, named the straightness centrality, stipulates that being central is being connected to the others in a straight line. The second, undoubtedly more intuitive, is called closeness centrality and expresses the fact that being central is being close to the others. The goal of the methods developed is to evaluate the connectivity and walkability of the network along with suggesting possible improvements (creation of pedestrian shortcuts).The third and final theoretical section exposes and develops an algorithm of regularised optimal transport. By minimising home to school distances and by respecting school capacity, the algorithm enables the production of student allocation scheme. The implementation of the Lagrange multipliers offers a visualisation of the spatial cost associated to the schooling infrastructures and to the student home locations. The second part of this thesis recounts the principal aspects of three projects fulfilled in the context of school management. It focuses namely on the built of an attribution system for public transport subventions, a school redistricting process and on simulating student pedestrian flows.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif : D'analyser l'évolution naturelle de la taille de la tumeur et de l'audition chez 151 patients avec schwannome vestibulaire (VS) en suivi et d'évaluer les mêmes paramètres pour une partie du group traité par Radiochirurgie Stéréotaxique Linac (SRS). Méthodes: Etude prospective des patients bilantés par IRM et tests audio-vestibulaires à l'inclusion, pendant la période du suivi et après SRS. L'audition a été gradé selon l'échelle de Gardner-Robertson (GR) et la taille tumorale selon l'échelle de Koos. L'analyse statistique inclut l'analyse de survie de Kaplan-Meier, analyse multivariée avec régression linéaire et logistique. Les patients avec une audition utile ont étés spécifiquement analysés. Résultats: Pendant la période du suivi (moyenne 24 mois, déviation 6-96), le risqué annuel de dégradation de la classe GR était 6% pour les patients GRI et 15% pour les GRII. La perte auditive comme symptôme initial était un facteur signifïcativement prédictif pour une aggravation auditive ultérieure (p=0.003). La croissance tumorale était de 25% à la dernière observation pendant le suivi. Pour les patients traités par Linac, la préservation d'une audition utile était 51% à 1 an et 36% à 3 ans. Le contrôle tumoral était 94 % and 91% respectivement. Conclusion: Chez les patients avec VS, la perte auditive déjà présente au diagnostique est un facteur prédictif négatif pour l'évolution de l'audition. La Radiochirurgie Stéréotaxique Linac est efficace pour le contrôle tumoral. Les patients ayant préservés leur status auditif prétraitement présentent un rythme annuel de perte auditive diminué après SRS compare à celle-ci avant le traitement. Cette constatation suggère un effet protectif potentiel de la SRS, à condition que la fonction cochléaire soit préservée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cardiovascular disease is the leading cause of death worldwide. Within this subset, coronary artery disease (CAD) is the most prevalent. Magnetic resonance angiography (MRA) is an emerging technique that provides a safe, non-invasive way of assessing CAD progression. To generate contrast between tissues, MR images are weighted according to the magnetic properties of those tissues. In cardiac MRI, T2 contrast, which is governed by the rate of transverse signal loss, is often created through the use of a T2-Preparation module. T2-Preparation, or T2-Prep, is a magnetization preparation scheme used to improve blood/myocardium contrast in cardiac MRI. T2-Prep methods generally use a non-selective +90°, 180°, 180°, -90° train of radiofrequency (RF) pulses (or variant thereof), to tip magnetization into the transverse plane, allow it to evolve, and then to restore it to the longitudinal plane. A key feature in this process is the combination of a +90° and -90° RF pulse. By changing either one of these, a mismatch occurs between signal excitation and restoration. This feature can be exploited to provide additional spectral or spatial selectivity. In this work, both of these possibilities are explored. The first - spectral selectivity - has been examined as a method of improving fat saturation in coronary MRA. The second - spatial selectivity - has been examined as a means of reducing imaging time by decreasing the field of view, and as a method of reducing artefacts originating from the tissues surrounding the heart. Two additional applications, parallel imaging and self-navigation, are also presented. This thesis is thus composed of four sections. The first, "A Fat Signal Suppression for Coronary MRA at 3T using a Water-Selective Adiabatic T2-Preparation Technique", was originally published in the journal Magnetic Resonance in Medicine (MRM) with co-authors Ruud B. van Heeswijk and Matthias Stuber. The second, "Combined T2-Preparation and 2D Pencil Beam Inner Volume Selection", again with co-authors Ruud van Heeswijk and Matthias Stuber, was also published in the journal MRM. The third, "A cylindrical, inner volume selecting 2D-T2-Prep improves GRAPPA-accelerated image quality in MRA of the right coronary artery", written with co-authors Jerome Yerly and Matthias Stuber, has been submitted to the "Journal of Cardiovascular Magnetic Resonance", and the fourth, "Combined respiratory self-navigation and 'pencil-beam' 2D-T2 -Prep for free-breathing, whole-heart coronary MRA", with co¬authors Jerome Chaptinel, Giulia Ginami, Gabriele Bonanno, Simone Coppo, Ruud van Heeswijk, Davide Piccini, and Matthias Stuber, is undergoing internal review prior to submission to the journal MRM. -- Les maladies cardiovasculaires sont la cause principale de décès dans le monde : parmi celles-ci, les maladies coronariennes sont les plus répandues. L'angiographie par résonance magnétique (ARM) est une technique émergente qui fournit une manière sûre, non invasive d'évaluer la progression de la coronaropathie. Pour obtenir un contraste entre les tissus, les images d'IRM sont pondérées en fonction des propriétés magnétiques de ces tissus. En IRM cardiaque, le contraste en T2, qui est lié à la décroissance du signal transversal, est souvent créé grâce à l'utilisàtion d'un module de préparation T2. La préparation T2, ou T2-Prep, est un système de préparation de l'aimantation qui est utilisé pour améliorer le contraste entre le sang et le myocarde lors d'une IRM cardiaque. Les méthodes de T2-Prep utilisent généralement une série non-sélective d'impulsions de radiofréquence (RF), typiquement [+ 90°, 180°, 180°, -90°] ou une variante, qui bascule l'aimantation dans le plan transversal, lui permet d'évoluer, puis la restaure dans le plan longitudinal. Un élément clé de ce processus est la combinaison des impulsions RF de +90° et -90°. En changeant l'une ou l'autre des impulsions, un décalage se produit entre l'excitation du signal et de la restauration. Cette fonction peut être exploitée pour fournir une sélectivité spectrale ou spatiale. Dans cette thèse, les deux possibilités sont explorées. La première - la sélectivité spectrale - a été examinée comme une méthode d'améliorer la saturation de la graisse dans l'IRM coronarienne. La deuxième - la sélectivité spatiale - a été étudiée comme un moyen de réduire le temps d'imagerie en diminuant le champ de vue, et comme une méthode de réduction des artefacts provenant des tissus entourant le coeur. Deux applications supplémentaires, l'imagerie parallèle et la self-navigation, sont également présentées. Cette thèse est ainsi composée de quatre sections. La première, "A Fat Signal Suppression for Coronary MRA at 3T using a Water-Selective Adiabatic T2-Preparation Technique", a été publiée dans la revue médicale Magnetic Resonance .in Medicine (MRM) avec les co-auteurs Ruud B. van Heeswijk et Matthias Stuber. La deuxième, Combined T2-Preparation and 2D Pencil Beam Inner Volume Selection", encore une fois avec les co-auteurs Ruud van Heeswijk et Matthias Stuber, a également été publiée dans le journal MRM. La troisième, "A cylindrical, inner volume selecting 2D-T2-Prep improves GRAPPA- accelerated image quality in MRA of the right coronary artery", écrite avec les co-auteurs Jérôme Yerly et Matthias Stuber, a été présentée au "Journal of Cardiovascular Magnetic Resonance", et la quatrième, "Combined respiratory self-navigation and 'pencil-beam' 2D-T2 -Prep for free-breathing, whole-heart coronary MRA", avec les co-auteurs Jérôme Chaptinel, Giulia Ginami, Gabriele Bonanno , Simone Coppo, Ruud van Heeswijk, Davide Piccini, et Matthias Stuber, subit un examen interne avant la soumission à la revue MRM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

CONTEXTE: L'ablation percutanée par cathéter de la fibrillation auriculaire (AC-FA) est une option de traitement pour les patients souffrant de fibrillation auriculaire (FA) symptomatique réfractaire au traitement médicamenteux. L'AC-FA comporte un risque de complications thromboemboliques qui a été réduit par l'utilisation de l'héparine non fractionnée (HNF) intraveineuse durant la procédure. L'administration optimale de l'HNF ainsi que sa cinétique ne sont pas bien établies et nécessitent d'être déterminées avec précision. MÉTHODES ET RÉSULTATS: Cette étude a inclus 102 patients consécutifs atteints de FA symptomatique, réfractaire au traitement médicamenteux, référés pour une AC-FA. L'âge moyen était de 61 ± 10 ans. Après une ponction transseptale de la fosse ovale, une injection intraveineuse de HNF ajustée au poids (100 U / kg) a été administré. Une augmentation significative du temps de coagulation activé (ACT) a été observée passant d'une valeur de base moyenne de 100 ± 27 secondes, à 355 ± 94 secondes à 10 minutes (T10) et à 375 ± 90 secondes à 20 minutes (T20). 24 patients n'ont pas atteint la valeur visée d'ACT > 300 secondes à T10 et plus de la moitié de ce collectif est resté avec les valeurs d'ACT infrathérapeutiques à T20. Ce sous-ensemble de patients avait des caractéristiques cliniques similaires et avait reçu des doses similaires d'HNF, mais s'était plus fréquemment fait prescrire de la vitamine Kl pré-procédurale que le reste de la population de l'étude. CONCLUSION: Au cours d'une intervention standard, l'HNF montre, de manière inattendue, une cinétique d'anticoagulation lente dans une proportion significative des procédures et ceci jusqu'à 20 minutes après l'administration. Ces résultats soutiennent l'importance d'une administration d'HNF avant la ponction transseptale ou tout cathétérisme gauche avec des mesures précoces et répétées d'ACT afin d'identifier les patients avec une cinétique retardée. Ils sont en ligne avec les directives récentes proposant d'effectuer l'AC-FA sous anticoagulation thérapeutique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le glaucome est la seconde cause de cécité dans le monde après la cataracte et est caractérisé par la perte progressive de cellules ganglionnaires de la rétine allant vers la dégénérescence du nerf optique. On distingue deux formes de glaucome; le glaucome à angle fermé et le glaucome à angle ouvert. L'hérédité du glaucome est souvent sporadique, parfois autosomique dominante. Une pression intraoculaire de plus de 21 mmHg représente un facteur de risque important pour son développement. Actuellement, la mutation la plus fréquente, observée dans 5% des cas de glaucome héréditaire, est retrouvée dans le gène MYOC (trabecular meshwork inducible glucocorticoide response). À ce jour, les causes et mécanismes moléculaires sous-jacent ne sont que partiellement compris. Récemment, il a été démontré qu'une souris transgénique exprimant le gène Notch2 dans luvée, développait un glaucome. Pour cette raison, nous avons analysé le gène NOTCH2 chez l'homme afin de déterminer s'il était impliqué. NOTCH2 est composé de 34 exons sur le chromosome 1 et code une protéine transmembranaire essentielle à la prolifération, l'apoptose, la différenciation cellulaire et le destin cellulaires. L'expression du gène est localisée dans le segment antérieur de l'oeil, le segment externe du corps ciliaire et le trabéculum. Les fonctions principales de ces deux tissus sont la production et le drainage de l'humeur aqueuse. Pour mémoire, une perturbation du flux peut générer une augmentation de la pression intraoculaire. Le but de cette étude était de rechercher d'éventuelles mutations du gène NOTCH2 chez des patients souffrant de glaucome. 130 patients ont été vu à l'hôpital ophtalmique Jules- Gonin et un échantillon d'ADN a été récolté afin d'identifier l'origine moléculaire de leur pathologie. L'analyse moléculaire s'est fait étape par étape. Premièrement, j'ai séquencé l'exon 3 du gène MYOC. Deuxièment, la Chromatographie en phase liquide à haute performance a été utilisée pour l'analyse des 34 exons du gène NOTCH2. Troisièment, tous les exons présentant une courbe suspecte au chromatogramme ont été séquencés selon la méthode de Sanger. Dans la première partie de l'étude, j'ai analysé l'exon 3 du gène MYOC afin de déterminer les éventuels porteurs d'une mutation dominante. Aucune mutation pathogénique n'a été mis en évidence mais 4 patients sur les 130 étaient porteurs d'un variant connu et fréquent. Dans la deuxième partie de mon étude, j'ai analysé les 34 exons du gène NOTCH2, qui n'ont révélé aucune mutation. Bien que les méthodes utilisées dans cette étude montrent quelques limitations, il est peu probable que des mutations dans les régions codantes de NOTCH2 soient un facteur de risque important dans le glaucome primaire à angle ouvert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les 21, 22 et 23 septembre 2006, le Département d’Études Françaises de l’Université de Turku (Finlande) a organisé une conférence internationale et bilingue (anglais et français) sur le thème de la mobilité académique ; le but de cette rencontre était de rendre possible la tenue d’un forum international et multidisciplinaire, susceptible d’être le siège de divers débats entre les différents acteurs de la mobilité académique (c’estàdire des étudiants, des chercheurs, des personnels enseignants et administratifs, etc.). Ainsi, ont été mis à contribution plus de cinquante intervenants, (tous issus de domaines aussi variés que la linguistique, les sciences de l’éducation, la didactique, l’anthropologie, la sociologie, la psychologie, l’histoire, la géographie, etc.) ainsi que cinq intervenants renommés1. La plupart des thèmes traités durant la conférence couvraient les champs suivants : l’organisation de la mobilité, les obstacles rencontrés par les candidats à la mobilité, l’intégration des étudiants en situation d’échange, le développement des programmes d’études, la mobilité virtuelle, l’apprentissage et l’enseignement des langues, la prise de cosncience interculturelle, le développement des compétences, la perception du système de mobilité académique et ses impacts sur la mobilité effective. L’intérêt du travail réalisé durant la conférence réside notamment dans le fait qu’il ne concentre pas uniquement des perspectives d’étudiants internationaux et en situation d’échange (comme c’est le cas de la plupart des travaux de recherche déjà menés sur ce sujet), mais aussi ceux d’autres corps : enseignants, chercheurs, etc. La contribution suivante contient un premier corpus de dixsept articles, répartis en trois sections : 1. Impacts de la mobilité étudiante ; 2. Formation en langues ; 3. Amélioration de la mobilité académique. À l’image de la conférence, la production qui suit est bilingue : huit des articles sont rédigés en français, et les neuf autres en anglais. Certains auteurs n’ont pas pu assister à la conférence mais ont tout de même souhaité apparaître dans cet ouvrage. Dans la première section de l’ouvrage, Sandrine Billaud tâche de mettre à jour les principaux obstacles à la mobilité étudiante en France (logement, organisation des universités, démarches administratives), et propose à ce sujet quelques pistes d’amélioration. Vient ensuite un article de Dominique Ulma, laquelle se penche sur la mobilité académique régnant au sein des Instituts Universitaires de Formation des Maîtres (IUFM) ; elle s’est tout particulièrement concentrée sur l’enthousiasme des stagiaires visàvis de la mobilité, et sur les bénéfices qu’apporte la mobilité Erasmus à ce type précis d’étudiant. Ensuite, dans un troisième article, Magali Hardoin s’interroge sur les potentialités éducationnelles de la mobilité des enseignantsstagiaires, et tâche de définir l’impact de celleci sur la construction de leur profil professionnel. Après cela arrive un groupe de trois articles, tous réalisés à bases d’observations faites dans l’enseignement supérieur espagnol, et qui traitent respectivement de la portée qu’a le programme de triple formation en langues européennes appliquées pour les étudiants en mobilité (Marián MorónMartín), des conséquences qu’occasionne la présence d’étudiants étrangers dans les classes de traductions (Dimitra Tsokaktsidu), et des réalités de l’intégration sur un campus espagnol d’étudiants américains en situation d’échange (Guadalupe Soriano Barabino). Le dernier article de la section, issu d’une étude sur la situation dans les institutions japonaises, fait état de la situation des programmes de doubles diplômes existant entre des établissements japonais et étrangers, et tente de voir quel est l’impact exact de tels programmes pour les institutions japonaises (Mihoko Teshigawara, Riichi Murakami and Yoneo Yano). La seconde section est elle consacrée à la relation entre apprentissage et enseignement des langues et mobilité académique. Dans un premier article, Martine Eisenbeis s’intéresse à des modules multimédia réalisés à base du film « L’auberge espagnole », de Cédric Klapish (2001), et destinés aux étudiants en mobilité désireux d’apprendre et/ou améliorer leur français par des méthodes moins classiques. Viennent ensuite les articles de Jeanine Gerbault et Sabine Ylönen, lesquels traitent d’un projet européen visant à supporter la mobilité étudiante par la création d’un programme multimédia de formation linguistique et culturelle pour les étudiants en situation de mobilité (le nom du projet est EUROMOBIL). Ensuite, un article de Pascal Schaller s’intéresse aux différents types d’activités que les étudiants en séjour à l’étranger expérimentent dans le cadre de leur formation en langue. Enfin, la section s’achève avec une contribution de Patricia KohlerBally, consacrée à un programme bilingue coordonné par l’Université de Fribourg (Suisse). La troisième et dernière section propose quelques pistes de réflexion destinées à améliorer la mobilité académique des étudiants et des enseignants ; dans ce cadre seront donc évoquées les questions de l’égalité face à la mobilité étudiante, de la préparation nécessitée par celleci, et de la prise de conscience interculturelle. Dans un premier chapitre, Javier Mato et Bego

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L‘interculturel est un concept souvent partagé mais rarement défini dans la recherche alors que ses compréhensions, interprétations et applications sont variées, ce qui mène à des malentendus et des positionnements épistémologiques et méthodologiques ambigus. En parallèle, de nombreuses critiques et propositions de réorientations de la notion voient le jour. Nous entendons faire le point sur la notion et son intégration potentielle dans l‘enseignement de la communication interculturelle (ECI). Notre étude se base sur l‘analyse de six groupes focalisés d‘enseignants (-chercheurs) impliqués dans l‘enseignement de l‘interculturel du niveau supérieur en Finlande, pays du nord de l‘Europe. Nous avons recours aux paradigmes postmodernes et aux sciences du langage (analyse du discours inspirée d‘auteurs français, et plus particulièrement de l‘école française de la deuxième génération (les théories de l‘énonciation (Kerbrat-Orecchioni, 2002 ; Marnette, 2005) et une approche du dialogisme inspirée par Bakhtine (1977))). Ces méthodes permettent de mettre en avant la complexité identitaire en posant l‘hétérogénéité du discours comme principe, c‘est-à-dire qu‘elles considèrent que tout discours inclut la « voix » de l‘autre. Repérer la présence de ces voix dans les discours des enseignants/chercheurs nous a permis de démontrer comment celles-ci participaient à la construction de leur identité pendant l‘interaction. Nous avons pu observer comment les relations entre ces interactions verbales donnaient lieu à des instabilités (contradictions, omissions), dont l‘étude nous a aidée à déduire leur(s) façon(s) de concevoir l‘interculturel. Les discours analysés révèlent a) que la définition de l‘interculturel est partagée sans être perçue de la même manière et b) que les différentes représentations du concept peuvent varier dans le discours d‘un même enseignant, mettant en évidences des contradictions qui posent problème s‘il s‘agit de communiquer un savoir-être aux apprenants. Nous nous sommes efforcée de trouver la place d‘un interculturel renouvelé parmi ces discours et de dissocier l‘image de l‘éducation interculturelle qui est promue en Finlande de ce qui est proposé en réalité : les changements actuels semblent avoir un minimum d‘impact sur la façon dont les enseignants traitent l‘interculturel. Nous nous demandons alors comment l‘Etat finlandais peut promouvoir un enseignement interculturel cohérent sans proposer aux enseignants/chercheurs une formation qui leur permettrait de reconnaitre les diverses diversités impliquées par l‘interculturel. Mots clés : Communication interculturelle, diversité, culture, enseignement supérieur finlandais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Périodicité : Annuel ; bimestriel

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce volume a été relié avec le ms. Latin 50 pour former une bible complète (cf. Berger, Hist. de la Vulg., 401), mais il semble que ces deux manuscrits ont été réalisés séparément, à une date et par un atelier différent. (F. Avril, Dix siècles d'enluminure italienne, notice 11). Avec prologues, arguments et « capitula ». Psalmi (1) ; Proverbia (13v) ; Ecclesiastes (20) ; Cant. canticorum (22v) ; Sapientia (24) ; Ecclesiasticus (29v) ; Oratio Salomonis (42v) ; Paralip. I-II (43) ; Job (62) ; Tobias (69) ; Judith (72) ; Esther (76) ; Esdras I-II (80) ; Macchab. I-II (87v). — Evangeliorum canones (103) ; Evang. Matthaei (106), Marci (112v), Lucae (117v), Johannis (125) ; Actus Apost. (131v) ; VII Epist. canon. (142), Apocalypsis (147v) ; Concordia Epist. Pauli (153) ; XIV Epist. Pauli (154) ; Epist. ad Laodicenses (addit. du XIIe s.) (176). — Quelques leçons indiquées en marge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contient : « Tableau des belles et rares conceptions de messire François VERULAM, chancelier de la Grand-Bretagne, touchant le restablissement des sciences, avec l'exposition de la méthode qu'il a jugée propre tant à ceux de son aage qu'à la postérité, pour l'intelligence d'icelles » ; c'est le morceau qui sert de préambule général à l'Instauratio magna ; The works of Francis Bacon, Londres, 1765, t. IV, pp. XIX-XX ; Epître dédicatoire de « François Verulam » au roi d'Angleterre Jacques premier ; The Works..., ibid., pp. 261-262, avant le Novum organum ; « Le Restablissement de François DE VERULAM. Préface » et « Distribution de tout l'oeuvre » ; c'est la Préface à l'Instauratio magna ; The Works..., ibid., pp. 1-13 ; « Préface de la seconde partie de cet oeuvre, intitulé Nouvel organe, ou vrays indices de l'interprétation de nature » ; Préface du Novum organum ; The Works..., ibid., pp. 263-264 ; « Sommaire [du Novum organum ou] de la seconde partie [de l'Instauratio magna], rédigée en Aphorismes ; Aphorismes de l'interprétation de la nature et du royaume de l'homme » [numéros 1 à 100] ; The Works..., ibid., pp. 266-293 ; « Livre second des Aphorismes de l'interprétation de la nature ou du royaume de l'homme » [numéros 1 à 11] ; The Works..., ibid., pp. 306-311