77 resultados para Spectromètres par transformée de Fourier -- Méthodes de simulation
Resumo:
Objectifs: Etudier et décrire étape par étape les aspects techniques de la thérapie par cryoablation percutanée ciblée (CPC). Matériels et méthodes: CPC est réalisée par un : adiologue interventionnel sous guidage échographique et/ou tomodensitométrique. Résultats: CPC est un traitement peu invasif qui utilise un froid extrême pour geler et détruire des tumeurs localisées dans le foie, les reins, la prostate, les poumons, les os, les seins et la peau. L'imagerie est utilisée pour guider le placement d'un ou plusieurs applicateurs à travers la peau jusqu'au site cible et surveiller le processus de congélation. De l'azote liquide ou du gaz d'argon circule au sein d'une aiguille-applicateur (CryoPhobe) créant froid intense au contact de la cible. Une sonde indépendante surveille la température du tissu environnant. Le froid est maintenu pendant au moins 20 minutes suivi d'un dégel actif de la "boule de glace". La procédure est ensuite répétée pour maximiser la destruction tumorale. La procédure dure environ 1 heure et se fait de manière ambulatoire. Conclusion: CPC est un traitement alternatif efficace du cancer chez des patients sélectionnés. Les propriétés destructrices des tissus tumoraux sont bien établies pour le cancer du rein, cependant des investigations supplémentaires sont nécessaires pour déterminer l'efficacité de CPC à long terme dans d'autres indications.
Resumo:
The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.
Resumo:
Contexte : La stimulation du nerf vague est une technique neurochirurgicale qui consiste en l'implantation d'une électrode envoyant des impulsions autours de celui-ci. Depuis l'approbation de la FDA en 1997 aux Etats-Unis, elle est utilisée chez certains patients épileptiques pharmaco-résistants et dont la chirurgie classique n'est pas envisageable [1], Par exemple lorsque qu'aucun foyer épileptique n'est identifiable, qu'une zone éloquente du cortex est atteinte ou encore qu'il y a de multiples points de départ. On parle généralement de patient « répondeur » lorsqu'une diminution de plus de 50% des crises est observée après l'opération. La proportion de patients répondeurs est estimée entre 20 à 50% [2], avec une action positive sur l'éveil [3]. Le mécanisme d'action de cette thérapie reste largement inconnu même si quelques ébauches d'hypothèses ont été formulées, notamment une action inhibitrice sur le noyau solitaire du nerf vague qui pourrait avoir comme effet de moduler des projections ascendantes diffuses via le locus coeruleus [3, 4]. Objectifs : Le but de ce travail est d'observer les effets de la stimulation du nerf vague sur le métabolisme cérébral et potentiellement d'élaborer des hypothèses sur le mécanisme d'action de ce traitement. Il faudra plus précisément s'intéresser au tronc cérébral, contenant le locus coeruleus (métabolisme de la noradrénaline) et aux noyaux du raphé (métabolisme de la sérotonine), deux neurotransmetteurs avec effet antiépileptique [5]. Le but sera également d'établir des facteurs prédictifs sur la façon de répondre d'un patient à partir d'une imagerie cérébrale fonctionnelle avant implantation, notamment au niveau du métabolisme cortical, particulièrement frontal (éveil) sera intéressant à étudier. Méthodes : Un formulaire d'information ainsi que de consentement éclairé sera remis à chaque patient avant inclusion dans l'étude. Les informations de chaque patient seront également inscrites dans un cahier d'observation (Case Report Form, CRF). Le travail s'organisera essentiellement sur deux populations. Premièrement, chez les patients déjà opérés avec un stimulateur en marche, nous réaliserons qu'une imagerie PET au F-18-fluorodeoxyglucose (FDG) post-opératoire qui seront comparés à une base de données de patients normaux (collaboration Dr E. Guedj, AP-HM, La Timone, Marseille). Nous confronterons également les images de ces patients entre elles, en opposant les répondeurs (diminution des crises de ≥50%) aux non-répondeurs. Deuxièmement, les patients non encore opérés auront un examen PET basal avant implantation et 3-6 mois après la mise en marche du stimulateur. Nous évaluerons alors les éventuelles modifications entre ces deux imageries PET, à la recherche de différences entre les répondeurs et non-répondeurs, ainsi que de facteurs prédictifs de bonne réponse dans l'imagerie de base. Toutes les comparaisons d'images seront effectuées grâce avec le programme d'analyse SPM08. Résultats escomptés : Nous espérons pouvoir mettre en évidence des modifications du métabolisme cérébral au FDG sur la base de ces différentes images. Ces constatations pourraient nous permettre de confirmer ou d'élargir les hypothèses physiologiques quant aux effets du traitement par stimulation vagale. Nous aimerions, de plus, amener à définir des facteurs prédictifs sur la façon de répondre d'un patient au traitement à l'aide du PET au F-18-FDG de départ avant implantation. Plus value escomptée : Ces résultats pourront donner des pistes supplémentaires quant au fonctionnement de la stimulation vagale chez les patients avec épilepsie réfractaire et servir de base à de nouvelles recherches dans ce domaine. Ils pourraient aussi donner des éléments pronostics avant l'implantation pour aider la sélection des patients pouvant bénéficier de ce type de thérapie.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Suite à la demande du Président de la République de disposer d'indicateurs de mortalité en établissements de santé » (discours du 18 septembre 2008 sur le thème de la politique de la santé et de la réforme du système de soins), la Direction de la recherche, des études, de l'évaluation et des statistiques (DREES) a piloté en 2009, en lien avec la Direction générale de l'offre de soins (DGOS) et la Haute autorité de santé (HAS), l'instruction des aspects méthodologiques relatifs à la construction de ces indicateurs de mortalité. Cette revue de littérature portant sur les différentes méthodes d'ajustement a été réalisée dans ce cadre, à la demande conjointe de la DREES et de la HAS.Ce rapport décrit les méthodes et modèles d'estimation et d'ajustement de la mortalité hospitalière identifiées dans la littérature.Il ressort de cette revue, que d'une manière générale, trois questions méthodologiques majeures préoccupent les épidémiologistes, les chercheurs et les décideurs s'intéressant à l'indicateur de la mortalité hospitalière : i) premièrement, sur l'opportunité d'établir l'indicateur de mortalité hospitalière à partir de groupes de population de patients homogènes définis par des pathologies et/ou des procédures médicales/chirurgicales cibles ; ii) deuxièmement, sur le type d'approche analytique et de l'intérêt de prendre en compte plusieurs niveaux dans l'analyse statistique ; iii) enfin troisièmement, sur le choix des variables d'ajustement permettant de contrôler les différences de case-mix entre plusieurs établissements ou groupes de patients pour réaliser des comparaisons. [Ed.]
Resumo:
Introduction: L'efficacité d'une séance de VNI est habituellement évaluée selon la réponse clinique, l'amélioration de l'acidose respiratoire et de l'hypercapnie. Le but de cette étude était d'évaluer l'intérêt de la mesure du CO2 en fin d'expiration (PETCO2) pour estimer la PaCO2 et son évolution dans le temps. Patients et Méthodes: Des patients de réanimation souffrant d'une insuffisance respiratoire aiguë hypercapnique (PaCO2 >45 mmHg) ont été inclus dans cette étude prospective. La PETCO2était mesurée à l'aide d'un capteur nasobuccal (SmartLine®, Oridion) au cours d'une séance de VNI de 60 minutes. Une gazométrie artérielle et la valeur de PETCO2 étaient enregistrées au début de la séance puis chaque 15 minutes. Des manoeuvres d'expiration complète passives et actives étaient effectuées à 30 et 60 minutes. Le gradient de CO2 (PaCO2- PETCO2) a été calculé pour l'ensemble des mesures, spécifiquement pour chaque manoeuvre d'expiration complète, ainsi qu'individuellement pour chaque patient. Ces grandeurs sont exprimées en moyenne et écart-type pour évaluer le biais et la dispersion observés entre PaCO2 et PETCO2. La différence entre chaque valeurs consécutives de gradient de CO2 (delta gradient de CO2) a été calculées par patient. Cette mesure quantifie la variation au cours du temps du gradient de CO2 pour un patient donné. Résultats: 11 patients ont été inclus (7 BPCO, 1 restrictif et 1 syndrome d'apnée du sommeil). Sur l'ensemble des mesures, le gradient de CO2 était de 14.7 + 10.6 mmHg, lors des manoeuvres d'expiration complètes active il était de 8.1 + 13.0 mmHg, et de 8.8 + 11.9 mmHg lors des expirations passives. Conclusion: Chez les patients présentant une insuffisance respiratoire aiguë hypercanique traitée par VNI, la mesure de la PETCO2 par capteur nasobuccal ne permet de prédire ni la valeur de PaCO2, ni son évolution dans le temps. Les manoeuvres d'expiration complète n'apportent aucune plus value.
Resumo:
Résumé : La première partie de ce travail de thèse est consacrée au canal à sodium épithélial (ENaC), l'élément clé du transport transépithélial de Na+ dans le néphron distal, le colon et les voies aériennes. Ce canal est impliqué dans certaines formes génétiques d'hypo- et d'hypertension (PHA I, syndrome de Liddle), mais aussi, indirectement, dans la mucoviscidose. La réabsorption transépithéliale de Na+ est principalement régulée par des hormones (aldostérone, vasopressine), mais aussi directement par le Na+, via deux phénomènes distincts, la « feedback inhibition » et la « self-inhibition » (SI). Ce second phénomène est dépendant de la concentration de Na+ extracellulaire, et montre une cinétique rapide (constante de temps d'environ 3 s). Son rôle physiologique serait d'assurer l'homogénéité de la réabsorption de Na+ et d'empêcher que celle-ci soit excessive lorsque les concentrations de Na+ sont élevées. Différents éléments appuient l'hypothèse de la présence d'un site de détection de la concentration du Na+ extracellulaire sur ENaC, gouvernant la SI. L'objectif de ce premier projet est de démontrer l'existence du site de détection impliqué dans la SI et de déterminer ses propriétés physiologiques et sa localisation. Nous avons montré que les caractéristiques de la SI (en termes de sélectivité et affinité ionique) sont différentes des propriétés de conduction du canal. Ainsi, nos résultats confirment l'hypothèse de l'existence d'un site de détection du Na+ (responsable de la transmission de l'information au mécanisme de contrôle de l'ouverture du canal), différent du site de conduction. Par ailleurs, ce site présente une affinité basse et indépendante du voltage pour le Na+ et le Li+ extracellulaires. Le site semble donc être localisé dans le domaine extracellulaire, plutôt que transmembranaire, de la protéine. L'étape suivante consiste alors à localiser précisément le site sur le canal. Des études précédentes, ainsi que des résultats préliminaires récemment obtenus, mettent en avant le rôle dans la self-inhibition du premiers tiers des boucles extracellulaires des sous-unités α et γ du canal. Le second projet tire son origine des limitations de la méthode classique pour l'étude des canaux ioniques, après expression dans les ovocytes de Xenopus laevis, par la méthode du voltage-clamp à deux électrodes, en particulier les limitations dues à la lenteur des échanges de solutions. En outre, cette méthode souffre de nombreux désavantages (manipulations délicates et peu rapides, grands volumes de solution requis). Plusieurs systèmes améliorés ont été élaborés, mais aucun ne corrige tous les désavantages de la méthode classique Ainsi, l'objectif ici est le développement d'un système, pour l'étude électrophysiologique sur ovocytes, présentant les caractéristiques suivantes : manipulation des cellules facilitée et réduite, volumes de solution de perfusion faibles et vitesse rapide d'échange de la perfusion. Un microsystème intégré sur une puce a été élaboré. Ces capacités de mesure ont été testées en utilisant des ovocytes exprimant ENaC. Des résultats similaires (courbes IV, courbes dose-réponse au benzamil) à ceux obtenus avec le système traditionnel ont été enregistrés avec le microsystème. Le temps d'échange de solution a été estimé à ~20 ms et des temps effectifs de changement ont été déterminés comme étant 8 fois plus court avec le nouveau système comparé au classique. Finalement, la SI a été étudiée et il apparaît que sa cinétique est 3 fois plus rapide que ce qui a été estimé précédemment avec le système traditionnel et son amplitude de 10 à 20 % plus importante. Le nouveau microsystème intégré apparaît donc comme adapté à la mesure électrophysiologique sur ovocytes de Xenopus, et possèdent des caractéristiques appropriées à l'étude de phénomènes à cinétique rapide, mais aussi à des applications de type « high throughput screening ». Summary : The first part of the thesis is related to the Epithelial Sodium Channel (ENaC), which is a key component of the transepithelial Na+ transport in the distal nephron, colon and airways. This channel is involved in hypo- and hypertensive syndrome (PHA I, Liddle syndrome), but also indirectly in cystic fibrosis. The transepithelial reabsorption of Na+ is mainly regulated by hormones (aldosterone, vasopressin), but also directly by Na+ itself, via two distinct phenomena, feedback inhibition and self-inhibition. This latter phenomenon is dependant on the extracellular Na+ concentration and has rapid kinetics (time constant of about 3 s). Its physiological role would be to prevent excessive Na+ reabsorption and ensure this reabsorption is homogenous. Several pieces of evidence enable to propose the hypothesis of an extracellular Na+ sensing site on ENaC, governing self-inhibition. The aim of this first project is to demonstrate the existence of the sensing site involved in self-inhibition and to determine its physiological properties and localization. We show self-inhibition characteristics (ionic selectivity and affinity) are different from the conducting properties of the channel. Our results support thus the hypothesis that the Na+ sensing site (responsible of the transmission of the information about the extracellular Na+ concentration to the channel gating mechanism), is different from the channel conduction site. Furthermore, the site has a low and voltage-insensitive affinity for extracellular Na+ or Li+. This site appears to be located in the extracellular domain rather than in the transmembrane part of the channel protein. The next step is then to precisely localize the site on the channel. Some previous studies and preliminary results we recently obtained highlight the role of the first third of the extracellular loop of the α and γ subunits of the channel in self-inhibition. The second project originates in the limitation of the classical two-electrode voltageclamp system classically used to study ion channels expressed in Xenopus /aevis oocytes, in particular limitations related to the slow solution exchange time. In addition, this technique undergoes several drawbacks (delicate manipulations, time consumption volumes). Several improved systems have been built up, but none corrected all these detriments. The aim of this second study is thus to develop a system for electrophysiological study on oocytes featuring an easy and reduced cell handling, small necessary perfusion volumes and fast fluidic exchange. This last feature establishes the link with the first project, as it should enable to improve the kinetics analysis of self-inhibition. A PDMS chip-based microsystem has been elaborated. Its electrophysiological measurement abilities have been tested using oocytes expressing ENaC. Similar measurements (IV curves of benzamil-sensitive currents, benzamil dose-response curves) have been obtained with this system, compared to the traditional one. The solution exchange time has been estimated at N20 ms and effective exchange times (on inward currents) have been determined as 8 times faster with the novel system compared to the classical one. Finally, self-inhibition has been studied and it appears its kinetics is 3 times faster and its amplitude 10 to 20 % higher than what has been previously estimated with the traditional system. The novel integrated microsystem appears therefore to be convenient for electrophysiological measurement on Xenopus oocytes, and displays features suitable for the study of fast kinetics phenomenon, but also high throughput screening applications. Résumé destiné large public : Le corps humain est composé d'organes, eux-mêmes constitués d'un très grand nombre de cellules. Chaque cellule possède une paroi appelée membrane cellulaire qui sépare l'intérieur de cette cellule (milieu intracellulaire) du liquide (milieu extracellulaire) dans lequel elle baigne. Le maintien de la composition stable de ce milieu extracellulaire est essentiel pour la survie des cellules et donc de l'organisme. Le sodium est un des composants majeurs du milieu extracellulaire, sa quantité dans celui-ci doit être particulièrement contrôlée. Le sodium joue en effet un rôle important : il conditionne le volume de ce liquide extracellulaire, donc, par la même, du sang. Ainsi, une grande quantité de sodium présente dans ce milieu va de paire avec une augmentation du volume sanguin, ce qui conduit l'organisme à souffrir d'hypertension. On se rend donc compte qu'il est très important de contrôler la quantité de sodium présente dans les différents liquides de l'organisme. Les apports de sodium dans l'organisme se font par l'alimentation, mais la quantité de sodium présente dans le liquide extracellulaire est contrôlée de manière très précise par le rein. Au niveau de cet organe, on appelle urine primaire le liquide résultant de la filtration du sang. Elle contient de nombreuses substances, des petites molécules, dont l'organisme a besoin (sodium, glucose...), qui sont ensuite récupérées dans l'organe. A la sortie du rein, l'urine finale ne contient plus que l'excédent de ces substances, ainsi que des déchets à éliminer. La récupération du sodium est plus ou moins importante, en fonction des ajustements à apporter à la quantité présente dans le liquide extracellulaire. Elle a lieu grâce à la présence de protéines, dans les membranes des cellules du rein, capables de le transporter et de le faire transiter de l'urine primaire vers le liquide extracellulaire, qui assurera ensuite sa distribution dans l'ensemble de l'organisme. Parmi ces protéines « transporteurs de sodium », nous nous intéressons à une protéine en particulier, appelée ENaC. Il a été montré qu'elle jouait un rôle important dans cette récupération de sodium, elle est en effet impliquée dans des maladies génétiques conduisant à l'hypo- ou à l'hypertension. De précédents travaux ont montré que lorsque le sodium est présent en faible quantité dans l'urine primaire, cette protéine permet d'en récupérer une très grande partie. A l'inverse, lorsque cette quantité de sodium dans l'urine primaire est importante, sa récupération par le biais d'ENaC est réduite. On parle alors d'autorégulation : la protéine elle-même est capable d'adapter son activité de transport en fonction des conditions. Ce phénomène d'autorégulation constitue a priori un mécanisme préventif visant à éviter une trop grande récupération de sodium, limitant ainsi les risques d'hypertension. La première partie de ce travail de thèse a ainsi consisté à clarifier le mécanisme d'autorégulation de la protéine ENaC. Ce phénomène se caractérise en particulier par sa grande vitesse, ce qui le rend difficile à étudier par les méthodes traditionnelles. Nous avons donc, dans une deuxième partie, développé un nouveau système permettant de mieux décrire et analyser cette « autorégulation » d'ENaC. Ce second projet a été mené en collaboration avec l'équipe de Martin Gijs de l'EPFL.
Resumo:
Fondements : La recherche sur l'oedème postopératoire consécutif à la chirurgie prothétique du genou est peu développée, notamment en raison de l'absence d'une méthode de mesure adaptée. Une collaboration entre physiothérapeutes et ingénieurs a permis de développer et valider une méthode de mesure innovante et facilement applicable. Les physiothérapeutes ont identifié un besoin clinique, les ingénieurs ont apporté leur savoir technologique, et l'équipe a conjointement élaboré le protocole de mesure et effectué l'étude de validation. Introduction : La bioimpédance est fréquemment utilisée pour évaluer l'oedème par l'analyse d'un signal électrique passant au travers du corps, en extrapolant la résistance théorique à une fréquence égale à zéro (R0). La mesure s'avère fiable et rapide, mais n'a jamais été appliquée et validée pour l'évaluation de l'oedème en chirurgie orthopédique. Objectif : L'objectif de l'étude est de valider la mesure de l'oedème du membre inférieur par bioimpédance, chez des patients ayant bénéficié d'une prothèse totale de genou (PTG). Questionnement : Après nous être assurés de l'absence d'influence de l'implant métallique de la PTG sur la mesure, nous nous questionnions sur la validité et la fiabilité des mesures de bioimpédance dans ce contexte. Méthodes : Deux évaluateurs ont mesuré à tour de rôle et à deux reprises successives l'oedème chez 24 patients opérés d'une PTG, à trois temps différents (préopératoire, J+2, J+8). L'oedème a été évalué par bioimpédance (R0) et par conversion en volume de mesures centimétriques du membre inférieur (MI). Nous avons calculé le ratio moyen des MI pour chaque méthode. Nous avons évalué la reproductibilité intra- et inter-observateurs de la bioimpédance (coefficient de corrélation intraclasse, CCI) et la corrélation entre méthodes (Spearman). Résultats : Le ratio moyen opéré/sain du volume des MI est de 1.04 (SD ± 0.06) en préopératoire, 1.18 (SD ± 0.09) à J+2 et 1.17 (SD ± 0.10) à J+8. Le ratio sain/opéré des MI de R0 est de 1.04 (SD ± 0.07) en préopératoire, 1.51 (SD ± 0.22) à J+2 et 1.65 (SD ± 0.21) à J+8. En préopératoire, à J+2 et J+8, les CCI tous supérieurs à 0.95 pour la reproductibilité intra- et inter-observateurs de la bioimpédance. La corrélation entre méthodes est de 0.71 en préopératoire, 0.61 à J2 et 0.33 à J8. Analyse et conclusion : La variation du ratio des MI entre les temps préopératoire, J+2 et J+8 est plus marquée pour R0. La mesure de bioimpédance bénéficie d'une excellente reproductibilité intra- et inter-observateurs. L'évolution dans le temps de la corrélation entre méthodes peut être expliquée par l'influence potentielle de facteurs confondants sur R0 (modification de la composition liquidienne) et par l'influence de l'atrophie musculaire postopératoire sur la mesure de volume. La collaboration physiothérapeutes-ingénieurs a permis le développement et l'évaluation d'une nouvelle méthode de mesure.
Resumo:
Une mauvaise hygiène des mains peut représenter une perte économique importante pour les industries alimentaires ou les industries pharmaceutiques et constitue un gros problème de santé publique dans les établissements de soins. En effet, le risque de transmission manuportée de pathogènes d'un patient à l'autre via le personnel soignant est un problème récurrent dans tous les hôpitaux. C'est pourquoi, une hygiène irréprochable des mains du personnel soignant est une composante fondamentale de lutte contre les infections nosocomiales. En comparaison avec les autres techniques de séchage des mains, l'utilisation d'une serviette en papier à usage unique semble être la méthode la plus efficace pour éliminer les bactéries. En effet, les autres méthodes de séchage, utilisant des appareils à air chaud ou froid, peuvent générer un air contaminé ou remettre en suspension les germes restés sur la peau, facilitant ainsi leur dispersion et leur inhalation. C'est pourquoi, l'OMS a émis des recommandations déconseillant les sèche-mains électriques en milieu hospitalier au profit des serviettes en papiers. Cependant, ces serviettes à usage unique ne sont pas stériles et peuvent elles-mêmes déposer des germes, généralement non pathogènes, sur les mains lors du séchage. Le but du premier article analysé est d'évaluer le niveau de contamination de ces serviettes, ainsi que la possibilité de dépôt de ces bactéries présentes sur les serviettes, sur les mains. À côté du risque de propagation de pathogènes par contact direct, la contamination microbiologique par voie aérienne via les aérosols existe aussi. Pour éviter d'être contaminé par des personnes excrétrices de micro-organismes transmissibles par aérosols (tuberculose, grippe, grippe aviaire SRAS...), il faut porter des protections respiratoires de type FFP2 (1) (norme européenne équivalente à la norme anglosaxonne N95). Ces protections respiratoires ou masques filtrants (en formes de bec de canard) peuvent être portées théoriquement pendant 4 heures. Le but de l'étude du second article est d'évaluer le risque de remise en suspension dans l'air de particules virales présentes sur la face extérieure d'un masque de protection respiratoire lors de simulation d'épisodes de toux provenant du porteur de cette protection.
Resumo:
Résumé: Valoriser le géopatrimoine par la médiation indirecte et la visualisation des objets géomorphologiques Le géopatrimoine regroupe des objets géologiques lato sensu auxquels certaines valeurs sont attribuées, en fonction de leur intérêt pour la science, de leur rareté, de leurs particularités culturelles ou écologiques, etc. Valoriser le géopatrimoine signifie avant tout faire partager cette approche aux non-spécialistes, en expliquant ce qui fait la valeur de ces objets. Cette valorisation peut s'effectuer, entre autres, sous la forme d'une activité touristique et contribuer ainsi au développement régional. Faire comprendre l'origine, la singularité et la valeur des formes du relief implique le recours à une communication éducative, désignée par le terme de médiation. Les implications de la dimension éducative du processus, comme la prise en compte des connaissances et attentes du public, la création d'un environnement favorable à l'apprentissage ou l'attractivité du contenu, sont souvent négligées. Du point de vue conceptuel, un modèle de la médiation indirecte (c'est-à-dire au moyen de supports médiatiques) a été proposé et appliqué au développement empirique de produits de médiation et à leur évaluation. Ce modèle ne garantit pas la réussite de la communication éducative, mais contribue à créer un cadre favorable au processus. De plus, plusieurs lignes directrices pour le choix du type de média et sa mise en forme ont été définies sur la base d'une compilation de résultats de la psychologie cognitive sur l'usage des médias pour l'apprentissage. Des méthodes qualitatives et quantitatives variées ont été mobilisées : enquêtes par questionnaire ex situ et in situ, auprès des visiteurs de géomorphosites de montagne, réalisation de médias interactifs testés ensuite auprès de divers publics (parcours enregistré, pré- et post-questionnaires) et entretiens collectifs. Les résultats obtenus éclairent divers aspects de la problématique. L'étude du public a montré, par exemple, que le géotourisme possède un réel public parmi les visiteurs des sites de montagnes : trois-quarts d'entre eux expriment de l'intérêt pour des explications sur la géologie et l'évolution du paysage. Cette thèse a exploré ces aspects liés au processus d'apprentissage en se focalisant sur les médias visuels, surtout interactifs. La plupart des médias visuels couramment utilisés en géomorphologie ont été considérés. Le développement de versions interactives de ces médias sous forme d'applications web a fourni un aperçu concret des possibilités des nouvelles technologies. Les utilisateurs apprécient en particulier a richesse du contenu, le haut degré d'interactivité et la variété de ces applications. De tels médias incitent à visiter le site naturel et semblent aussi répondre aux intérêts de publics variés. Abstract: Geoheritage promotion through non-personal interpretation and visualisation of geomorphological features Geoheritage concerns all geological features lato sensu to which some values are attributed, according to their scientific interest, their rarity, their cultural or ecological dimensions, etc. Geoheritage promotion implies sharing this point of view with non-specialists, explaining what gives value to those objects. Geotourism is one of the many ways to achieve geoheritage promotion, while contributing also to regional development. In order to make non-specialists understand the origin, the specificity and the value of landforms, educational communication is needed, that is called interpretation (French: médiation). This education dimension has several, and often neglected, implications, like taking into account public's knowledge and expectations, creating a favourable learning environment, attractive design, etc. From the conceptual point of view, a model for non-personal interpretation has been proposed and applied for the empirical development and for the assessment of interpretive products. This model does not guarantee success of educational communication, but help creating a favourable environment for this process. Moreover, some guidelines were defined from a compilation of several results of cognitive psychology on media use for learning. They guide the choice of the kind of media and its design. Several qualitative and quantitative methods were applied: survey questionnaires ex situ and in situ by mountain geomorphosites visitors, interactive medias developed and then tested by different kinds of users (with usertracking, pre- and post-survey questionnaires), group interviews. The results answered different aspects of the research questions. Visitor surveys revealed for example that geotourism could attract many visitors of mountain areas: three quarters of them say they are interested in getting explanations about geology and landscape (in particular its dynamic dimensions). This thesis examined those aspects with a focus on visual medias, both statics and interactive. Most of currently used medias in geomorphology were considered. Interactive versions of those medias were developed in web applications; they gave a concrete overview on the opportunities that new technologies offer. The content richness, the high interaction level and the diversity of the applications are the most liked aspects by the users. Such medias drive to visit the natural site and seem to correspond to the interests of various kinds of publics. Zusammenfassung: Aufwertung des erdwissenschaftlichen Erbes durch mediale Vermittlung und Visualisierung von geomorphologischen Objekten Das erdwissenschaftliche Erbe besteht aus geologischen Gegebenheiten lato sensu, denen entsprechend ihrer Bedeutung für die Wissenschaft, ihrer Seltenheit, ihrer kulturellen oder ökologischen Besonderheiten usw. bestimmte Werte zugeordnet werden. Das erdwissenschaftliche Erbe aufzuwerten bedeutet in erster Linie, diesen Ansatz Nichtspezialisten näher zu bringen, indem ihnen erklärt wird, was den Wert dieser Gegebenheiten ausmacht. Dies kann etwa im Rahmen eines touristischen Angebots geschehen und so die regionale Entwicklung unterstützen. Um Entstehung, Besonderheit und Wert von Geländeformen verständlich zu machen, wird eine pädagogische Kommunikationsform verwendet, die als mediale Vermittlung (franz. médiation) bezeichnet wird. Die Bedeutung der pädagogischen Dimension des Vermittlungsprozesses wie etwa der Einbezug des Wissens und der Erwartungen des Publikums, die Gestaltung eines positiven Lernklimas oder die Attraktivität des Inhalts wird oft vernachlässigt. Auf konzeptueller Ebene wurde ein Modell der indirekten Interpretation erarbeitet (d. h. anhand von Medien), das bei der empirischen Entwicklung der Interpretationsprodukte und ihrer Evaluation Anwendung fand. Dieses Modell garantiert zwar nicht den Erfolg der pädagogischen Kommunikation. Es trägt aber dazu bei, einen für den Prozess günstigen Kontext zu schaffen. Des Weiteren wurden mehrere Richtlinien für die Wahl des Medientyps und dessen Ausgestaltung anhand einer Zusammenstellung von Resultaten der kognitiven Psychologie über den Gebrauch von Medien in Lernprozessen definiert. Es wurden verschiedene qualitative und quantitative Methoden eingesetzt: Befragung mittels Fragebogen der Besucher von geomorphologischen Geotopen im Gebirge - ex situ und in situ -, Erarbeitung von interaktiven Medien, die anschliessend anhand verschiedener Zielgruppen gestestet wurden (Aufnahme des Besuchparcours, Vor- und Nachfragebögen) sowie kollektive Interviews. Die Ergebnisse geben Aufschluss zu verschiedenen Aspekten der Fragestellung. Die Befragung des Publikums hat zum Beispiel deutlich gemacht, dass der Geotourismus unter den Besuchern von Berggebieten tatsächlich auf eine Nachfrage stösst: drei Viertel von ihnen zeigen ein Interesse für Erläuterungen zur Geologie und der Landschaftsentwicklung. Die vorliegende Doktorarbeit hat die genannten Aspekte der Lernprozesse untersucht, wobei der Fokus auf visuellen, insbesondere interaktiven Medien lag. Die meisten gängigen visuellen Medien der Geomorphologie wurden berücksichtigt. Die Entwicklung von interaktiven Versionen dieser Medien in Form von Web-Anwendungen hat die Möglichkeiten der neuen Technologien veranschaulicht. Die Benutzer schätzten insbesondere die Vielfalt des Inhalts, die hohe Interaktivität und die Diversität dieser Anwendungen. Solche Medien laden dazu ein, ein Naturgebiet zu besuchen und scheinen den Interessen der verschiedenen Publikumsgruppen entgegenzukommen.
Resumo:
Introduction: Une élévation de l'activité des facteurs de transcription CREBs dans le tissu adipeux est en partie responsable de l'insulino-résistance systémique dans l'obésité. Le facteur «Inducible cAMP early repressor» (ICER) est un répresseur transcriptionnel passif dont le niveau d'expression antagonise l'activité des CREBs. L'objectif de ce travail adipocytaire des CREBs dans l'obésité chez l'Homme et la souris. Matériels et méthodes: Du tissu adipeux blanc (TAB) a été prélevé chez des souris obèses nourries sous une diète normale et des souris obèses nourries sous un régime riche en graisses pendant 12 semaines. Des biopsies de tissu adipeux viscéral (TAV) ont été prélevées chez les sujets humains minces (BMI = 24 ± 0,5 kg/m2) et obèses (BMI > 35 kg/m2). L'expression des gènes est quantifiée par RT-PCR quantitative. L'activité des CREBs et d'ICER est mesurée par des expériences de retard sur gel. L'activité des histones déacétylases est quantifiée par dosage colorimétrique. Résultats: L'expression et l'activité d'ICER sont diminuées dans le TAB des souris obèses, hyper-glycémiques et insulino-résistantes. De même, l'activité d'ICER est réduite dans le TAV des sujets humains obèses. Cette réduction corrèle avec une augmentation de l'activité des CREBs, une réduction de l'expression de Glut4 et de l'adiponectine, à la fois chez l'Homme et la souris. La diminution de l'expression d'ICER n'est observée que dans la fraction adipocytaire du tissu adipeux. L'expression d'ICER est contrôlée par l'activité des HDACs. L'inhibition des HDACs inhibe l'expression d'ICER dans les adipocytes. L'activité totale des HDACs est réduite dans les tissus adipeux chez les souris et chez les sujets humains obèses. Conclusion: La diminution de l'activité d'ICER dans les adipocytes par une modification de l'activité des HDACs serait responsable de l'augmentation de l'activité des CREBs dans l'obésité.
Resumo:
Introduction: Plusieurs études ont démontré qu'une injection unique de methylprednisolone était suivie d'une adsorption systémique significative (1) alors que cela ne semble pas être le cas si le produit est injecté par voie péridurale (2) Le but de ce travail est de comparer l'excrétion urinaire du produit, témoin de l'absortion sytémique après une injection unique de 80 mg de méthylprednisolone soit par voie intra-articulaire soit péridurale. Patients et Méthodes: 8 patients ont recu une injection de 80 mg methylprednisolone (4 par voie intra-articulaire 4 par voie péridurale).Ces dernières ont été pratiquées via le hiatus sacré sous contrôle fluoroscopique. Les injections intra articulaires ont été faites selon les repaires cliniques habituels dans les genoux. Les urines ont été prélevées 1 heure avant l'injection puis 4 x le premier jour, suivi de 3 receuils par semaine pendant 2 semaines. Les dosages urinaires comprennent la fraction libre et conjugée du stéroide. Ils ont été effectués dans le laboratoire d'analyse au centre universitaire romand de médecine légale. Résultats: Les résultats ont été exploités de facon à obtenir des cinétiques d'excrétion. Ils montrent de grandes différences individuelles surtout les patients ayant bénéficié d'une infiltration intra-articulaire. Après infiltrations intra-articulaires les concentrations maximales varient de 90 à 2500ng/ml pour la forme conjugée et de 60 à 4976 ng/ml pour la forme libre.La moyenne des taux individuels les plus élevés+ 3 SD est de 8269 ng/ml. Elles sont sigificativement inférieures après injection péridurale : pic maximaux de 40 à 483 ng/ml pour la forme conjugée et 40 à 80 ng/ml pour la forme libre. La moyenne des taux individuels les plus élevés est de 747 ng/ml. Dans les 2 cas le pic d'excrétion a lieu durant les 24 premières heures . L'éllimination est totale après 200 heures dans les deux situations. Conclusion: Cette étude confirme que l'absorption systémique de methylprednisolone est beaucoup plus faible après une infiltration péridurale que intra-articulaire, puisque son excrétion urinaire est moyenne 10 X inférieure. Le risque de complications systémiques secondaires à la corticothérapie est donc probablement négligeable après une infiltration péridurale.
Resumo:
RESUME Cette thèse se situe à la frontière de la recherche en économie du développement et du commerce international et vise à intégrer les apports de l'économie géographique. Le premier chapitre s'intéresse aux effets de création et de détournement de commerce au sein des accords régionaux entre pays en développement et combine une approche gravitaire et une estimation non paramétrique des effets de commerce. Cette analyse confirme un effet de commerce non monotone pour six accords régionaux couvrant l'Afrique, l'Amérique Latine et l'Asie (AFTA, CAN, CACM, CEDEAO, MERCO SUR et SADC) sur la période 1960-1996. Les accords signés dans les années 90 (AFTA, CAN, MERCOSUR et SADC) semblent avoir induis une amélioration du bien-être de leurs membres mais avec un impact variable sur le reste du monde, tandis que les accords plus anciens (CEDEAO et CACM) semblent montrer que les effets de commerce et de bien-être se réduisent pour finir par s'annuler à mesure que le nombre d'années de participation des Etats membres augmente. Le deuxième chapitre pose la question de l'impact de la géographie sur les échanges Sud-Sud. Ce chapitre innove par rapport aux méthodes classiques d'estimation en dérivant une équation de commerce à partir de l'hypothèse d'Armington et en intégrant une fonction de coût de transport qui prend en compte la spécificité des pays de l'UEMOA. Les estimations donnent des effets convaincants quant au rôle de l'enclavement et des infrastructures: deux pays enclavés de l'UEMOA commercent 92% moins que deux autres pays quelconques, tandis que traverser un pays de transit au sein de l'espace UEMOA augmente de 6% les coûts de transport, et que bitumer toutes les routes inter-Etat de l'Union induirait trois fois plus de commerce intra-UEMOA. Le chapitre 3 s'intéresse à la persistance des différences de développement au sein des accords régionaux entre pays en développement. Il montre que la géographie différenciée des pays du Sud membres d'un accord induit un impact asymétrique de celui-ci sur ses membres. Il s'agit d'un modèle stylisé de trois pays dont deux ayant conclu un accord régional. Les résultats obtenus par simulation montrent qu'une meilleure dotation en infrastructure d'un membre de l'accord régional lui permet d'attirer une plus grande part industrielle à mesure que les coûts de transport au sein de l'accord régional sont baissés, ce qui conduit à un développement inégal entre les membres. Si les niveaux d'infrastructure domestique de transport sont harmonisés au sein des pays membres de l'accord d'intégration, leurs parts industrielles peuvent converger au détriment des pays restés hors de l'union. Le chapitre 4 s'intéresse à des questions d'économie urbaine en étudiant comment l'interaction entre rendements croissants et coûts de transport détermine la localisation des activités et des travailleurs au sein d'un pays ou d'une région. Le modèle développé reproduit un fait stylisé observé à l'intérieur des centres métropolitains des USA: sur une période longue (1850-1990), on observe une spécialisation croissante des centres urbains et de leurs périphéries associée à une évolution croissante puis décroissante de la population des centres urbains par rapport à leurs périphéries. Ce résultat peut se transférer dans un contexte en développement avec une zone centrale et une zone périphérique: à mesure que l'accessibilité des régions s'améliore, ces régions se spécialiseront et la région principale, d'abord plus importante (en termes de nombre de travailleurs) va finir par se réduire à une taille identique à celle de la région périphérique.
Resumo:
The interaction of tunneling with groundwater is a problem both from an environmental and an engineering point of view. In fact, tunnel drilling may cause a drawdown of piezometric levels and water inflows into tunnels that may cause problems during excavation of the tunnel. While the influence of tunneling on the regional groundwater systems may be adequately predicted in porous media using analytical solutions, such an approach is difficult to apply in fractured rocks. Numerical solutions are preferable and various conceptual approaches have been proposed to describe and model groundwater flow through fractured rock masses, ranging from equivalent continuum models to discrete fracture network simulation models. However, their application needs many preliminary investigations on the behavior of the groundwater system based on hydrochemical and structural data. To study large scale flow systems in fractured rocks of mountainous terrains, a comprehensive study was conducted in southern Switzerland, using as case studies two infrastructures actually under construction: (i) the Monte Ceneri base railway tunnel (Ticino), and the (ii) San Fedele highway tunnel (Roveredo, Graubiinden). The chosen approach in this study combines the temporal and spatial variation of geochemical and geophysical measurements. About 60 localities from both surface and underlying tunnels were temporarily and spatially monitored during more than one year. At first, the project was focused on the collection of hydrochemical and structural data. A number of springs, selected in the area surrounding the infrastructures, were monitored for discharge, electric conductivity, pH, and temperature. Water samples (springs, tunnel inflows and rains) were taken for isotopic analysis; in particular the stable isotope composition (δ2Η, δ180 values) can reflect the origin of the water, because of spatial (recharge altitude, topography, etc.) and temporal (seasonal) effects on precipitation which in turn strongly influence the isotopic composition of groundwater. Tunnel inflows in the accessible parts of the tunnels were also sampled and, if possible, monitored with time. Noble-gas concentrations and their isotope ratios were used in selected locations to better understand the origin and the circulation of the groundwater. In addition, electrical resistivity and VLF-type electromagnetic surveys were performed to identify water bearing fractures and/or weathered areas that could be intersected at depth during tunnel construction. The main goal of this work was to demonstrate that these hydrogeological data and geophysical methods, combined with structural and hydrogeological information, can be successfully used in order to develop hydrogeological conceptual models of the groundwater flow in regions to be exploited for tunnels. The main results of the project are: (i) to have successfully tested the application of electrical resistivity and VLF-electromagnetic surveys to asses water-bearing zones during tunnel drilling; (ii) to have verified the usefulness of noble gas, major ion and stable isotope compositions as proxies for the detection of faults and to understand the origin of the groundwater and its flow regimes (direct rain water infiltration or groundwater of long residence time); and (iii) to have convincingly tested the combined application of a geochemical and geophysical approach to assess and predict the vulnerability of springs to tunnel drilling. - L'interférence entre eaux souterraines et des tunnels pose des problèmes environnementaux et de génie civile. En fait, la construction d'un tunnel peut faire abaisser le niveau des nappes piézométriques et faire infiltrer de l'eau dans le tunnel et ainsi créer des problème pendant l'excavation. Alors que l'influence de la construction d'un tunnel sur la circulation régionale de l'eau souterraine dans des milieux poreux peut être prédite relativement facilement par des solution analytiques de modèles, ceci devient difficile dans des milieux fissurés. Dans ce cas-là, des solutions numériques sont préférables et plusieurs approches conceptuelles ont été proposées pour décrire et modéliser la circulation d'eau souterraine à travers les roches fissurées, en allant de modèles d'équivalence continue à des modèles de simulation de réseaux de fissures discrètes. Par contre, leur application demande des investigations importantes concernant le comportement du système d'eau souterraine basées sur des données hydrochimiques et structurales. Dans le but d'étudier des grands systèmes de circulation d'eau souterraine dans une région de montagnes, une étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction: (i) Le tunnel ferroviaire de base du Monte Ceneri (Tessin) et (ii) le tunnel routière de San Fedele (Roveredo, Grisons). L'approche choisie dans cette étude est la combinaison de variations temporelles et spatiales des mesures géochimiques et géophysiques. Environs 60 localités situées à la surface ainsi que dans les tunnels soujacents ont été suiviès du point de vue temporel et spatial pendant plus de un an. Dans un premier temps le projet se focalisait sur la collecte de données hydrochimiques et structurales. Un certain nombre de sources, sélectionnées dans les environs des infrastructures étudiées ont été suivies pour le débit, la conductivité électrique, le pH et la température. De l'eau (sources, infiltration d'eau de tunnel et pluie) a été échantillonnés pour des analyses isotopiques; ce sont surtout les isotopes stables (δ2Η, δ180) qui peuvent indiquer l'origine d'une eaux, à cause de la dépendance d'effets spatiaux (altitude de recharge, topographie etc.) ainsi que temporels (saisonaux) sur les précipitations météoriques , qui de suite influencent ainsi la composition isotopique de l'eau souterraine. Les infiltrations d'eau dans les tunnels dans les parties accessibles ont également été échantillonnées et si possible suivies au cours du temps. La concentration de gaz nobles et leurs rapports isotopiques ont également été utilisées pour quelques localités pour mieux comprendre l'origine et la circulation de l'eau souterraine. En plus, des campagnes de mesures de la résistivité électrique et électromagnétique de type VLF ont été menées afin d'identifier des zone de fractures ou d'altération qui pourraient interférer avec les tunnels en profondeur pendant la construction. Le but principal de cette étude était de démontrer que ces données hydrogéologiques et géophysiques peuvent être utilisées avec succès pour développer des modèles hydrogéologiques conceptionels de tunnels. Les résultats principaux de ce travail sont : i) d'avoir testé avec succès l'application de méthodes de la tomographie électrique et des campagnes de mesures électromagnétiques de type VLF afin de trouver des zones riches en eau pendant l'excavation d'un tunnel ; ii) d'avoir prouvé l'utilité des gaz nobles, des analyses ioniques et d'isotopes stables pour déterminer l'origine de l'eau infiltrée (de la pluie par le haut ou ascendant de l'eau remontant des profondeurs) et leur flux et pour déterminer la position de failles ; et iii) d'avoir testé d'une manière convainquant l'application combinée de méthodes géochimiques et géophysiques pour juger et prédire la vulnérabilité de sources lors de la construction de tunnels. - L'interazione dei tunnel con il circuito idrico sotterraneo costituisce un problema sia dal punto di vista ambientale che ingegneristico. Lo scavo di un tunnel puô infatti causare abbassamenti dei livelli piezometrici, inoltre le venute d'acqua in galleria sono un notevole problema sia in fase costruttiva che di esercizio. Nel caso di acquiferi in materiale sciolto, l'influenza dello scavo di un tunnel sul circuito idrico sotterraneo, in genere, puô essere adeguatamente predetta attraverso l'applicazione di soluzioni analitiche; al contrario un approccio di questo tipo appare inadeguato nel caso di scavo in roccia. Per gli ammassi rocciosi fratturati sono piuttosto preferibili soluzioni numeriche e, a tal proposito, sono stati proposti diversi approcci concettuali; nella fattispecie l'ammasso roccioso puô essere modellato come un mezzo discreto ο continuo équivalente. Tuttavia, una corretta applicazione di qualsiasi modello numerico richiede necessariamente indagini preliminari sul comportamento del sistema idrico sotterraneo basate su dati idrogeochimici e geologico strutturali. Per approfondire il tema dell'idrogeologia in ammassi rocciosi fratturati tipici di ambienti montani, è stato condotto uno studio multidisciplinare nel sud della Svizzera sfruttando come casi studio due infrastrutture attualmente in costruzione: (i) il tunnel di base del Monte Ceneri (canton Ticino) e (ii) il tunnel autostradale di San Fedele (Roveredo, canton Grigioni). L'approccio di studio scelto ha cercato di integrare misure idrogeochimiche sulla qualité e quantité delle acque e indagini geofisiche. Nella fattispecie sono state campionate le acque in circa 60 punti spazialmente distribuiti sia in superficie che in sotterraneo; laddove possibile il monitoraggio si è temporalmente prolungato per più di un anno. In una prima fase, il progetto di ricerca si è concentrato sull'acquisizione dati. Diverse sorgenti, selezionate nelle aree di possibile influenza attorno allé infrastrutture esaminate, sono state monitorate per quel che concerne i parametri fisico-chimici: portata, conduttività elettrica, pH e temperatura. Campioni d'acqua sono stati prelevati mensilmente su sorgenti, venute d'acqua e precipitazioni, per analisi isotopiche; nella fattispecie, la composizione in isotopi stabili (δ2Η, δ180) tende a riflettere l'origine delle acque, in quanto, variazioni sia spaziali (altitudine di ricarica, topografia, etc.) che temporali (variazioni stagionali) della composizione isotopica delle precipitazioni influenzano anche le acque sotterranee. Laddove possibile, sono state campionate le venute d'acqua in galleria sia puntualmente che al variare del tempo. Le concentrazioni dei gas nobili disciolti nell'acqua e i loro rapporti isotopici sono stati altresi utilizzati in alcuni casi specifici per meglio spiegare l'origine delle acque e le tipologie di circuiti idrici sotterranei. Inoltre, diverse indagini geofisiche di resistività elettrica ed elettromagnetiche a bassissima frequenza (VLF) sono state condotte al fine di individuare le acque sotterranee circolanti attraverso fratture dell'ammasso roccioso. Principale obiettivo di questo lavoro è stato dimostrare come misure idrogeochimiche ed indagini geofisiche possano essere integrate alio scopo di sviluppare opportuni modelli idrogeologici concettuali utili per lo scavo di opere sotterranee. I principali risultati ottenuti al termine di questa ricerca sono stati: (i) aver testato con successo indagini geofisiche (ERT e VLF-EM) per l'individuazione di acque sotterranee circolanti attraverso fratture dell'ammasso roccioso e che possano essere causa di venute d'acqua in galleria durante lo scavo di tunnel; (ii) aver provato l'utilità di analisi su gas nobili, ioni maggiori e isotopi stabili per l'individuazione di faglie e per comprendere l'origine delle acque sotterranee (acque di recente infiltrazione ο provenienti da circolazioni profonde); (iii) aver testato in maniera convincente l'integrazione delle indagini geofisiche e di misure geochimiche per la valutazione della vulnérabilité delle sorgenti durante lo scavo di nuovi tunnel. - "La NLFA (Nouvelle Ligne Ferroviaire à travers les Alpes) axe du Saint-Gothard est le plus important projet de construction de Suisse. En bâtissant la nouvelle ligne du Saint-Gothard, la Suisse réalise un des plus grands projets de protection de l'environnement d'Europe". Cette phrase, qu'on lit comme présentation du projet Alptransit est particulièrement éloquente pour expliquer l'utilité des nouvelles lignes ferroviaires transeuropéens pour le développement durable. Toutefois, comme toutes grandes infrastructures, la construction de nouveaux tunnels ont des impacts inévitables sur l'environnement. En particulier, le possible drainage des eaux souterraines réalisées par le tunnel peut provoquer un abaissement du niveau des nappes piézométriques. De plus, l'écoulement de l'eau à l'intérieur du tunnel, conduit souvent à des problèmes d'ingénierie. Par exemple, d'importantes infiltrations d'eau dans le tunnel peuvent compliquer les phases d'excavation, provoquant un retard dans l'avancement et dans le pire des cas, peuvent mettre en danger la sécurité des travailleurs. Enfin, l'infiltration d'eau peut être un gros problème pendant le fonctionnement du tunnel. Du point de vue de la science, avoir accès à des infrastructures souterraines représente une occasion unique d'obtenir des informations géologiques en profondeur et pour échantillonner des eaux autrement inaccessibles. Dans ce travail, nous avons utilisé une approche pluridisciplinaire qui intègre des mesures d'étude hydrogéochimiques effectués sur les eaux de surface et des investigations géophysiques indirects, tels que la tomographic de résistivité électrique (TRE) et les mesures électromagnétiques de type VLF. L'étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction, qui sont le tunnel ferroviaire de base du Monte Ceneri, une partie du susmentionné projet Alptransit, situé entièrement dans le canton Tessin, et le tunnel routière de San Fedele, situé a Roveredo dans le canton des Grisons. Le principal objectif était de montrer comment il était possible d'intégrer les deux approches, géophysiques et géochimiques, afin de répondre à la question de ce que pourraient être les effets possibles dû au drainage causés par les travaux souterrains. L'accès aux galeries ci-dessus a permis une validation adéquate des enquêtes menées confirmant, dans chaque cas, les hypothèses proposées. A cette fin, nous avons fait environ 50 profils géophysiques (28 imageries électrique bidimensionnels et 23 électromagnétiques) dans les zones de possible influence par le tunnel, dans le but d'identifier les fractures et les discontinuités dans lesquelles l'eau souterraine peut circuler. De plus, des eaux ont été échantillonnés dans 60 localités situées la surface ainsi que dans les tunnels subjacents, le suivi mensuelle a duré plus d'un an. Nous avons mesurés tous les principaux paramètres physiques et chimiques: débit, conductivité électrique, pH et température. De plus, des échantillons d'eaux ont été prélevés pour l'analyse mensuelle des isotopes stables de l'hydrogène et de l'oxygène (δ2Η, δ180). Avec ces analyses, ainsi que par la mesure des concentrations des gaz rares dissous dans les eaux et de leurs rapports isotopiques que nous avons effectués dans certains cas spécifiques, il était possible d'expliquer l'origine des différents eaux souterraines, les divers modes de recharge des nappes souterraines, la présence de possible phénomènes de mélange et, en général, de mieux expliquer les circulations d'eaux dans le sous-sol. Le travail, même en constituant qu'une réponse partielle à une question très complexe, a permis d'atteindre certains importants objectifs. D'abord, nous avons testé avec succès l'applicabilité des méthodes géophysiques indirectes (TRE et électromagnétiques de type VLF) pour prédire la présence d'eaux souterraines dans le sous-sol des massifs rocheux. De plus, nous avons démontré l'utilité de l'analyse des gaz rares, des isotopes stables et de l'analyses des ions majeurs pour la détection de failles et pour comprendre l'origine des eaux souterraines (eau de pluie par le haut ou eau remontant des profondeurs). En conclusion, avec cette recherche, on a montré que l'intégration des ces informations (géophysiques et géochimiques) permet le développement de modèles conceptuels appropriés, qui permettant d'expliquer comment l'eau souterraine circule. Ces modèles permettent de prévoir les infiltrations d'eau dans les tunnels et de prédire la vulnérabilité de sources et des autres ressources en eau lors de construction de tunnels.
Resumo:
Objectifs: Des décès suite à une intervention chirurgicale sont autopsiés dans le but de déterminer le cause de la mort et investiguer une éventuelle erreur médicale . Le butde l'étude est d'évaluer l'utilité de l'angio-TDM post mortem pour ce type d'investigations médico-légales délicates. Matériels et méthodes: 145 cas médico-légaux ont été investigués. De ce collectif, huit cas impliquaient une intervention chirurgicale pour laquelle le décès pouvait être éventuellementimputé. Les résultats des examens radiologiques ont été comparés avec ceux obtenus par l'autopsie conventionnelle. Résultats: La cause du décès était soit un choc hémorragique ou septique, soit la combinaison d'une hémorragie et d'une aspiration de sang. Le diagnostic a pu être posélors de l'autopsie conventionnelle de même que lors de l'examen radiologique. Cependant, l'examen par angio-TDM a permis de détecter la source exacte deshémorragies dans cinq des six cas, alors que l'autopsie n'a permis de localiser le site hémorragique approximativement que dans trois cas . Conclusion: L'angio-TDM post-mortem est recommandée dans les cas de décès post-interventionnels. Elle permet de documenter les constatations et de réexaminer les casultérieurement. De plus, la source exacte des hémorragies peut être localisée ce qui est d'une grande importance dans ce genre de cas.