111 resultados para fonctions de densité de probabilité des tons de gris
em Université de Lausanne, Switzerland
Resumo:
L'urbanisme durable réinterprète et réinvente le modèle de la ville dense. Il reconsidère les avantages de la proximité et pense l'organisation des relations entre la forme urbaine, les fonctions, les usages et les significations de la ville dans une visée de production de la qualité urbaine. Qualifier la ville c'est inscrire de la valeur dans l'espace. C'est faire de la ville un « trésor d'espaces », donner vie aux quartiers, organiser la mobilité, agencer des noyaux d'urbanité différenciés afin d'intensifier leurs multiples valeurs d'usage (économiques, sociales, écologiques, esthétiques). L'intensité urbaine révèle forcément la présence humaine et la manière dont la ville est vécue, représentée, signifiée et appropriée par ses habitants. L'article explore la notion d'intensité comme outil pour une gestion adaptative des densités urbaines et des tensions qu'elles engendrent. C'est aussi un plaidoyer pour une densification régulée dans une ville plurielle, réticulaire et polycentrique.
Resumo:
Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.
Resumo:
One of the most intriguing functions of the brain is the ability to learn and memorize. The mechanism through which memory and learning are expressed requires the activation of NMDA receptors (NMDARs). These molecular entities are placed at the postsynaptic density of excitatory synapses and their function is tightly controlled by the actions of several modulators at the extracellular, intracellular and pore sites. A large part of the intracellular modulation comes from the action of G-protein coupled receptors (GPCRs). Through intracellular cascades typically involving kinases and phosphatases, GPCRs potentiate or inhibit NMDARs, controlling the conductive state but also the trafficking within the synapse. The GPCRs are involved in the modulation of a variety of brain functions. Many of them control cognition, memory and learning performance, therefore, their effects on NMDARs are extensively studied. The orexinergic system signals through GPCRs and it is well known for the regulation of waking, feeding, reward and autonomic functions. Moreover, it is involved in potentiating hippocampus-related cognitive tasks. Orexin receptors and fibers are present within the hippocampus, but whether these directly modulate hippocampal cells and synapses has not yet been determined. During my thesis, I studied orexinergic actions on excitatory synaptic transmission via whole-cell patch-clamp recordings in rat acute hippocampal slices. I observed that exogenously applied orexin-A (ox-A) exerted a strong inhibitory action on NMDAR-mediated synaptic potentials at mossy fiber (MF)-CA3 synapses, by postsynaptically activating orexin-2 receptors, a minor inhibition at Schaffer collateral-CAl synapses and did not affect other synapses with the CA3 area. Moreover, I demonstrated that the susceptibility of NMDARs to ox- A depends on the tone of endogenous orexin known to fluctuate during the day-night cycle. In fact, in slices prepared during the active period of the rats, when endogenous orexin levels are high, NMDAR-currents were not affected by exogenously applied ox-A. The inhibitory effect of ox-A was, however, reverted when interfering with the orexinergic system through intraperitoneal injections of almorexant, a dual orexin receptor antagonist, during the active phase prior to slice preparation. This thesis work suggests that the orexinergic system regulates NMDAR-dependent information flow through select hippocampal pathways depending on the time-of-day. The specific orexinergic modulation of NMDARs at MFs dampens the excitability of the hippocampal circuit and could impede the mechanisms related to memory formation, possibly also following extended periods of waking. -- La capacité d'apprentissage et de mémorisation est une des fonctions les plus intrigantes de notre cerveau. Il a été montré qu'elles requièrent l'activation des récepteurs NMDA (NMDARs). Ces entités moléculaires sont présentes au niveau de la densité post-synaptique des synapses excitatrices et leur fonction est étroitement contrôlée par l'action de nombreux modulateurs au niveau extracellulaire, intracellulaire et membranaire de ces récepteurs. Une grande partie de la modulation intracellulaire s'effectue via l'action de récepteurs couplés aux protéines G (GPCRs). Grace à leurs cascades intracellulaires typiquement impliquant des kinases et des phosphatases, les GPCRs favorisent l'activation ou l'inhibition des NMDARs, contrôlant ainsi leur perméabilité mais aussi leur mouvement à la synapse. Les GPCRs sont impliquées dans de nombreuses fonctions cérébrales telles que la cognition, la mémoire ainsi que la capacité d'apprentissage c'est pour cela que leurs effets sur les NMDARs sont très étudiés. Le système orexinergique fait intervenir ces GPCRs et est connu par son rôle dans la régulation de fonctions physiologiques telles que l'éveil, la prise alimentaire, la récompense ainsi que d'autres fonctions du système nerveux autonome. De plus, ce système est impliqué dans la régulation de tâches cognitives liées à l'hippocampe. Bien que les fibres et les récepteurs à l'orexine soient présents dans l'hippocampe, leur mécanisme d'action sur les cellules et les synapses de l'hippocampe n'a pas encore été élucidé. Durant ma thèse, je me suis intéressée aux effets de l'orexine sur la transmission synaptique excitatrice en utilisant la méthode d'enregistrement en patch-clamp en configuration cellule entière sur des tranches aiguës d'hippocampes de rats. J'ai observé que l'application exogène d'orexine A d'une part inhibe fortement les courants synaptiques dépendants de l'activation des NMDARs au niveau de la synapse entre les fibres moussues et CA3 via l'activation post-synaptique des orexine récepteurs 2 mais d'autre part n'inhibe que de façon mineure la synapse entre les collatérales de Schaffer et CAI et n'affecte pas les autres synapses impliquant CA3. J'ai également démontré que la sensibilité des NMDARs à l'orexine A dépend de sa concentration endogène qui fluctue durant le cycle éveil-sommeil. En effet, lorsque les coupes d'hippocampes sont préparées durant la période active de l'animal correspondant à un niveau endogène d'orexine élevé, l'application exogène d'orexine A n'a aucun effet sur les courants dépendants de l'activation des NMDARs. Cependant, l'injection dans le péritoine, durant la phase active de l'animal, d'un antagoniste des orexine récepteurs, l'almorexant, va supprimer l'effet inhibiteur de l'orexine A. Les résultats de ma thèse suggèrent donc que le système orexinergique module les informations véhiculées par les NMDARs via des voies de signalisation sélectives de l'hippocampe en fonction du moment de la journée. La modulation orexinergique des NMDARs au niveau des fibres moussues diminue ainsi l'excitabilité du circuit hippocampal et pourrait entraver les mécanismes liés à la formation de la mémoire, potentiellement après de longues périodes d'éveil.
Resumo:
Les progrès de la thérapie antirétrovirale ont transformé l'infection par le VIH d'une condition inévitablement fatale à une maladie chronique. En dépit de ce succès, l'échec thérapeutique et la toxicité médicamenteuse restent fréquents. Une réponse inadéquate au traitement est clairement multifactorielle et une individualisation de la posologie des médicaments qui se baserait sur les facteurs démographiques et génétiques des patients et sur les taux sanguins totaux, libres et/ou cellulaires des médicaments pourrait améliorer à la fois l'efficacité et la tolérance de la thérapie, cette dernière étant certainement un enjeu majeur pour un traitement qui se prend à vie.L'objectif global de cette thèse était de mieux comprendre les facteurs pharmacocinétiques (PK) et pharmacogénétiques (PG) influençant l'exposition aux médicaments antirétroviraux (ARVs) nous offrant ainsi une base rationnelle pour l'optimisation du traitement antiviral et pour l'ajustement posologique des médicaments chez les patients VIH-positifs. Une thérapie antirétrovirale adaptée au patient est susceptible d'augmenter la probabilité d'efficacité et de tolérance à ce traitement, permettant ainsi une meilleure compliance à long terme, et réduisant le risque d'émergence de résistance et d'échec thérapeutique.A cet effet, des méthodes de quantification des concentrations plasmatiques totales, libres et cellulaires des ARVs ainsi que de certains de leurs métabolites ont été développées et validées en utilisant la chromatographie liquide coupée à la spectrométrie de masse en tandem. Ces méthodes ont été appliquées pour la surveillance des taux d'ARVs dans diverses populations de patients HIV-positifs. Une étude clinique a été initiée dans le cadre de l'étude VIH Suisse de cohorte mère-enfant afin de déterminer si la grossesse influence la cinétique des ARVs. Les concentrations totales et libres du lopînavir, de l'atazanavir et de la névirapine ont été déterminées chez les femmes enceintes suivies pendant leur grossesse, et celles-ci ont été trouvées non influencées de manière cliniquement significative par la grossesse. Un ajustement posologique de ces ARVs n'est donc pas nécessaire chez les femmes enceintes. Lors d'une petite étude chez des patients HIV- positifs expérimentés, la corrélation entre l'exposition cellulaire et plasmatique des nouveaux ARVs, notamment le raltégravir, a été déterminée. Une bonne corrélation a été obtenue entre taux plasmatiques et cellulaires de raltégravir, suggérant que la surveillance des taux totaux est un substitut satisfaisant. Cependant, une importante variabilité inter¬patient a été observée dans les ratios d'accumulation cellulaire du raltégravir, ce qui devrait encourager des investigations supplémentaires chez les patients en échec sous ce traitement. L'efficacité du suivi thérapeutique des médicaments (TDM) pour l'adaptation des taux d'efavirenz chez des patients avec des concentrations au-dessus de la cible thérapeutique recommandée a été évaluée lors d'une étude prospective. L'adaptation des doses d'efavirenz basée sur le TDM s'est montrée efficace et sûre, soutenant l'utilisation du TDM chez les patients avec concentrations hors cible thérapeutique. L'impact des polymorphismes génétiques des cytochromes P450 (CYP) 2B6, 2A6 et 3A4/5 sur la pharmacocinétique de l'efavirenz et de ces métabolites a été étudié : un modèle de PK de population intégrant les covariats génétiques et démographiques a été construit. Les variations génétiques fonctionnelles dans les voies de métabolisation principales (CYP2B6) et accessoires {CYP2A6et 3A4/S) de l'efavirenz ont un impact sur sa disposition, et peuvent mener à des expositions extrêmes au médicament. Un? ajustement des doses guidé par le TDM est donc recommandé chez ces patients, en accord avec les polymorphismes génétiques.Ainsi, nous avons démonté qu'en utilisant une approche globale tenant compte à la fois des facteurs PK et PG influençant l'exposition aux ARVs chez les patients infectés, il est possible, si nécessaire, d'individualiser la thérapie antirétrovirale dans des situations diverses. L'optimisation du traitement antirétroviral contribue vraisemblablement à une meilleure efficacité thérapeutique à iong terme tout en réduisant la survenue d'effets indésirables.Résumé grand publicOptimisation de la thérapie antirétrovirale: approches pharmacocinétiques et pharmacogénétiquesLes progrès effectués dans le traitement de l'infection par le virus de llmmunodéficienoe humaine acquise (VIH) ont permis de transformer une affection mortelle en une maladie chronique traitable avec des médicaments de plus en plus efficaces. Malgré ce succès, un certain nombre de patients ne répondent pas de façon optimale à leur traitement etyou souffrent d'effets indésirables médicamenteux entraînant de fréquentes modifications dans leur thérapie. Il a été possible de mettre en évidence que l'efficacité d'un traitement antirétroviral est dans la plupart des cas corrélée aux concentrations de médicaments mesurées dans le sang des patients. Cependant, le virus se réplique dans la cellule, et seule la fraction des médicaments non liée aux protéines du plasma sanguin peut entrer dans la cellule et exercer l'activité antirétrovirale au niveau cellulaire. Il existe par ailleurs une importante variabilité des concentrations sanguines de médicament chez des patients prenant pourtant la même dose de médicament. Cette variabilité peut être due à des facteurs démographiques et/ou génétiques susceptibles d'influencer la réponse au traitement antirétroviral.Cette thèse a eu pour objectif de mieux comprendre les facteurs pharmacologiques et génétiques influençant l'efficacité et ta toxicité des médicaments antirétroviraux, dans le but d'individualiser la thérapie antivirale et d'améliorer le suivi des patients HIV-positifs.A cet effet, des méthodes de dosage très sensibles ont été développées pour permettre la quantification des médicaments antirétroviraux dans le sang et les cellules. Ces méthodes analytiques ont été appliquées dans le cadre de diverses études cliniques réalisées avec des patients. Une des études cliniques a recherché s'il y avait un impact des changements physiologiques liés à la grossesse sur les concentrations des médicaments antirétroviraux. Nous avons ainsi pu démontrer que la grossesse n'influençait pas de façon cliniquement significative le devenir des médicaments antirétroviraux chez les femmes enceintes HIV- positives. La posologie de médicaments ne devrait donc pas être modifiée dans cette population de patientes. Par ailleurs, d'autres études ont portés sur les variations génétiques des patients influençant l'activité enzymatique des protéines impliquées dans le métabolisme des médicaments antirétroviraux. Nous avons également étudié l'utilité d'une surveillance des concentrations de médicament (suivi thérapeutique) dans le sang des patients pour l'individualisation des traitements antiviraux. Il a été possible de mettre en évidence des relations significatives entre l'exposition aux médicaments antirétroviraux et l'existence chez les patients de certaines variations génétiques. Nos analyses ont également permis d'étudier les relations entre les concentrations dans le sang des patients et les taux mesurés dans les cellules où le virus HIV se réplique. De plus, la mesure des taux sanguins de médicaments antirétroviraux et leur interprétation a permis d'ajuster la posologie de médicaments chez les patients de façon efficace et sûre.Ainsi, la complémentarité des connaissances pharmacologiques, génétiques et virales s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient et vise à l'individualisation de la thérapie antirétrovirale en fonction des caractéristiques propres de chaque individu. Cette approche contribue ainsi à l'optimisation du traitement antirétroviral dans la perspective d'un succès du traitement à long terme tout en réduisant la probabilité des effets indésirables rencontrés. - The improvement in antirétroviral therapy has transformed HIV infection from an inevitably fatal condition to a chronic, manageable disease. However, treatment failure and drug toxicity are frequent. Inadequate response to treatment is clearly multifactorial and, therefore, dosage individualisation based on demographic factors, genetic markers and measurement of total, free and/or cellular drug level may increase both drug efficacy and tolerability. Drug tolerability is certainly a major issue for a treatment that must be taken indefinitely.The global objective of this thesis aimed at increasing our current understanding of pharmacokinetic (PK) and pharmacogenetic (PG) factors influencing the exposition to antirétroviral drugs (ARVs) in HIV-positive patients. In turn, this should provide us with a rational basis for antiviral treatment optimisation and drug dosage adjustment in HIV- positive patients. Patient's tailored antirétroviral regimen is likely to enhance treatment effectiveness and tolerability, enabling a better compliance over time, and hence reducing the probability of emergence of viral resistance and treatment failure.To that endeavour, analytical methods for the measurement of total plasma, free and cellular concentrations of ARVs and some of their metabolites have been developed and validated using liquid chromatography coupled with tandem mass spectrometry. These assays have been applied for the monitoring of ARVs levels in various populations of HIV- positive patients. A clinical study has been initiated within the frame of the Mother and Child Swiss HIV Cohort Study to determine whether pregnancy influences the exposition to ARVs. Free and total plasma concentrations of lopinavir, atazanavir and nevirapine have been determined in pregnant women followed during the course of pregnancy, and were found not influenced to a clinically significant extent by pregnancy. Dosage adjustment for these drugs is therefore not required in pregnant women. In a study in treatment- experienced HIV-positive patients, the correlation between cellular and total plasma exposure to new antirétroviral drugs, notably the HIV integrase inhibitor raltegravir, has been determined. A good correlation was obtained between total and cellular levels of raltegravir, suggesting that monitoring of total levels are a satisfactory. However, significant inter-patient variability was observed in raltegravir cell accumulation which should prompt further investigations in patients failing under an integrase inhibitor-based regimen. The effectiveness of therapeutic drug monitoring (TDM) to guide efavirenz dose reduction in patients having concentrations above the recommended therapeutic range was evaluated in a prospective study. TDM-guided dosage adjustment of efavirenz was found feasible and safe, supporting the use of TDM in patients with efavirenz concentrations above therapeutic target. The impact of genetic polymorphisms of cytochromes P450 (CYP) 2B6, 2A6 and 3A4/5 on the PK of efavirenz and its metabolites was studied: a population PK model was built integrating both genetic and demographic covariates. Functional genetic variations in main (CYP2B6) and accessory (2A6, 3A4/5) metabolic pathways of efavirenz have an impact on efavirenz disposition, and may lead to extreme drug exposures. Dosage adjustment guided by TDM is thus required in those patients, according to the pharmacogenetic polymorphism.Thus, we have demonstrated, using a comprehensive approach taking into account both PK and PG factors influencing ARVs exposure in HIV-infected patients, the feasibility of individualising antirétroviral therapy in various situations. Antiviral treatment optimisation is likely to increase long-term treatment success while reducing the occurrence of adverse drug reactions.
Resumo:
RESUME : La douleur neuropathique est le résultat d'une lésion ou d'un dysfonctionnement du système nerveux. Les symptômes qui suivent la douleur neuropathique sont sévères et leur traitement inefficace. Une meilleure approche thérapeutique peut être proposée en se basant sur les mécanismes pathologiques de la douleur neuropathique. Lors d'une lésion périphérique une douleur neuropathique peut se développer et affecter le territoire des nerfs lésés mais aussi les territoires adjacents des nerfs non-lésés. Une hyperexcitabilité des neurones apparaît au niveau des ganglions spinaux (DRG) et de la corne dorsale (DH) de la moelle épinière. Le but de ce travail consiste à mettre en évidence les modifications moléculaires associées aux nocicepteurs lésés et non-lésés au niveau des DRG et des laminae I et II de la corne dorsale, là où l'information nociceptive est intégrée. Pour étudier les changements moléculaires liés à la douleur neuropathique nous utilisons le modèle animal d'épargne du nerf sural (spared nerve injury model, SNI) une semaine après la lésion. Pour la sélection du tissu d'intérêt nous avons employé la technique de la microdissection au laser, afin de sélectionner une sous-population spécifique de cellules (notamment les nocicepteurs lésés ou non-lésés) mais également de prélever le tissu correspondant dans les laminae superficielles. Ce travail est couplé à l'analyse à large spectre du transcriptome par puce ADN (microarray). Par ailleurs, nous avons étudié les courants électriques et les propriétés biophysiques des canaux sodiques (Na,,ls) dans les neurones lésés et non-lésés des DRG. Aussi bien dans le système nerveux périphérique, entre les neurones lésés et non-lésés, qu'au niveau central avec les aires recevant les projections des nocicepteurs lésés ou non-lésés, l'analyse du transcriptome montre des différences de profil d'expression. En effet, nous avons constaté des changements transcriptionnels importants dans les nocicepteurs lésés (1561 gènes, > 1.5x et pairwise comparaison > 77%) ainsi que dans les laminae correspondantes (618 gènes), alors que ces modifications transcriptionelles sont mineures au niveau des nocicepteurs non-lésés (60 gènes), mais important dans leurs laminae de projection (459 gènes). Au niveau des nocicepteurs, en utilisant la classification par groupes fonctionnels (Gene Ontology), nous avons observé que plusieurs processus biologiques sont modifiés. Ainsi des fonctions telles que la traduction des signaux cellulaires, l'organisation du cytosquelette ainsi que les mécanismes de réponse au stress sont affectés. Par contre dans les neurones non-lésés seuls les processus biologiques liés au métabolisme et au développement sont modifiés. Au niveau de la corne dorsale de la moelle, nous avons observé des modifications importantes des processus immuno-inflammatoires dans l'aire affectée par les nerfs lésés et des changements associés à l'organisation et la transmission synaptique au niveau de l'aire des nerfs non-lésés. L'analyse approfondie des canaux sodiques a démontré plusieurs changements d'expression, principalement dans les neurones lésés. Les analyses fonctionnelles n'indiquent aucune différence entre les densités de courant tétrodotoxine-sensible (TTX-S) dans les neurones lésés et non-lésés même si les niveaux d'expression des ARNm des sous-unités TTX-S sont modifiés dans les neurones lésés. L'inactivation basale dépendante du voltage des canaux tétrodotoxine-insensible (TTX-R) est déplacée vers des potentiels positifs dans les cellules lésées et non-lésées. En revanche la vitesse de récupération des courants TTX-S et TTX-R après inactivation est accélérée dans les neurones lésés. Ces changements pourraient être à l'origine de l'altération de l'activité électrique des neurones sensoriels dans le contexte des douleurs neuropathiques. En résumé, ces résultats suggèrent l'existence de mécanismes différenciés affectant les neurones lésés et les neurones adjacents non-lésés lors de la mise en place la douleur neuropathique. De plus, les changements centraux au niveau de la moelle épinière qui surviennent après lésion sont probablement intégrés différemment selon la perception de signaux des neurones périphériques lésés ou non-lésés. En conclusion, ces modulations complexes et distinctes sont probablement des acteurs essentiels impliqués dans la genèse et la persistance des douleurs neuropathiques. ABSTRACT : Neuropathic pain (NP) results from damage or dysfunction of the peripheral or central nervous system. Symptoms associated with NP are severe and difficult to treat. Targeting NP mechanisms and their translation into symptoms may offer a better therapeutic approach.Hyperexcitability of the peripheral and central nervous system occurs in the dorsal root ganglia (DRG) and the dorsal horn (DH) of the spinal cord. We aimed to identify transcriptional variations in injured and in adjacent non-injured nociceptors as well as in corresponding laminae I and II of DH receiving their inputs.We investigated changes one week after the injury induced by the spared nerve injury model of NP. We employed the laser capture microdissection (LCM) for the procurement of specific cell-types (enrichment in nociceptors of injured/non-injured neurons) and laminae in combination with transcriptional analysis by microarray. In addition, we studied functionál properties and currents of sodium channels (Nav1s) in injured and neighboring non-injured DRG neurons.Microarray analysis at the periphery between injured and non-injured DRG neurons and centrally between the area of central projections from injured and non-injured neurons show significant and differential expression patterns. We reported changes in injured nociceptors (1561 genes, > 1.5 fold, >77% pairwise comparison) and in corresponding DH laminae (618 genes), while less modifications occurred in non-injured nociceptors (60 genes) and in corresponding DH laminae (459 genes). At the periphery, we observed by Gene Ontology the involvement of multiple biological processes in injured neurons such as signal transduction, cytoskeleton organization or stress responses. On contrast, functional overrepresentations in non-injured neurons were noted only in metabolic or developmentally related mechanisms. At the level of superficial laminae of the dorsal horn, we reported changes of immune and inflammatory processes in injured-related DH and changes associated with synaptic organization and transmission in DH corresponding to non-injured neurons. Further transcriptional analysis of Nav1s indicated several changes in injured neurons. Functional analyses of Nav1s have established no difference in tetrodotoxin-sensitive (TTX-S) current densities in both injured and non-injured neurons, despite changes in TTX-S Nav1s subunit mRNA levels. The tetrodotoxin-resistant (TTX-R) voltage dependence of steady state inactivation was shifted to more positive potentials in both injured and non-injured neurons, and the rate of recovery from inactivation of TTX-S and TTX-R currents was accelerated in injured neurons. These changes may lead to alterations in neuronal electrogenesis. Taken together, these findings suggest different mechanisms occurring in the injured neurons and the adjacent non-injured ones. Moreover, central changes after injury are probably driven in a different manner if they receive inputs from injured or non-injured neurons. Together, these distinct and complex modulations may contribute to NP.
Resumo:
The thesis at hand is concerned with the spatio-temporal brain mechanisms of visual food perception as investigated by electrical neuroimaging. Due to the increasing prevalence of obesity and its associated challenges for public health care, there is a need to better understand behavioral and brain processes underlying food perception and food-based decision-making. The first study (Study A) of this thesis was concerned with the role of repeated exposure to visual food cues. In our everyday lives we constantly and repeatedly encounter food and these exposures influence our food choices and preferences. In Study A, we therefore applied electrical neuroimaging analyses of visual evoked potentials to investigate the spatio-temporal brain dynamics linked to the repeated viewing of high- and low-energy food cues (published manuscript: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). In this study, we found that repetitions differentially affect behavioral and brain mechanisms when high-energy, as opposed to low-energy foods and non-food control objects, were viewed. The representation of high-energy food remained invariant between initial and repeated exposures indicating that the sight of high-energy dense food induces less behavioral and neural adaptation than the sight of low-energy food and non-food control objects. We discuss this finding in the context of the higher salience (due to greater motivation and higher reward or hedonic valuation) of energy- dense food that likely generates a more mnemonically stable representation. In turn, this more invariant representation of energy-dense food is supposed to (partially) explain why these foods are over-consumed despite of detrimental health consequences. In Study Β we investigated food responsiveness in patients who had undergone Roux-en-Y gastric bypass surgery to overcome excessive obesity. This type of gastric bypass surgery is not only known to alter food appreciation, but also the secretion patterns of adipokines and gut peptides. Study Β aimed at a comprehensive and interdisciplinary investigation of differences along the gut-brain axis in bypass-operated patients as opposed to weight-matched non-operated controls. On the one hand, the spatio-temporal brain dynamics to the visual perception of high- vs. low-energy foods under differing states of motivation towards food intake (i.e. pre- and post-prandial) were assessed and compared between groups. On the other hand, peripheral gut hormone measures were taken in pre- and post-prandial nutrition state and compared between groups. In order to evaluate alterations in the responsiveness along the gut-brain-axis related to gastric bypass surgery, correlations between both measures were compared between both participant groups. The results revealed that Roux-en- Y gastric bypass surgery alters the spatio-temporal brain dynamics to the perception of high- and low-energy food cues, as well as the responsiveness along the gut-brain-axis. The potential role of these response alterations is discussed in relation to previously observed changes in physiological factors and food intake behavior post-Roux-en-Y gastric bypass surgery. By doing so, we highlight potential behavioral, neural and endocrine (i.e. gut hormone) targets for the future development of intervention strategies for deviant eating behavior and obesity. Together, the studies showed that the visual representation of foods in the brain is plastic and that modulations in neural activity are already noted at early stages of visual processing. Different factors of influence such as a repeated exposure, Roux-en-Y gastric bypass surgery, motivation (nutrition state), as well as the energy density of the visually perceived food were identified. En raison de la prévalence croissante de l'obésité et du défi que cela représente en matière de santé publique, une meilleure compréhension des processus comportementaux et cérébraux liés à la nourriture sont nécessaires. En particulier, cette thèse se concentre sur l'investigation des mécanismes cérébraux spatio-temporels liés à la perception visuelle de la nourriture. Nous sommes quotidiennement et répétitivement exposés à des images de nourriture. Ces expositions répétées influencent nos choix, ainsi que nos préférences alimentaires. La première étude (Study A) de cette thèse investigue donc l'impact de ces exposition répétée à des stimuli visuels de nourriture. En particulier, nous avons comparé la dynamique spatio-temporelle de l'activité cérébrale induite par une exposition répétée à des images de nourriture de haute densité et de basse densité énergétique. (Manuscrit publié: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). Dans cette étude, nous avons pu constater qu'une exposition répétée à des images représentant de la nourriture de haute densité énergétique, par opposition à de la nourriture de basse densité énergétique, affecte les mécanismes comportementaux et cérébraux de manière différente. En particulier, la représentation neurale des images de nourriture de haute densité énergétique est similaire lors de l'exposition initiale que lors de l'exposition répétée. Ceci indique que la perception d'images de nourriture de haute densité énergétique induit des adaptations comportementales et neurales de moindre ampleur par rapport à la perception d'images de nourriture de basse densité énergétique ou à la perception d'une « catégorie contrôle » d'objets qui ne sont pas de la nourriture. Notre discussion est orientée sur les notions prépondérantes de récompense et de motivation qui sont associées à la nourriture de haute densité énergétique. Nous suggérons que la nourriture de haute densité énergétique génère une représentation mémorielle plus stable et que ce mécanisme pourrait (partiellement) être sous-jacent au fait que la nourriture de haute densité énergétique soit préférentiellement consommée. Dans la deuxième étude (Study Β) menée au cours de cette thèse, nous nous sommes intéressés aux mécanismes de perception de la nourriture chez des patients ayant subi un bypass gastrique Roux- en-Y, afin de réussir à perdre du poids et améliorer leur santé. Ce type de chirurgie est connu pour altérer la perception de la nourriture et le comportement alimentaire, mais également la sécrétion d'adipokines et de peptides gastriques. Dans une approche interdisciplinaire et globale, cette deuxième étude investigue donc les différences entre les patients opérés et des individus « contrôles » de poids similaire au niveau des interactions entre leur activité cérébrale et les mesures de leurs hormones gastriques. D'un côté, nous avons investigué la dynamique spatio-temporelle cérébrale de la perception visuelle de nourriture de haute et de basse densité énergétique dans deux états physiologiques différent (pre- et post-prandial). Et de l'autre, nous avons également investigué les mesures physiologiques des hormones gastriques. Ensuite, afin d'évaluer les altérations liées à l'intervention chirurgicale au niveau des interactions entre la réponse cérébrale et la sécrétion d'hormone, des corrélations entre ces deux mesures ont été comparées entre les deux groupes. Les résultats révèlent que l'intervention chirurgicale du bypass gastrique Roux-en-Y altère la dynamique spatio-temporelle de la perception visuelle de la nourriture de haute et de basse densité énergétique, ainsi que les interactions entre cette dernière et les mesures périphériques des hormones gastriques. Nous discutons le rôle potentiel de ces altérations en relation avec les modulations des facteurs physiologiques et les changements du comportement alimentaire préalablement déjà démontrés. De cette manière, nous identifions des cibles potentielles pour le développement de stratégies d'intervention future, au niveau comportemental, cérébral et endocrinien (hormones gastriques) en ce qui concerne les déviances du comportement alimentaire, dont l'obésité. Nos deux études réunies démontrent que la représentation visuelle de la nourriture dans le cerveau est plastique et que des modulations de l'activité neurale apparaissent déjà à un stade très précoce des mécanismes de perception visuelle. Différents facteurs d'influence comme une exposition repetee, le bypass gastrique Roux-en-Y, la motivation (état nutritionnel), ainsi que la densité énergétique de la nourriture qui est perçue ont pu être identifiés.
Resumo:
Le forensicien joue fréquemment le rôle d'expert judiciaire. Dans cette responsabilité, il doit par exemple évaluer le lien qu'est susceptible d'entretenir une trace avec une source putative (une personne, un objet) donnée. L'expert examine aussi parfois la relation entre deux traces (proviennent-elles de la même source ?), combine les indices, ou interprète les activités possibles en regard des traces recueillies. Un mouvement dominant et intégrateur préconise d'effectuer cette évaluation au moyen de probabilités qui expriment dans un cadre formel les incertitudes inhérentes à ce genre de questions. Basé sur le théorème découvert par le révérend Bayes sur la probabilité des causes, le rapport de vraisemblance équilibre le point de vue de l'accusation (par exemple, probabilité de la trace, sachant que x en est à l'origine) et de la défense (la probabilité de la trace si la source n'est pas x). L'exploitation de ce modèle fait appel à l'expérience de l'expert, mais aussi à de grandes quantités de données représentatives qui doivent encore être rassemblées. Une tendance consiste aussi à exploiter pour cela les données stockées par l'utilisation de systèmes automatisés (empreintes digitales, projectiles, etc.). De nouvelles possibilités d'extraire des caractéristiques encore inexplorées à partir des traces sont susceptibles d'augmenter considérablement les moyens pour les experts judiciaires d'apporter des réponses probabilistes dans des circonstances toujours plus variées aux autorités judiciaires qui les mandatent.
Resumo:
Cette thèse s'intéresse à étudier les propriétés extrémales de certains modèles de risque d'intérêt dans diverses applications de l'assurance, de la finance et des statistiques. Cette thèse se développe selon deux axes principaux, à savoir: Dans la première partie, nous nous concentrons sur deux modèles de risques univariés, c'est-à- dire, un modèle de risque de déflation et un modèle de risque de réassurance. Nous étudions le développement des queues de distribution sous certaines conditions des risques commun¬s. Les principaux résultats sont ainsi illustrés par des exemples typiques et des simulations numériques. Enfin, les résultats sont appliqués aux domaines des assurances, par exemple, les approximations de Value-at-Risk, d'espérance conditionnelle unilatérale etc. La deuxième partie de cette thèse est consacrée à trois modèles à deux variables: Le premier modèle concerne la censure à deux variables des événements extrême. Pour ce modèle, nous proposons tout d'abord une classe d'estimateurs pour les coefficients de dépendance et la probabilité des queues de distributions. Ces estimateurs sont flexibles en raison d'un paramètre de réglage. Leurs distributions asymptotiques sont obtenues sous certaines condi¬tions lentes bivariées de second ordre. Ensuite, nous donnons quelques exemples et présentons une petite étude de simulations de Monte Carlo, suivie par une application sur un ensemble de données réelles d'assurance. L'objectif de notre deuxième modèle de risque à deux variables est l'étude de coefficients de dépendance des queues de distributions obliques et asymétriques à deux variables. Ces distri¬butions obliques et asymétriques sont largement utiles dans les applications statistiques. Elles sont générées principalement par le mélange moyenne-variance de lois normales et le mélange de lois normales asymétriques d'échelles, qui distinguent la structure de dépendance de queue comme indiqué par nos principaux résultats. Le troisième modèle de risque à deux variables concerne le rapprochement des maxima de séries triangulaires elliptiques obliques. Les résultats théoriques sont fondés sur certaines hypothèses concernant le périmètre aléatoire sous-jacent des queues de distributions. -- This thesis aims to investigate the extremal properties of certain risk models of interest in vari¬ous applications from insurance, finance and statistics. This thesis develops along two principal lines, namely: In the first part, we focus on two univariate risk models, i.e., deflated risk and reinsurance risk models. Therein we investigate their tail expansions under certain tail conditions of the common risks. Our main results are illustrated by some typical examples and numerical simu¬lations as well. Finally, the findings are formulated into some applications in insurance fields, for instance, the approximations of Value-at-Risk, conditional tail expectations etc. The second part of this thesis is devoted to the following three bivariate models: The first model is concerned with bivariate censoring of extreme events. For this model, we first propose a class of estimators for both tail dependence coefficient and tail probability. These estimators are flexible due to a tuning parameter and their asymptotic distributions are obtained under some second order bivariate slowly varying conditions of the model. Then, we give some examples and present a small Monte Carlo simulation study followed by an application on a real-data set from insurance. The objective of our second bivariate risk model is the investigation of tail dependence coefficient of bivariate skew slash distributions. Such skew slash distributions are extensively useful in statistical applications and they are generated mainly by normal mean-variance mixture and scaled skew-normal mixture, which distinguish the tail dependence structure as shown by our principle results. The third bivariate risk model is concerned with the approximation of the component-wise maxima of skew elliptical triangular arrays. The theoretical results are based on certain tail assumptions on the underlying random radius.
Resumo:
Phénomène resté assez marginal jusqu'aux années quatre-vingt, la gentrification est devenue, dans certaines villes européennes, un principe de production de l'espace urbain. La ville que désertaient les classes moyennes parce qu'elle était associée à une densité excessive et à des nuisances de toutes sortes redevient ainsi le lieu d'une valorisation immobilière renouvelée, mais aussi d'un entre-soi sélectif, du spectacle et du plaisir répondant aux nouveaux styles d'habiter des nouveaux cadres de l'urbain globalisé. Qu'en est-il en Suisse ? L'article présente quelques résultats issus de deux recherches menées à l'échelle du système urbain et de l'agglomération lausannoise. L'observation des dynamiques à l'oeuvre ne permet pas de corroborer la thèse du « retour en ville ».
Resumo:
Modern urban lifestyle encourages the prolongation of wakefulness, leaving less and less time for sleep. Although the exact functions of sleep remain one of the biggest mysteries in neuroscience, the society is well aware of the negative consequences of sleep loss on human physical and mental health and performance. Enhancing sleep's recuperative functions might allow shortening sleep duration while preserving the beneficial effects of sleep. During sleep, brain activity oscillates across a continuum of frequencies. Individual oscillations have been suggested to underlie distinct functions for sleep and cognition. Gaining control about individual oscillations might allow boosting their specific functions. Sleep spindles are 11 - 15 Hz oscillations characteristic for light non-rapid-eye-movement sleep (NREMS) and have been proposed to play a role in memory consolidation and sleep protection against environmental stimuli. The reticular thalamic nucleus (nRt) has been identified as the major pacemaker of spindles. Intrinsic oscillatory burst discharge in nRt neurons, arising from the interplay of low-threshold (T-type) Ca2+ channels (T channels) and small conductance type 2 (SK2) K+ channels (SK2 channels), underlies this pacemaking function. In the present work we investigated the impact of altered nRt bursting on spindle generation during sleep by studying mutant mice for SK2 channels and for CaV3.3 channels, a subtype of T channels. Using in vitro electrophysiology I showed that nRt bursting was abolished in CaV3.3 knock out (CaV3.3 KO) mice. In contrast, in SK2 channel over-expressing (SK2-OE) nRt cells, intrinsic repetitive bursting was prolonged. Compared to wildtype (WT) littermates, altered nRt burst discharge lead to weakened thalamic network oscillations in vitro in CaV3.3 KO mice, while oscillatory activity was prolonged in SK2-OE mice. Sleep electroencephalographic recordings in CaV3.3 KO and SK2-OE mice revealed that reduced or potentiated nRt bursting respectively weakened or prolonged sleep spindle activity at the NREMS - REMS transition. Furthermore, SK2-OE mice showed more consolidated NREMS and increased arousal thresholds, two correlates of good sleep quality. This thesis work suggests that CaV3.3 and SK2 channels may be targeted in order to modulate sleep spindle activity. Furthermore, it proposes a novel function for spindles in NREMS consolidation. Finally, it provides evidence that sleep quality may be improved by promoting spindle activity, thereby supporting the hypothesis that sleep quality can be enhanced by modulating oscillatory activity in the brain. Le style de vie moderne favorise la prolongation de l'éveil, laissant de moins en moins de temps pour le sommeil. Même si le rôle exact du sommeil reste un des plus grands mystères des neurosciences, la société est bien consciente des conséquences négatives que provoque un manque de sommeil, à la fois sur le plan de la santé physique et mentale ainsi qu'au niveau des performances cognitives. Augmenter les fonctions récupératrices du sommeil pourrait permettre de raccourcir la durée du sommeil tout en en conservant les effets bénéfiques. Durant le sommeil, on observe des oscillations à travers un continuum de fréquences. Il a été proposé que chaque oscillation pourrait être à l'origine de fonctions spécifiques pour le sommeil et la cognition. Pouvoir de contrôler les oscillations individuelles permettrait d'augmenter leurs fonctions respectives. Les fuseaux sont des oscillations de 11 à 15 Hz caractéristiques du sommeil à ondes lentes léger et il a été suggéré qu'elles jouent un rôle majeur pour la consolidation de la mémoire ainsi que dans la protection du sommeil contre les stimuli environnementaux. Le nucleus réticulaire du thalamus (nRt) a été identifié en tant que générateur de rythme des fuseaux. Les bouffées oscillatoires intrinsèques des neurones du nRt, provenant de l'interaction de canaux calciques à bas seuil de type T (canaux T) et de canaux potassiques à faible conductance de type 2 (canaux SK2), sont à l'origine de la fonction de générateur de rythme. Dans ce travail, j'ai étudié l'impact de la modulation de bouffées de nRT sur la génération des fuseaux pendant le sommeil en investiguant des souris génétiquement modifiées pour les canaux SK2 et les canaux CaV3.3, un sous-type de canaux T. En utilisant l'électrophysiologie in vitro j'ai démontré que les bouffées du nRT étaient abolies dans les souris knock-out du type CaV3.3 (CaV3.3 KO). D'autre part, dans les cellules nRT sur-exprimant les canaux SK2 (SK2-OE), les bouffées oscillatoires intrinsèques étaient prolongées. Par rapport aux souris wild type, les souris CaV3.3 KO ont montré un affaiblissement des oscillations thalamiques en réponse à un changement des bouffées de nRT, alors que l'activité oscillatoire était prolongée dans les souris SK2-OE. Des enregistrements EEG du sommeil dans des souris de type CaV3.3 KO et SK2-OE ont révélé qu'une réduction ou augmentation des bouffées nRT ont respectivement affaibli ou prolongé l'activité des fuseaux durant les transitions du sommeil à ondes lentes au sommeil paradoxal. De plus, les souris SK2-OE ont montré des signes de consolidation du sommeil à ondes lentes et un seuil augmenté pour le réveil, deux mesures qui corrèlent avec une bonne qualité du sommeil. Le travail de cette thèse propose que les canaux CaV3.3 et SK2 pourrait être ciblés pour moduler l'activité des fuseaux. De plus, je propose une fonction nouvelle pour les fuseaux dans la consolidation du sommeil à ondes lentes. Finalement je suggère que la qualité du sommeil peut être améliorée en promouvant l'activité des fuseaux, soutenant ainsi l'idée que la qualité du sommeil peut être améliorée en modulant l'activité oscillatoire dans le cerveau.
Resumo:
Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.
Resumo:
Introduction. - Le TBS ou Score Trabéculaire Osseux (TBS, Med- Imaps, France) est un index d'architecture osseuse apportant des informations indépendantes de la densité minérale osseuse (DMO), et calculé par la quantification des variations locales des niveaux de gris à partir d'examen de densitométrie (DXA) lombaire. Dans des études antérieures prospectives et cas-témoins, cet index a été considéré comme associé aux fractures. Nous avons comparé les effets du ranélate de strontium (RanSr) et de l'alendronate (ALN) sur l'architecture vertébrale à l'aide du TBS, chez des femmes ostéoporotiques ménopausées. Patients et méthodes. - Une analyse post hoc a été réalisée sur des DXA (Hologic and GE Lunar Devices) de 79 des 189 femmes incluses dans une étude en double aveugle et double placebo et réparties de façon randomisée entre un groupe à 2 g/jour de RanSr et un groupe à 70 mg/semaine d'ALN pendant 2 ans. Les paramètres de TBS ont été évalués en aveugle par TBS iNsight (v1,9) au niveau vertébral après 12 et 24 mois de traitement. Nous avons appliqué les règles de l'ISCD (International Society for Clinical Densitometry) pour chaque exclusion de vertèbre, de façon indépendante respectivement pour la DMO et le TBS. Des doubles mesures ayant été réalisées initialement, la reproductibilité est exprimée en % CV. Résultats. - Les caractéristiques initiales (moyenne ± DS) étaient identiques entre les groupes en termes d'âge, 69,2 ± 4,4 ans ; d'IMC, 23,8 ± 4,4 kg/m2 ; de T-score L1-L4, - 2,9 ± 0,9 et de TBS, 1,230 ± 0,09. Comme prévu, le coefficient de détermination entre la DMO et le TBS au niveau du rachis était très basse r2 = 0,12. Les reproductibilités brutes étaient respectivement de 1,1 et 1,6 % pour la DMO et le TBS au niveau vertébral. Après 1 et 2 ans, la DMO en L1-L4 a augmenté de façon significative de respectivement 5,6 % et 9 % dans le groupe RanSr et de respectivement 5,2 % et 7,6 % dans le groupe ALN. De même, le TBS au niveau vertébral a augmenté respectivement de 2,3 % (p < 0,001) et de 3,1 % (p < 0,001) dans le groupe RanSr et de 0,5 % (NS) et de 1 % (NS) dans le groupe ALN avec une différence entre groupe significative en faveur du RanSr (p = 0,04 et p = 0,03). Il n'y avait aucune corrélation entre la différence de DMO et de TBS à 1 ou 2 ans. Les deux traitements étaient bien tolérés. Discussion. - Ces résultats sur le TBS confortent des études précédentes qui sont en faveur de l'effet bénéfique du RanSr sur l'architecture osseuse. Conclusion. - Le ranélate de strontium a des effets plus importants que l'alendronate sur le score trabéculaire osseux, indice d'architecture osseuse au niveau vertébral, chez les femmes ayant une ostéoporose post-ménopausique, après 2 ans de traitement.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Rapport de synthèse Ce travail de thèse s'articule autour de l'importance de l'évaluation de la fonction vasculaire et des répercussions au niveau central, cardiaque, des perturbations du réseau vasculaire. Les maladies cardiovasculaires sont prédominantes dans notre société et causes de morbidité et mortalité importante. La mesure de la pression artérielle classique reste le moyen le plus utilisé pour suivre la santé des vaisseaux, mais ne reflète pas directement ce qui se passe au niveau du coeur. La tonométrie d'aplanation permet depuis quelques années de mesurer l'onde de pouls radial, et par le biais d'une fonction mathématique de transfert validée, il est possible d'en déduire la forme et Γ amplitude de l'onde de pouls central, donc de la pression aortique centrale. Cette dernière est un reflet bien plus direct de la post-charge cardiaque, et de nombreuses études cliniques actuelles s'intéressent à cette mesure pour stratifier le risque ou évaluer l'effet d'un traitement vasculaire. Toutefois, bien que cet outil soit de plus en plus utilisé, il est rarement précisé si la latéralité de la mesure joue un rôle, sachant que certaines propriétés des membres supérieurs peuvent être affectées par un usage préférentiel (masse musculaire, densité osseuse, diamètre des artères, capillarisation musculaire, et même fonction endothéliale). On a en effet observé que ces divers paramètre étaient tous augmentés sur un bras entraîné. Dès lors on peut se poser la question de l'influence de ces adaptations physiologiques sur la mesure indirecte effectuée par le biais du pouls radial. Nous avons investigué les deux membres supérieurs de sujets jeunes et sédentaires (SED), ainsi que ceux de sujets sportifs avec un développement fortement asymétrique des bras, soit des joueurs de tennis de haut niveau (TEN). Des mesures anthropométriques incluant la composition corporelle et la circonférence des bras et avant-bras ont montré que TEN présente une asymétrie hautement significative aux deux mesures entre le bras dominant (entraîné) et l'autre, ce qui est aussi présent pour la force de serrage (mesurée au dynamomètre de Jamar). L'analyse des courbes centrales de pouls ne montre aucune différence entre les deux membres dans chaque groupe, par contre on peut observer une différence entre SED et TEN, avec un index d'augmentation diastolique qui est 50 % plus élevé chez TEN. Les index d'augmentation systolique sont identiques dans les deux groupes. On peut retenir de cette étude la validité de la méthode de tonométrie d'aplanation quel que soit le bras utilisé (dominant ou non-dominant) et ce même si une asymétrie conséquente est présente. Ces données sont clairement nouvelles et permettent de s'affranchir de cette variable dans la mesure d'un paramètre cardiovasculaire dont l'importance est actuellement grandissante. Les différences d'index diastolique sont expliquées par la fréquence cardiaque et la vitesse de conduction de l'onde de pouls plus basses chez TEN, causant un retard diastolique du retour de l'onde au niveau central, phénomène précédemment bien décrit dans la littérature.