986 resultados para Simplex


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le facteur de transcription IIH (TFIIH) joue un rôle crucial dans la transcription et dans la réparation de l’ADN. La sous-unité Tfb1/p62 (levure et humain) de TFIIH interagit avec de nombreux facteurs de transcription (p53, NFκB, TFIIEα) et de réparation (Rad2/XPG and Rad4/XPC) (1). La majorité des interactions avec Tfb1/p62 requiert le domaine d’homologie à la Pleckstrin (PH) localisé dans la région N-terminal de la protéine (2, 3). Ce domaine PH forme des complexes avec des domaines de transactivation acide provenant de protéines cibles impliquées dans la transcription et la réparation de l’ADN. De récentes études ont montré que Tfb1/p62 est une cible pour les protéines virales telles que la protéine VP16 du virus de l’herpès simplex (HSV) de type 1, la protéine E1 du virus du papillome humain (VPH) et la protéine EBNA-2 du virus Epstein-Barr (EBV) (4, 5). Ces protéines virales interagissent avec la sous-unité Tfb1/p62 par un domaine de transactivation acide suggérant une interaction similaire à ce qui est observé chez les facteurs de transcription humains comme p53. Ce mémoire présente une caractérisation structurelle et fonctionnelle du complexe formé par la protéine virale EBNA2 et la protéine humaine Tfb1/p62. L’analyse est faite en utilisant le titrage calorimétrique isotherme (ITC), la résonance magnétique nucléaire (RMN) et une expérience de transactivation chez la levure. Cette étude amène une plus grande compréhension des protéines impliquées dans les maladies comme le lymphome de Burkitt et le lymphome de Hodgkin qui sont souvent associées à l’infection à l’EBV (revue dans (6)) et caractérise une cible potentielle pour un antiviral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’autophagie est une voie hautement conservée de dégradation lysosomale des constituants cellulaires qui est essentiel à l’homéostasie cellulaire et contribue à l’apprêtement et à la présentation des antigènes. Les rôles relativement récents de l'autophagie dans l'immunité innée et acquise sous-tendent de nouveaux paradigmes immunologiques pouvant faciliter le développement de nouvelles thérapies où la dérégulation de l’autophagie est associée à des maladies auto-immunes. Cependant, l'étude in vivo de la réponse autophagique est difficile en raison du nombre limité de méthodes d'analyse pouvant fournir une définition dynamique des protéines clés impliquées dans cette voie. En conséquence, nous avons développé un programme de recherche en protéomique intégrée afin d’identifier et de quantifier les proteines associées à l'autophagie et de déterminer les mécanismes moléculaires régissant les fonctions de l’autophagosome dans la présentation antigénique en utilisant une approche de biologie des systèmes. Pour étudier comment l'autophagie et la présentation antigénique sont activement régulés dans les macrophages, nous avons d'abord procédé à une étude protéomique à grande échelle sous différentes conditions connues pour stimuler l'autophagie, tels l’activation par les cytokines et l’infection virale. La cytokine tumor necrosis factor-alpha (TNF-alpha) est l'une des principales cytokines pro-inflammatoires qui intervient dans les réactions locales et systémiques afin de développer une réponse immune adaptative. La protéomique quantitative d'extraits membranaires de macrophages contrôles et stimulés avec le TNF-alpha a révélé que l'activation des macrophages a entrainé la dégradation de protéines mitochondriales et des changements d’abondance de plusieurs protéines impliquées dans le trafic vésiculaire et la réponse immunitaire. Nous avons constaté que la dégradation des protéines mitochondriales était sous le contrôle de la voie ATG5, et était spécifique au TNF-alpha. En outre, l’utilisation d’un nouveau système de présentation antigènique, nous a permi de constater que l'induction de la mitophagie par le TNF-alpha a entrainée l’apprêtement et la présentation d’antigènes mitochondriaux par des molécules du CMH de classe I, contribuant ainsi la variation du répertoire immunopeptidomique à la surface cellulaire. Ces résultats mettent en évidence un rôle insoupçonné du TNF-alpha dans la mitophagie et permet une meilleure compréhension des mécanismes responsables de la présentation d’auto-antigènes par les molécules du CMH de classe I. Une interaction complexe existe également entre infection virale et l'autophagie. Récemment, notre laboratoire a fourni une première preuve suggérant que la macroautophagie peut contribuer à la présentation de protéines virales par les molécules du CMH de classe I lors de l’infection virale par l'herpès simplex virus de type 1 (HSV-1). Le virus HSV1 fait parti des virus humains les plus complexes et les plus répandues. Bien que la composition des particules virales a été étudiée précédemment, on connaît moins bien l'expression de l'ensemble du protéome viral lors de l’infection des cellules hôtes. Afin de caractériser les changements dynamiques de l’expression des protéines virales lors de l’infection, nous avons analysé par LC-MS/MS le protéome du HSV1 dans les macrophages infectés. Ces analyses nous ont permis d’identifier un total de 67 protéines virales structurales et non structurales (82% du protéome HSV1) en utilisant le spectromètre de masse LTQ-Orbitrap. Nous avons également identifié 90 nouveaux sites de phosphorylation et de dix nouveaux sites d’ubiquitylation sur différentes protéines virales. Suite à l’ubiquitylation, les protéines virales peuvent se localiser au noyau ou participer à des événements de fusion avec la membrane nucléaire, suggérant ainsi que cette modification pourrait influer le trafic vésiculaire des protéines virales. Le traitement avec des inhibiteurs de la réplication de l'ADN induit des changements sur l'abondance et la modification des protéines virales, mettant en évidence l'interdépendance des protéines virales au cours du cycle de vie du virus. Compte tenu de l'importance de la dynamique d'expression, de l’ubiquitylation et la phosphorylation sur la fonction des proteines virales, ces résultats ouvriront la voie vers de nouvelles études sur la biologie des virus de l'herpès. Fait intéressant, l'infection HSV1 dans les macrophages déclenche une nouvelle forme d'autophagie qui diffère remarquablement de la macroautophagie. Ce processus, appelé autophagie associée à l’enveloppe nucléaire (nuclear envelope derived autophagy, NEDA), conduit à la formation de vésicules membranaires contenant 4 couches lipidiques provenant de l'enveloppe nucléaire où on retrouve une grande proportion de certaines protéines virales, telle la glycoprotéine B. Les mécanismes régissant NEDA et leur importance lors de l’infection virale sont encore méconnus. En utilisant un essai de présentation antigénique, nous avons pu montrer que la voie NEDA est indépendante d’ATG5 et participe à l’apprêtement et la présentation d’antigènes viraux par le CMH de classe I. Pour comprendre l'implication de NEDA dans la présentation des antigènes, il est essentiel de caractériser le protéome des autophagosomes isolés à partir de macrophages infectés par HSV1. Aussi, nous avons développé une nouvelle approche de fractionnement basé sur l’isolation de lysosomes chargés de billes de latex, nous permettant ainsi d’obtenir des extraits cellulaires enrichis en autophagosomes. Le transfert des antigènes HSV1 dans les autophagosomes a été determine par protéomique quantitative. Les protéines provenant de l’enveloppe nucléaire ont été préférentiellement transférées dans les autophagosome lors de l'infection des macrophages par le HSV1. Les analyses protéomiques d’autophagosomes impliquant NEDA ou la macroautophagie ont permis de decouvrir des mécanismes jouant un rôle clé dans l’immunodominance de la glycoprotéine B lors de l'infection HSV1. Ces analyses ont également révélées que diverses voies autophagiques peuvent être induites pour favoriser la capture sélective de protéines virales, façonnant de façon dynamique la nature de la réponse immunitaire lors d'une infection. En conclusion, l'application des méthodes de protéomique quantitative a joué un rôle clé dans l'identification et la quantification des protéines ayant des rôles importants dans la régulation de l'autophagie chez les macrophages, et nous a permis d'identifier les changements qui se produisent lors de la formation des autophagosomes lors de maladies inflammatoires ou d’infection virale. En outre, notre approche de biologie des systèmes, qui combine la protéomique quantitative basée sur la spectrométrie de masse avec des essais fonctionnels tels la présentation antigénique, nous a permis d’acquérir de nouvelles connaissances sur les mécanismes moléculaires régissant les fonctions de l'autophagie lors de la présentation antigénique. Une meilleure compréhension de ces mécanismes permettra de réduire les effets nuisibles de l'immunodominance suite à l'infection virale ou lors du développement du cancer en mettant en place une réponse immunitaire appropriée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Optimal control theory is a powerful tool for solving control problems in quantum mechanics, ranging from the control of chemical reactions to the implementation of gates in a quantum computer. Gradient-based optimization methods are able to find high fidelity controls, but require considerable numerical effort and often yield highly complex solutions. We propose here to employ a two-stage optimization scheme to significantly speed up convergence and achieve simpler controls. The control is initially parametrized using only a few free parameters, such that optimization in this pruned search space can be performed with a simplex method. The result, considered now simply as an arbitrary function on a time grid, is the starting point for further optimization with a gradient-based method that can quickly converge to high fidelities. We illustrate the success of this hybrid technique by optimizing a geometric phase gate for two superconducting transmon qubits coupled with a shared transmission line resonator, showing that a combination of Nelder-Mead simplex and Krotov’s method yields considerably better results than either one of the two methods alone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compositional data analysis motivated the introduction of a complete Euclidean structure in the simplex of D parts. This was based on the early work of J. Aitchison (1986) and completed recently when Aitchinson distance in the simplex was associated with an inner product and orthonormal bases were identified (Aitchison and others, 2002; Egozcue and others, 2003). A partition of the support of a random variable generates a composition by assigning the probability of each interval to a part of the composition. One can imagine that the partition can be refined and the probability density would represent a kind of continuous composition of probabilities in a simplex of infinitely many parts. This intuitive idea would lead to a Hilbert-space of probability densities by generalizing the Aitchison geometry for compositions in the simplex into the set probability densities

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traditionally, compositional data has been identified with closed data, and the simplex has been considered as the natural sample space of this kind of data. In our opinion, the emphasis on the constrained nature of compositional data has contributed to mask its real nature. More crucial than the constraining property of compositional data is the scale-invariant property of this kind of data. Indeed, when we are considering only few parts of a full composition we are not working with constrained data but our data are still compositional. We believe that it is necessary to give a more precise definition of composition. This is the aim of this oral contribution

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Aitchison vector space structure for the simplex is generalized to a Hilbert space structure A2(P) for distributions and likelihoods on arbitrary spaces. Central notations of statistics, such as Information or Likelihood, can be identified in the algebraical structure of A2(P) and their corresponding notions in compositional data analysis, such as Aitchison distance or centered log ratio transform. In this way very elaborated aspects of mathematical statistics can be understood easily in the light of a simple vector space structure and of compositional data analysis. E.g. combination of statistical information such as Bayesian updating, combination of likelihood and robust M-estimation functions are simple additions/ perturbations in A2(Pprior). Weighting observations corresponds to a weighted addition of the corresponding evidence. Likelihood based statistics for general exponential families turns out to have a particularly easy interpretation in terms of A2(P). Regular exponential families form finite dimensional linear subspaces of A2(P) and they correspond to finite dimensional subspaces formed by their posterior in the dual information space A2(Pprior). The Aitchison norm can identified with mean Fisher information. The closing constant itself is identified with a generalization of the cummulant function and shown to be Kullback Leiblers directed information. Fisher information is the local geometry of the manifold induced by the A2(P) derivative of the Kullback Leibler information and the space A2(P) can therefore be seen as the tangential geometry of statistical inference at the distribution P. The discussion of A2(P) valued random variables, such as estimation functions or likelihoods, give a further interpretation of Fisher information as the expected squared norm of evidence and a scale free understanding of unbiased reasoning

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The use of orthonormal coordinates in the simplex and, particularly, balance coordinates, has suggested the use of a dendrogram for the exploratory analysis of compositional data. The dendrogram is based on a sequential binary partition of a compositional vector into groups of parts. At each step of a partition, one group of parts is divided into two new groups, and a balancing axis in the simplex between both groups is defined. The set of balancing axes constitutes an orthonormal basis, and the projections of the sample on them are orthogonal coordinates. They can be represented in a dendrogram-like graph showing: (a) the way of grouping parts of the compositional vector; (b) the explanatory role of each subcomposition generated in the partition process; (c) the decomposition of the total variance into balance components associated with each binary partition; (d) a box-plot of each balance. This representation is useful to help the interpretation of balance coordinates; to identify which are the most explanatory coordinates; and to describe the whole sample in a single diagram independently of the number of parts of the sample

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As stated in Aitchison (1986), a proper study of relative variation in a compositional data set should be based on logratios, and dealing with logratios excludes dealing with zeros. Nevertheless, it is clear that zero observations might be present in real data sets, either because the corresponding part is completely absent –essential zeros– or because it is below detection limit –rounded zeros. Because the second kind of zeros is usually understood as “a trace too small to measure”, it seems reasonable to replace them by a suitable small value, and this has been the traditional approach. As stated, e.g. by Tauber (1999) and by Martín-Fernández, Barceló-Vidal, and Pawlowsky-Glahn (2000), the principal problem in compositional data analysis is related to rounded zeros. One should be careful to use a replacement strategy that does not seriously distort the general structure of the data. In particular, the covariance structure of the involved parts –and thus the metric properties– should be preserved, as otherwise further analysis on subpopulations could be misleading. Following this point of view, a non-parametric imputation method is introduced in Martín-Fernández, Barceló-Vidal, and Pawlowsky-Glahn (2000). This method is analyzed in depth by Martín-Fernández, Barceló-Vidal, and Pawlowsky-Glahn (2003) where it is shown that the theoretical drawbacks of the additive zero replacement method proposed in Aitchison (1986) can be overcome using a new multiplicative approach on the non-zero parts of a composition. The new approach has reasonable properties from a compositional point of view. In particular, it is “natural” in the sense that it recovers the “true” composition if replacement values are identical to the missing values, and it is coherent with the basic operations on the simplex. This coherence implies that the covariance structure of subcompositions with no zeros is preserved. As a generalization of the multiplicative replacement, in the same paper a substitution method for missing values on compositional data sets is introduced

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Examples of compositional data. The simplex, a suitable sample space for compositional data and Aitchison's geometry. R, a free language and environment for statistical computing and graphics

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Developments in the statistical analysis of compositional data over the last two decades have made possible a much deeper exploration of the nature of variability, and the possible processes associated with compositional data sets from many disciplines. In this paper we concentrate on geochemical data sets. First we explain how hypotheses of compositional variability may be formulated within the natural sample space, the unit simplex, including useful hypotheses of subcompositional discrimination and specific perturbational change. Then we develop through standard methodology, such as generalised likelihood ratio tests, statistical tools to allow the systematic investigation of a complete lattice of such hypotheses. Some of these tests are simple adaptations of existing multivariate tests but others require special construction. We comment on the use of graphical methods in compositional data analysis and on the ordination of specimens. The recent development of the concept of compositional processes is then explained together with the necessary tools for a staying- in-the-simplex approach, namely compositional singular value decompositions. All these statistical techniques are illustrated for a substantial compositional data set, consisting of 209 major-oxide and rare-element compositions of metamorphosed limestones from the Northeast and Central Highlands of Scotland. Finally we point out a number of unresolved problems in the statistical analysis of compositional processes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

First discussion on compositional data analysis is attributable to Karl Pearson, in 1897. However, notwithstanding the recent developments on algebraic structure of the simplex, more than twenty years after Aitchison’s idea of log-transformations of closed data, scientific literature is again full of statistical treatments of this type of data by using traditional methodologies. This is particularly true in environmental geochemistry where besides the problem of the closure, the spatial structure (dependence) of the data have to be considered. In this work we propose the use of log-contrast values, obtained by a simplicial principal component analysis, as LQGLFDWRUV of given environmental conditions. The investigation of the log-constrast frequency distributions allows pointing out the statistical laws able to generate the values and to govern their variability. The changes, if compared, for example, with the mean values of the random variables assumed as models, or other reference parameters, allow defining monitors to be used to assess the extent of possible environmental contamination. Case study on running and ground waters from Chiavenna Valley (Northern Italy) by using Na+, K+, Ca2+, Mg2+, HCO3-, SO4 2- and Cl- concentrations will be illustrated

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The use of perturbation and power transformation operations permits the investigation of linear processes in the simplex as in a vectorial space. When the investigated geochemical processes can be constrained by the use of well-known starting point, the eigenvectors of the covariance matrix of a non-centred principal component analysis allow to model compositional changes compared with a reference point. The results obtained for the chemistry of water collected in River Arno (central-northern Italy) have open new perspectives for considering relative changes of the analysed variables and to hypothesise the relative effect of different acting physical-chemical processes, thus posing the basis for a quantitative modelling

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The chemical composition of sediments and rocks, as well as their distribution at the Martian surface, represent a long term archive of processes, which have formed the planetary surface. A survey of chemical compositions by means of Compositional Data Analysis represents a valuable tool to extract direct evidence for weathering processes and allows to quantify weathering and sedimentation rates. clr-biplot techniques are applied for visualization of chemical relationships across the surface (“chemical maps”). The variability among individual suites of data is further analyzed by means of clr-PCA, in order to extract chemical alteration vectors between fresh rocks and their crusts and for an assessment of different source reservoirs accessible to soil formation. Both techniques are applied to elucidate the influence of remote weathering by combined analysis of several soil forming branches. Vector analysis in the Simplex provides the opportunity to study atmosphere surface interactions, including the role and composition of volcanic gases