760 resultados para Análisi microestructural
Resumo:
Theory of compositional data analysis is often focused on the composition only. However in practical applications we often treat a composition together with covariables with some other scale. This contribution systematically gathers and develop statistical tools for this situation. For instance, for the graphical display of the dependence of a composition with a categorical variable, a colored set of ternary diagrams might be a good idea for a first look at the data, but it will fast hide important aspects if the composition has many parts, or it takes extreme values. On the other hand colored scatterplots of ilr components could not be very instructive for the analyst, if the conventional, black-box ilr is used. Thinking on terms of the Euclidean structure of the simplex, we suggest to set up appropriate projections, which on one side show the compositional geometry and on the other side are still comprehensible by a non-expert analyst, readable for all locations and scales of the data. This is e.g. done by defining special balance displays with carefully- selected axes. Following this idea, we need to systematically ask how to display, explore, describe, and test the relation to complementary or explanatory data of categorical, real, ratio or again compositional scales. This contribution shows that it is sufficient to use some basic concepts and very few advanced tools from multivariate statistics (principal covariances, multivariate linear models, trellis or parallel plots, etc.) to build appropriate procedures for all these combinations of scales. This has some fundamental implications in their software implementation, and how might they be taught to analysts not already experts in multivariate analysis
Resumo:
The quantitative estimation of Sea Surface Temperatures from fossils assemblages is a fundamental issue in palaeoclimatic and paleooceanographic investigations. The Modern Analogue Technique, a widely adopted method based on direct comparison of fossil assemblages with modern coretop samples, was revised with the aim of conforming it to compositional data analysis. The new CODAMAT method was developed by adopting the Aitchison metric as distance measure. Modern coretop datasets are characterised by a large amount of zeros. The zero replacement was carried out by adopting a Bayesian approach to the zero replacement, based on a posterior estimation of the parameter of the multinomial distribution. The number of modern analogues from which reconstructing the SST was determined by means of a multiple approach by considering the Proxies correlation matrix, Standardized Residual Sum of Squares and Mean Squared Distance. This new CODAMAT method was applied to the planktonic foraminiferal assemblages of a core recovered in the Tyrrhenian Sea. Kew words: Modern analogues, Aitchison distance, Proxies correlation matrix, Standardized Residual Sum of Squares
Resumo:
Self-organizing maps (Kohonen 1997) is a type of artificial neural network developed to explore patterns in high-dimensional multivariate data. The conventional version of the algorithm involves the use of Euclidean metric in the process of adaptation of the model vectors, thus rendering in theory a whole methodology incompatible with non-Euclidean geometries. In this contribution we explore the two main aspects of the problem: 1. Whether the conventional approach using Euclidean metric can shed valid results with compositional data. 2. If a modification of the conventional approach replacing vectorial sum and scalar multiplication by the canonical operators in the simplex (i.e. perturbation and powering) can converge to an adequate solution. Preliminary tests showed that both methodologies can be used on compositional data. However, the modified version of the algorithm performs poorer than the conventional version, in particular, when the data is pathological. Moreover, the conventional ap- proach converges faster to a solution, when data is \well-behaved". Key words: Self Organizing Map; Artificial Neural networks; Compositional data
Resumo:
Our essay aims at studying suitable statistical methods for the clustering of compositional data in situations where observations are constituted by trajectories of compositional data, that is, by sequences of composition measurements along a domain. Observed trajectories are known as “functional data” and several methods have been proposed for their analysis. In particular, methods for clustering functional data, known as Functional Cluster Analysis (FCA), have been applied by practitioners and scientists in many fields. To our knowledge, FCA techniques have not been extended to cope with the problem of clustering compositional data trajectories. In order to extend FCA techniques to the analysis of compositional data, FCA clustering techniques have to be adapted by using a suitable compositional algebra. The present work centres on the following question: given a sample of compositional data trajectories, how can we formulate a segmentation procedure giving homogeneous classes? To address this problem we follow the steps described below. First of all we adapt the well-known spline smoothing techniques in order to cope with the smoothing of compositional data trajectories. In fact, an observed curve can be thought of as the sum of a smooth part plus some noise due to measurement errors. Spline smoothing techniques are used to isolate the smooth part of the trajectory: clustering algorithms are then applied to these smooth curves. The second step consists in building suitable metrics for measuring the dissimilarity between trajectories: we propose a metric that accounts for difference in both shape and level, and a metric accounting for differences in shape only. A simulation study is performed in order to evaluate the proposed methodologies, using both hierarchical and partitional clustering algorithm. The quality of the obtained results is assessed by means of several indices
Resumo:
Functional Data Analysis (FDA) deals with samples where a whole function is observed for each individual. A particular case of FDA is when the observed functions are density functions, that are also an example of infinite dimensional compositional data. In this work we compare several methods for dimensionality reduction for this particular type of data: functional principal components analysis (PCA) with or without a previous data transformation and multidimensional scaling (MDS) for diferent inter-densities distances, one of them taking into account the compositional nature of density functions. The difeerent methods are applied to both artificial and real data (households income distributions)
Resumo:
Many multivariate methods that are apparently distinct can be linked by introducing one or more parameters in their definition. Methods that can be linked in this way are correspondence analysis, unweighted or weighted logratio analysis (the latter also known as "spectral mapping"), nonsymmetric correspondence analysis, principal component analysis (with and without logarithmic transformation of the data) and multidimensional scaling. In this presentation I will show how several of these methods, which are frequently used in compositional data analysis, may be linked through parametrizations such as power transformations, linear transformations and convex linear combinations. Since the methods of interest here all lead to visual maps of data, a "movie" can be made where where the linking parameter is allowed to vary in small steps: the results are recalculated "frame by frame" and one can see the smooth change from one method to another. Several of these "movies" will be shown, giving a deeper insight into the similarities and differences between these methods
Resumo:
Factor analysis as frequent technique for multivariate data inspection is widely used also for compositional data analysis. The usual way is to use a centered logratio (clr) transformation to obtain the random vector y of dimension D. The factor model is then y = Λf + e (1) with the factors f of dimension k < D, the error term e, and the loadings matrix Λ. Using the usual model assumptions (see, e.g., Basilevsky, 1994), the factor analysis model (1) can be written as Cov(y) = ΛΛT + ψ (2) where ψ = Cov(e) has a diagonal form. The diagonal elements of ψ as well as the loadings matrix Λ are estimated from an estimation of Cov(y). Given observed clr transformed data Y as realizations of the random vector y. Outliers or deviations from the idealized model assumptions of factor analysis can severely effect the parameter estimation. As a way out, robust estimation of the covariance matrix of Y will lead to robust estimates of Λ and ψ in (2), see Pison et al. (2003). Well known robust covariance estimators with good statistical properties, like the MCD or the S-estimators (see, e.g. Maronna et al., 2006), rely on a full-rank data matrix Y which is not the case for clr transformed data (see, e.g., Aitchison, 1986). The isometric logratio (ilr) transformation (Egozcue et al., 2003) solves this singularity problem. The data matrix Y is transformed to a matrix Z by using an orthonormal basis of lower dimension. Using the ilr transformed data, a robust covariance matrix C(Z) can be estimated. The result can be back-transformed to the clr space by C(Y ) = V C(Z)V T where the matrix V with orthonormal columns comes from the relation between the clr and the ilr transformation. Now the parameters in the model (2) can be estimated (Basilevsky, 1994) and the results have a direct interpretation since the links to the original variables are still preserved. The above procedure will be applied to data from geochemistry. Our special interest is on comparing the results with those of Reimann et al. (2002) for the Kola project data
Resumo:
La idea primera d'aquest projecte d’investigació, sobre les escriptures exposades del Claustre de la Catedral de Santa Maria de Girona, va sorgir d'un senzill treball de classe de doctorat. Es tractava de fer un estudi que tractés sobre el món de la mort: el ritual, la cerimònia, l'enterrament, el dol, etc. Tot el que envolta els primers dies de la mort d'un individu i com el seu record pretén ser etern. Si bé l'època històrica que tractaven era l'antiguitat, el treball que jo pretenia dur a terme era d'una època diferent la qual cosa ja presentava una sèrie de reptes com el fet de tractar-se d'un estudi inèdit degut al plantejament que pretenia portar a la pràctica. Es tractava, doncs, de l'anàlisi de l'actitud socio-cultural de la dona i l'home davant la mort a partir dels testimonis escrits en les seves tombes. Amb la qual cosa es podia veure l'evolució del pensament humà en vers un dels temes que més va preocupar i preocupa i interessa al llarg de tots els temps històrics
Resumo:
Anàlisi de la figura de l'educador/a social en processos de desenvolupament comunitari a partir d'experiències diverses a Catalunya
Resumo:
Desenvolupament,anàlisi, disseny i implementació d’un portal web, tipus cercador, per la recerca i localització d’establiments tipus restaurant, bars, bufets, etc,. Per altra banda es pretén oferir un sistema de gestió d’informació on les empreses del sector gastronòmic puguin mostrar la seva informació i la seva oferta
Resumo:
La tesi de màster o treball final d’estudis es pot definir com un treball individual i tutoritzat en el qual l’estudiant desenvolupa diferents competències per tal d’assolir un objectiu ben definit. Aquestes competències normalment són un subconjunt d’aquelles que defineixen el programa de màster i que possiblement es desenvolupen parcialment o totalment en les diferents assignatures del màster. Atès que la tesi de màster acostuma a ser l’activitat amb més ECTS i temps de dedicació en la majoria dels programes de màster, es considera que una gestió i seguiment acurat de l’activitat que es porta terme és molt necessària per assegurar l’assoliment de competències, per part de l’estudiant. Les competències variaran d’una tesi a l’altra; no solament pel fet que els objectius puguin ser diferents, també per la pròpia naturalesa del màster (tecnològic, ciències experimentals, humanitats, econòmiques, etc.) i per la seva orientació (recerca, acadèmic, professionalitzador o mixt). No obstant això, s’ha de poder garantir que l’estudiant, mentre executa les activitats i tasques associades al compliment dels objectius del projecte, vagi desenvolupant i assolint les competències previstes. Partint d’aquesta base s’ha realitzat una anàlisi exhaustiva de com s’ha de desenvolupar i gestionar una tesi de màster orientada a competències. El treball s’ha realitzat en el context del Màster Oficial en Informàtica Industrial i Automàtica (MOIIA) de la UdG (MO2006-00276). Es tracta d’un màster de l’àmbit tecnològic orientat a la recerca (bàsica i Girona, juny 2008 Universitat de Girona aplicada) en què es desenvolupen tant competències metodològiques (derivades dels trets comuns de la recerca en aquest àmbit) com específiques de cada un dels perfils de recerca definits en el màster. Per tant, tot i que l’anàlisi efectuada està molt centrada en aquest màster, les conclusions i la proposta final per implementar una guia d’execució de la tesi de màster és prou genèrica com perquè pugui prendre’s com a referència per al desenvolupament de guies similars en altres estudis
Resumo:
Estudi de l’efecte del pH de la matèria primera, del nivell de sal afegit i de la temperatura sobre el grau de proteòlisi i sobre la textura final del pernil curat per tal de millorar els criteris que s’utilitzen per a la selecció de la matèria primera, avaluar les condiciones de procés òptimes (nivell de sal afegit i de la temperatura de curació) per l’elaboració del pernils destinats al llencat mecànic
Resumo:
Avaluació de l’efecte del tipus de tràfic imposat a les vaques lleteres en sistemes de munyida automàtica sobre la freqüència de munyida, les necessitats d’alimentació, el comportament alimentari i la producció i composició de la llet
Resumo:
Aquest projecte fi de carrera es centra en un restaurant fictici i genèric anomenat "El Restaurant al Punt". Es tractarà d' una empresa que s' inicia en el sector hostaler amb tot un seguit de coneixements previs per part dels propietaris. L' objectiu principal que es preten assolir en aquest projecte és: desenvolupar l' anàlisi, dissenyar i implementar una aplicació informàtica que permeti gestionar el funcionament d' un restaurant
Disseny i optimització d'un rodet hidràulic d'un molí fariner de meitat del segle XX situat a Besalú
Resumo:
A Besalú (la Garrotxa) hi ha les restes d’un molí fariner de rodet horitzontal que va deixar de funcionar a meitat del segle XX. Durant l'any 2004,l’Ajuntament de Besalú va realitzat unes actuacions arqueològiques a la zona dels horts, pròxima al riu Fluvià, que han permès la redescoberta del Molí d’en Subirós, que està propulsat per la força de l’aigua del canal de rec, que va paral·lel al riu. Actualment s’estan duent a terme les obres de reconstrucció de l’edifici del molí amb la intenció que torni a funcionar com ho feia antigament i convertir aquest espai en un petit museu dedicat a aquest antic ofici, en l’actualitat desaparegut. Per això, cal reconstruir tots els elements que composen el mecanisme del molí. Per poder dur a terme aquesta feina amb el màxim rigor històric s’ha realitzat un treball d’investigació històrica i s’ha comparat amb molins existents a la comarca. Aquesta comparació i anàlisi de molins existents ha revelat la manca d’estudis tècnics sobre el rodet hidràulic tot i ésser una de les parts fonamentals del molí. D’aquesta forma, és d’esperar que un redisseny adequat del rodet permeti millorar de forma apreciable el rendiment hidràulic del molí. S’ha dividit el projecte en dues parts: primer, hem definit els elements que composen el mecanisme del molí fariner hidràulic de rodet horitzontal i hem analitzat el seu funcionament. Segon, hem realitzat un estudi tècnic (hidràulic i mecànic) del rodet clàssic(utilitzat en d’altres molins de característiques semblants). D’aquesta forma, som capaços de conèixer no només el seu comportament hidràulic sinó també com podem modificar les variables essencials del mecanisme com potència hidràulica, parell motriu, etc