34 resultados para Correlació múltiple (Estadística)

em Universitat de Girona, Spain


Relevância:

20.00% 20.00%

Publicador:

Resumo:

These notes have been prepared as support to a short course on compositional data analysis. Their aim is to transmit the basic concepts and skills for simple applications, thus setting the premises for more advanced projects

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Es tracta d’un material docent, amb què s’intenta facilitar als estudiants del camp de l’educació l’aprenentatge dels fonaments de l’estadística descriptiva i aplicada. Aquesta publicació vol ajudar a comprendre els conceptes bàsics per utilitzar-los amb seguretat en contextos de recerca i per entendre les dades d’estudis educatius i socials. El document està organitzat en cinc apartats i cada apartat conté una explicació sobre el concepte o conceptes que s’hi treballen, un o dos exemples d’exercicis desenvolupats, propostes d’exercicis i les respostes a aquests exercicis. Finalment, hi ha un sisè capítol amb exercicis de recopilació

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We take stock of the present position of compositional data analysis, of what has been achieved in the last 20 years, and then make suggestions as to what may be sensible avenues of future research. We take an uncompromisingly applied mathematical view, that the challenge of solving practical problems should motivate our theoretical research; and that any new theory should be thoroughly investigated to see if it may provide answers to previously abandoned practical considerations. Indeed a main theme of this lecture will be to demonstrate this applied mathematical approach by a number of challenging examples

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The simplex, the sample space of compositional data, can be structured as a real Euclidean space. This fact allows to work with the coefficients with respect to an orthonormal basis. Over these coefficients we apply standard real analysis, inparticular, we define two different laws of probability trought the density function and we study their main properties

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Traditionally, compositional data has been identified with closed data, and the simplex has been considered as the natural sample space of this kind of data. In our opinion, the emphasis on the constrained nature of compositional data has contributed to mask its real nature. More crucial than the constraining property of compositional data is the scale-invariant property of this kind of data. Indeed, when we are considering only few parts of a full composition we are not working with constrained data but our data are still compositional. We believe that it is necessary to give a more precise definition of composition. This is the aim of this oral contribution

Relevância:

20.00% 20.00%

Publicador:

Resumo:

One of the disadvantages of old age is that there is more past than future: this, however, may be turned into an advantage if the wealth of experience and, hopefully, wisdom gained in the past can be reflected upon and throw some light on possible future trends. To an extent, then, this talk is necessarily personal, certainly nostalgic, but also self critical and inquisitive about our understanding of the discipline of statistics. A number of almost philosophical themes will run through the talk: search for appropriate modelling in relation to the real problem envisaged, emphasis on sensible balances between simplicity and complexity, the relative roles of theory and practice, the nature of communication of inferential ideas to the statistical layman, the inter-related roles of teaching, consultation and research. A list of keywords might be: identification of sample space and its mathematical structure, choices between transform and stay, the role of parametric modelling, the role of a sample space metric, the underused hypothesis lattice, the nature of compositional change, particularly in relation to the modelling of processes. While the main theme will be relevance to compositional data analysis we shall point to substantial implications for general multivariate analysis arising from experience of the development of compositional data analysis…

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Low concentrations of elements in geochemical analyses have the peculiarity of being compositional data and, for a given level of significance, are likely to be beyond the capabilities of laboratories to distinguish between minute concentrations and complete absence, thus preventing laboratories from reporting extremely low concentrations of the analyte. Instead, what is reported is the detection limit, which is the minimum concentration that conclusively differentiates between presence and absence of the element. A spatially distributed exhaustive sample is employed in this study to generate unbiased sub-samples, which are further censored to observe the effect that different detection limits and sample sizes have on the inference of population distributions starting from geochemical analyses having specimens below detection limit (nondetects). The isometric logratio transformation is used to convert the compositional data in the simplex to samples in real space, thus allowing the practitioner to properly borrow from the large source of statistical techniques valid only in real space. The bootstrap method is used to numerically investigate the reliability of inferring several distributional parameters employing different forms of imputation for the censored data. The case study illustrates that, in general, best results are obtained when imputations are made using the distribution best fitting the readings above detection limit and exposes the problems of other more widely used practices. When the sample is spatially correlated, it is necessary to combine the bootstrap with stochastic simulation

Relevância:

20.00% 20.00%

Publicador:

Resumo:

There is almost not a case in exploration geology, where the studied data doesn’t includes below detection limits and/or zero values, and since most of the geological data responds to lognormal distributions, these “zero data” represent a mathematical challenge for the interpretation. We need to start by recognizing that there are zero values in geology. For example the amount of quartz in a foyaite (nepheline syenite) is zero, since quartz cannot co-exists with nepheline. Another common essential zero is a North azimuth, however we can always change that zero for the value of 360°. These are known as “Essential zeros”, but what can we do with “Rounded zeros” that are the result of below the detection limit of the equipment? Amalgamation, e.g. adding Na2O and K2O, as total alkalis is a solution, but sometimes we need to differentiate between a sodic and a potassic alteration. Pre-classification into groups requires a good knowledge of the distribution of the data and the geochemical characteristics of the groups which is not always available. Considering the zero values equal to the limit of detection of the used equipment will generate spurious distributions, especially in ternary diagrams. Same situation will occur if we replace the zero values by a small amount using non-parametric or parametric techniques (imputation). The method that we are proposing takes into consideration the well known relationships between some elements. For example, in copper porphyry deposits, there is always a good direct correlation between the copper values and the molybdenum ones, but while copper will always be above the limit of detection, many of the molybdenum values will be “rounded zeros”. So, we will take the lower quartile of the real molybdenum values and establish a regression equation with copper, and then we will estimate the “rounded” zero values of molybdenum by their corresponding copper values. The method could be applied to any type of data, provided we establish first their correlation dependency. One of the main advantages of this method is that we do not obtain a fixed value for the “rounded zeros”, but one that depends on the value of the other variable. Key words: compositional data analysis, treatment of zeros, essential zeros, rounded zeros, correlation dependency

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In a seminal paper, Aitchison and Lauder (1985) introduced classical kernel density estimation techniques in the context of compositional data analysis. Indeed, they gave two options for the choice of the kernel to be used in the kernel estimator. One of these kernels is based on the use the alr transformation on the simplex SD jointly with the normal distribution on RD-1. However, these authors themselves recognized that this method has some deficiencies. A method for overcoming these dificulties based on recent developments for compositional data analysis and multivariate kernel estimation theory, combining the ilr transformation with the use of the normal density with a full bandwidth matrix, was recently proposed in Martín-Fernández, Chacón and Mateu- Figueras (2006). Here we present an extensive simulation study that compares both methods in practice, thus exploring the finite-sample behaviour of both estimators

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The quantitative estimation of Sea Surface Temperatures from fossils assemblages is a fundamental issue in palaeoclimatic and paleooceanographic investigations. The Modern Analogue Technique, a widely adopted method based on direct comparison of fossil assemblages with modern coretop samples, was revised with the aim of conforming it to compositional data analysis. The new CODAMAT method was developed by adopting the Aitchison metric as distance measure. Modern coretop datasets are characterised by a large amount of zeros. The zero replacement was carried out by adopting a Bayesian approach to the zero replacement, based on a posterior estimation of the parameter of the multinomial distribution. The number of modern analogues from which reconstructing the SST was determined by means of a multiple approach by considering the Proxies correlation matrix, Standardized Residual Sum of Squares and Mean Squared Distance. This new CODAMAT method was applied to the planktonic foraminiferal assemblages of a core recovered in the Tyrrhenian Sea. Kew words: Modern analogues, Aitchison distance, Proxies correlation matrix, Standardized Residual Sum of Squares

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Es tracta d’un material docent, amb què s’intenta facilitar als estudiants del camp de l’educació l’aprenentatge dels fonaments de l’estadística descriptiva i aplicada. Aquesta publicació vol ajudar a comprendre els conceptes bàsics per utilitzar-los amb seguretat en contextos de recerca i per entendre les dades d’estudis educatius i socials. El document està organitzat en cinc apartats i cada apartat conté una explicació sobre el concepte o conceptes que s’hi treballen, un o dos exemples d’exercicis desenvolupats, propostes d’exercicis i les respostes a aquests exercicis. Finalment, hi ha un sisè capítol amb exercicis de recopilació

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'esclerosi múltiple és una malaltia del sistema nerviós central que afecta el cervell i la medul·la espinal. Tot i els esforços que fa la medicina, encara es desconeix l'origen de la malaltia. Una part de la recerca s'encamina en la direcció de proporcionar eines que facilitin la vida del malalt. El TRIEM és un projecte de la UdG que va en aquest sentit. Es tracta d'una aplicació de telerehabilitació que permetrà als malalts estalviar-se visites al centre de dia i, sobretot, complicats i costosos desplaçaments

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En aquesta comunicació es descriu el procés d’introducció de dos formats de prova d’elecció múltiple (PEM), concretament, el de 3 alternatives de resposta i el format k, a més del format tradicional, en una de les proves d’avaluació que conformaven el sistema d’avaluació continuada de l’assignatura de Teoria de la Imatge corresponent als estudis de Publicitat i Relacions Públiques durant el curs 2006-07. L’objectiu de la prova que es va aplicar va ser el d’augmentar el grau de comprensió dels alumnes matriculats a aquesta assignatura d’uns determinats conceptes i teories, així com la seva competència en l’aplicació d’aquests continguts. Juntament amb la prova, es va demanar als alumnes que responguessin una enquesta que tenia com a objectiu conèixer la seva opinió respecte de cadascun dels formats de les preguntes així com saber quin havia de ser, al seu criteri, el format o formats de la última prova d’avaluació de l’assignatura. Els resultats obtinguts pels estudiants van diferir de forma significativa amb les notes obtingudes en les dues proves anteriors que havien realitzat i que havien estat dissenyades amb un format PEM tradicional. No obstant això, aquestes diferències no varen ser gaire elevades. De les respostes dels alumnes a l’enquesta es dedueix que no estaven massa d’acord amb la introducció d’un canvi en el tipus d’examen respecte del què ja estaven acostumats a fer. Curiosament, però, el percentatge dels què consideraven que la següent prova d’avaluació hauria d’estar dissenyada amb dos formats és més elevat en comparació amb els que defensaven un únic format. Un altre factor important a tenir en compte és el seu gran pragmatisme, és a dir, malgrat admetre que els nous formats requereixen d’uns nivells d’aprenentatge que van més enllà del record, varen demanar que el proper examen inclogués preguntes dissenyades amb un format tradicional. Els resultats obtinguts a partir d’aquesta experiència evidencien la importància de tenir en compte les percepcions i avaluacions dels alumnes respecte dels processos avaluatius. Així mateix, aquests resultats seran discutits en funció del seu grau de contribució a la reflexió sobre els procediments d’avaluació en general i sobre les diferents dinàmiques que poden emergir en el grup-classe com a conseqüència de la introducció d’un o altre procediment d’avaluació

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Exhaustive statistical information-gathering operations pose major logistical challenges. By using GISs, managing the associated information becomes simpler, and monitoring the quality control of the information gathered can be stricter

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’aprenentatge basat en problemes (ABP) es fonamenta en plantejar situacions que els alumnes probablement es trobaran en la vida real. Un ABP es caracteritza per tenir problemes acuradament seleccionats i dissenyats que requereixen l’adquisició de coneixement crític, habilitat en la resolució de problemes, estratègies d’aprenentatge autodirigides i capacitat de treball en grup. El projecte ACME (Avaluació Continuada i Millora de l’Ensenyament) té com a objectiu principal implementar un sistema eficient d’avaluació i treball continuat, mitjançant l’assignació de problemes de manera personalitzada per a cada alumne, oferint un sistema d’ajuda per a resoldre’ls, facilitant la comunicació professor-alumne i el seguiment i l’avaluació dels alumnes. En aquest treball es presenta una experiència d’adaptació a l’Espai Europeu d’Educació Superior (EEES) de les assignatures d’estadística de les enginyeries tècniques informàtiques de l’Escola Politècnica Superior de la UdG. Aquesta es basa en una concepció diferent de la manera d’ensenyar i aprendre l’estadística mitjançant la concreció de les competències i l’establiment de diverses activitats. Ens centrarem únicament en l’aplicació de la metodologia ABP i en la utilització de la plataforma e-learning ACME