914 resultados para principal component
Resumo:
This paper presents a new paradigm for signal reconstruction and superresolution, Correlation Kernel Analysis (CKA), that is based on the selection of a sparse set of bases from a large dictionary of class- specific basis functions. The basis functions that we use are the correlation functions of the class of signals we are analyzing. To choose the appropriate features from this large dictionary, we use Support Vector Machine (SVM) regression and compare this to traditional Principal Component Analysis (PCA) for the tasks of signal reconstruction, superresolution, and compression. The testbed we use in this paper is a set of images of pedestrians. This paper also presents results of experiments in which we use a dictionary of multiscale basis functions and then use Basis Pursuit De-Noising to obtain a sparse, multiscale approximation of a signal. The results are analyzed and we conclude that 1) when used with a sparse representation technique, the correlation function is an effective kernel for image reconstruction and superresolution, 2) for image compression, PCA and SVM have different tradeoffs, depending on the particular metric that is used to evaluate the results, 3) in sparse representation techniques, L_1 is not a good proxy for the true measure of sparsity, L_0, and 4) the L_epsilon norm may be a better error metric for image reconstruction and compression than the L_2 norm, though the exact psychophysical metric should take into account high order structure in images.
Resumo:
First discussion on compositional data analysis is attributable to Karl Pearson, in 1897. However, notwithstanding the recent developments on algebraic structure of the simplex, more than twenty years after Aitchison’s idea of log-transformations of closed data, scientific literature is again full of statistical treatments of this type of data by using traditional methodologies. This is particularly true in environmental geochemistry where besides the problem of the closure, the spatial structure (dependence) of the data have to be considered. In this work we propose the use of log-contrast values, obtained by a simplicial principal component analysis, as LQGLFDWRUV of given environmental conditions. The investigation of the log-constrast frequency distributions allows pointing out the statistical laws able to generate the values and to govern their variability. The changes, if compared, for example, with the mean values of the random variables assumed as models, or other reference parameters, allow defining monitors to be used to assess the extent of possible environmental contamination. Case study on running and ground waters from Chiavenna Valley (Northern Italy) by using Na+, K+, Ca2+, Mg2+, HCO3-, SO4 2- and Cl- concentrations will be illustrated
Resumo:
At CoDaWork'03 we presented work on the analysis of archaeological glass composi- tional data. Such data typically consist of geochemical compositions involving 10-12 variables and approximates completely compositional data if the main component, sil- ica, is included. We suggested that what has been termed `crude' principal component analysis (PCA) of standardized data often identi ed interpretable pattern in the data more readily than analyses based on log-ratio transformed data (LRA). The funda- mental problem is that, in LRA, minor oxides with high relative variation, that may not be structure carrying, can dominate an analysis and obscure pattern associated with variables present at higher absolute levels. We investigate this further using sub- compositional data relating to archaeological glasses found on Israeli sites. A simple model for glass-making is that it is based on a `recipe' consisting of two `ingredients', sand and a source of soda. Our analysis focuses on the sub-composition of components associated with the sand source. A `crude' PCA of standardized data shows two clear compositional groups that can be interpreted in terms of di erent recipes being used at di erent periods, re ected in absolute di erences in the composition. LRA analysis can be undertaken either by normalizing the data or de ning a `residual'. In either case, after some `tuning', these groups are recovered. The results from the normalized LRA are di erently interpreted as showing that the source of sand used to make the glass di ered. These results are complementary. One relates to the recipe used. The other relates to the composition (and presumed sources) of one of the ingredients. It seems to be axiomatic in some expositions of LRA that statistical analysis of compositional data should focus on relative variation via the use of ratios. Our analysis suggests that absolute di erences can also be informative
Resumo:
In an earlier investigation (Burger et al., 2000) five sediment cores near the Rodrigues Triple Junction in the Indian Ocean were studied applying classical statistical methods (fuzzy c-means clustering, linear mixing model, principal component analysis) for the extraction of endmembers and evaluating the spatial and temporal variation of geochemical signals. Three main factors of sedimentation were expected by the marine geologists: a volcano-genetic, a hydro-hydrothermal and an ultra-basic factor. The display of fuzzy membership values and/or factor scores versus depth provided consistent results for two factors only; the ultra-basic component could not be identified. The reason for this may be that only traditional statistical methods were applied, i.e. the untransformed components were used and the cosine-theta coefficient as similarity measure. During the last decade considerable progress in compositional data analysis was made and many case studies were published using new tools for exploratory analysis of these data. Therefore it makes sense to check if the application of suitable data transformations, reduction of the D-part simplex to two or three factors and visual interpretation of the factor scores would lead to a revision of earlier results and to answers to open questions . In this paper we follow the lines of a paper of R. Tolosana- Delgado et al. (2005) starting with a problem-oriented interpretation of the biplot scattergram, extracting compositional factors, ilr-transformation of the components and visualization of the factor scores in a spatial context: The compositional factors will be plotted versus depth (time) of the core samples in order to facilitate the identification of the expected sources of the sedimentary process. Kew words: compositional data analysis, biplot, deep sea sediments
Resumo:
In order to obtain a high-resolution Pleistocene stratigraphy, eleven continuously cored boreholes, 100 to 220m deep were drilled in the northern part of the Po Plain by Regione Lombardia in the last five years. Quantitative provenance analysis (QPA, Weltje and von Eynatten, 2004) of Pleistocene sands was carried out by using multivariate statistical analysis (principal component analysis, PCA, and similarity analysis) on an integrated data set, including high-resolution bulk petrography and heavy-mineral analyses on Pleistocene sands and of 250 major and minor modern rivers draining the southern flank of the Alps from West to East (Garzanti et al, 2004; 2006). Prior to the onset of major Alpine glaciations, metamorphic and quartzofeldspathic detritus from the Western and Central Alps was carried from the axial belt to the Po basin longitudinally parallel to the SouthAlpine belt by a trunk river (Vezzoli and Garzanti, 2008). This scenario rapidly changed during the marine isotope stage 22 (0.87 Ma), with the onset of the first major Pleistocene glaciation in the Alps (Muttoni et al, 2003). PCA and similarity analysis from core samples show that the longitudinal trunk river at this time was shifted southward by the rapid southward and westward progradation of transverse alluvial river systems fed from the Central and Southern Alps. Sediments were transported southward by braided river systems as well as glacial sediments transported by Alpine valley glaciers invaded the alluvial plain. Kew words: Detrital modes; Modern sands; Provenance; Principal Components Analysis; Similarity, Canberra Distance; palaeodrainage
Resumo:
Many multivariate methods that are apparently distinct can be linked by introducing one or more parameters in their definition. Methods that can be linked in this way are correspondence analysis, unweighted or weighted logratio analysis (the latter also known as "spectral mapping"), nonsymmetric correspondence analysis, principal component analysis (with and without logarithmic transformation of the data) and multidimensional scaling. In this presentation I will show how several of these methods, which are frequently used in compositional data analysis, may be linked through parametrizations such as power transformations, linear transformations and convex linear combinations. Since the methods of interest here all lead to visual maps of data, a "movie" can be made where where the linking parameter is allowed to vary in small steps: the results are recalculated "frame by frame" and one can see the smooth change from one method to another. Several of these "movies" will be shown, giving a deeper insight into the similarities and differences between these methods
Resumo:
Competence development is considered a preventive strategy of burnout. At an organizational context some competences could be linked as precursors or consequences. In self-assessment of competence development, students perceive stress tolerance as a priority competence to ameliorate. Moreover employers and recruitment consultants agree that this is a new authentic challenge for organizations. The main reasons of this result are debated, this study should consider the importance of competence development from a holistic point of view. In addition it considers the exploration of the relationship between stress tolerance and competence development, according to Conservation Resources (COR) theory (Hobfoll 1988, 1989, 1998, 2004) where the resource loss is considered the principal component in the stress process
Resumo:
Three multivariate statistical tools (principal component analysis, factor analysis, analysis discriminant) have been tested to characterize and model the sags registered in distribution substations. Those models use several features to represent the magnitude, duration and unbalanced grade of sags. They have been obtained from voltage and current waveforms. The techniques are tested and compared using 69 registers of sags. The advantages and drawbacks of each technique are listed
Resumo:
The work presented in this paper belongs to the power quality knowledge area and deals with the voltage sags in power transmission and distribution systems. Propagating throughout the power network, voltage sags can cause plenty of problems for domestic and industrial loads that can financially cost a lot. To impose penalties to responsible party and to improve monitoring and mitigation strategies, sags must be located in the power network. With such a worthwhile objective, this paper comes up with a new method for associating a sag waveform with its origin in transmission and distribution networks. It solves this problem through developing hybrid methods which hire multiway principal component analysis (MPCA) as a dimension reduction tool. MPCA reexpresses sag waveforms in a new subspace just in a few scores. We train some well-known classifiers with these scores and exploit them for classification of future sags. The capabilities of the proposed method for dimension reduction and classification are examined using the real data gathered from three substations in Catalonia, Spain. The obtained classification rates certify the goodness and powerfulness of the developed hybrid methods as brand-new tools for sag classification
Resumo:
A statistical method for classification of sags their origin downstream or upstream from the recording point is proposed in this work. The goal is to obtain a statistical model using the sag waveforms useful to characterise one type of sags and to discriminate them from the other type. This model is built on the basis of multi-way principal component analysis an later used to project the available registers in a new space with lower dimension. Thus, a case base of diagnosed sags is built in the projection space. Finally classification is done by comparing new sags against the existing in the case base. Similarity is defined in the projection space using a combination of distances to recover the nearest neighbours to the new sag. Finally the method assigns the origin of the new sag according to the origin of their neighbours
Resumo:
A través del tiempo se ha logrado ver cómo los medios de comunicación penetran cada vez más la forma de pensar, e incluso de actuar, de la gente. Políticamente se han convertido en herramientas de disuasión, alienación o simplemente distracción. En Colombia, revista Semana se ha caracterizado por tener un criterio y una práctica seria del periodismo, en este sentido, vale la pena analizar cómo se ha desempeñado este medio ante el tratamiento de la información frente a los movimientos de izquierda con participación en el Estado, específicamente el Polo Democrático y el movimiento Progresistas, con el fin analizar la calidad y objetividad de la información basados en puntos específicos como el discurso mediático, el análisis gráfico y la percepción de los principales líderes políticos de estos movimientos y periodistas.
Resumo:
Los factores de riesgo para el desarrollo de eventos cardiometabólicos, constituyen un set de variables útiles como predictores de enfermedades cardiovasculares y metabólicas. Uno de los factores de riesgo que recibe mayor atención en la deteccion y prevencion de eventos cardiometabolicos, es la obesidad y la herramienta más común para diagnosticarla es el índice de masa corporal. Sin embargo, existen imprecisiones y sesgos en su concepto actual y en la forma de medirla. Nuevas alternativas de valoracion y tamizaje deben incluir porcentaje de grasa corporal y su distribución, dada la relevancia que adquiere la adiposidad en la definicion de obesidad y por ende en la mejoría del pronóstico de eventos cardiometabólicos. Los entornos laborales son ambientes vulnerables que se beneficiarían ampliamente de la aplicación de estas nuevas alternativas para predecir e intervenir tempranamente el riesgo cardiometabólico desde el correcto tamizaje de obesidad, dado el volumen poblacional que se puede abordar.
Resumo:
Antecedentes: El interés en las enfermedades autoinmunes (EA) y su desenlace en la unidad de cuidado intensivo (UCI) han incrementado debido al reto clínico que suponen para el diagnóstico y manejo, debido a que la mortalidad en UCI fluctúa entre el 17 – 55 %. El siguiente trabajo representa la experiencia de un año de nuestro grupo en un hospital de tercer nivel. Objetivo: Identificar factores asociados a mortalidad particulares de los pacientes con enfermedades autoinmunes que ingresan a una UCI, de un hospital de tercer nivel en Bogotá, Colombia. Métodos: El uso de análisis de componentes principales basado en el método descriptivo multivariado y análisis de múltiple correspondencia fue realizado para agrupar varias variables relacionadas con asociación significativa y contexto clínico común. Resultados: Cincuenta pacientes adultos con EA con una edad promedio de 46,7 ± 17,55 años fueron evaluados. Los dos diagnósticos más comunes fueron lupus eritematoso sistémico y esclerosis sistémica, con una frecuencia de 45% y 20% de los pacientes respectivamente. La principal causa de admisión en la UCI fue la infección seguido de actividad aguda de la EA, 36% y 24% respectivamente. La mortalidad durante la estancia en UCI fue del 24%. El tiempo de hospitalización antes de la admisión a la UCI, el choque, soporte vasopresor, ventilación mecánica, sepsis abdominal, Glasgow bajo y plasmaféresis fueron factores asociados con mortalidad. Dos fenotipos de variables fueron definidos relacionadas con tiempo en la UCI y medidas de soporte en UCI, las cuales fueron asociadas supervivencia y mortalidad. Conclusiones: La identificación de factores individuales y grupos de factores por medio del análisis de componentes principales permitirá la implementación de medidas terapéutica de manera temprana y agresiva en pacientes con EA en la UCI para evitar desenlaces fatales.
Resumo:
Objetivos. El Objetivo general de este estudio es determinar si el Instrumento para evaluar las Fallas Cognitivas Ocupacionales (Occupational Cognitive Failures Questionnaire - OCFQ) desarrollado por Allahyari T. et al. (2011) , tiene validez transcultural y podría ser un Instrumento fiable y válido que se puede adaptar al contexto cultural Colombiano para la valoración de las Fallas Cognitivas en el ámbito laboral. Metodología. Se llevó a cabo la traducción, adaptación y validación del Cuestionario de Fallas Cognitivas Ocupacionales (OCFQ) al contexto cultural colombiano, siguiendo las recomendaciones de la Organización Mundial de la Salud (OMS) para el proceso de traducción y adaptación de instrumentos y posteriormente la evaluación de fiabilidad y validez del instrumento adaptado, en cuatro etapas: Etapa 1. Traducción - retro traducción, Etapa 2. “Debriefing” y Análisis de legibilidad, Etapa 3. Validez de contenido, usando el Índice de Validez de Contenido (CVI) y Etapa 4. Evaluación de propiedades métricas. Para la evaluación de Validez de Constructo se aplicó el Análisis Factorial por el Método de Componentes Principales y Rotación Varimax; la consistencia interna y la estabilidad temporal fueron evaluados mediante el Alpha de Cronbach (α) y el test-retest, respectivamente. Resultados. El Cuestionario OCFQ fue adaptado al contexto cultural Colombiano; el análisis de Legibilidad determinó que de acuerdo con el Grado en la escala Inflesz, el Cuestionario es Bastante Fácil de leer. Partiendo de la versión original de 30 ítems se obtuvo una nueva versión de 25 ítems, ya que después de la evaluación de Validez de Contenido se rechazaron 5 ítems. El Índice de Validez de Contenido (CVI) para la versión final del OCFQ adaptado es aceptable (CVI=0,84). Los resultados de las pruebas métricas muestran que la versión final del OCFQ adaptado tiene una buena Consistencia Interna (α=0.90) y el Índice de Correlación Interclases (ICC) fue de 0.91 mostrando una muy buena Estabilidad Temporal. El Análisis Factorial estableció para el Cuestionario OCFQ 4 factores que explican el 47% de la varianza total. Conclusión. La evaluación de las Fallas Cognitivas en el ámbito laboral requiere que se disponga de una herramienta válida y fiable. De acuerdo con los resultados en este estudio se puede establecer que el OCFQ adaptado al Contexto Cultural Colombiano podría ser un instrumento adecuado para medir las Fallas Cognitivas en el ámbito laboral en plantas industriales.
Resumo:
La implementació de la Directiva Europea 91/271/CEE referent a tractament d'aigües residuals urbanes va promoure la construcció de noves instal·lacions al mateix temps que la introducció de noves tecnologies per tractar nutrients en àrees designades com a sensibles. Tant el disseny d'aquestes noves infraestructures com el redisseny de les ja existents es va portar a terme a partir d'aproximacions basades fonamentalment en objectius econòmics degut a la necessitat d'acabar les obres en un període de temps relativament curt. Aquests estudis estaven basats en coneixement heurístic o correlacions numèriques provinents de models determinístics simplificats. Així doncs, moltes de les estacions depuradores d'aigües residuals (EDARs) resultants van estar caracteritzades per una manca de robustesa i flexibilitat, poca controlabilitat, amb freqüents problemes microbiològics de separació de sòlids en el decantador secundari, elevats costos d'operació i eliminació parcial de nutrients allunyant-les de l'òptim de funcionament. Molts d'aquestes problemes van sorgir degut a un disseny inadequat, de manera que la comunitat científica es va adonar de la importància de les etapes inicials de disseny conceptual. Precisament per aquesta raó, els mètodes tradicionals de disseny han d'evolucionar cap a sistemes d'avaluació mes complexos, que tinguin en compte múltiples objectius, assegurant així un millor funcionament de la planta. Tot i la importància del disseny conceptual tenint en compte múltiples objectius, encara hi ha un buit important en la literatura científica tractant aquest camp d'investigació. L'objectiu que persegueix aquesta tesi és el de desenvolupar un mètode de disseny conceptual d'EDARs considerant múltiples objectius, de manera que serveixi d'eina de suport a la presa de decisions al seleccionar la millor alternativa entre diferents opcions de disseny. Aquest treball de recerca contribueix amb un mètode de disseny modular i evolutiu que combina diferent tècniques com: el procés de decisió jeràrquic, anàlisi multicriteri, optimació preliminar multiobjectiu basada en anàlisi de sensibilitat, tècniques d'extracció de coneixement i mineria de dades, anàlisi multivariant i anàlisi d'incertesa a partir de simulacions de Monte Carlo. Això s'ha aconseguit subdividint el mètode de disseny desenvolupat en aquesta tesis en quatre blocs principals: (1) generació jeràrquica i anàlisi multicriteri d'alternatives, (2) anàlisi de decisions crítiques, (3) anàlisi multivariant i (4) anàlisi d'incertesa. El primer dels blocs combina un procés de decisió jeràrquic amb anàlisi multicriteri. El procés de decisió jeràrquic subdivideix el disseny conceptual en una sèrie de qüestions mes fàcilment analitzables i avaluables mentre que l'anàlisi multicriteri permet la consideració de diferent objectius al mateix temps. D'aquesta manera es redueix el nombre d'alternatives a avaluar i fa que el futur disseny i operació de la planta estigui influenciat per aspectes ambientals, econòmics, tècnics i legals. Finalment aquest bloc inclou una anàlisi de sensibilitat dels pesos que proporciona informació de com varien les diferents alternatives al mateix temps que canvia la importància relativa del objectius de disseny. El segon bloc engloba tècniques d'anàlisi de sensibilitat, optimització preliminar multiobjectiu i extracció de coneixement per donar suport al disseny conceptual d'EDAR, seleccionant la millor alternativa un cop s'han identificat decisions crítiques. Les decisions crítiques són aquelles en les que s'ha de seleccionar entre alternatives que compleixen de forma similar els objectius de disseny però amb diferents implicacions pel que respecte a la futura estructura i operació de la planta. Aquest tipus d'anàlisi proporciona una visió més àmplia de l'espai de disseny i permet identificar direccions desitjables (o indesitjables) cap on el procés de disseny pot derivar. El tercer bloc de la tesi proporciona l'anàlisi multivariant de les matrius multicriteri obtingudes durant l'avaluació de les alternatives de disseny. Específicament, les tècniques utilitzades en aquest treball de recerca engloben: 1) anàlisi de conglomerats, 2) anàlisi de components principals/anàlisi factorial i 3) anàlisi discriminant. Com a resultat és possible un millor accés a les dades per realitzar la selecció de les alternatives, proporcionant més informació per a una avaluació mes efectiva, i finalment incrementant el coneixement del procés d'avaluació de les alternatives de disseny generades. En el quart i últim bloc desenvolupat en aquesta tesi, les diferents alternatives de disseny són avaluades amb incertesa. L'objectiu d'aquest bloc és el d'estudiar el canvi en la presa de decisions quan una alternativa és avaluada incloent o no incertesa en els paràmetres dels models que descriuen el seu comportament. La incertesa en el paràmetres del model s'introdueix a partir de funcions de probabilitat. Desprès es porten a terme simulacions Monte Carlo, on d'aquestes distribucions se n'extrauen números aleatoris que es subsisteixen pels paràmetres del model i permeten estudiar com la incertesa es propaga a través del model. Així és possible analitzar la variació en l'acompliment global dels objectius de disseny per a cada una de les alternatives, quines són les contribucions en aquesta variació que hi tenen els aspectes ambientals, legals, econòmics i tècnics, i finalment el canvi en la selecció d'alternatives quan hi ha una variació de la importància relativa dels objectius de disseny. En comparació amb les aproximacions tradicionals de disseny, el mètode desenvolupat en aquesta tesi adreça problemes de disseny/redisseny tenint en compte múltiples objectius i múltiples criteris. Al mateix temps, el procés de presa de decisions mostra de forma objectiva, transparent i sistemàtica el perquè una alternativa és seleccionada en front de les altres, proporcionant l'opció que més bé acompleix els objectius marcats, mostrant els punts forts i febles, les principals correlacions entre objectius i alternatives, i finalment tenint en compte la possible incertesa inherent en els paràmetres del model que es fan servir durant les anàlisis. Les possibilitats del mètode desenvolupat es demostren en aquesta tesi a partir de diferents casos d'estudi: selecció del tipus d'eliminació biològica de nitrogen (cas d'estudi # 1), optimització d'una estratègia de control (cas d'estudi # 2), redisseny d'una planta per aconseguir eliminació simultània de carboni, nitrogen i fòsfor (cas d'estudi # 3) i finalment anàlisi d'estratègies control a nivell de planta (casos d'estudi # 4 i # 5).