928 resultados para improved principal components analysis (IPCA) algorithm
Resumo:
Cette thèse s’intéresse à l’amélioration des soins et des services de santé et touche aux relations entre 3 grands thèmes de l’analyse des organisations de santé : la gouvernance, le changement et les pratiques professionnelles. En nous appuyant sur l’analyse organisationnelle contemporaine, nous visons à mieux comprendre l’interface entre l’organisation et les pratiques cliniques. D’une part, nous souhaitons mieux comprendre comment l’organisation structure et potentialise les pratiques des acteurs. D’autre part, dans une perspective d’acteurs stratégiques, nous souhaitons mieux comprendre le rôle des pratiques des professionnels dans l’actualisation de leur profession et dans la transformation et l’évolution des organisations. Notre étude se fonde sur l’hypothèse qu’une synergie accrue entre l’organisation et les pratiques des professionnels favorisent l’amélioration de la qualité des soins et des services de santé. En 2004, le gouvernement ontarien entreprend une importante réforme des soins et services dans le domaine du cancer et revoit les rôles et mandats du Cancer Care Ontario, l’organisation responsable du développement des orientations stratégiques et du financement des services en cancer dans la province. Cette réforme appelle de nombreux changements organisationnels et cliniques et vise à améliorer la qualité des soins et des services dans le domaine de l’oncologie. C’est dans le cadre de cette réforme que nous avons analysé l’implantation d’un système de soins et de services pour améliorer la performance et la qualité et analysé le rôle des pratiques professionnelles, spécifiquement les pratiques infirmières, dans la transformation de ce système. La stratégie de recherche utilisée correspond à l’étude approfondie d’un cas correspondant à l’agence de soins et de services en oncologie en Ontario, le Cancer Care Ontario, et des pratiques professionnelles infirmières évoluant dans ce modèle. Le choix délibéré de ce cas repose sur les modalités organisationnelles spécifiques à l’Ontario en termes de soins en oncologie. La collecte de données repose sur 3 sources principales : les entrevues semi-structurées (n=25), l’analyse d’une abondante documentation et les observations non participatives. La thèse s’articule autour de trois articles. Le premier article vise à définir le concept de gouvernance clinique. Nous présentons l’origine du concept et définissons ses principales composantes. Concept aux frontières floues, la gouvernance clinique est axée sur le développement d’initiatives cliniques et organisationnelles visant à améliorer la qualité des soins de santé et la sécurité des patients. L’analyse de la littérature scientifique démontre la prédominance d’une vision statique de la gouvernance clinique et d’un contrôle accentué des pratiques professionnelles dans l’atteinte de l’efficience et de l’excellence dans les soins et les services. Notre article offre une conception plus dynamique de la gouvernance clinique qui tient compte de la synergie entre le contexte organisationnel et les pratiques des professionnels et soulève les enjeux reliés à son implantation. Le second article s’intéresse à l’ensemble des leviers mobilisés pour institutionnaliser les principes d’amélioration continue de la qualité dans les systèmes de santé. Nous avons analysé le rôle et la portée des leviers dans l’évolution du système de soins en oncologie en Ontario et dans la transformation des pratiques cliniques. Nos données empiriques révèlent 3 phases et de nombreuses étapes dans la transformation du système. Les acteurs en position d’autorité ont mobilisé un ensemble de leviers pour introduire des changements. Notre étude révèle que la transformation du Cancer Care Ontario est le reflet d’un changement radical de type évolutif où chacune des phases est une période charnière dans la transformation du système et l’implantation d’initiatives de qualité. Le troisième article pose un regard sur un levier spécifique de transformation, celui de la communauté de pratique, afin de mieux comprendre le rôle joué par les pratiques professionnelles dans la transformation de l’organisation des soins et ultimement dans le positionnement stratégique de la profession infirmière. Nous avons analysé les pratiques infirmières au sein de la communauté de pratique (CDP) des infirmières en pratique avancée en oncologie. En nous appuyant sur la théorie de la stratégie en tant que pratique sociale, nos résultats indiquent que l’investissement de la profession dans des domaines stratégiques augmente les capacités des infirmières à transformer leurs pratiques et à transformer l’organisation. Nos résultats soulignent le rôle déterminant du contexte dans le développement de capacités stratégiques chez les professionnels. Enfin, nos résultats révèlent 3 stratégies émergentes des pratiques des infirmières : une stratégie de développement de la pratique infirmière en oncologie, une stratégie d’institutionnalisation des politiques de la CDP dans le système en oncologie et une stratégie de positionnement de la profession infirmière. Les résultats de notre étude démontrent que l’amélioration de la qualité des soins et des services de santé est située. L’implantation de transformations dans l’ensemble d’un système, tel que celui du cancer en Ontario, est tributaire d’une part, des capacités d’action des acteurs en position d’autorité qui mobilisent un ensemble de leviers pour introduire des changements et d’autre part, de la capacité des acteurs à la base de l’organisation à s’approprier les leviers pour développer un projet professionnel, améliorer leurs pratiques professionnelles et transformer le système de soins.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Peu d’études ont évalué les caractéristiques des parcs pouvant encourager l’activité physique spécifiquement chez les jeunes. Cette étude vise à estimer la fiabilité d’un outil d’observation des parcs orienté vers les jeunes, à identifier les domaines conceptuels des parcs capturés par cet outil à l’aide d’une opérationnalisation du modèle conceptuel des parcs et de l’activité physique et à identifier différents types de parcs. Un total de 576 parcs ont été évalués en utilisant un outil d’évaluation des parcs. La fiabilité intra-juges et la fiabilité inter-juges de cet outil ont été estimées. Une analyse exploratoire par composantes principales (ACP) a été effectuée en utilisant une rotation orthogonale varimax et les variables étaient retenues si elles saturaient à ≥0.3 sur une composante. Une analyse par grappes (AG) à l’aide de la méthode de Ward a ensuite été réalisée en utilisant les composantes principales et une mesure de l’aire des parcs. L’outil était généralement fiable et l’ACP a permis d'identifier dix composantes principales qui expliquaient 60% de la variance totale. L’AG a donné un résultat de neuf grappes qui expliquaient 40% de la variance totale. Les méthodes de l’ACP et l’AG sont donc faisables avec des données de parcs. Les résultats ont été interprétés en utilisant l’opérationnalisation du modèle conceptuel.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Ce projet de recherche revisite la conceptualisation du logement et des ressources résidentielles pour les adultes avec un trouble mental. Les objectifs visent : (1) à identifier les attributs, dimensions et domaines ; (2) à développer un nouveau modèle ; (3) à concevoir un instrument de mesure pour décrire l’éventail des ressources résidentielles en santé mentale. Méthodologie : Phase 1: Le devis de recherche s’articule autour de la cartographie de concepts, caractérisée par une méthodologie mixte. L’échantillonnage, par choix raisonné, a permis de recueillir une pluralité de perceptions et d’expériences (p.ex. personnes utilisatrices de services, proches, responsables de ressources résidentielles, gestionnaires). Les participants proviennent de cinq régions du Québec (nombre total de participations = 722). Au cours des six étapes de la cartographie de concepts, les participants ont généré des attributs décrivant le logement (n = 221), leur ont accordé une cote numérique (n = 416) et les ont regroupés en catégories (n = 73). Douze participants ont interprété des cartes conceptuelles produites par des analyses multivariées, soit l’échelonnage multidimensionnel (MDS) et la typologie hiérarchique. Des analyses par composantes principales (PCAs) ont été utilisées pour raffiner la conceptualisation (n = 228). Phase II: L’instrument a été développé, utilisé et ajusté à la suite de deux groupes de discussions (n = 23) et d’une étude transversale auprès de ressources résidentielles (n = 258). La passation se fait via une entrevue téléphonique semi-structurée enregistrée, d’une durée moyenne de 130 minutes. Résultats : Les participants ont généré 1382 idées (99.5% de saturation). Les cartes conceptuelles issues de la cartographie de concepts comprennent 140 idées (attributs du logement), 12 dimensions et cinq domaines (indice de stress MDS = 0.2302, 10 itérations). Les analyses PCAs ont permis de retenir quatre domaines, 11 composantes (α = 0.600 à 0.933) et 81 attributs. Les domaines sont : (1) environnement géophysique; (2) atmosphère et fonctionnement du milieu; (3) soutien et interventions offerts; (4) pratiques organisationnelles et managériales. L’instrument développé comprend quatre domaines, 10 dimensions et 83 attributs. À cela s’ajoutent des variables descriptives. L’instrument résulte des Phases I et II de ce projet. Conclusion : L’instrument a été développé en collaboration avec diverses parties prenantes, à partir de considérations ontologiques, réalistes, causales et statistiques. Il dresse le profil détaillé d’une ressource résidentielle sous ses différentes facettes et s’appuie sur la prémisse qu’il n’existe pas de milieu résidentiel idéal pour tous.
Resumo:
La fibrillation auriculaire est le trouble du rythme le plus fréquent chez l'homme. Elle conduit souvent à de graves complications telles que l'insuffisance cardiaque et les accidents vasculaires cérébraux. Un mécanisme neurogène de la fibrillation auriculaire mis en évidence. L'induction de tachyarythmie par stimulation du nerf médiastinal a été proposée comme modèle pour étudier la fibrillation auriculaire neurogène. Dans cette thèse, nous avons étudié l'activité des neurones cardiaques intrinsèques et leurs interactions à l'intérieur des plexus ganglionnaires de l'oreillette droite dans un modèle canin de la fibrillation auriculaire neurogène. Ces activités ont été enregistrées par un réseau multicanal de microélectrodes empalé dans le plexus ganglionnaire de l'oreillette droite. L'enregistrement de l'activité neuronale a été effectué continument sur une période de près de 4 heures comprenant différentes interventions vasculaires (occlusion de l'aorte, de la veine cave inférieure, puis de l'artère coronaire descendante antérieure gauche), des stimuli mécaniques (toucher de l'oreillette ou du ventricule) et électriques (stimulation du nerf vague ou des ganglions stellaires) ainsi que des épisodes induits de fibrillation auriculaire. L'identification et la classification neuronale ont été effectuées en utilisant l'analyse en composantes principales et le partitionnement de données (cluster analysis) dans le logiciel Spike2. Une nouvelle méthode basée sur l'analyse en composante principale est proposée pour annuler l'activité auriculaire superposée sur le signal neuronal et ainsi augmenter la précision de l'identification de la réponse neuronale et de la classification. En se basant sur la réponse neuronale, nous avons défini des sous-types de neurones (afférent, efférent et les neurones des circuits locaux). Leur activité liée à différents facteurs de stress nous ont permis de fournir une description plus détaillée du système nerveux cardiaque intrinsèque. La majorité des neurones enregistrés ont réagi à des épisodes de fibrillation auriculaire en devenant plus actifs. Cette hyperactivité des neurones cardiaques intrinsèques suggère que le contrôle de cette activité pourrait aider à prévenir la fibrillation auriculaire neurogène. Puisque la stimulation à basse intensité du nerf vague affaiblit l'activité neuronale cardiaque intrinsèque (en particulier pour les neurones afférents et convergents des circuits locaux), nous avons examiné si cette intervention pouvait être appliquée comme thérapie pour la fibrillation auriculaire. Nos résultats montrent que la stimulation du nerf vague droit a été en mesure d'atténuer la fibrillation auriculaire dans 12 des 16 cas malgré un effet pro-arythmique défavorable dans 1 des 16 cas. L'action protective a diminué au fil du temps et est devenue inefficace après ~ 40 minutes après 3 minutes de stimulation du nerf vague.
Resumo:
Adolescent idiopathic scoliosis (AIS) is a deformity of the spine manifested by asymmetry and deformities of the external surface of the trunk. Classification of scoliosis deformities according to curve type is used to plan management of scoliosis patients. Currently, scoliosis curve type is determined based on X-ray exam. However, cumulative exposure to X-rays radiation significantly increases the risk for certain cancer. In this paper, we propose a robust system that can classify the scoliosis curve type from non invasive acquisition of 3D trunk surface of the patients. The 3D image of the trunk is divided into patches and local geometric descriptors characterizing the surface of the back are computed from each patch and forming the features. We perform the reduction of the dimensionality by using Principal Component Analysis and 53 components were retained. In this work a multi-class classifier is built with Least-squares support vector machine (LS-SVM) which is a kernel classifier. For this study, a new kernel was designed in order to achieve a robust classifier in comparison with polynomial and Gaussian kernel. The proposed system was validated using data of 103 patients with different scoliosis curve types diagnosed and classified by an orthopedic surgeon from the X-ray images. The average rate of successful classification was 93.3% with a better rate of prediction for the major thoracic and lumbar/thoracolumbar types.
Resumo:
The thesis report results obtained from a detailed analysis of the fluctuations of the rheological parameters viz. shear and normal stresses, simulated by means of the Stokesian Dynamics method, of a macroscopically homogeneous sheared suspension of neutrally buoyant non-Brownian suspension of identical spheres in the Couette gap between two parallel walls in the limit of vanishingly small Reynolds numbers using the tools of non-linear dynamics and chaos theory for a range of particle concentration and Couette gaps. The thesis used the tools of nonlinear dynamics and chaos theory viz. average mutual information, space-time separation plots, visual recurrence analysis, principal component analysis, false nearest-neighbor technique, correlation integrals, computation of Lyapunov exponents for a range of area fraction of particles and for different Couette gaps. The thesis observed that one stress component can be predicted using another stress component at the same area fraction. This implies a type of synchronization of one stress component with another stress component. This finding suggests us to further analysis of the synchronization of stress components with another stress component at the same or different area fraction of particles. The different model equations of stress components for different area fraction of particles hints at the possible existence a general formula for stress fluctuations with area fraction of particle as a parameter
Resumo:
Any automatically measurable, robust and distinctive physical characteristic or personal trait that can be used to identify an individual or verify the claimed identity of an individual, referred to as biometrics, has gained significant interest in the wake of heightened concerns about security and rapid advancements in networking, communication and mobility. Multimodal biometrics is expected to be ultra-secure and reliable, due to the presence of multiple and independent—verification clues. In this study, a multimodal biometric system utilising audio and facial signatures has been implemented and error analysis has been carried out. A total of one thousand face images and 250 sound tracks of 50 users are used for training the proposed system. To account for the attempts of the unregistered signatures data of 25 new users are tested. The short term spectral features were extracted from the sound data and Vector Quantization was done using K-means algorithm. Face images are identified based on Eigen face approach using Principal Component Analysis. The success rate of multimodal system using speech and face is higher when compared to individual unimodal recognition systems
Resumo:
Learning Disability (LD) is a classification including several disorders in which a child has difficulty in learning in a typical manner, usually caused by an unknown factor or factors. LD affects about 15% of children enrolled in schools. The prediction of learning disability is a complicated task since the identification of LD from diverse features or signs is a complicated problem. There is no cure for learning disabilities and they are life-long. The problems of children with specific learning disabilities have been a cause of concern to parents and teachers for some time. The aim of this paper is to develop a new algorithm for imputing missing values and to determine the significance of the missing value imputation method and dimensionality reduction method in the performance of fuzzy and neuro fuzzy classifiers with specific emphasis on prediction of learning disabilities in school age children. In the basic assessment method for prediction of LD, checklists are generally used and the data cases thus collected fully depends on the mood of children and may have also contain redundant as well as missing values. Therefore, in this study, we are proposing a new algorithm, viz. the correlation based new algorithm for imputing the missing values and Principal Component Analysis (PCA) for reducing the irrelevant attributes. After the study, it is found that, the preprocessing methods applied by us improves the quality of data and thereby increases the accuracy of the classifiers. The system is implemented in Math works Software Mat Lab 7.10. The results obtained from this study have illustrated that the developed missing value imputation method is very good contribution in prediction system and is capable of improving the performance of a classifier.
Resumo:
Learning Disability (LD) is a neurological condition that affects a child’s brain and impairs his ability to carry out one or many specific tasks. LD affects about 15 % of children enrolled in schools. The prediction of LD is a vital and intricate job. The aim of this paper is to design an effective and powerful tool, using the two intelligent methods viz., Artificial Neural Network and Adaptive Neuro-Fuzzy Inference System, for measuring the percentage of LD that affected in school-age children. In this study, we are proposing some soft computing methods in data preprocessing for improving the accuracy of the tool as well as the classifier. The data preprocessing is performed through Principal Component Analysis for attribute reduction and closest fit algorithm is used for imputing missing values. The main idea in developing the LD prediction tool is not only to predict the LD present in children but also to measure its percentage along with its class like low or minor or major. The system is implemented in Mathworks Software MatLab 7.10. The results obtained from this study have illustrated that the designed prediction system or tool is capable of measuring the LD effectively
Resumo:
In this paper an attempt has been made to determine the number of Premature Ventricular Contraction (PVC) cycles accurately from a given Electrocardiogram (ECG) using a wavelet constructed from multiple Gaussian functions. It is difficult to assess the ECGs of patients who are continuously monitored over a long period of time. Hence the proposed method of classification will be helpful to doctors to determine the severity of PVC in a patient. Principal Component Analysis (PCA) and a simple classifier have been used in addition to the specially developed wavelet transform. The proposed wavelet has been designed using multiple Gaussian functions which when summed up looks similar to that of a normal ECG. The number of Gaussians used depends on the number of peaks present in a normal ECG. The developed wavelet satisfied all the properties of a traditional continuous wavelet. The new wavelet was optimized using genetic algorithm (GA). ECG records from Massachusetts Institute of Technology-Beth Israel Hospital (MIT-BIH) database have been used for validation. Out of the 8694 ECG cycles used for evaluation, the classification algorithm responded with an accuracy of 97.77%. In order to compare the performance of the new wavelet, classification was also performed using the standard wavelets like morlet, meyer, bior3.9, db5, db3, sym3 and haar. The new wavelet outperforms the rest
Resumo:
Information and communication technology (ICT) projects have a great potential to revolutionise the information delivery system by bridging the gap between farmers and extension personnel. aAQUA (Almost All Questions Answered) portal was launched by the Developmental Informatics Laboratory (DIL) at Indian Institute of Technology (IIT) Mumbai, Maharashtra, India in 2003 as an information providing system to deliver technology options and tailored information for the problems and queries raised by Indian dairy farmers. To measure the effectiveness of this service the attitudinal dimensions of the users of aAQUA e-Agriservice were investigated using a 22 item scale. A simple random sampling technique was used to select 120 dairy farmers from which data were collected and subjected to factor analysis to identify the underlying constructs in this research. From the attitude items, four components were extracted and named as the pessimistic, utility, technical and efficacy perspective, which influenced the development of varied level of attitudinal inclination towards the e-Agriservice. These components explained 64.40 per cent of variation in the attitude of the users towards the aAQUA e-Agriservice. This study provides a framework for technically efficient service provision that might help to reduce the pessimistic attitude of target population to adopt e-Agriservice in their farming system. The results should also be helpful for researchers, academics, ICT based service providers and policy makers to consider these perspectives while planning and implementing ICT projects.
Resumo:
This paper presents a new paradigm for signal reconstruction and superresolution, Correlation Kernel Analysis (CKA), that is based on the selection of a sparse set of bases from a large dictionary of class- specific basis functions. The basis functions that we use are the correlation functions of the class of signals we are analyzing. To choose the appropriate features from this large dictionary, we use Support Vector Machine (SVM) regression and compare this to traditional Principal Component Analysis (PCA) for the tasks of signal reconstruction, superresolution, and compression. The testbed we use in this paper is a set of images of pedestrians. This paper also presents results of experiments in which we use a dictionary of multiscale basis functions and then use Basis Pursuit De-Noising to obtain a sparse, multiscale approximation of a signal. The results are analyzed and we conclude that 1) when used with a sparse representation technique, the correlation function is an effective kernel for image reconstruction and superresolution, 2) for image compression, PCA and SVM have different tradeoffs, depending on the particular metric that is used to evaluate the results, 3) in sparse representation techniques, L_1 is not a good proxy for the true measure of sparsity, L_0, and 4) the L_epsilon norm may be a better error metric for image reconstruction and compression than the L_2 norm, though the exact psychophysical metric should take into account high order structure in images.
Resumo:
First discussion on compositional data analysis is attributable to Karl Pearson, in 1897. However, notwithstanding the recent developments on algebraic structure of the simplex, more than twenty years after Aitchison’s idea of log-transformations of closed data, scientific literature is again full of statistical treatments of this type of data by using traditional methodologies. This is particularly true in environmental geochemistry where besides the problem of the closure, the spatial structure (dependence) of the data have to be considered. In this work we propose the use of log-contrast values, obtained by a simplicial principal component analysis, as LQGLFDWRUV of given environmental conditions. The investigation of the log-constrast frequency distributions allows pointing out the statistical laws able to generate the values and to govern their variability. The changes, if compared, for example, with the mean values of the random variables assumed as models, or other reference parameters, allow defining monitors to be used to assess the extent of possible environmental contamination. Case study on running and ground waters from Chiavenna Valley (Northern Italy) by using Na+, K+, Ca2+, Mg2+, HCO3-, SO4 2- and Cl- concentrations will be illustrated