832 resultados para principal components
Resumo:
Cette thèse s’intéresse à l’amélioration des soins et des services de santé et touche aux relations entre 3 grands thèmes de l’analyse des organisations de santé : la gouvernance, le changement et les pratiques professionnelles. En nous appuyant sur l’analyse organisationnelle contemporaine, nous visons à mieux comprendre l’interface entre l’organisation et les pratiques cliniques. D’une part, nous souhaitons mieux comprendre comment l’organisation structure et potentialise les pratiques des acteurs. D’autre part, dans une perspective d’acteurs stratégiques, nous souhaitons mieux comprendre le rôle des pratiques des professionnels dans l’actualisation de leur profession et dans la transformation et l’évolution des organisations. Notre étude se fonde sur l’hypothèse qu’une synergie accrue entre l’organisation et les pratiques des professionnels favorisent l’amélioration de la qualité des soins et des services de santé. En 2004, le gouvernement ontarien entreprend une importante réforme des soins et services dans le domaine du cancer et revoit les rôles et mandats du Cancer Care Ontario, l’organisation responsable du développement des orientations stratégiques et du financement des services en cancer dans la province. Cette réforme appelle de nombreux changements organisationnels et cliniques et vise à améliorer la qualité des soins et des services dans le domaine de l’oncologie. C’est dans le cadre de cette réforme que nous avons analysé l’implantation d’un système de soins et de services pour améliorer la performance et la qualité et analysé le rôle des pratiques professionnelles, spécifiquement les pratiques infirmières, dans la transformation de ce système. La stratégie de recherche utilisée correspond à l’étude approfondie d’un cas correspondant à l’agence de soins et de services en oncologie en Ontario, le Cancer Care Ontario, et des pratiques professionnelles infirmières évoluant dans ce modèle. Le choix délibéré de ce cas repose sur les modalités organisationnelles spécifiques à l’Ontario en termes de soins en oncologie. La collecte de données repose sur 3 sources principales : les entrevues semi-structurées (n=25), l’analyse d’une abondante documentation et les observations non participatives. La thèse s’articule autour de trois articles. Le premier article vise à définir le concept de gouvernance clinique. Nous présentons l’origine du concept et définissons ses principales composantes. Concept aux frontières floues, la gouvernance clinique est axée sur le développement d’initiatives cliniques et organisationnelles visant à améliorer la qualité des soins de santé et la sécurité des patients. L’analyse de la littérature scientifique démontre la prédominance d’une vision statique de la gouvernance clinique et d’un contrôle accentué des pratiques professionnelles dans l’atteinte de l’efficience et de l’excellence dans les soins et les services. Notre article offre une conception plus dynamique de la gouvernance clinique qui tient compte de la synergie entre le contexte organisationnel et les pratiques des professionnels et soulève les enjeux reliés à son implantation. Le second article s’intéresse à l’ensemble des leviers mobilisés pour institutionnaliser les principes d’amélioration continue de la qualité dans les systèmes de santé. Nous avons analysé le rôle et la portée des leviers dans l’évolution du système de soins en oncologie en Ontario et dans la transformation des pratiques cliniques. Nos données empiriques révèlent 3 phases et de nombreuses étapes dans la transformation du système. Les acteurs en position d’autorité ont mobilisé un ensemble de leviers pour introduire des changements. Notre étude révèle que la transformation du Cancer Care Ontario est le reflet d’un changement radical de type évolutif où chacune des phases est une période charnière dans la transformation du système et l’implantation d’initiatives de qualité. Le troisième article pose un regard sur un levier spécifique de transformation, celui de la communauté de pratique, afin de mieux comprendre le rôle joué par les pratiques professionnelles dans la transformation de l’organisation des soins et ultimement dans le positionnement stratégique de la profession infirmière. Nous avons analysé les pratiques infirmières au sein de la communauté de pratique (CDP) des infirmières en pratique avancée en oncologie. En nous appuyant sur la théorie de la stratégie en tant que pratique sociale, nos résultats indiquent que l’investissement de la profession dans des domaines stratégiques augmente les capacités des infirmières à transformer leurs pratiques et à transformer l’organisation. Nos résultats soulignent le rôle déterminant du contexte dans le développement de capacités stratégiques chez les professionnels. Enfin, nos résultats révèlent 3 stratégies émergentes des pratiques des infirmières : une stratégie de développement de la pratique infirmière en oncologie, une stratégie d’institutionnalisation des politiques de la CDP dans le système en oncologie et une stratégie de positionnement de la profession infirmière. Les résultats de notre étude démontrent que l’amélioration de la qualité des soins et des services de santé est située. L’implantation de transformations dans l’ensemble d’un système, tel que celui du cancer en Ontario, est tributaire d’une part, des capacités d’action des acteurs en position d’autorité qui mobilisent un ensemble de leviers pour introduire des changements et d’autre part, de la capacité des acteurs à la base de l’organisation à s’approprier les leviers pour développer un projet professionnel, améliorer leurs pratiques professionnelles et transformer le système de soins.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Les immigrants qualifiés rencontrent plusieurs obstacles sur le marché du travail au Québec. Parmi les plus importants, selon les employeurs, on note leur manque d’expérience québécoise. Le Programme d’aide à l’intégration des immigrants et minorités visibles en emploi (PRIIME), géré par Emploi-Québec, veut combler cette lacune en offrant aux immigrants une expérience québécoise dans leur domaine de qualification. Cette recherche a donc pour but d’examiner dans quelle mesure un programme d’immersion professionnelle tel que le PRIIME permet une meilleure intégration des immigrants qualifiés dans leur domaine et de voir si celle-ci se poursuit à la suite du programme. L’approche qualitative permet de mieux comprendre les différents points de vue : employeurs, immigrants et intervenants au PRIIME. On observe que la participation des immigrants au PRIIME permet de réduire leur degré de déqualification en emploi, mais pas complètement. Ainsi elle permet souvent de retrouver un emploi lié au domaine de formation, mais en dessous du niveau de qualifications des immigrants. Le PRIIME rend également possible un maintien en emploi, sauf que l’effet n’est observé qu’à court terme. De plus, la participation au programme ne suffit pas pour que l’immigrant soit en mesure de contrer les obstacles à l’intégration professionnelle, car les quatre volets principaux du PRIIME sont très rarement appliqués ensemble dans une entreprise. Finalement, dans la perspective des marchés transitionnels de travail, la participation au PRIIME représente une « transition critique » offrant aux immigrants une meilleure intégration professionnelle à long terme. En somme, nous concluons que le PRIIME réduit uniquement le degré de déqualification des immigrants en les rapprochant de leur domaine de formation. Toutefois, il ne tient pas compte du niveau d’éducation de la personne. Même avec le PRIIME, plusieurs immigrants se voient forcés de recommencer leur carrière.
Resumo:
Peu d’études ont évalué les caractéristiques des parcs pouvant encourager l’activité physique spécifiquement chez les jeunes. Cette étude vise à estimer la fiabilité d’un outil d’observation des parcs orienté vers les jeunes, à identifier les domaines conceptuels des parcs capturés par cet outil à l’aide d’une opérationnalisation du modèle conceptuel des parcs et de l’activité physique et à identifier différents types de parcs. Un total de 576 parcs ont été évalués en utilisant un outil d’évaluation des parcs. La fiabilité intra-juges et la fiabilité inter-juges de cet outil ont été estimées. Une analyse exploratoire par composantes principales (ACP) a été effectuée en utilisant une rotation orthogonale varimax et les variables étaient retenues si elles saturaient à ≥0.3 sur une composante. Une analyse par grappes (AG) à l’aide de la méthode de Ward a ensuite été réalisée en utilisant les composantes principales et une mesure de l’aire des parcs. L’outil était généralement fiable et l’ACP a permis d'identifier dix composantes principales qui expliquaient 60% de la variance totale. L’AG a donné un résultat de neuf grappes qui expliquaient 40% de la variance totale. Les méthodes de l’ACP et l’AG sont donc faisables avec des données de parcs. Les résultats ont été interprétés en utilisant l’opérationnalisation du modèle conceptuel.
Resumo:
Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Cette thèse est organisée en trois chapitres. Les deux premiers s'intéressent à l'évaluation, par des méthodes d'estimations, de l'effet causal ou de l'effet d'un traitement, dans un environnement riche en données. Le dernier chapitre se rapporte à l'économie de l'éducation. Plus précisément dans ce chapitre j'évalue l'effet de la spécialisation au secondaire sur le choix de filière à l'université et la performance. Dans le premier chapitre, j'étudie l'estimation efficace d'un paramètre de dimension finie dans un modèle linéaire où le nombre d'instruments peut être très grand ou infini. L'utilisation d'un grand nombre de conditions de moments améliore l'efficacité asymptotique des estimateurs par variables instrumentales, mais accroit le biais. Je propose une version régularisée de l'estimateur LIML basée sur trois méthodes de régularisations différentes, Tikhonov, Landweber Fridman, et composantes principales, qui réduisent le biais. Le deuxième chapitre étend les travaux précédents, en permettant la présence d'un grand nombre d'instruments faibles. Le problème des instruments faibles est la consequence d'un très faible paramètre de concentration. Afin d'augmenter la taille du paramètre de concentration, je propose d'augmenter le nombre d'instruments. Je montre par la suite que les estimateurs 2SLS et LIML régularisés sont convergents et asymptotiquement normaux. Le troisième chapitre de cette thèse analyse l'effet de la spécialisation au secondaire sur le choix de filière à l'université. En utilisant des données américaines, j'évalue la relation entre la performance à l'université et les différents types de cours suivis pendant les études secondaires. Les résultats suggèrent que les étudiants choisissent les filières dans lesquelles ils ont acquis plus de compétences au secondaire. Cependant, on a une relation en U entre la diversification et la performance à l'université, suggérant une tension entre la spécialisation et la diversification. Le compromis sous-jacent est évalué par l'estimation d'un modèle structurel de l'acquisition du capital humain au secondaire et de choix de filière. Des analyses contrefactuelles impliquent qu'un cours de plus en matière quantitative augmente les inscriptions dans les filières scientifiques et technologiques de 4 points de pourcentage.
Resumo:
Ce projet de recherche revisite la conceptualisation du logement et des ressources résidentielles pour les adultes avec un trouble mental. Les objectifs visent : (1) à identifier les attributs, dimensions et domaines ; (2) à développer un nouveau modèle ; (3) à concevoir un instrument de mesure pour décrire l’éventail des ressources résidentielles en santé mentale. Méthodologie : Phase 1: Le devis de recherche s’articule autour de la cartographie de concepts, caractérisée par une méthodologie mixte. L’échantillonnage, par choix raisonné, a permis de recueillir une pluralité de perceptions et d’expériences (p.ex. personnes utilisatrices de services, proches, responsables de ressources résidentielles, gestionnaires). Les participants proviennent de cinq régions du Québec (nombre total de participations = 722). Au cours des six étapes de la cartographie de concepts, les participants ont généré des attributs décrivant le logement (n = 221), leur ont accordé une cote numérique (n = 416) et les ont regroupés en catégories (n = 73). Douze participants ont interprété des cartes conceptuelles produites par des analyses multivariées, soit l’échelonnage multidimensionnel (MDS) et la typologie hiérarchique. Des analyses par composantes principales (PCAs) ont été utilisées pour raffiner la conceptualisation (n = 228). Phase II: L’instrument a été développé, utilisé et ajusté à la suite de deux groupes de discussions (n = 23) et d’une étude transversale auprès de ressources résidentielles (n = 258). La passation se fait via une entrevue téléphonique semi-structurée enregistrée, d’une durée moyenne de 130 minutes. Résultats : Les participants ont généré 1382 idées (99.5% de saturation). Les cartes conceptuelles issues de la cartographie de concepts comprennent 140 idées (attributs du logement), 12 dimensions et cinq domaines (indice de stress MDS = 0.2302, 10 itérations). Les analyses PCAs ont permis de retenir quatre domaines, 11 composantes (α = 0.600 à 0.933) et 81 attributs. Les domaines sont : (1) environnement géophysique; (2) atmosphère et fonctionnement du milieu; (3) soutien et interventions offerts; (4) pratiques organisationnelles et managériales. L’instrument développé comprend quatre domaines, 10 dimensions et 83 attributs. À cela s’ajoutent des variables descriptives. L’instrument résulte des Phases I et II de ce projet. Conclusion : L’instrument a été développé en collaboration avec diverses parties prenantes, à partir de considérations ontologiques, réalistes, causales et statistiques. Il dresse le profil détaillé d’une ressource résidentielle sous ses différentes facettes et s’appuie sur la prémisse qu’il n’existe pas de milieu résidentiel idéal pour tous.
Resumo:
This thesis entitled “Studies on Nitrifying Microorganisms in Cochin Estuary and Adjacent Coastal Waters” reports for the first time the spatial andtemporal variations in the abundance and activity of nitrifiers (Ammonia oxidizingbacteria-AOB; Nitrite oxidizing bacteria- NOB and Ammonia oxidizing archaea-AOA) from the Cochin Estuary (CE), a monsoon driven, nutrient rich tropicalestuary along the southwest coast of India. To fulfil the above objectives, field observations were carried out for aperiod of one year (2011) in the CE. Surface (1 m below surface) and near-bottomwater samples were collected from four locations (stations 1 to 3 in estuary and 4 in coastal region), covering pre-monsoon, monsoon and post-monsoon seasons. Station 1 is a low saline station (salinity range 0-10) with high freshwater influx While stations 2 and 3 are intermediately saline stations (salinity ranges 10-25). Station 4 is located ~20 km away from station 3 with least influence of fresh water and is considered as high saline (salinity range 25- 35) station. Ambient physicochemical parameters like temperature, pH, salinity, dissolved oxygen (DO), Ammonium, nitrite, nitrate, phosphate and silicate of surface and bottom waters were measured using standard techniques. Abundance of Eubacteria, total Archaea and ammonia and nitrite oxidizing bacteria (AOB and NOB) were quantified using Fluorescent in situ Hybridization (FISH) with oligonucleotide probes labeled withCy3. Community structure of AOB and AOA was studied using PCR Denaturing Gradient Gel Electrophoresis (DGGE) technique. PCR products were cloned and sequenced to determine approximate phylogenetic affiliations. Nitrification rate in the water samples were analyzed using chemical NaClO3 (inhibitor of nitrite oxidation), and ATU (inhibitor of ammonium oxidation). Contribution of AOA and AOB in ammonia oxidation process was measured based on the recovered ammonia oxidation rate. The contribution of AOB and AOA were analyzed after inhibiting the activities of AOB and AOA separately using specific protein inhibitors. To understand the factors influencing or controlling nitrification, various statistical tools were used viz. Karl Pearson’s correlation (to find out the relationship between environmental parameters, bacterial abundance and activity), three-way ANOVA (to find out the significant variation between observations), Canonical Discriminant Analysis (CDA) (for the discrimination of stations based on observations), Multivariate statistics, Principal components analysis (PCA) and Step up multiple regression model (SMRM) (First order interaction effects were applied to determine the significantly contributing biological and environmental parameters to the numerical abundance of nitrifiers). In the CE, nitrification is modulated by the complex interplay between different nitrifiers and environmental variables which in turn is dictated by various hydrodynamic characteristics like fresh water discharge and seawater influx brought in by river water discharge and flushing. AOB in the CE are more adapted to varying environmental conditions compared to AOA though the diversity of AOA is higher than AOB. The abundance and seasonality of AOB and NOB is influenced by the concentration of ammonia in the water column. AOB are the major players in modulating ammonia oxidation process in the water column of CE. The distribution pattern and seasonality of AOB and NOB in the CE suggest that these organisms coexist, and are responsible for modulating the entire nitrification process in the estuary. This process is fuelled by the cross feeding among different nitrifiers, which in turn is dictated by nutrient levels especially ammonia. Though nitrification modulates the increasing anthropogenic ammonia concentration the anthropogenic inputs have to be controlled to prevent eutrophication and associated environmental changes.
Resumo:
The increased use of cereal/legume crop rotation has been advocated as a strategy to increase cereal yields of subsistence farmers in West Africa, and is believed to promote changes in the rhizosphere that enhance early plant growth. In this study we investigated the microbial diversity of the rhizoplane from seedlings grown in two soils previously planted to cereal or legume from experimental plots in Gaya, Niger, and Kaboli, Togo. Soils from these legume rotation and continuous cereal plots were placed into containers and sown in a growth chamber with maize (Zea mays L.), millet (Pennisetum glaucum L.), sorghum (Sorghum bicolor L. Moench.), cowpea (Vigna unguiculata L.) or groundnut (Arachis hypogaea L.). At 7 and 14 days after sowing, 16S rDNA profiles of the eubacterial and ammoniaoxidizing communities from the rhizoplane and bulk soil were generated using denaturing gradient gel electrophoresis (DGGE). Community profiles were subjected to peak fitting analyses to quantify the DNA band position and intensities, after which these data were compared using correspondence and principal components analysis. The data showed that cropping system had a highly significant effect on community structure (p <0.005), irrespective of plant species or sampling time. Continuous cereal-soil grown plants had highly similar rhizoplane communities across crop species and sites, whereas communities from the rotation soil showed greater variability and clustered with respect to plant species. Analyses of the ammonia-oxidizing communities provided no evidence of any effects of plant species or management history on ammonia oxidizers in soil from Kaboli, but there were large shifts with respect to this group of bacteria in soils from Gaya. The results of these analyses show that crop rotation can cause significant shifts in rhizosphere bacterial communities.
Resumo:
This study uses data from a sample survey of 200 households drawn from a mountainous commune in Vietnam’s North Central Coast region to measure and explain relative poverty. Principal components analysis is used to construct a multidimensional index of poverty outcomes from variables measuring household income and the value of domestic assets. This index of poverty is then regressed on likely causes of poverty including different forms of resource endowment and social exclusion defined by gender and ethnicity. The ordinary least squares estimates indicate that poverty is indeed influenced by ethnicity, partly through its interaction with social capital. However, poverty is most strongly affected by differences in human and social capital. Differences in the amount of livestock and high quality farmland owned also matter. Thai households are poorer than their Kinh counterparts even when endowed with the same levels of human, social, physical and natural capital considered in the study. This empirical result provides a rationale for further research on the causal relationship between ethnicity and poverty outcomes.
Resumo:
We present a statistical image-based shape + structure model for Bayesian visual hull reconstruction and 3D structure inference. The 3D shape of a class of objects is represented by sets of contours from silhouette views simultaneously observed from multiple calibrated cameras. Bayesian reconstructions of new shapes are then estimated using a prior density constructed with a mixture model and probabilistic principal components analysis. We show how the use of a class-specific prior in a visual hull reconstruction can reduce the effect of segmentation errors from the silhouette extraction process. The proposed method is applied to a data set of pedestrian images, and improvements in the approximate 3D models under various noise conditions are shown. We further augment the shape model to incorporate structural features of interest; unknown structural parameters for a novel set of contours are then inferred via the Bayesian reconstruction process. Model matching and parameter inference are done entirely in the image domain and require no explicit 3D construction. Our shape model enables accurate estimation of structure despite segmentation errors or missing views in the input silhouettes, and works even with only a single input view. Using a data set of thousands of pedestrian images generated from a synthetic model, we can accurately infer the 3D locations of 19 joints on the body based on observed silhouette contours from real images.
Resumo:
We derive a new representation for a function as a linear combination of local correlation kernels at optimal sparse locations and discuss its relation to PCA, regularization, sparsity principles and Support Vector Machines. We first review previous results for the approximation of a function from discrete data (Girosi, 1998) in the context of Vapnik"s feature space and dual representation (Vapnik, 1995). We apply them to show 1) that a standard regularization functional with a stabilizer defined in terms of the correlation function induces a regression function in the span of the feature space of classical Principal Components and 2) that there exist a dual representations of the regression function in terms of a regularization network with a kernel equal to a generalized correlation function. We then describe the main observation of the paper: the dual representation in terms of the correlation function can be sparsified using the Support Vector Machines (Vapnik, 1982) technique and this operation is equivalent to sparsify a large dictionary of basis functions adapted to the task, using a variation of Basis Pursuit De-Noising (Chen, Donoho and Saunders, 1995; see also related work by Donahue and Geiger, 1994; Olshausen and Field, 1995; Lewicki and Sejnowski, 1998). In addition to extending the close relations between regularization, Support Vector Machines and sparsity, our work also illuminates and formalizes the LFA concept of Penev and Atick (1996). We discuss the relation between our results, which are about regression, and the different problem of pattern classification.
Resumo:
Compositional data naturally arises from the scientific analysis of the chemical composition of archaeological material such as ceramic and glass artefacts. Data of this type can be explored using a variety of techniques, from standard multivariate methods such as principal components analysis and cluster analysis, to methods based upon the use of log-ratios. The general aim is to identify groups of chemically similar artefacts that could potentially be used to answer questions of provenance. This paper will demonstrate work in progress on the development of a documented library of methods, implemented using the statistical package R, for the analysis of compositional data. R is an open source package that makes available very powerful statistical facilities at no cost. We aim to show how, with the aid of statistical software such as R, traditional exploratory multivariate analysis can easily be used alongside, or in combination with, specialist techniques of compositional data analysis. The library has been developed from a core of basic R functionality, together with purpose-written routines arising from our own research (for example that reported at CoDaWork'03). In addition, we have included other appropriate publicly available techniques and libraries that have been implemented in R by other authors. Available functions range from standard multivariate techniques through to various approaches to log-ratio analysis and zero replacement. We also discuss and demonstrate a small selection of relatively new techniques that have hitherto been little-used in archaeometric applications involving compositional data. The application of the library to the analysis of data arising in archaeometry will be demonstrated; results from different analyses will be compared; and the utility of the various methods discussed
Resumo:
”compositions” is a new R-package for the analysis of compositional and positive data. It contains four classes corresponding to the four different types of compositional and positive geometry (including the Aitchison geometry). It provides means for computation, plotting and high-level multivariate statistical analysis in all four geometries. These geometries are treated in an fully analogous way, based on the principle of working in coordinates, and the object-oriented programming paradigm of R. In this way, called functions automatically select the most appropriate type of analysis as a function of the geometry. The graphical capabilities include ternary diagrams and tetrahedrons, various compositional plots (boxplots, barplots, piecharts) and extensive graphical tools for principal components. Afterwards, ortion and proportion lines, straight lines and ellipses in all geometries can be added to plots. The package is accompanied by a hands-on-introduction, documentation for every function, demos of the graphical capabilities and plenty of usage examples. It allows direct and parallel computation in all four vector spaces and provides the beginner with a copy-and-paste style of data analysis, while letting advanced users keep the functionality and customizability they demand of R, as well as all necessary tools to add own analysis routines. A complete example is included in the appendix