31 resultados para Aerosol Evolution, Nanoparticle Transformation, Busy Road, Statistical Analysis
em Université de Lausanne, Switzerland
Resumo:
In this article we introduce JULIDE, a software toolkit developed to perform the 3D reconstruction, intensity normalization, volume standardization by 3D image registration and voxel-wise statistical analysis of autoradiographs of mouse brain sections. This software tool has been developed in the open-source ITK software framework and is freely available under a GPL license. The article presents the complete image processing chain from raw data acquisition to 3D statistical group analysis. Results of the group comparison in the context of a study on spatial learning are shown as an illustration of the data that can be obtained with this tool.
Resumo:
We study an adaptive statistical approach to analyze brain networks represented by brain connection matrices of interregional connectivity (connectomes). Our approach is at a middle level between a global analysis and single connections analysis by considering subnetworks of the global brain network. These subnetworks represent either the inter-connectivity between two brain anatomical regions or by the intra-connectivity within the same brain anatomical region. An appropriate summary statistic, that characterizes a meaningful feature of the subnetwork, is evaluated. Based on this summary statistic, a statistical test is performed to derive the corresponding p-value. The reformulation of the problem in this way reduces the number of statistical tests in an orderly fashion based on our understanding of the problem. Considering the global testing problem, the p-values are corrected to control the rate of false discoveries. Finally, the procedure is followed by a local investigation within the significant subnetworks. We contrast this strategy with the one based on the individual measures in terms of power. We show that this strategy has a great potential, in particular in cases where the subnetworks are well defined and the summary statistics are properly chosen. As an application example, we compare structural brain connection matrices of two groups of subjects with a 22q11.2 deletion syndrome, distinguished by their IQ scores.
Resumo:
Accurate detection of subpopulation size determinations in bimodal populations remains problematic yet it represents a powerful way by which cellular heterogeneity under different environmental conditions can be compared. So far, most studies have relied on qualitative descriptions of population distribution patterns, on population-independent descriptors, or on arbitrary placement of thresholds distinguishing biological ON from OFF states. We found that all these methods fall short of accurately describing small population sizes in bimodal populations. Here we propose a simple, statistics-based method for the analysis of small subpopulation sizes for use in the free software environment R and test this method on real as well as simulated data. Four so-called population splitting methods were designed with different algorithms that can estimate subpopulation sizes from bimodal populations. All four methods proved more precise than previously used methods when analyzing subpopulation sizes of transfer competent cells arising in populations of the bacterium Pseudomonas knackmussii B13. The methods' resolving powers were further explored by bootstrapping and simulations. Two of the methods were not severely limited by the proportions of subpopulations they could estimate correctly, but the two others only allowed accurate subpopulation quantification when this amounted to less than 25% of the total population. In contrast, only one method was still sufficiently accurate with subpopulations smaller than 1% of the total population. This study proposes a number of rational approximations to quantifying small subpopulations and offers an easy-to-use protocol for their implementation in the open source statistical software environment R.
Resumo:
AbstractAlthough the genomes from any two human individuals are more than 99.99% identical at the sequence level, some structural variation can be observed. Differences between genomes include single nucleotide polymorphism (SNP), inversion and copy number changes (gain or loss of DNA). The latter can range from submicroscopic events (CNVs, at least 1kb in size) to complete chromosomal aneuploidies. Small copy number variations have often no (lethal) consequences to the cell, but a few were associated to disease susceptibility and phenotypic variations. Larger re-arrangements (i.e. complete chromosome gain) are frequently associated with more severe consequences on health such as genomic disorders and cancer. High-throughput technologies like DNA microarrays enable the detection of CNVs in a genome-wide fashion. Since the initial catalogue of CNVs in the human genome in 2006, there has been tremendous interest in CNVs both in the context of population and medical genetics. Understanding CNV patterns within and between human populations is essential to elucidate their possible contribution to disease. But genome analysis is a challenging task; the technology evolves rapidly creating needs for novel, efficient and robust analytical tools which need to be compared with existing ones. Also, while the link between CNV and disease has been established, the relative CNV contribution is not fully understood and the predisposition to disease from CNVs of the general population has not been yet investigated.During my PhD thesis, I worked on several aspects related to CNVs. As l will report in chapter 3, ! was interested in computational methods to detect CNVs from the general population. I had access to the CoLaus dataset, a population-based study with more than 6,000 participants from the Lausanne area. All these individuals were analysed on SNP arrays and extensive clinical information were available. My work explored existing CNV detection methods and I developed a variety of metrics to compare their performance. Since these methods were not producing entirely satisfactory results, I implemented my own method which outperformed two existing methods. I also devised strategies to combine CNVs from different individuals into CNV regions.I was also interested in the clinical impact of CNVs in common disease (chapter 4). Through an international collaboration led by the Centre Hospitalier Universitaire Vaudois (CHUV) and the Imperial College London I was involved as a main data analyst in the investigation of a rare deletion at chromosome 16p11 detected in obese patients. Specifically, we compared 8,456 obese patients and 11,856 individuals from the general population and we found that the deletion was accounting for 0.7% of the morbid obesity cases and was absent in healthy non- obese controls. This highlights the importance of rare variants with strong impact and provides new insights in the design of clinical studies to identify the missing heritability in common disease.Furthermore, I was interested in the detection of somatic copy number alterations (SCNA) and their consequences in cancer (chapter 5). This project was a collaboration initiated by the Ludwig Institute for Cancer Research and involved other groups from the Swiss Institute of Bioinformatics, the CHUV and Universities of Lausanne and Geneva. The focus of my work was to identify genes with altered expression levels within somatic copy number alterations (SCNA) in seven metastatic melanoma ceil lines, using CGH and SNP arrays, RNA-seq, and karyotyping. Very few SCNA genes were shared by even two melanoma samples making it difficult to draw any conclusions at the individual gene level. To overcome this limitation, I used a network-guided analysis to determine whether any pathways, defined by amplified or deleted genes, were common among the samples. Six of the melanoma samples were potentially altered in four pathways and five samples harboured copy-number and expression changes in components of six pathways. In total, this approach identified 28 pathways. Validation with two external, large melanoma datasets confirmed all but three of the detected pathways and demonstrated the utility of network-guided approaches for both large and small datasets analysis.RésuméBien que le génome de deux individus soit similaire à plus de 99.99%, des différences de structure peuvent être observées. Ces différences incluent les polymorphismes simples de nucléotides, les inversions et les changements en nombre de copies (gain ou perte d'ADN). Ces derniers varient de petits événements dits sous-microscopiques (moins de 1kb en taille), appelés CNVs (copy number variants) jusqu'à des événements plus large pouvant affecter des chromosomes entiers. Les petites variations sont généralement sans conséquence pour la cellule, toutefois certaines ont été impliquées dans la prédisposition à certaines maladies, et à des variations phénotypiques dans la population générale. Les réarrangements plus grands (par exemple, une copie additionnelle d'un chromosome appelée communément trisomie) ont des répercutions plus grave pour la santé, comme par exemple dans certains syndromes génomiques et dans le cancer. Les technologies à haut-débit telle les puces à ADN permettent la détection de CNVs à l'échelle du génome humain. La cartographie en 2006 des CNV du génome humain, a suscité un fort intérêt en génétique des populations et en génétique médicale. La détection de différences au sein et entre plusieurs populations est un élément clef pour élucider la contribution possible des CNVs dans les maladies. Toutefois l'analyse du génome reste une tâche difficile, la technologie évolue très rapidement créant de nouveaux besoins pour le développement d'outils, l'amélioration des précédents, et la comparaison des différentes méthodes. De plus, si le lien entre CNV et maladie a été établit, leur contribution précise n'est pas encore comprise. De même que les études sur la prédisposition aux maladies par des CNVs détectés dans la population générale n'ont pas encore été réalisées.Pendant mon doctorat, je me suis concentré sur trois axes principaux ayant attrait aux CNV. Dans le chapitre 3, je détaille mes travaux sur les méthodes d'analyses des puces à ADN. J'ai eu accès aux données du projet CoLaus, une étude de la population de Lausanne. Dans cette étude, le génome de plus de 6000 individus a été analysé avec des puces SNP et de nombreuses informations cliniques ont été récoltées. Pendant mes travaux, j'ai utilisé et comparé plusieurs méthodes de détection des CNVs. Les résultats n'étant pas complètement satisfaisant, j'ai implémenté ma propre méthode qui donne de meilleures performances que deux des trois autres méthodes utilisées. Je me suis aussi intéressé aux stratégies pour combiner les CNVs de différents individus en régions.Je me suis aussi intéressé à l'impact clinique des CNVs dans le cas des maladies génétiques communes (chapitre 4). Ce projet fut possible grâce à une étroite collaboration avec le Centre Hospitalier Universitaire Vaudois (CHUV) et l'Impérial College à Londres. Dans ce projet, j'ai été l'un des analystes principaux et j'ai travaillé sur l'impact clinique d'une délétion rare du chromosome 16p11 présente chez des patients atteints d'obésité. Dans cette collaboration multidisciplinaire, nous avons comparés 8'456 patients atteint d'obésité et 11 '856 individus de la population générale. Nous avons trouvés que la délétion était impliquée dans 0.7% des cas d'obésité morbide et était absente chez les contrôles sains (non-atteint d'obésité). Notre étude illustre l'importance des CNVs rares qui peuvent avoir un impact clinique très important. De plus, ceci permet d'envisager une alternative aux études d'associations pour améliorer notre compréhension de l'étiologie des maladies génétiques communes.Egalement, j'ai travaillé sur la détection d'altérations somatiques en nombres de copies (SCNA) et de leurs conséquences pour le cancer (chapitre 5). Ce projet fut une collaboration initiée par l'Institut Ludwig de Recherche contre le Cancer et impliquant l'Institut Suisse de Bioinformatique, le CHUV et les Universités de Lausanne et Genève. Je me suis concentré sur l'identification de gènes affectés par des SCNAs et avec une sur- ou sous-expression dans des lignées cellulaires dérivées de mélanomes métastatiques. Les données utilisées ont été générées par des puces ADN (CGH et SNP) et du séquençage à haut débit du transcriptome. Mes recherches ont montrées que peu de gènes sont récurrents entre les mélanomes, ce qui rend difficile l'interprétation des résultats. Pour contourner ces limitations, j'ai utilisé une analyse de réseaux pour définir si des réseaux de signalisations enrichis en gènes amplifiés ou perdus, étaient communs aux différents échantillons. En fait, parmi les 28 réseaux détectés, quatre réseaux sont potentiellement dérégulés chez six mélanomes, et six réseaux supplémentaires sont affectés chez cinq mélanomes. La validation de ces résultats avec deux larges jeux de données publiques, a confirmée tous ces réseaux sauf trois. Ceci démontre l'utilité de cette approche pour l'analyse de petits et de larges jeux de données.Résumé grand publicL'avènement de la biologie moléculaire, en particulier ces dix dernières années, a révolutionné la recherche en génétique médicale. Grâce à la disponibilité du génome humain de référence dès 2001, de nouvelles technologies telles que les puces à ADN sont apparues et ont permis d'étudier le génome dans son ensemble avec une résolution dite sous-microscopique jusque-là impossible par les techniques traditionnelles de cytogénétique. Un des exemples les plus importants est l'étude des variations structurales du génome, en particulier l'étude du nombre de copies des gènes. Il était établi dès 1959 avec l'identification de la trisomie 21 par le professeur Jérôme Lejeune que le gain d'un chromosome supplémentaire était à l'origine de syndrome génétique avec des répercussions graves pour la santé du patient. Ces observations ont également été réalisées en oncologie sur les cellules cancéreuses qui accumulent fréquemment des aberrations en nombre de copies (telles que la perte ou le gain d'un ou plusieurs chromosomes). Dès 2004, plusieurs groupes de recherches ont répertorié des changements en nombre de copies dans des individus provenant de la population générale (c'est-à-dire sans symptômes cliniques visibles). En 2006, le Dr. Richard Redon a établi la première carte de variation en nombre de copies dans la population générale. Ces découvertes ont démontrées que les variations dans le génome était fréquentes et que la plupart d'entre elles étaient bénignes, c'est-à-dire sans conséquence clinique pour la santé de l'individu. Ceci a suscité un très grand intérêt pour comprendre les variations naturelles entre individus mais aussi pour mieux appréhender la prédisposition génétique à certaines maladies.Lors de ma thèse, j'ai développé de nouveaux outils informatiques pour l'analyse de puces à ADN dans le but de cartographier ces variations à l'échelle génomique. J'ai utilisé ces outils pour établir les variations dans la population suisse et je me suis consacré par la suite à l'étude de facteurs pouvant expliquer la prédisposition aux maladies telles que l'obésité. Cette étude en collaboration avec le Centre Hospitalier Universitaire Vaudois a permis l'identification d'une délétion sur le chromosome 16 expliquant 0.7% des cas d'obésité morbide. Cette étude a plusieurs répercussions. Tout d'abord elle permet d'effectuer le diagnostique chez les enfants à naître afin de déterminer leur prédisposition à l'obésité. Ensuite ce locus implique une vingtaine de gènes. Ceci permet de formuler de nouvelles hypothèses de travail et d'orienter la recherche afin d'améliorer notre compréhension de la maladie et l'espoir de découvrir un nouveau traitement Enfin notre étude fournit une alternative aux études d'association génétique qui n'ont eu jusqu'à présent qu'un succès mitigé.Dans la dernière partie de ma thèse, je me suis intéressé à l'analyse des aberrations en nombre de copies dans le cancer. Mon choix s'est porté sur l'étude de mélanomes, impliqués dans le cancer de la peau. Le mélanome est une tumeur très agressive, elle est responsable de 80% des décès des cancers de la peau et est souvent résistante aux traitements utilisés en oncologie (chimiothérapie, radiothérapie). Dans le cadre d'une collaboration entre l'Institut Ludwig de Recherche contre le Cancer, l'Institut Suisse de Bioinformatique, le CHUV et les universités de Lausanne et Genève, nous avons séquencés l'exome (les gènes) et le transcriptome (l'expression des gènes) de sept mélanomes métastatiques, effectués des analyses du nombre de copies par des puces à ADN et des caryotypes. Mes travaux ont permis le développement de nouvelles méthodes d'analyses adaptées au cancer, d'établir la liste des réseaux de signalisation cellulaire affectés de façon récurrente chez le mélanome et d'identifier deux cibles thérapeutiques potentielles jusqu'alors ignorées dans les cancers de la peau.
Resumo:
Neutrality tests in quantitative genetics provide a statistical framework for the detection of selection on polygenic traits in wild populations. However, the existing method based on comparisons of divergence at neutral markers and quantitative traits (Q(st)-F(st)) suffers from several limitations that hinder a clear interpretation of the results with typical empirical designs. In this article, we propose a multivariate extension of this neutrality test based on empirical estimates of the among-populations (D) and within-populations (G) covariance matrices by MANOVA. A simple pattern is expected under neutrality: D = 2F(st)/(1 - F(st))G, so that neutrality implies both proportionality of the two matrices and a specific value of the proportionality coefficient. This pattern is tested using Flury's framework for matrix comparison [common principal-component (CPC) analysis], a well-known tool in G matrix evolution studies. We show the importance of using a Bartlett adjustment of the test for the small sample sizes typically found in empirical studies. We propose a dual test: (i) that the proportionality coefficient is not different from its neutral expectation [2F(st)/(1 - F(st))] and (ii) that the MANOVA estimates of mean square matrices between and among populations are proportional. These two tests combined provide a more stringent test for neutrality than the classic Q(st)-F(st) comparison and avoid several statistical problems. Extensive simulations of realistic empirical designs suggest that these tests correctly detect the expected pattern under neutrality and have enough power to efficiently detect mild to strong selection (homogeneous, heterogeneous, or mixed) when it is occurring on a set of traits. This method also provides a rigorous and quantitative framework for disentangling the effects of different selection regimes and of drift on the evolution of the G matrix. We discuss practical requirements for the proper application of our test in empirical studies and potential extensions.
Resumo:
Functional divergence between homologous proteins is expected to affect amino acid sequences in two main ways, which can be considered as proxies of biochemical divergence: a "covarion-like" pattern of correlated changes in evolutionary rates, and switches in conserved residues ("conserved but different"). Although these patterns have been used in case studies, a large-scale analysis is needed to estimate their frequency and distribution. We use a phylogenomic framework of animal genes to answer three questions: 1) What is the prevalence of such patterns? 2) Can we link such patterns at the amino acid level with selection inferred at the codon level? 3) Are patterns different between paralogs and orthologs? We find that covarion-like patterns are more frequently detected than "constant but different," but that only the latter are correlated with signal for positive selection. Finally, there is no obvious difference in patterns between orthologs and paralogs.
Resumo:
Summary : Mining activities produce enormous amounts of waste material known as tailings which are composed of fine to medium size particles. These tailings often contain sulfides, which oxidation can lead to acid and metal contamination of water; therefore they need to be remediated. In this work a tailings bioremediation approach was investigated by an interdisciplinary study including geochemistry, mineralogy and microbiology. The aim of the work was to study the effect of the implementation of wetland above oxidizing tailings on the hydrogeology and the biogeochemical element cycles, and to assess the system evolution over time. To reach these goals, biogeochemical processes occurring in a marine shore tailings deposit were investigated. The studied tailings deposit is located at the Bahìa de Ite, Pacific Ocean, southern Peru, where between 1940 and 1996 the tailings were discharged from the two porphyry copper mines Cuajone and Toquepala. After the end of deposition, a remediation approach was initiated in 1997 with a wetland implementation above the oxidizing tailings. Around 90% of the tailings deposits (total 16 km2) were thus remediated, except the central delta area and some areas close to the shoreline. The multi-stable isotope study showed that the tailings were saturated with fresh water in spite of the marine setting, due to the high hydraulic gradient resulting from the wetland implementation. Submarine groundwater discharge (SGD) was the major source of SO4 2-, C1-, Na+, Fe2+, and Mn2+ input into the tailings at the original shelf-seawater interface. The geochemical study (aquatic geochemistry and X-Ray diffraction (XRD) and sequential extractions from the solid fraction) showed that iron and sulfur oxidation were the main processes in the non-remediated tailings, which showed a top a low-pH oxidation zone with strong accumulation of efflorescent salts at the surface due to capillary upward transport of heavy metals (Fe, Cu, Zn, Mn, Cd, Co, and Ni) in the arid climate. The study showed also that the implementation of the wetland resulted in very low concentrations of heavy metals in solution (mainly under the detection limit) due to the near neutral pH and more reducing conditions (100-150 mV). The heavy metals, which were taken from solution, precipitated as hydroxides and sulfides or were bound to organic matter. The bacterial community composition analysis by Terminal Restriction Fragment Length Polymorphism (T-RFLP) and cloning and sequencing of 16S rRNA genes combined with a detailed statistical analysis revealed a high correlation between the bacterial distribution and the geochemical variables. Acidophilic autotrophic oxidizing bacteria were dominating the oxidizing tailings, whereas neutrophilic and heterotrophic reducing bacteria were driving the biogeochemical processes in the remediated tailings below the wetland. At the subsurface of the remediated tailings, an iron cycling was highlighted with oxidation and reduction processes due to micro-aerophilic niches provided by the plant rhizosphere in this overall reducing environment. The in situ bioremediation experiment showed that the main parameter to take into account for the effectiveness was the water table and chemistry which controls the system. The constructed remediation cells were more efficient and rapid in metal removal when saturation conditions were available. This study showed that the bioremediation by wetland implementation could be an effective and rapid treatment for some sulfidic mine tailings deposits. However, the water saturation of the tailings has to be managed on a long-term basis in order to guarantee stability. Résumé : L'activité minière produit d'énormes quantités de déchets géologiques connus sous le nom de « tailings » composées de particules de taille fine à moyenne. Ces déchets contiennent souvent des sulfures dont l'oxydation conduit à la formation d'effluents acides contaminés en métaux, d'où la nécessité d'effectuer une remédiation des sites de stockage concernés. Le but de ce travail est dans un premier temps d'étudier l'effet de la bio-remédiation d'un dépôt de tailings oxydés sur l'hydrogéologie du système et les cycles biogéochimiques des éléments et en second lieu, d'évaluer l'évolution du processus de remédiation dans le temps. Le site étudié dans ce travail est situé dans la Bahía de Ite, au sud du Pérou, au bord de l'Océan Pacifique. Les déchets miniers en question sont déposés dans un environnement marin. De 1940 à 1996, les déchets de deux mines de porphyre cuprifère - Cuajone et Toquepala - ont été acheminés sur le site via la rivière Locumba. En 1997, une première remédiation a été initiée avec la construction d'une zone humide sur les tailings. Depuis, environ 90% de la surface du dépôt (16 km2) a été traité, les parties restantes étant la zone centrale du delta du Locumba et certaines zones proches de la plage. Malgré la proximité de l'océan, les études isotopiques menées dans le cadre de ce travail ont montré que les tailings étaient saturés en eau douce. Cette saturation est due à la pression hydraulique résultant de la mise en place des zones humides. Un écoulement d'eau souterrain sous-marin a été à détecté à l'interface entre les résidus et l'ancien fond marin. En raison de la géologie locale, il constitue une source d'entrée de SO4 2-, Cl-, Na+, FeZ+, et Mn2+ dans le système. L'analyse de la géochimie aquatique, la Diffraction aux Rayons X (XRD) et l'extraction séquentielle ont montré que l'oxydation du fer et .des sulfures est le principal processus se produisant dans les déchets non remédiés. Ceci a entraîné le développement d'une zone d'oxydation à pH bas induisant une forte accumulation des sels efflorescents, conséquence de la migration capillaire des métaux lourds (Fe, Cu, Zn, Mn, Cd, Co et Ni) de la solution vers la surface dans ce climat aride. Cette étude a montré également que la construction de la zone humide a eu comme résultats une précipitation des métaux dans des phases minérales en raison du pH neutre et des conditions réductrices (100-150mV). Les métaux lourds ont précipité sous la forme d'hydroxydes et de sulfures ou sont adsorbés à la matière organique. L'analyse de la composition de la communauté bactérienne à l'aide la technique T-RFLP (Terminal Restriction Fragment Length Polymorphism) et par le clonage/séquençage des gènes de l'ARNr 16S a été combinée à une statistique détaillée. Cette dernière a révélé une forte corrélation entre la distribution de bactéries spécifiques et la géochimie : Les bactéries autotrophes acidophiles dominent dans les déchets oxydés non remédiés, tandis que des bactéries hétérotrophes neutrophiles ont mené les processus microbiens dans les déchets remédiés sous la zone humide. Sous la surface de la zone humide, nos analyses ont également mis en évidence un cycle du fer par des processus d'oxydoréduction rendus possibles par la présence de niches micro-aérées par la rhizosphère dans cet environnement réducteur. L'expérience de bio-remédiation in situ a montré que les paramètres clés qui contrôlent l'efficacité du traitement sont le niveau de la nappe aquifère et la chimie de l'eau. Les cellules de remédiation se sont montrées plus efficaces et plus rapides lorsque le système a pu être saturé en eau. Finalement, cette étude a montré que la bio-remédiation de déchets miniers par la construction de zones humides est un moyen de traitement efficace, rapide et peu coûteux. Cependant, la saturation en eau du système doit être gérée sur le long terme afin de garantir la stabilité de l'ensemble du système.
Resumo:
Purpose : Spirituality and religiousness have been shown to be highly prevalent in patients with schizophrenia. Religion can help instil a positive sense of self, decrease the impact of symptoms and provide social contacts. Religion may also be a source of suffering. In this context, this research explores whether religion remains stable over time. Methods : From an initial cohort of 115 out-patients, 80% completed the 3-years follow-up assessment. In order to study the evolution over time, a hierarchical cluster analysis using average linkage was performed on factorial scores at baseline and follow-up and their differences. A sensitivity analysis was secondarily performed to check if the outcome was influenced by other factors such as changes in mental states using mixed models. Results : Religion was stable over time for 63% patients; positive changes occurred for 20% (i.e., significant increase of religion as a resource or a transformation of negative religion to a positive one) and negative changes for 17% (i.e., decrease of religion as a resource or a transformation of positive religion to a negative one). Change in spirituality and/or religiousness was not associated with social or clinical status, but with reduced subjective quality of life and self-esteem; even after controlling for the influence of age, gender, quality of life and clinical factors at baseline. Conclusions : In this context of patients with chronic schizophrenia, religion appeared to be labile. Qualitative analyses showed that those changes expressed the struggles of patients and suggest that religious issues need to be discussed in clinical settings.
Resumo:
The present research deals with an important public health threat, which is the pollution created by radon gas accumulation inside dwellings. The spatial modeling of indoor radon in Switzerland is particularly complex and challenging because of many influencing factors that should be taken into account. Indoor radon data analysis must be addressed from both a statistical and a spatial point of view. As a multivariate process, it was important at first to define the influence of each factor. In particular, it was important to define the influence of geology as being closely associated to indoor radon. This association was indeed observed for the Swiss data but not probed to be the sole determinant for the spatial modeling. The statistical analysis of data, both at univariate and multivariate level, was followed by an exploratory spatial analysis. Many tools proposed in the literature were tested and adapted, including fractality, declustering and moving windows methods. The use of Quan-tité Morisita Index (QMI) as a procedure to evaluate data clustering in function of the radon level was proposed. The existing methods of declustering were revised and applied in an attempt to approach the global histogram parameters. The exploratory phase comes along with the definition of multiple scales of interest for indoor radon mapping in Switzerland. The analysis was done with a top-to-down resolution approach, from regional to local lev¬els in order to find the appropriate scales for modeling. In this sense, data partition was optimized in order to cope with stationary conditions of geostatistical models. Common methods of spatial modeling such as Κ Nearest Neighbors (KNN), variography and General Regression Neural Networks (GRNN) were proposed as exploratory tools. In the following section, different spatial interpolation methods were applied for a par-ticular dataset. A bottom to top method complexity approach was adopted and the results were analyzed together in order to find common definitions of continuity and neighborhood parameters. Additionally, a data filter based on cross-validation was tested with the purpose of reducing noise at local scale (the CVMF). At the end of the chapter, a series of test for data consistency and methods robustness were performed. This lead to conclude about the importance of data splitting and the limitation of generalization methods for reproducing statistical distributions. The last section was dedicated to modeling methods with probabilistic interpretations. Data transformation and simulations thus allowed the use of multigaussian models and helped take the indoor radon pollution data uncertainty into consideration. The catego-rization transform was presented as a solution for extreme values modeling through clas-sification. Simulation scenarios were proposed, including an alternative proposal for the reproduction of the global histogram based on the sampling domain. The sequential Gaussian simulation (SGS) was presented as the method giving the most complete information, while classification performed in a more robust way. An error measure was defined in relation to the decision function for data classification hardening. Within the classification methods, probabilistic neural networks (PNN) show to be better adapted for modeling of high threshold categorization and for automation. Support vector machines (SVM) on the contrary performed well under balanced category conditions. In general, it was concluded that a particular prediction or estimation method is not better under all conditions of scale and neighborhood definitions. Simulations should be the basis, while other methods can provide complementary information to accomplish an efficient indoor radon decision making.
Resumo:
Alternative splicing produces multiple isoforms from the same gene, thus increasing the number of transcripts of the species. Alternative splicing is a virtually ubiquitous mechanism in eukaryotes, for example more than 90% of protein-coding genes in human are alternatively spliced. Recent evolutionary studies showed that alternative splicing is a fast evolving and highly species- specific mechanism. The rapid evolution of alternative splicing was considered as a contribution to the phenotypic diversity between species. However, the function of many isoforms produced by alternative splicing remains unclear and they might be the result of noisy splicing. Thus, the functional relevance of alternative splicing and the evolutionary mechanisms of its rapid divergence among species are still poorly understood. During my thesis, I performed a large-scale analysis of the regulatory mechanisms that drive the rapid evolution of alternative splicing. To study the evolution of alternative splicing regulatory mechanisms, I used an extensive RNA-sequencing dataset comprising 12 tetrapod species (human, chimpanzee and bonobo, gorilla, orangutan, macaque, marmoset, mouse, opossum, platypus, chicken and frog) and 8 tissues (cerebellum, brain, heart, kidney, liver, testis, placenta and ovary). To identify the catalogue of alternative splicing eis-acting regulatory elements in the different tetrapod species, I used a previously defined computational approach. This approach is a statistical analysis of exons/introns and splice sites composition and relies on a principle of compensation between splice sites strength and the presence of additional regulators. With an evolutionary comparative analysis of the exonic eis-acting regulators, I showed that these regulatory elements are generally shared among primates and more conserved than non-regulatory elements. In addition, I showed that the usage of these regulatory elements is also more conserved than expected by chance. In addition to the identification of species- specific eis-acting regulators, these results may explain the rapid evolution of alternative splicing. I also developed a new approach based on evolutionary sequence changes and corresponding alternative splicing changes to identify potential splicing eis-acting regulators in primates. The identification of lineage-specific substitutions and corresponding lineage-specific alternative splicing changes, allowed me to annotate the genomic sequences that might have played a role in the alternative splicing pattern differences among primates. Finally, I showed that the identified splicing eis-acting regulator datasets are enriched in human disease-causing mutations, thus confirming their biological relevance.
Resumo:
This work is focused on the development of a methodology for the use of chemical characteristic of tire traces to help answer the following question: "Is the offending tire at the origin of the trace found on the crime scene?". This methodology goes from the trace sampling on the road to statistical analysis of its chemical characteristics. Knowledge about the composition and manufacture of tread tires as well as a review of instrumental techniques used for the analysis of polymeric materials were studied to select, as an ansi vi cal technique for this research, pyrolysis coupled to a gas Chromatograph with a mass spectrometry detector (Py-GC/MS). An analytical method was developed and optimized to obtain the lowest variability between replicates of the same sample. Within-variability of the tread was evaluated regarding width and circumference with several samples taken from twelve tires of different brands and/or models. The variability within each of the treads (within-variability) and between the treads (between-variability) could be quantified. Different statistical methods have shown that within-variability is lower than between-variability, which helped differentiate these tires. Ten tire traces were produced with tires of different brands and/or models by braking tests. These traces have been adequately sampled using sheets of gelatine. Particles of each trace were analysed using the same methodology as for the tires at their origin. The general chemical profile of a trace or of a tire has been characterized by eighty-six compounds. Based on a statistical comparison of the chemical profiles obtained, it has been shown that a tire trace is not differentiable from the tire at its origin but is generally differentiable from tires that are not at its origin. Thereafter, a sample containing sixty tires was analysed to assess the discrimination potential of the developed methodology. The statistical results showed that most of the tires of different brands and models are differentiable. However, tires of the same brand and model with identical characteristics, such as country of manufacture, size and DOT number, are not differentiable. A model, based on a likelihood ratio approach, was chosen to evaluate the results of the comparisons between the chemical profiles of the traces and tires. The methodology developed was finally blindly tested using three simulated scenarios. Each scenario involved a trace of an unknown tire as well as two tires possibly at its origin. The correct results for the three scenarios were used to validate the developed methodology. The different steps of this work were useful to collect the required information to test and validate the underlying assumption that it is possible to help determine if an offending tire » or is not at the origin of a trace, by means of a statistical comparison of their chemical profile. This aid was formalized by a measure of the probative value of the evidence, which is represented by the chemical profile of the trace of the tire. - Ce travail s'est proposé de développer une méthodologie pour l'exploitation des caractéristiques chimiques des traces de pneumatiques dans le but d'aider à répondre à la question suivante : «Est-ce que le pneumatique incriminé est ou n'est pas à l'origine de la trace relevée sur les lieux ? ». Cette méthodologie s'est intéressée du prélèvement de la trace de pneumatique sur la chaussée à l'exploitation statistique de ses caractéristiques chimiques. L'acquisition de connaissances sur la composition et la fabrication de la bande de roulement des pneumatiques ainsi que la revue de techniques instrumentales utilisées pour l'analyse de matériaux polymériques ont permis de choisir, comme technique analytique pour la présente recherche, la pyrolyse couplée à un chromatographe en phase gazeuse avec un détecteur de spectrométrie de masse (Py-GC/MS). Une méthode analytique a été développée et optimisée afin d'obtenir la plus faible variabilité entre les réplicas d'un même échantillon. L'évaluation de l'intravariabilité de la bande de roulement a été entreprise dans sa largeur et sa circonférence à l'aide de plusieurs prélèvements effectués sur douze pneumatiques de marques et/ou modèles différents. La variabilité au sein de chacune des bandes de roulement (intravariabilité) ainsi qu'entre les bandes de roulement considérées (intervariabilité) a pu être quantifiée. Les différentes méthodes statistiques appliquées ont montré que l'intravariabilité est plus faible que l'intervariabilité, ce qui a permis de différencier ces pneumatiques. Dix traces de pneumatiques ont été produites à l'aide de pneumatiques de marques et/ou modèles différents en effectuant des tests de freinage. Ces traces ont pu être adéquatement prélevées à l'aide de feuilles de gélatine. Des particules de chaque trace ont été analysées selon la même méthodologie que pour les pneumatiques à leur origine. Le profil chimique général d'une trace de pneumatique ou d'un pneumatique a été caractérisé à l'aide de huitante-six composés. Sur la base de la comparaison statistique des profils chimiques obtenus, il a pu être montré qu'une trace de pneumatique n'est pas différenciable du pneumatique à son origine mais est, généralement, différenciable des pneumatiques qui ne sont pas à son origine. Par la suite, un échantillonnage comprenant soixante pneumatiques a été analysé afin d'évaluer le potentiel de discrimination de la méthodologie développée. Les méthodes statistiques appliquées ont mis en évidence que des pneumatiques de marques et modèles différents sont, majoritairement, différenciables entre eux. La méthodologie développée présente ainsi un bon potentiel de discrimination. Toutefois, des pneumatiques de la même marque et du même modèle qui présentent des caractéristiques PTD (i.e. pays de fabrication, taille et numéro DOT) identiques ne sont pas différenciables. Un modèle d'évaluation, basé sur une approche dite du likelihood ratio, a été adopté pour apporter une signification au résultat des comparaisons entre les profils chimiques des traces et des pneumatiques. La méthodologie mise en place a finalement été testée à l'aveugle à l'aide de la simulation de trois scénarios. Chaque scénario impliquait une trace de pneumatique inconnue et deux pneumatiques suspectés d'être à l'origine de cette trace. Les résultats corrects obtenus pour les trois scénarios ont permis de valider la méthodologie développée. Les différentes étapes de ce travail ont permis d'acquérir les informations nécessaires au test et à la validation de l'hypothèse fondamentale selon laquelle il est possible d'aider à déterminer si un pneumatique incriminé est ou n'est pas à l'origine d'une trace, par le biais d'une comparaison statistique de leur profil chimique. Cette aide a été formalisée par une mesure de la force probante de l'indice, qui est représenté par le profil chimique de la trace de pneumatique.
Resumo:
Plant membrane compartments and trafficking pathways are highly complex, and are often distinct from those of animals and fungi. Progress has been made in defining trafficking in plants using transient expression systems. However, many processes require a precise understanding of plant membrane trafficking in a developmental context, and in diverse, specialized cell types. These include defense responses to pathogens, regulation of transporter accumulation in plant nutrition or polar auxin transport in development. In all of these cases a central role is played by the endosomal membrane system, which, however, is the most divergent and ill-defined aspect of plant cell compartmentation. We have designed a new vector series, and have generated a large number of stably transformed plants expressing membrane protein fusions to spectrally distinct, fluorescent tags. We selected lines with distinct subcellular localization patterns, and stable, non-toxic expression. We demonstrate the power of this multicolor 'Wave' marker set for rapid, combinatorial analysis of plant cell membrane compartments, both in live-imaging and immunoelectron microscopy. Among other findings, our systematic co-localization analysis revealed that a class of plant Rab1-homologs has a much more extended localization than was previously assumed, and also localizes to trans-Golgi/endosomal compartments. Constructs that can be transformed into any genetic background or species, as well as seeds from transgenic Arabidopsis plants, will be freely available, and will promote rapid progress in diverse areas of plant cell biology.