8 resultados para Proximity and remoteness
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Species richness varies greatly across geographical regions. Eastern Arc Mountains (EAM) of Kenya and Tanzania is one of the global biodiversity hotspots. Despite this, high species diversity the explanatory factors have remained largely unexplored. Herein, this study first investigated amphibian species richness patterns in the EAM and particularly the reasons for the low richness in Taita Hills. It tested the hypothesis that the low richness is due to past forest loss or other factors. The results demonstrated that the regional species richness pattern was influenced largely by mean annual rainfall and not forest area. Secondly, using the 26 currently recorded amphibians in the Taita Hills, it investigated the relationship between amphibian species composition along anthropogenic habitat disturbance and elevation gradients. It tested the hypothesis that sites with similar environmental characteristics (temperature, rainfall and elevation), in close proximity and with similar disturbance levels (habitat types) harbour similar species composition. It was found that amphibian species composition differed in terms of elevation and was explained by both temperature and rainfall. Therefore sites with similar environmental characteristics, disturbance levels and in close proximity geographically have similar amphibian composition. Thirdly, diagnostic characters, distribution, basic life history characteristics and conservation status of all currently known amphibians in the Taita Hills were provided. Finally, first long term life history and ecological characteristics of a brevicipitid frog (Callulina sp) was provided. The results showed that this frog abundance and distribution is influenced mainly by mean monthly temperature, breeds during the long dry season and exhibit parental care. Results of this study strongly recommend increasing indigenous forest cover in order to enhance the conservation of the endemic indigenous forest associated amphibians such as Callulina sp, Boulengerula taitana and Boulengerula niedeni.
Resumo:
In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.
Resumo:
Ziel der vorliegenden Dissertation war die Untersuchung der Liefergebiete und Ablagerungsräume sedimentärer Gesteine aus ausgewählten Gebieten der inneren Helleniden Griechenlands. Die untersuchten Sedimente Nordgriechenlands gehören zu den Pirgadikia und Vertiskos Einheiten des Serbo-Makedonische Massifs, zu den Examili, Melissochori und Prinochori Formationen der östlichen Vardar Zone und zur Makri Einheit und Melia Formation des östlichen Zirkum-Rhodope-Gürtels in Thrakien. In der östlichen Ägäis lag der Schwerpunkt bei den Sedimenten der Insel Chios. Der Metamorphosegrad der untersuchten Gesteine variiert von der untersten Grünschieferfazies bis hin zur Amphibolitfazies. Das stratigraphische Alter reicht vom Ordovizium bis zur Kreide. Zur Charakterisierung der Gesteine und ihrer Liefgebiete wurden Haupt- und Spurenelementgehalte der Gesamtgesteine bestimmt, mineralchemische Analysen durchgeführt und detritische Zirkone mit U–Pb datiert. An ausgewählten Proben wurden außerdem biostratigraphische Untersuchungen zur Bestimmung des Sedimentationsalters durchgeführt. Die Untersuchungsergebnisse dieser Arbeit sind von großer Bedeutung für paläogeographische Rekonstruktionen der Tethys. Die wichtigsten Ergebnisse lassen sich wie folgt zusammenfassen: Die ältesten Sedimente Nordgriechenlands gehören zur Pirgadikia Einheit des Serbo-Makedonischen Massifs. Es sind sehr reife, quarzreiche, siliziklastische Metasedimente, die auf Grund ihrer Maturität und ihrer detritischen Zirkone mit ordovizischen overlap-Sequenzen vom Nordrand Gondwanas korreliert werden können. Die Metasedimente der Vertiskos Einheit besitzen ein ähnliches stratigraphisches Alter, haben aber einen anderen Ablagerungsraum. Das Altersspektrum detritischer Zirkone lässt auf ein Liefergebiet im Raum NW Afrikas (Hun Superterrane) schließen. Die Gesteinsassoziation der Vertiskos Einheit wird als Teil einer aktiven Kontinentalrandabfolge gesehen. Die ältesten biostratigraphisch datierten Sedimente Griechenlands sind silurische bis karbonische Olistolithe aus einer spätpaläozoischen Turbidit-Olistostrom Einheit auf der Insel Chios. Die Alter detritischer Zirkone und die Liefergebietsanalyse der fossilführenden Olistolithe lassen den Schluss zu, dass die klastischen Sedimente von Chios Material vom Sakarya Mikrokontinent in der West-Türkei und faziellen Äquivalenten zu paläozoischen Gesteinen der Istanbul Zone in der Nord-Türkei und der Balkan Region erhalten haben. Während der Permotrias wurde die Examili Formation der östlichen Vardar Zone in einem intrakontinentalen, sedimentären Becken, nahe der Vertiskos Einheit abgelagert. Untergeordnet wurde auch karbonisches Grundgebirgsmaterial eingetragen. Im frühen bis mittleren Jura wurde die Melissochori Formation der östlichen Vardar Zone am Abhang eines karbonatführenden Kontinentalrandes abgelagert. Der Großteil des detritischen Materials kam von permokarbonischem Grundgebirge vulkanischen Ursprungs, vermutlich von der Pelagonischen Zone und/oder der unteren tektonischen Einheit des Rhodope Massifs. Die Makri Einheit in Thrakien besitzt vermutlich ein ähnliches Alter wie die Melissochori Formation. Beide sedimentären Abfolgen ähneln sich sehr. Der Großteil des detritischen Materials für die Makri Einheit kam vom Grundgebirge der Pelagonischen Zone oder äquivalenten Gesteinen. Während der frühen Kreide wurde die Prinochori Formation der östlichen Vardar Zone im Vorfeld eines heterogenen Deckenstapels abgelagert, der ophiolitisches Material sowie Grundgebirge ähnlich zu dem der Vertiskos Einheit enthielt. Ebenfalls während der Kreidezeit wurde in Thrakien, vermutlich im Vorfeld eines metamorphen Deckenstapels mit Affinitäten zum Grundgebirge der Rhodopen die Melia Formation abgelagert. Zusammenfassend kann festgehalten werden, dass die Subduktion eines Teiles der Paläotethys und die anschließende Akkretion vom Nordrand Gondwanas stammender Mikrokontinente (Terranes) nahe dem südlichen aktiven Kontinentalrand Eurasiens den geodynamischen Rahmen für die Schüttung des detritischen Materials der Sedimente der inneren Helleniden im späten Paläozoikum bildeten. Die darauf folgenden frühmesozoischen Riftprozesse leiteten die Bildung von Ozeanbecken der Neotethys ein. Intraozeanische Subduktion und die Obduzierung von Ophioliten prägten die Zeit des Jura. Die spätjurassische und frühkretazische tektonische Phase wurde durch die Ablagerung von mittelkretazischen Kalksteinen besiegelt. Die endgültige Schließung von Ozeanbecken der Neotethys im Bereich der inneren Helleniden erfolgte schließlich in der späten Kreide und im Tertiär.
Resumo:
Eine zielgerichtete Steuerung und Durchführung von organischen Festkörperreaktionen wird unter anderem durch genaue Kenntnis von Packungseffekten ermöglicht. Im Rahmen dieser Arbeit konnte durch den kombinierten Einsatz von Einkristallröntgenanalyse und hochauf-lösender Festkörper-NMR an ausgewählten Beispielen ein tieferes Verständnis und Einblicke in die Reaktionsmechanismen von organischen Festkörperreaktionen auf molekularer Ebene gewonnen werden. So konnten bei der topotaktischen [2+2] Photodimerisierung von Zimt-säure Intermediate isoliert und strukturell charakterisiert werden. Insbesondere anhand statischer Deuteronen- und 13C-CPMAS NMR Spektren konnten eindeutig dynamische Wasserstoffbrücken nachgewiesen werden, die transient die Zentrosymmetrie des Reaktions-produkts aufheben. Ein weiterer Nachweis gelang daraufhin mittels Hochtemperatur-Röntgen-untersuchung, sodass der scheinbare Widerspruch von NMR- und Röntgenuntersuchungen gelöst werden konnte. Eine Veresterung der Zimtsäure entfernt diese Wasserstoffbrücken und erhält somit die Zentrosymmetrie des Photodimers. Weiterhin werden Ansätze zur Strukturkontrolle in Festkörpern basierend auf der molekularen Erkennung des Hydroxyl-Pyridin (OH-N) Heterosynthon in Co-Kristallen beschrieben, wobei vor allem die Stabilität des Synthons in Gegenwart funktioneller Gruppen mit Möglichkeit zu kompetetiver Wasserstoffbrückenbildung festgestellt wurde. Durch Erweiterung dieses Ansatzes wurde die molekulare Spezifität des Hydroxyl-Pyridin (OH-N) Heterosynthons bei gleichzeitiger Co-Kristallisation mit mehreren Komponenten erfolgreich aufgezeigt. Am Beispiel der Co-Kristallisation von trans--1,2-bis(4-pyridyl)ethylen (bpe) mit Resorcinol (res) in Gegenwart von trans-1,2-bis(4-pyridyl)ethan (bpet) konnten Zwischenprodukte der Fest-körperreaktionen und neuartige Polymorphe isoliert werden, wobei eine lückenlose Aufklärung des Reaktionswegs mittels Röntgenanalyse gelang. Dabei zeigte sich, dass das Templat Resorcinol aus den Zielverbindungen entfernbar ist. Ferner gelang die Durchführung einer seltenen, nicht-idealen Einkristall-Einkristall-Umlagerung von trans--1,2-bis(4-pyridyl)ethylen (bpe) mit Resorcinol (res). In allen Fällen konnten die Fragen zur Struktur und Dynamik der untersuchten Verbindungen nur durch gemeinsame Nutzung von Röntgenanalyse und NMR-Spektroskopie bei vergleichbaren Temperaturen eindeutig und umfassend geklärt werden.
Resumo:
I present a new experimental method called Total Internal Reflection Fluorescence Cross-Correlation Spectroscopy (TIR-FCCS). It is a method that can probe hydrodynamic flows near solid surfaces, on length scales of tens of nanometres. Fluorescent tracers flowing with the liquid are excited by evanescent light, produced by epi-illumination through the periphery of a high NA oil-immersion objective. Due to the fast decay of the evanescent wave, fluorescence only occurs for tracers in the ~100 nm proximity of the surface, thus resulting in very high normal resolution. The time-resolved fluorescence intensity signals from two laterally shifted (in flow direction) observation volumes, created by two confocal pinholes are independently measured and recorded. The cross-correlation of these signals provides important information for the tracers’ motion and thus their flow velocity. Due to the high sensitivity of the method, fluorescent species with different size, down to single dye molecules can be used as tracers. The aim of my work was to build an experimental setup for TIR-FCCS and use it to experimentally measure the shear rate and slip length of water flowing on hydrophilic and hydrophobic surfaces. However, in order to extract these parameters from the measured correlation curves a quantitative data analysis is needed. This is not straightforward task due to the complexity of the problem, which makes the derivation of analytical expressions for the correlation functions needed to fit the experimental data, impossible. Therefore in order to process and interpret the experimental results I also describe a new numerical method of data analysis of the acquired auto- and cross-correlation curves – Brownian Dynamics techniques are used to produce simulated auto- and cross-correlation functions and to fit the corresponding experimental data. I show how to combine detailed and fairly realistic theoretical modelling of the phenomena with accurate measurements of the correlation functions, in order to establish a fully quantitative method to retrieve the flow properties from the experiments. An importance-sampling Monte Carlo procedure is employed in order to fit the experiments. This provides the optimum parameter values together with their statistical error bars. The approach is well suited for both modern desktop PC machines and massively parallel computers. The latter allows making the data analysis within short computing times. I applied this method to study flow of aqueous electrolyte solution near smooth hydrophilic and hydrophobic surfaces. Generally on hydrophilic surface slip is not expected, while on hydrophobic surface some slippage may exists. Our results show that on both hydrophilic and moderately hydrophobic (contact angle ~85°) surfaces the slip length is ~10-15nm or lower, and within the limitations of the experiments and the model, indistinguishable from zero.
Resumo:
Glioblastoma multiforme (GBM) is the most common and most aggressive astrocytic tumor of the central nervous system (CNS) in adults. The standard treatment consisting of surgery, followed by a combinatorial radio- and chemotherapy, is only palliative and prolongs patient median survival to 12 to 15 months. The tumor subpopulation of stem cell-like glioma-initiating cells (GICs) shows resistance against radiation as well as chemotherapy, and has been suggested to be responsible for relapses of more aggressive tumors after therapy. The efficacy of immunotherapies, which exploit the immune system to specifically recognize and eliminate malignant cells, is limited due to strong immunosuppressive activities of the GICs and the generation of a specialized protective microenvironment. The molecular mechanisms underlying the therapy resistance of GICs are largely unknown. rnThe first aim of this study was to identify immune evasion mechanisms in GICs triggered by radiation. A model was used in which patient-derived GICs were treated in vitro with fractionated ionizing radiation (2.5 Gy in 7 consecutive passages) to select for a more radio-resistant phenotype. In the model cell line 1080, this selection process resulted in increased proliferative but diminished migratory capacities in comparison to untreated control GICs. Furthermore, radio-selected GICs downregulated various proteins involved in antigen processing and presentation, resulting in decreased expression of MHC class I molecules on the cellular surface and diminished recognition potential by cytotoxic CD8+ T cells. Thus, sub-lethal fractionated radiation can promote immune evasion and hamper the success of adjuvant immunotherapy. Among several immune-associated proteins, interferon-induced transmembrane protein 3 (IFITM3) was found to be upregulated in radio-selected GICs. While high expression of IFITM3 was associated with a worse overall survival of GBM patients (TCGA database) and increased proliferation and migration of differentiated glioma cell lines, a strong contribution of IFITM3 to proliferation in vitro as well as tumor growth and invasiveness in a xenograft model could not be observed. rnMultiple sclerosis (MS) is the most common autoimmune disease of the CNS in young adults of the Western World, which leads to progressive disability in genetically susceptible individuals, possibly triggered by environmental factors. It is assumed that self-reactive, myelin-specific T helper cell 1 (Th1) and Th17 cells, which have escaped the control mechanisms of the immune system, are critical in the pathogenesis of the human disease and its animal model experimental autoimmune encephalomyelitis (EAE). It was observed that in vitro differentiated interleukin 17 (IL-17) producing Th17 cells co-expressed the Th1-phenotypic cytokine Interferon-gamma (IFN-γ) in combination with the two respective lineage-associated transcription factors RORγt and T-bet after re-isolation from the CNS of diseased mice. Pathogenic molecular mechanisms that render a CD4+ T cell encephalitogenic have scarcely been investigated up to date. rnIn the second part of the thesis, whole transcriptional changes occurring in in vitro differentiated Th17 cells in the course of EAE were analyzed. Evaluation of signaling networks revealed an overrepresentation of genes involved in communication between the innate and adaptive immune system and metabolic alterations including cholesterol biosynthesis. The transcription factors Cebpa, Fos, Klf4, Nfatc1 and Spi1, associated with thymocyte development and naïve T cells were upregulated in encephalitogenic CNS-isolated CD4+ T cells, proposing a contribution to T cell plasticity. Correlation of the murine T-cell gene expression dataset to putative MS risk genes, which were selected based on their proximity (± 500 kb; ensembl database, release 75) to the MS risk single nucleotide polymorphisms (SNPs) proposed by the most recent multiple sclerosis GWAS in 2011, revealed that 67.3% of the MS risk genes were differentially expressed in EAE. Expression patterns of Bach2, Il2ra, Irf8, Mertk, Odf3b, Plek, Rgs1, Slc30a7, and Thada were confirmed in independent experiments, suggesting a contribution to T cell pathogenicity. Functional analysis of Nfatc1 revealed that Nfatc1-deficient CD4+ T cells were restrained in their ability to induce clinical signs of EAE. Nfatc1-deficiency allowed proper T cell activation, but diminished their potential to fully differentiate into Th17 cells and to express high amounts of lineage cytokines. As the inducible Nfatc1/αA transcript is distinct from the other family members, it could represent an interesting target for therapeutic intervention in MS.rn
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.
Resumo:
Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.