15 resultados para Energy Efficient Algorithms
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.
Resumo:
In this thesis we present techniques that can be used to speed up the calculation of perturbative matrix elements for observables with many legs ($n = 3, 4, 5, 6, 7, ldots$). We investigate several ways to achieve this, including the use of Monte Carlo methods, the leading-color approximation, numerically less precise but faster operations, and SSE-vectorization. An important idea is the use of enquote{random polarizations} for which we derive subtraction terms for the real corrections in next-to-leading order calculations. We present the effectiveness of all these methods in the context of electron-positron scattering to $n$ jets, $n$ ranging from two to seven.
Resumo:
Bandlaufwerke waren bisher die vorherrschende Technologie, um die anfallenden Datenmengen in Archivsystemen zu speichern. Mit Zugriffsmustern, die immer aktiver werden, und Speichermedien wie Festplatten die kostenmäßig aufholen, muss die Architektur vor Speichersystemen zur Archivierung neu überdacht werden. Zuverlässigkeit, Integrität und Haltbarkeit sind die Haupteigenschaften der digitalen Archivierung. Allerdings nimmt auch die Zugriffsgeschwindigkeit einen erhöhten Stellenwert ein, wenn aktive Archive ihre gesamten Inhalte für den direkten Zugriff bereitstellen. Ein band-basiertes System kann die hierfür benötigte Parallelität, Latenz und Durchsatz nicht liefern, was in der Regel durch festplattenbasierte Systeme als Zwischenspeicher kompensiert wird.rnIn dieser Arbeit untersuchen wir die Herausforderungen und Möglichkeiten ein festplattenbasiertes Speichersystem zu entwickeln, das auf eine hohe Zuverlässigkeit und Energieeffizienz zielt und das sich sowohl für aktive als auch für kalte Archivumgebungen eignet. Zuerst analysieren wir die Speichersysteme und Zugriffsmuster eines großen digitalen Archivs und präsentieren damit ein mögliches Einsatzgebiet für unsere Architektur. Daraufhin stellen wir Mechanismen vor um die Zuverlässigkeit einer einzelnen Festplatte zu verbessern und präsentieren sowie evaluieren einen neuen, energieeffizienten, zwei- dimensionalen RAID Ansatz der für „Schreibe ein Mal, lese mehrfach“ Zugriffe optimiert ist. Letztlich stellen wir Protokollierungs- und Zwischenspeichermechanismen vor, die die zugrundeliegenden Ziele unterstützen und evaluieren das RAID System in einer Dateisystemumgebung.
Resumo:
Being basic ingredients of numerous daily-life products with significant industrial importance as well as basic building blocks for biomaterials, charged hydrogels continue to pose a series of unanswered challenges for scientists even after decades of practical applications and intensive research efforts. Despite a rather simple internal structure it is mainly the unique combination of short- and long-range forces which render scientific investigations of their characteristic properties to be quite difficult. Hence early on computer simulations were used to link analytical theory and empirical experiments, bridging the gap between the simplifying assumptions of the models and the complexity of real world measurements. Due to the immense numerical effort, even for high performance supercomputers, system sizes and time scales were rather restricted until recently, whereas it only now has become possible to also simulate a network of charged macromolecules. This is the topic of the presented thesis which investigates one of the fundamental and at the same time highly fascinating phenomenon of polymer research: The swelling behaviour of polyelectrolyte networks. For this an extensible simulation package for the research on soft matter systems, ESPResSo for short, was created which puts a particular emphasis on mesoscopic bead-spring-models of complex systems. Highly efficient algorithms and a consistent parallelization reduced the necessary computation time for solving equations of motion even in case of long-ranged electrostatics and large number of particles, allowing to tackle even expensive calculations and applications. Nevertheless, the program has a modular and simple structure, enabling a continuous process of adding new potentials, interactions, degrees of freedom, ensembles, and integrators, while staying easily accessible for newcomers due to a Tcl-script steering level controlling the C-implemented simulation core. Numerous analysis routines provide means to investigate system properties and observables on-the-fly. Even though analytical theories agreed on the modeling of networks in the past years, our numerical MD-simulations show that even in case of simple model systems fundamental theoretical assumptions no longer apply except for a small parameter regime, prohibiting correct predictions of observables. Applying a "microscopic" analysis of the isolated contributions of individual system components, one of the particular strengths of computer simulations, it was then possible to describe the behaviour of charged polymer networks at swelling equilibrium in good solvent and close to the Theta-point by introducing appropriate model modifications. This became possible by enhancing known simple scaling arguments with components deemed crucial in our detailed study, through which a generalized model could be constructed. Herewith an agreement of the final system volume of swollen polyelectrolyte gels with results of computer simulations could be shown successfully over the entire investigated range of parameters, for different network sizes, charge fractions, and interaction strengths. In addition, the "cell under tension" was presented as a self-regulating approach for predicting the amount of swelling based on the used system parameters only. Without the need for measured observables as input, minimizing the free energy alone already allows to determine the the equilibrium behaviour. In poor solvent the shape of the network chains changes considerably, as now their hydrophobicity counteracts the repulsion of like-wise charged monomers and pursues collapsing the polyelectrolytes. Depending on the chosen parameters a fragile balance emerges, giving rise to fascinating geometrical structures such as the so-called pear-necklaces. This behaviour, known from single chain polyelectrolytes under similar environmental conditions and also theoretically predicted, could be detected for the first time for networks as well. An analysis of the total structure factors confirmed first evidences for the existence of such structures found in experimental results.
Resumo:
Die Myelinisierung neuronaler Axone ermöglicht eine schnelle und energieeffiziente Weiterleitung von Informationen im Nervensystem. Durch lokale Synthese von Myelinproteinen kann die Myelinschicht, zeitlich und räumlich reguliert, gebildet werden. Dieser Prozess ist abhängig von verschiedensten axonalen Eigenschaften und muss damit lokal reguliert werden. Die Myelinisierung im zentralen sowie im peripheren Nervensystem hängt unter anderem stark von kleinen regulatorischen RNA Molekülen ab. In Oligodendrozyten wird das Myelin Basische Protein (MBP) von der sncRNA715 translational reguliert, indem diese direkt innerhalb der 3’UTR der Mbp mRNA bindet und damit die Proteinsynthese verhindert. Mbp mRNA wird in hnRNP A2‐enthaltenen RNA Granula in die Zellperipherie transportiert, wo in Antwort auf axonale Signale die membranständige Tyrosin‐ Kinase Fyn aktiviert wird, welche Granula‐Komponenten wie hnRNP A2 und F phosphoryliert wodurch die lokale Translation initiiert wird. Während des Transports wird die mRNA durch die Bindung der sncRNA715 translational reprimiert. SncRNAs bilden zusammen mit Argonaut‐Proteinen den microRNA induced silencing complex (miRISC), welcher die translationale Inhibition oder den Abbau von mRNAs vermittelt. In der vorliegenden Arbeit sollte zum einen die Regulation der sncRNA715‐abhängigen translationalen Repression der Mbp mRNA in oligodendroglialen Zellen genauer untersucht werden und im zweiten Teil wurde die Rolle der sncRNA715 in den myelinbildenden Zellen des peripheren Nervensystems, den Schwann Zellen, analysiert. Es konnte in oligodendroglialen Zellen die mRNA‐Expression der vier, in Säugern bekannten Argonaut‐Proteinen nachgewiesen werden. Außerdem konnten die beiden Proteine Ago1 und Ago2 in vitro sowie in vivo detektiert werden. Ago2 interagiert mit hnRNP A2, Mbp mRNA und sncRNA715, womit es als neue Komponente des Mbp mRNA Transportgranulas identifiziert werden konnte. Des Weiteren colokalisiert Ago2 mit der Fyn‐Kinase und alle vier Argonaut‐Proteine werden Fyn‐abhängig Tyrosin‐phosphoryliert. Die Fyn‐abhängige Phosphorylierung der Granula‐Komponenten in Antwort auf axo‐glialen Kontakt führt zum Zerfall des RNA‐Granulas und zur gesteigerten MBP Proteinsynthese. Dies wird möglicherweise durch Abstoßungskräfte der negativ geladenen phosphorylierten Proteine vermittelt, wodurch diese sich voneinander und von der mRNA entfernen. Durch die Ablösung des miRISCs von der Mbp mRNA wird die Translation möglicherweise reaktiviert und die Myelinisierung kann starten. Mit der Identifizierung von Ago2 als neuer Mbp mRNA Transportgranula‐Komponente konnte ein weiterer Einblick in die Regulation der lokalen Translation von MBP gewährt werden. Das Verständnis dieses Prozesses ist entscheidend für die Entwicklung neuer Therapien von demyelinisierenden Erkrankungen, da neue Faktoren als eventuelle Ziele für pharmakologische Manipulationen identifiziert und möglichweise neue Therapiemöglichkeiten entstehen könnten. Im zweiten Teil der Arbeit wurde die translationale Regulation von Mbp mRNA in Schwann Zellen untersucht. Auch Schwann Zell‐Mbp wird als mRNA translational inaktiviert zur axo‐glialen Kontaktstelle transportiert, wo vermutlich auch lokale Translation in Antwort auf spezifische Signale stattfindet. Allerdings bleiben die genauen Mechanismen der mRNA‐Lokalisation und damit verbundenen translationalen Repression bislang ungeklärt. Es konnte hier gezeigt werden, dass auch in Schwann Zellen die sncRNA715 exprimiert wird und die Translation von Mbp reguliert. Überexpression der synthetischen sncRNA715 führt zu einer signifikanten Reduktion der MBP Proteinmengen in differenzierten primären Schwann Zellen. Damit kann vermutet werden, dass die Regulation der lokalen MBP Proteinsynthese in Schwann Zellen der in Oligodendrozyten ähnelt
Resumo:
Currently pi-conjugated polymers are considered as technologically interesting materials to be used as functional building elements for the development of the new generation of optoelectronic devices. More specifically during the last few years, poly-p-phenylene materials have attracted considerable attention for their blue photoluminescence properties. This Thesis deals with the optical properties of the most representative blue light poly-p-phenylene emitters such as poly(fluorene), oligo(fluorene), poly(indenofluorene) and ladder-type penta(phenylene) derivatives. In the present work, laser induced photoluminescence spectroscopy is used as a major tool for the study of the interdependence between the dynamics of the probed photoluminescence, the molecular structures of the prepared polymeric films and the presence of chemical defects. Complementary results obtained by two-dimensional wide-angle X-ray diffraction are reported. These findings show that the different optical properties observed are influenced by the intermolecular solid-state interactions that in turn are controlled by the pendant groups of the polymer backbone. A significant feedback is delivered regarding the positive impact of a new synthetic route for the preparation of a poly(indenofluorene) derivative on the spectral purity of the compound. The energy transfer mechanisms that operate in the studied systems are addressed by doping experiments. After the evaluation of the structure/property interdependence, a new optical excitation pathway is presented. An efficient photon low-energy up-conversion that sensitises the blue emission of poly(fluorene) is demonstrated. The observed phenomenon takes place in poly(fluorene) derivatives hosts doped with metallated octaethyl porphyrins, after quasi-CW photoexcitation of intensities in the order of kW/cm2. The up-conversion process is parameterised in terms of temperature, wavelength excitation and central metal cation in the porphyrin ring. Additionally the observation of the up-conversion is extended in a broad range of poly-p-phenylene blue light emitting hosts. The dependence of the detected up-conversion intensity on the excitation intensity and doping concentration is reported. Furthermore the dynamics of the up-conversion intensity are monitored as a function of the doping concentration. These experimental results strongly suggest the existence of triplet-triplet annihilation events into the porphyrin molecules that are subsequently followed by energy transfer to the host. After confirming the occurrence of the up-conversion in solutions, cyclic voltammetry is used in order to show that the up-conversion efficiency is partially determined from the energetic alignment between the HOMO levels of the host and the dopant.
Resumo:
Conjugated polymers have attracted tremendous academical and industrial research interest over the past decades due to the appealing advantages that organic / polymeric materials offer for electronic applications and devices such as organic light emitting diodes (OLED), organic field effect transistors (OFET), organic solar cells (OSC), photodiodes and plastic lasers. The optimization of organic materials for applications in optoelectronic devices requires detailed knowledge of their photophysical properties, for instance energy levels of excited singlet and triplet states, excited state decay mechanisms and charge carrier mobilities. In the present work a variety of different conjugated (co)polymers, mainly polyspirobifluorene- and polyfluorene-type materials, was investigated using time-resolved photoluminescence spectroscopy in the picosecond to second time domain to study their elementary photophysical properties and to get a deeper insight into structure-property relationships. The experiments cover fluorescence spectroscopy using Streak Camera techniques as well as time-delayed gated detection techniques for the investigation of delayed fluorescence and phosphorescence. All measurements were performed on the solid state, i.e. thin polymer films and on diluted solutions. Starting from the elementary photophysical properties of conjugated polymers the experiments were extended to studies of singlet and triplet energy transfer processes in polymer blends, polymer-triplet emitter blends and copolymers. The phenomenon of photonenergy upconversion was investigated in blue light-emitting polymer matrices doped with metallated porphyrin derivatives supposing an bimolecular annihilation upconversion mechanism which could be experimentally verified on a series of copolymers. This mechanism allows for more efficient photonenergy upconversion than previously reported for polyfluorene derivatives. In addition to the above described spectroscopical experiments, amplified spontaneous emission (ASE) in thin film polymer waveguides was studied employing a fully-arylated poly(indenofluorene) as the gain medium. It was found that the material exhibits a very low threshold value for amplification of blue light combined with an excellent oxidative stability, which makes it interesting as active material for organic solid state lasers. Apart from spectroscopical experiments, transient photocurrent measurements on conjugated polymers were performed as well to elucidate the charge carrier mobility in the solid state, which is an important material parameter for device applications. A modified time-of-flight (TOF) technique using a charge carrier generation layer allowed to study hole transport in a series of spirobifluorene copolymers to unravel the structure-mobility relationship by comparison with the homopolymer. Not only the charge carrier mobility could be determined for the series of polymers but also field- and temperature-dependent measurements analyzed in the framework of the Gaussian disorder model showed that results coincide very well with the predictions of the model. Thus, the validity of the disorder concept for charge carrier transport in amorphous glassy materials could be verified for the investigated series of copolymers.
Resumo:
In this thesis a mathematical model was derived that describes the charge and energy transport in semiconductor devices like transistors. Moreover, numerical simulations of these physical processes are performed. In order to accomplish this, methods of theoretical physics, functional analysis, numerical mathematics and computer programming are applied. After an introduction to the status quo of semiconductor device simulation methods and a brief review of historical facts up to now, the attention is shifted to the construction of a model, which serves as the basis of the subsequent derivations in the thesis. Thereby the starting point is an important equation of the theory of dilute gases. From this equation the model equations are derived and specified by means of a series expansion method. This is done in a multi-stage derivation process, which is mainly taken from a scientific paper and which does not constitute the focus of this thesis. In the following phase we specify the mathematical setting and make precise the model assumptions. Thereby we make use of methods of functional analysis. Since the equations we deal with are coupled, we are concerned with a nonstandard problem. In contrary, the theory of scalar elliptic equations is established meanwhile. Subsequently, we are preoccupied with the numerical discretization of the equations. A special finite-element method is used for the discretization. This special approach has to be done in order to make the numerical results appropriate for practical application. By a series of transformations from the discrete model we derive a system of algebraic equations that are eligible for numerical evaluation. Using self-made computer programs we solve the equations to get approximate solutions. These programs are based on new and specialized iteration procedures that are developed and thoroughly tested within the frame of this research work. Due to their importance and their novel status, they are explained and demonstrated in detail. We compare these new iterations with a standard method that is complemented by a feature to fit in the current context. A further innovation is the computation of solutions in three-dimensional domains, which are still rare. Special attention is paid to applicability of the 3D simulation tools. The programs are designed to have justifiable working complexity. The simulation results of some models of contemporary semiconductor devices are shown and detailed comments on the results are given. Eventually, we make a prospect on future development and enhancements of the models and of the algorithms that we used.
Resumo:
The use of linear programming in various areas has increased with the significant improvement of specialized solvers. Linear programs are used as such to model practical problems, or as subroutines in algorithms such as formal proofs or branch-and-cut frameworks. In many situations a certified answer is needed, for example the guarantee that the linear program is feasible or infeasible, or a provably safe bound on its objective value. Most of the available solvers work with floating-point arithmetic and are thus subject to its shortcomings such as rounding errors or underflow, therefore they can deliver incorrect answers. While adequate for some applications, this is unacceptable for critical applications like flight controlling or nuclear plant management due to the potential catastrophic consequences. We propose a method that gives a certified answer whether a linear program is feasible or infeasible, or returns unknown'. The advantage of our method is that it is reasonably fast and rarely answers unknown'. It works by computing a safe solution that is in some way the best possible in the relative interior of the feasible set. To certify the relative interior, we employ exact arithmetic, whose use is nevertheless limited in general to critical places, allowing us to rnremain computationally efficient. Moreover, when certain conditions are fulfilled, our method is able to deliver a provable bound on the objective value of the linear program. We test our algorithm on typical benchmark sets and obtain higher rates of success compared to previous approaches for this problem, while keeping the running times acceptably small. The computed objective value bounds are in most of the cases very close to the known exact objective values. We prove the usability of the method we developed by additionally employing a variant of it in a different scenario, namely to improve the results of a Satisfiability Modulo Theories solver. Our method is used as a black box in the nodes of a branch-and-bound tree to implement conflict learning based on the certificate of infeasibility for linear programs consisting of subsets of linear constraints. The generated conflict clauses are in general small and give good rnprospects for reducing the search space. Compared to other methods we obtain significant improvements in the running time, especially on the large instances.
Resumo:
In dieser Arbeit wurden Simulation von Flüssigkeiten auf molekularer Ebene durchgeführt, wobei unterschiedliche Multi-Skalen Techniken verwendet wurden. Diese erlauben eine effektive Beschreibung der Flüssigkeit, die weniger Rechenzeit im Computer benötigt und somit Phänomene auf längeren Zeit- und Längenskalen beschreiben kann.rnrnEin wesentlicher Aspekt ist dabei ein vereinfachtes (“coarse-grained”) Modell, welches in einem systematischen Verfahren aus Simulationen des detaillierten Modells gewonnen wird. Dabei werden ausgewählte Eigenschaften des detaillierten Modells (z.B. Paar-Korrelationsfunktion, Druck, etc) reproduziert.rnrnEs wurden Algorithmen untersucht, die eine gleichzeitige Kopplung von detaillierten und vereinfachten Modell erlauben (“Adaptive Resolution Scheme”, AdResS). Dabei wird das detaillierte Modell in einem vordefinierten Teilvolumen der Flüssigkeit (z.B. nahe einer Oberfläche) verwendet, während der Rest mithilfe des vereinfachten Modells beschrieben wird.rnrnHierzu wurde eine Methode (“Thermodynamische Kraft”) entwickelt um die Kopplung auch dann zu ermöglichen, wenn die Modelle in verschiedenen thermodynamischen Zuständen befinden. Zudem wurde ein neuartiger Algorithmus der Kopplung beschrieben (H-AdResS) der die Kopplung mittels einer Hamilton-Funktion beschreibt. In diesem Algorithmus ist eine zur Thermodynamischen Kraft analoge Korrektur mit weniger Rechenaufwand möglich.rnrnAls Anwendung dieser grundlegenden Techniken wurden Pfadintegral Molekulardynamik (MD) Simulationen von Wasser untersucht. Mithilfe dieser Methode ist es möglich, quantenmechanische Effekte der Kerne (Delokalisation, Nullpunktsenergie) in die Simulation einzubeziehen. Hierbei wurde zuerst eine Multi-Skalen Technik (“Force-matching”) verwendet um eine effektive Wechselwirkung aus einer detaillierten Simulation auf Basis der Dichtefunktionaltheorie zu extrahieren. Die Pfadintegral MD Simulation verbessert die Beschreibung der intra-molekularen Struktur im Vergleich mit experimentellen Daten. Das Modell eignet sich auch zur gleichzeitigen Kopplung in einer Simulation, wobei ein Wassermolekül (beschrieben durch 48 Punktteilchen im Pfadintegral-MD Modell) mit einem vereinfachten Modell (ein Punktteilchen) gekoppelt wird. Auf diese Weise konnte eine Wasser-Vakuum Grenzfläche simuliert werden, wobei nur die Oberfläche im Pfadintegral Modell und der Rest im vereinfachten Modell beschrieben wird.
Resumo:
In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.
Resumo:
This thesis reports on the synthesis and characterisation of trans-(M)AB2C meso-substituted porphyrin amino acid esters (PAr) (M = 2H or Zn) with tunable electron donating and electron withdrawing Ar substituents at B positions (Ar = 4-C6H4OnBu, 4-C6H4OMe, 2,4,6-C6H2Me3, 4-C6H4Me, C6H5, 4-C6H4F, 4-C6H4CF3, C6F5). These porphyrins were used as key building blocks for photosynthetic LHC (LHC = light-harvesting antenna complex) and RC (RC = reaction center) model compounds.rnBased on free-base or zinc(II) porphyrin amino acid esters and porphyrin acids several amide linked free-base bis(porphyrins) PAr1-PAr2 (Ar1 = 2,4,6-C6H2Me3, C6F5 and Ar2 = 2,4,6-C6H2Me3, 4-C6H4F, 4-C6H4CF3, C6F5), mono metallated bis(porphyrin) PAr1-(Zn)PAr2 (Ar1 = 2,4,6-C6H2Me3 and Ar2 =4-C6H4F) and its doubly zincated complexes (Zn)PAr1-(Zn)PAr2 were prepared. In the fluorescence spectra of free-base bis(porphyrins) the porphyrin with the strongest electron donating power of Ar substituents at B positions is the light emitting unity. The emission of mono metallated bis(porphyrin) occurs only from the free-base porphyrin building block. This phenomenon is caused by an efficient energy transfer likely via the Dexter through-bond mechanism.rnLinking of anthraquinone (Q) as electron acceptor (A) to the N-terminus of porphyrin amino acid esters ((M)PAr) and aminoferrocene (Fc) as electron donor (D) to the C-terminus of the porphyrin resulting in Q-(M)PAr-Fc triads (M = 2H or Zn, Ar = 4-C6H4OnBu, 4-C6H4OMe, 2,4,6-C6H2Me3, 4-C6H4Me, C6H5, 4-C6H4F, 4-C6H4CF3, C6F5) with tunable electron density at the porphyrin chromophore. In these triads initial oxidative PET (Q←(M)PAr) and reductive PET ((M)PAr→Fc) (PET = photoinduced electron transfer) are possible. Both processes leads to an emission quenching of (M)PAr. The efficiency of the PET pathways occurring in the Marcus normal region is controlled by the specific porphyrin electron density.rnAmide-linked conjugates PAr-Fc (Ar = 2,4,6-C6H2Me3, C6F5) and Fmoc-Fc-PAr1 (N-Fmoc-Fc = N-Fmoc protected 1,1’-ferrocene amino acid; Ar1 = C6H5, 4-C6H4F, 4-C6H4CF3, C6F5) as well as hinges PAr2-Fc-PAr1 (Ar1 = C6H5, 4-C6H4F and Ar2 = 2,4,6-C6H2Me3) were studied with respect to the reductive PET. The PET driving force (−GET) in dyads increases with the increasing electron withdrawing character of Ar substituents. Additionally, intramolecular energy transfer between porphyrins PAr1 and PAr2 is feasible in the hinges via the Förster mechanism.rn
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.
Resumo:
Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.
Resumo:
In dieser Arbeit werden die Dynamiken angeregter Zustände in Donor-Akzeptorsystemen für Energieumwandlungsprozesse mit ultraschneller zeitaufgelöster optischer Spektroskopie behandelt. Der Hauptteil dieser Arbeit legt den Fokus auf die Erforschung der Photophysik organischer Solarzellen, deren aktive Schichten aus diketopyrrolopyrrole (DPP) basierten Polymeren mit kleiner Bandlücke als Elektronendonatoren und Fullerenen als Elektronenakzeptoren bestehen. rnEin zweiter Teil widmet sich der Erforschung von künstlichen primären Photosynthesereaktionszentren, basierend auf Porphyrinen, Quinonen und Ferrocenen, die jeweils als Lichtsammeleinheit, Elektronenakzeptor beziehungsweise als Elektronendonatoren eingesetzt werden, um langlebige ladungsgetrennte Zustände zu erzeugen.rnrnZeitaufgelöste Photolumineszenzspektroskopie und transiente Absorptionsspektroskopie haben gezeigt, dass Singulettexzitonenlebenszeiten in den Polymeren PTDPP-TT und PFDPP-TT Polymeren kurz sind (< 20 ps) und dass in Mischungen der Polymere mit PC71BM geminale Rekombination von gebundenen Ladungstransferzuständen ein Hauptverlustkanal ist. Zudem wurde in beiden Systemen schnelle nichtgeminale Rekombination freier Ladungen zu Triplettzuständen auf dem Polymer beobachtet. Für das Donor-Akzeptor System PDPP5T:PC71BM wurde nachgewiesen, dass die Zugabe eines Lösungsmittels mit hohem Siedepunkt, und zwar ortho-Dichlorbenzol, die Morphologie der aktiven Schicht stark beeinflusst und die Solarzelleneffizienz verbessert. Der Grund hierfür ist, dass die Donator- und Akzeptormaterialien besser durchmischt sind und sich Perkolationswege zu den Elektroden ausgebildet haben, was zu einer verbesserten Ladungsträgergeneration und Extraktion führt. Schnelle Bildung des Triplettzustands wurde in beiden PDPP5T:PC71BM Systemen beobachtet, da der Triplettzustand des Polymers über Laungstransferzustände mit Triplettcharakter populiert werden kann. "Multivariate curve resolution" (MCR) Analyse hat eine starke Intensitätsabhängigkeit gezeigt, was auf nichtgeminale Ladungsträgerrekombination in den Triplettzustand hinweist.rnrnIn den künstlichen primären Photosynthesereaktionszentren hat transiente Absorptionsspektroskopie bestätigt, dass photoinduzierter Ladungstransfer in Quinon-Porphyrin (Q-P) und Porphyrin-Ferrocen (P-Fc) Diaden sowie in Quinon-Porphyrin-Ferrocen (Q-P-Fc) Triaden effizient ist. Es wurde jedoch auch gezeigt, dass in den P-Fc unf Q-P-Fc Systemen die ladungsgetrennten Zustände in den Triplettzustand der jeweiligen Porphyrine rekombinieren. Der ladungsgetrennte Zustand konnte in der Q-P Diade durch Zugabe einer Lewissäure signifikant stabilisiert werden.