22 resultados para Nachteile

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich vorwiegend mit Detektionsproblemen, die bei Experimenten zur Chemie der Transactiniden mit dem schnellen Flüssig-Flüssig-Extraktionssystem SISAK auftraten. Bei diesen Experimenten wird als Detektionsmethode die Flüssigszintillationsspektroskopie (LSC) eingesetzt. Es werden Szintillationspulse registriert, die für das verursachende Teilchen charakteristische Formen zeigen, die unterschieden werden müssen. Am Beispiel der Auswertung des SISAK-Experimentes zur Chemie des Rutherfordiums vom November 1998 wurde gezeigt, dass es mit den herkömmlichen Verfahren zur Pulsformdiskriminierung nicht möglich ist, die aus dem Zerfall der Transactiniden stammenden alpha-Ereignisse herauszufiltern. Ursache dafür ist ein hoher Untergrund, der in erster Linie von beta/gamma-Teilchen, Spaltfragmenten und pile ups verursacht wird. Durch die Verfügbarkeit von Transientenrecordern ergeben sich neue Möglichkeiten für eine digitale Pulsformdiskriminierung. In dieser Arbeit wird erstmals die Methode der digitalen Pulsformdiskriminierung mit künstlichen neuronalen Netzen (PSD-NN) vorgestellt. Es wurde im Zuge der Auswertung des SISAK-Experimentes vom Februar 2000 gezeigt, dass neuronale Netze in der Lage sind, Pulsformen automatisch richtig zu klassifizieren. Es ergeben sich nahezu untergrundfreie alpha-Flüssigszintillationsspektren. Es werden Vor- und Nachteile der neuen Methode diskutiert. Es ist dadurch möglich geworden, in SISAK-Experimenten Transactinidenatome anhand ihres Zerfalls eindeutig zu charakterisieren. Das SISAK-System kann somit bei Experimenten zum Studium des chemischen Verhaltens von Transactiniden in flüssiger Phase eingesetzt werden.____

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Aufklärung von Biosynthesewegen erfolgt häufig mit Hilfe von Fütterungsexperimenten mit radioaktiven oder stabilen Isotopen markierten Präkusoren oder auf der Basis der Enzymreinigung mit anschließender molekularbiologischer Charakterisierung. Die erstgenannte Methode verlangt die Isolierung der Produkte. Jedoch besteht bei Aufarbeitung und Extraktion immer die Gefahr, daß sich der Metabolit teilweise oder vollständig chemisch verändert. Ein weiterer Nachteil der genannten Methoden ist, daß diese generell mühsam und zeitaufwendig sind. Mit Hilfe der in vivo NMR-Spektroskopie können diese Nachteile umgangen werden. In der vorliegenden Arbeit wurden Biotransformationen und Biosynthesesequenzen des Ajmalin-Biosyntheseweges mit Hilfe der in vivo NMR-Spektroskopie in Pflanzenzellkulturen von Rauvolfia serpentina und Rauvolfia serpentina x Rhazya stricta anhand der natürlichen 13C-Häufigkeit untersucht. Dafür wurden ein 700 MHz, 800 MHz und ein 500 MHz CryoProbe Spektrometer eingesetzt, um die Biotransformationen von Isatin-3-oxim und Isatin sowie die Metabolisierungen der Alkaloide Vellosimin, Vinorin, Vomilenin, Ajmalin, Nß-Methyl-dihydrochano-ajmalin und Perakin mit der 1H-13C invers korrelierten NMR-Spektroskopie zu verfolgen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Standardmodell der Elementarteilchenphysik istexperimentell hervorragend bestätigt, hat auf theoretischerSeite jedoch unbefriedigende Aspekte: Zum einen wird derHiggssektor der Theorie von Hand eingefügt, und zum anderenunterscheiden sich die Beschreibung des beobachtetenTeilchenspektrums und der Gravitationfundamental. Diese beiden Nachteile verschwinden, wenn mandas Standardmodell in der Sprache der NichtkommutativenGeometrie formuliert. Ziel hierbei ist es, die Raumzeit der physikalischen Theoriedurch algebraische Daten zu erfassen. Beispielsweise stecktdie volle Information über eine RiemannscheSpinmannigfaltigkeit M in dem Datensatz (A,H,D), den manspektrales Tripel nennt. A ist hierbei die kommutativeAlgebra der differenzierbaren Funktionen auf M, H ist derHilbertraum der quadratintegrablen Spinoren über M und D istder Diracoperator. Mit Hilfe eines solchen Tripels (zu einer nichtkommutativenAlgebra) lassen sich nun sowohl Gravitation als auch dasStandardmodell mit mathematisch ein und demselben Mittelerfassen. In der vorliegenden Arbeit werden nulldimensionale spektraleTripel (die diskreten Raumzeiten entsprechen) zunächstklassifiziert und in Beispielen wird eine Quantisierungsolcher Objekte durchgeführt. Ein Problem der spektralenTripel stellt ihre Beschränkung auf echt RiemannscheMetriken dar. Zu diesem Problem werden Lösungsansätzepräsentiert. Im abschließenden Kapitel der Arbeit wird dersogenannte 'Feynman-Beweis der Maxwellgleichungen' aufnichtkommutative Konfigurationsräume verallgemeinert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation analysiert die Middleware- Technologien CORBA (Common Object Request Broker Architecture), COM/DCOM (Component Object Model/Distributed Component Object Model), J2EE (Java-2-Enterprise Edition) und Web Services (inklusive .NET) auf ihre Eignung bzgl. eng und lose gekoppelten verteilten Anwendungen. Zusätzlich werden primär für CORBA die dynamischen CORBA-Komponenten DII (Dynamic Invocation Interface), IFR (Interface Repository) und die generischen Datentypen Any und DynAny (dynamisches Any) im Detail untersucht. Ziel ist es, a. konkrete Aussagen über diese Komponenten zu erzielen, und festzustellen, in welchem Umfeld diese generischen Ansätze ihre Berechtigung finden. b. das zeitliche Verhalten der dynamischen Komponenten bzgl. der Informationsgewinnung über die unbekannten Objekte zu analysieren. c. das zeitliche Verhalten der dynamischen Komponenten bzgl. ihrer Kommunikation zu messen. d. das zeitliche Verhalten bzgl. der Erzeugung von generischen Datentypen und das Einstellen von Daten zu messen und zu analysieren. e. das zeitliche Verhalten bzgl. des Erstellens von unbekannten, d. h. nicht in IDL beschriebenen Datentypen zur Laufzeit zu messen und zu analysieren. f. die Vorzüge/Nachteile der dynamischen Komponenten aufzuzeigen, ihre Einsatzgebiete zu definieren und mit anderen Technologien wie COM/DCOM, J2EE und den Web Services bzgl. ihrer Möglichkeiten zu vergleichen. g. Aussagen bzgl. enger und loser Koppelung zu tätigen. CORBA wird als standardisierte und vollständige Verteilungsplattform ausgewählt, um die o. a. Problemstellungen zu untersuchen. Bzgl. seines dynamischen Verhaltens, das zum Zeitpunkt dieser Ausarbeitung noch nicht oder nur unzureichend untersucht wurde, sind CORBA und die Web Services richtungsweisend bzgl. a. Arbeiten mit unbekannten Objekten. Dies kann durchaus Implikationen bzgl. der Entwicklung intelligenter Softwareagenten haben. b. der Integration von Legacy-Applikationen. c. der Möglichkeiten im Zusammenhang mit B2B (Business-to-Business). Diese Problemstellungen beinhalten auch allgemeine Fragen zum Marshalling/Unmarshalling von Daten und welche Aufwände hierfür notwendig sind, ebenso wie allgemeine Aussagen bzgl. der Echtzeitfähigkeit von CORBA-basierten, verteilten Anwendungen. Die Ergebnisse werden anschließend auf andere Technologien wie COM/DCOM, J2EE und den Web Services, soweit es zulässig ist, übertragen. Die Vergleiche CORBA mit DCOM, CORBA mit J2EE und CORBA mit Web Services zeigen im Detail die Eignung dieser Technologien bzgl. loser und enger Koppelung. Desweiteren werden aus den erzielten Resultaten allgemeine Konzepte bzgl. der Architektur und der Optimierung der Kommunikation abgeleitet. Diese Empfehlungen gelten uneingeschränkt für alle untersuchten Technologien im Zusammenhang mit verteilter Verarbeitung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Conjugated polymers are macromolecules that possess alternating single and double bonds along the main chain. These polymers combine the optoelectronic properties of semiconductors with the mechanical properties and processing advantages of plastics. In this thesis we discuss the synthesis, characterization and application of polyphenylene-based materials in various electronic devices. Poly(2,7-carbazole)s have the potential to be useful as blue emitters, but also as donor materials in solar cells due to their better hole-accepting properties. However, it is associated with two major drawbacks (1) the emission maximum occurs at 421 nm where the human eye is not very sensitive and (2) the 3- and 6- positions of carbazole are susceptible to chemical or electrochemical degradation. To overcome these problems, the ladder-type nitrogen-bridged polymers are synthesized. The resulting series of polymers, nitrogen-bridged poly(ladder-type tetraphenylene), nitrogen-bridged poly(ladder-type pentaphenylene), nitrogen-bridged poly(ladder-type hexaphenylene) and its derivatives are discussed in the light of photophysical and electrochemical properties and tested in PLEDs, solar cell, and OFETs. A promising trend which has emerged in recent years is the use of well defined oligomers as model compounds for their corresponding polymers. However, the uses of these molecules are many times limited by their solubility and one has to use vapor deposition techniques which require high vacuum and temperature and cannot be used for large area applications. One solution to this problem is the synthesis of small molecules having enough alkyl chain on the backbone so that they can be solution or melt processed and has the ability to form thin films like polymers as well as retain the high ordered structure characteristics of small molecules. Therefore, in the present work soluble ladderized oligomers based on thiophene and carbazole with different end group were made and tested in OFET devices. Carbazole is an attractive raw material for the synthesis of dyes since it is cheap and readily available. Carbazoledioxazine, commercially known as violet 23 is a representative compound of dioxazine pigments. As part of our efforts into developing cheap alternatives to violet 23, the synthesis and characterization of a new series of dyes by Buchwald-type coupling of 3-aminocarbazole with various isomers of chloroanthraquinone are presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der Auswahl einer Sterilisationsmethode stehen, gemäß den Vorgaben des Europäischen Arzneibuches, die Sterilisation mittels Hitze (Dampf bzw. Heißluft) oder ionisierender Strahlung im Vordergrund. Diese so genannten Referenzverfahren verfügen neben einem breiten Wirkungsspektrum über eine hohe Effektivität und zeichnen sich durch eine gute Reproduzierbarkeit aus. Häufig jedoch verbieten die physikalisch – chemischen Eigenschaften des zu sterilisierenden Gutes eine Anwendung der Referenzverfahren. In derartigen Fällen muss nach geeigneten Alternativverfahren gesucht werden, will man eine aseptische Herstellung vermeiden. Besonders bei thermolabilen Gütern hat sich der Einsatz von gasförmigen Agenzien mit keimtötender Wirkung bewährt. Bei entsprechenden Rahmenbedingungen ist hier eine Sterilisation unterhalb der Raumtemperatur möglich. Die vorliegende Arbeit untersucht die Anwendbarkeit der Ethylenoxidsterilisation bzw. der Sterilisation mittels gasförmigen Wasserstoffperoxids (Vapour Phase Hydrogen Peroxide) auf verschiedene Materialoberflächen am Beispiel zweier aktueller Anwendungen aus der pharmazeutischen Industrie. Dabei werden die Vor- und Nachteile der beiden Verfahren aufgezeigt und in Relation zu den Referenzverfahren gestellt. Im Rahmen der abschließenden mikrobiologischen Leistungsbeurteilung beider Verfahren werden verschiedene methodische Ansätze, wie Halbzyklus und Fraction Negative Analysis zur Anwendung gebracht und bewertet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The arid regions are dominated to a much larger degree than humid regions by major catastrophic events. Although most of Egypt lies within the great hot desert belt; it experiences especially in the north some torrential rainfall, which causes flash floods all over Sinai Peninsula. Flash floods in hot deserts are characterized by high velocity and low duration with a sharp discharge peak. Large sediment loads may be carried by floods threatening fields and settlements in the wadis and even people who are living there. The extreme spottiness of rare heavy rainfall, well known to desert people everywhere, precludes any efficient forecasting. Thus, although the limitation of data still reflects pre-satellite methods, chances of developing a warning system for floods in the desert seem remote. The relatively short flood-to-peak interval, a characteristic of desert floods, presents an additional impediment to the efficient use of warning systems. The present thesis contains introduction and five chapters, chapter one points out the physical settings of the study area. There are the geological settings such as outcrop lithology of the study area and the deposits. The alluvial deposits of Wadi Moreikh had been analyzed using OSL dating to know deposits and palaeoclimatic conditions. The chapter points out as well the stratigraphy and the structure geology containing main faults and folds. In addition, it manifests the pesent climate conditions such as temperature, humidity, wind and evaporation. Besides, it presents type of soils and natural vegetation cover of the study area using unsupervised classification for ETM+ images. Chapter two points out the morphometric analysis of the main basins and their drainage network in the study area. It is divided into three parts: The first part manifests the morphometric analysis of the drainage networks which had been extracted from two main sources, topographic maps and DEM images. Basins and drainage networks are considered as major influencing factors on the flash floods; Most of elements were studied which affect the network such as stream order, bifurcation ratio, stream lengths, stream frequency, drainage density, and drainage patterns. The second part of this chapter shows the morphometric analysis of basins such as area, dimensions, shape and surface. Whereas, the third part points the morphometric analysis of alluvial fans which form most of El-Qaá plain. Chapter three manifests the surface runoff through rainfall and losses analysis. The main subject in this chapter is rainfall which has been studied in detail; it is the main reason for runoff. Therefore, all rainfall characteristics are regarded here such as rainfall types, distribution, rainfall intensity, duration, frequency, and the relationship between rainfall and runoff. While the second part of this chapter concerns with water losses estimation by evaporation and infiltration which are together the main losses with direct effect on the high of runoff. Finally, chapter three points out the factors influencing desert runoff and runoff generation mechanism. Chapter four is concerned with assessment of flood hazard, it is important to estimate runoff and tocreate a map of affected areas. Therefore, the chapter consists of four main parts; first part manifests the runoff estimation, the different methods to estimate runoff and its variables such as runoff coefficient lag time, time of concentration, runoff volume, and frequency analysis of flash flood. While the second part points out the extreme event analysis. The third part shows the map of affected areas for every basin and the flash floods degrees. In this point, it has been depending on the DEM to extract the drainage networks and to determine the main streams which are normally more dangerous than others. Finally, part four presets the risk zone map of total study area which is of high inerest for planning activities. Chapter five as the last chapter concerns with flash flood Hazard mitigation. It consists of three main parts. First flood prediction and the method which can be used to predict and forecast the flood. The second part aims to determine the best methods which can be helpful to mitigate flood hazard in the arid zone and especially the study area. Whereas, the third part points out the development perspective for the study area indicating the suitable places in El-Qaá plain for using in economic activities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To aid the design of organic semiconductors, we study the charge transport properties of organic liquid crystals, i.e. hexabenzocoronene and carbazole macrocycle, and single crystals, i.e. rubrene, indolocarbazole and benzothiophene derivatives (BTBT, BBBT). The aim is to find structure-property relationships linking the chemical structure as well as the morphology with the bulk charge carrier mobility of the compounds. To this end, molecular dynamics (MD) simulations are performed yielding realistic equilibrated morphologies. Partial charges and molecular orbitals are calculated based on single molecules in vacuum using quantum chemical methods. The molecular orbitals are then mapped onto the molecular positions and orientations, which allows calculation of the transfer integrals between nearest neighbors using the molecular orbital overlap method. Thus we obtain realistic transfer integral distributions and their autocorrelations. In case of organic crystals the differences between two descriptions of charge transport, namely semi-classical dynamics (SCD) in the small polaron limit and kinetic Monte Carlo (KMC) based on Marcus rates, are studied. The liquid crystals are investigated solely in the hopping limit. To simulate the charge dynamics using KMC, the centers of mass of the molecules are mapped onto lattice sites and the transfer integrals are used to compute the hopping rates. In the small polaron limit, where the electronic wave function is spread over a limited number of neighboring molecules, the Schroedinger equation is solved numerically using a semi-classical approach. The results are compared for the different compounds and methods and, where available, with experimental data. The carbazole macrocycles form columnar structures arranged on a hexagonal lattice with side chains facing inwards, so columns can closely approach each other allowing inter-columnar and thus three-dimensional transport. When taking only intra-columnar transport into account, the mobility is orders of magnitude lower than in the three-dimensional case. BTBT is a promising material for solution-processed organic field-effect transistors. We are able to show that, on the time-scales of charge transport, static disorder due to slow side chain motions is the main factor determining the mobility. The resulting broad transfer integral distributions modify the connectivity of the system but sufficiently many fast percolation paths remain for the charges. Rubrene, indolocarbazole and BBBT are examples of crystals without significant static disorder. The high mobility of rubrene is explained by two main features: first, the shifted cofacial alignment of its molecules, and second, the high center of mass vibrational frequency. In comparsion to SCD, only KMC based on Marcus rates is capable of describing neighbors with low coupling and of taking static disorder into account three-dimensionally. Thus it is the method of choice for crystalline systems dominated by static disorder. However, it is inappropriate for the case of strong coupling and underestimates the mobility of well-ordered crystals. SCD, despite its one-dimensionality, is valuable for crystals with strong coupling and little disorder. It also allows correct treatment of dynamical effects, such as intermolecular vibrations of the molecules. Rate equations are incapable of this, because simulations are performed on static snapshots. We have thus shown strengths and weaknesses of two state of the art models used to study charge transport in organic compounds, partially developed a program to compute and visualize transfer integral distributions and other charge transport properties, and found structure-mobility relations for several promising organic semiconductors.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Cydia pomonella Granulovirus (CpGV, Baculoviridae) wird seit Ende der 1980er Jahre als hoch-selektives und effizientes biologisches Bekämpfungsmittel zur Kontrolle des Apfelwicklers im Obstanbau eingesetzt. Seit 2004 wurden in Europa verschiedene Apfelwicklerpopulationen beobachtet die resistent gegenüber dem hauptsächlich angewendeten Isolat CpGV-M aufweisen. Die vorliegende Arbeit befasst sich mit der Untersuchung der Vererbung und des Mechanismus der CpGV Resistenz. Einzelpaarkreuzungen zwischen einem empfindlichen Laborstamm (CpS) und einem homogen resistenten Stamm (CpRR1) zeigten, dass die Resistenz durch ein einziges dominantes Gen, das auf dem Z-Chromosom lokalisiert ist, vererbt wird. Massernkreuzungen zwischen CpS und einer heterogen resistenten Feldpopulation (CpR) deuteten zunächst auf einen unvollständig dominanten autosomalen Erbgang hin. Einzelpaarkreuzungen zwischen CpS und CpR bewiesen jedoch, dass die Resistenz in CpR ebenfalls monogen dominant und geschlechtsgebunden auf dem Z-Chromosom vererbt wird. Diese Arbeit diskutiert zudem die Vor- und Nachteile von Einzelpaarkreuzungen gegenüber Massernkreuzungen bei der Untersuchung von Vererbungsmechanismen. Die Wirksamkeit eines neuen CpGV Isolates aus dem Iran (CpGV-I12) gegenüber CpRR1 Larven, wurde in Bioassays getestet. Die Ergebnisse zeigen, dass CpGV-I12 die Resistenz in allen Larvenstadien von CpRR1 brechen kann und fast so gut wirkt wie CpGV-M gegenüber CpS Larven. Daher ist CpGV-I12 für die Kontrolle des Apfelwicklers in Anlagen wo die Resistenz aufgetreten ist geeignet. Um den der CpGV Resistenz zugrunde liegenden Mechanismus zu untersuchen, wurden vier verschiedene Experimente durchgeführt: 1) die peritrophische Membran degradiert indem ein optischer Aufheller dem virus-enthaltenden Futtermedium beigefügt wurde. Das Entfernen dieser mechanischen Schutzbarriere, die den Mitteldarm auskleidet, führte allerdings nicht zu einer Reduzierung der Resistenz in CpR Larven. Demnach ist die peritrophische Membran nicht am Resistenzmechanismus beteiligt. 2) Die Injektion von Budded Virus in das Hämocoel führte nicht zur Brechung der Resistenz. Folglich die die Resistenz nicht auf den Mitteldarm beschränkt, sondern auch in der Sekundärinfektion wirksam. 3) Die Replikation von CpGV in verschiedenen Geweben (Mitteldarm, Hämolymphe und Fettkörper) von CpS und CpRR1 wurde mittels quantitativer PCR verfolgt. In CpS Larven konnte in allen drei Gewebetypen sowohl nach oraler als auch nach intra-hämocoelarer Infektion eine Zunahme der CpGV Genome in Abhängigkeit der Zeit festgestellt werden. Dagegen konnte in den Geweben aus CpRR1 nach oraler sowie intra-hämocoelarer Infektion keine Virusreplikation detektiert werden. Dies deutet darauf hin, dass die CpGV Resistenz in allen Zelltypen präsent ist. 4) Um zu untersuchen ob ein humoraler Faktor in der Hämolymphe ursächlich an der Resistenz beteiligt ist, wurde Hämolymphe aus CpRR1 Larven in CpS Larven injiziert und diese anschließend oral mit CpGV infiziert. Es konnte jedoch keine Immunreaktion beobachtet und kein Faktor in der Hämolymphe identifiziert werden, der Resistenz induzieren könnte. Auf Grundlage dieser Ergebnisse kann festgestellt werden, dass in resistenten Apfelwicklerlarven die virale Replikation in allen Zelltypen verhindert wird, was auf eine Virus-Zell Inkompatibilität hinweist. Da in CpRR1 keine DNA Replikation beobachtet wurde, wird die CpGV Resistenz wahrscheinlich durch eine frühe Unterbindung der Virusreplikation verursacht.Das früh exprimierte Gen pe38 codiert für ein Protein, das wahrscheinlich für die Resistenzbrechung durch CpGV-I12 verantwortlich ist. Interaktionen zwischen dem Protein PE38 und Proteinen in CpRR1 wurden mit Hilfe des Yeast Two-Hybrid (Y2H) Systems untersucht. Die detektierten Interaktionen sind noch nicht durch andere Methoden bestätigt, jedoch wurden zwei mögliche Gene auf dem Z-Chromosom und eines auf Chromosom 15 gefunden, wie möglicherweise an der CpGV Resistenz beteiligt sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To assist rational compound design of organic semiconductors, two problems need to be addressed. First, the material morphology has to be known at an atomistic level. Second, with the morphology at hand, an appropriate charge transport model needs to be developed in order to link charge carrier mobility to structure.rnrnThe former can be addressed by generating atomistic morphologies using molecular dynamics simulations. However, the accessible range of time- and length-scales is limited. To overcome these limitations, systematic coarse-graining methods can be used. In the first part of the thesis, the Versatile Object-oriented Toolkit for Coarse-graining Applications is introduced, which provides a platform for the implementation of coarse-graining methods. Tools to perform Boltzmann inversion, iterative Boltzmann inversion, inverse Monte Carlo, and force-matching are available and have been tested on a set of model systems (water, methanol, propane and a single hexane chain). Advantages and problems of each specific method are discussed.rnrnIn partially disordered systems, the second issue is closely connected to constructing appropriate diabatic states between which charge transfer occurs. In the second part of the thesis, the description initially used for small conjugated molecules is extended to conjugated polymers. Here, charge transport is modeled by introducing conjugated segments on which charge carriers are localized. Inter-chain transport is then treated within a high temperature non-adiabatic Marcus theory while an adiabatic rate expression is used for intra-chain transport. The charge dynamics is simulated using the kinetic Monte Carlo method.rnrnThe entire framework is finally employed to establish a relation between the morphology and the charge mobility of the neutral and doped states of polypyrrole, a conjugated polymer. It is shown that for short oligomers, charge carrier mobility is insensitive to the orientational molecular ordering and is determined by the threshold transfer integral which connects percolating clusters of molecules that form interconnected networks. The value of this transfer integral can be related to the radial distribution function. Hence, charge mobility is mainly determined by the local molecular packing and is independent of the global morphology, at least in such a non-crystalline state of a polymer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Forschungsgegenstand der vorliegenden Arbeit war die Identifikation und Interpretation von Traumata an menschlichen Skeletten. Neben einer umfassenden Darstellung des aktuellen Kenntnisstandes unter verschiedenen Gesichtspunkten wurden menschliche Überreste aus der Schlacht von Dornach 1499 n. Chr. untersucht. Ergänzend wurde eine Versuchsreihe mit Replika mittelalterlicher Waffen an Kunstköpfen durchgeführt. Für die Ansprache und Kategorisierung von Traumata an Skelettfunden existiert kein einheitliches und allgemein gebräuchliches System. Die verschiedenen Herangehensweisen und ihre Vor- und Nachteile wurden benannt und diskutiert. Nachfolgend wurden die Erscheinungsformen prä-, peri- und postmortaler Traumata bzw. Defekte sowie von Verletzungen durch stumpfe und scharfe Gewalt, Schussverletzungen und anderen Verletzungsarten dargestellt. Weitere besprochene Aspekte waren die Abgrenzung von Traumata gegen pathologische Veränderungen und anatomische Varianten sowie eine Diskussion der Methodik und Problematik der Erfassung von Verletzungsfrequenzen. Neben der Bestimmung von Geschlecht, Sterbealter und Körperhöhe wurden an den zur Untersuchung zur Verfügung stehenden Schädeln (N=106) und Femora (N=33) aus der Schlacht von Dornach 1499 n. Chr. pathologische und postmortale Veränderungen sowie als Schwerpunkt prä- und perimortale Traumata identifiziert und beschrieben. Die anthropologischen Befunde zeichneten das Bild einer in Hinsicht auf Sterbealter und Körperhöhe heterogenen Gruppe von Männern mit wenigen pathologischen Veränderungen. Die Ergebnisse wurden vor dem Hintergrund des spätmittelalterlichen Söldnerwesens diskutiert. An den Schädeln wurden insgesamt 417 perimortale Traumata identifiziert, wobei Hiebverletzungen stark überwogen. Die Entstehungsweise charakteristischer Merkmale von Hiebverletzungen konnte experimentell nachvollzogen werden. Weiter stellte sich heraus, dass Hiebverletzungen durch Schwerter und Hellebarden nur in Ausnahmefällen voneinander unterschieden werden können. Verletzungen durch punktuelle Einwirkungen und stumpfe Gewalt sowie Schussverletzungen wurden in weitaus geringerer Häufigkeit festgestellt. Experimentell konnte gezeigt werden, dass die Verletzungen durch punktuelle Einwirkungen mit einer Beibringung durch Langspiesse, Stossspitzen und Reisshaken von Hellebarden sowie Armbrustbolzen vereinbar sind, wobei beträchtliche Limitationen einer genaueren Waffenzuordnung offenkundig wurden. Die Verletzungen konnten als wohl typisch für die damalige Zeit bezeichnet werden, da sie das zeitgenössische Waffenspektrum deutlich widerspiegeln. Die Lokalisation der perimortalen Traumata am Schädel liess kein Muster erkennen, mit Ausnahme der Feststellung, dass grössere Schädelknochen mehr Verletzungen aufwiesen als kleinere. Diese regellose Verteilung wurde als Hinweis darauf verstanden, dass die Kampfweise keine „ritterliche“ gewesen sein dürfte, was in Einklang mit den damals geltenden Kriegsordnungen steht. Postmortale Veränderungen unterschiedlicher Art liessen vermuten, dass die untersuchten Individuen nicht bestattet wurden und dass die vom Schlachtfeld aufgesammelten Gebeine in Beinhäusern aufbewahrt wurden. Die Resultate bestätigten damit Angaben aus Schriftquellen und erlaubten die Zuordnung der Skelettreste zu Gefallenen des Reichsheeres. Beim Vergleich der Dornacher Stichprobe mit anderen mittelalterlichen Schlachtfeldserien traten sowohl hinsichtlich der anthropologischen Befunde als auch im Hinblick auf die Verletzungen und Verletzungsmuster deutliche Ähnlichkeiten zutage. Diese ergänzten nicht nur das lückenhafte Bild spätmittelalterlicher Heere und ihrer Kampfweise, sondern beleuchteten auch Unterschiede zwischen mittelalterlicher und neuzeitlicher Kriegsführung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da der gemeinsame Endpunkt vieler Erkrankungen ein thrombotisches Ereignis ist, spielt eine effiziente Antikoagulation eine zentrale Rolle in der heutigen Medizin. Jedoch sind die gängigen Tests zum Monitoring der Gerinnungshemmung nicht ideal. Neue Tests, wie z.B. die Prothrombinase-induzierte Gerinnungszeit (PiCT), sollen die bestehenden Nachteile ausräumen und somit eine bessere Therapieüberwachung gewährleisten.rnDie vorliegende Arbeit untersucht dieses neue Verfahren beim Monitoring von Heparinen und Heparinoiden im Vergleich zu zwei gängigen anti-Faktor Xa-Aktivität(aXa)-Tests bei Patienten mit unterschiedlichem Thromboserisiko (z.B. Schwangere, Adipöse, Niereninsuffiziente).rnDazu wurde bei 175 Proben von 102 Patienten (53 männlich, 49 weiblich, medianes Alter 64 Jahre) die gerinnungshemmende Aktivität des verabreichten Medikaments (UFH, Enoxaparin, Dalteparin oder Danaparoid) mit zwei chromogenen Assays und dem PiCT-Test gemessen.rnHierbei ließen sich insgesamt Werte von 0 bis 1,36 IE/ml aXa feststellen. Im Vergleich lieferten die aXa-Tests höhere Messwerte als PiCT bei allen Medikamenten außer UFH. Während die Ergebnisse der chromogenen Verfahren insgesamt sehr stark korrelierten (r = 0,86), war die Übereinstimmung mit den PiCT-Ergebnissen schwach bis deutlich (r = 0,40 bzw. r = 0,66). Die Faktoren Schwangerschaft, Adipositas und Niereninsuffizienz zeigten auf die Gesamtergebnisse keinen nennenswerten Einfluss. rnZusammenfassend kann gesagt werden, dass PiCT dennoch ein brauchbarer Test zum Monitoring der Antikoagulation sein könnte. Um den Nutzen des Tests v.a. in Bezug auf seine Aussagekraft bei Komplikationen zu beweisen, sind aber weitere klinische Studien notwendig.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Auf dem Gebiet der Teilchenbeschleunigung mittels Hochintensitäts-Lasern wurden in der letzten Dekade viele erfolgreiche Entwicklungen hin zu immer höheren Energien und größeren Teilchenzahlen veröffentlicht. In den meisten Fällen wurde der sogenannte TNSA-Prozess (engl. Target-Normal-Sheath-Acceleration (TNSA)) untersucht. Bei diesem Prozess erfolgt die Beschleunigung in dem an der Oberfläche durch Ladungstrennung erzeugten Potential. Ein kaum vermeidbares Problem ist hierbei das resultierende breite Energie-Spektrum der beschleunigten Teilchen. Diese Situation konnte in den letzten Jahren zwar verbessert, aber nicht vollständig gelöst werden. Für Intensitäten größer 10^(20..21) W/cm^2 sagen theoretische Modellrechnungen eine auf dem Lichtdruck basierende Beschleunigung (engl. Radiation-Pressure-Acceleration (RPA)) mit deutlich eingegrenztem, fast monoenergetischem Spektrum voraus. Im Rahmen dieser Arbeit wurde ein Experiment zur Untersuchung dieses Prozesses bei Intensitäten von einigen 10^19 W/cm^2 durchgeführt. Dazu wurden zunächst spezielle Targets entwickelt und als Patent angemeldet, welche den Experimentbedingungen angepasst sind. Durch die Auslegung des experimentellen Aufbaus und der Diagnostiken auf hohe Repetitionsraten, in Verbindung mit einem geeigneten Lasersystem, konnte auf Basis einer Statistik von mehreren Tausend Schüssen ein großer Parameterraum untersucht werden. Untersucht wurden unter anderem die Abhängigkeit von Targetmaterial und Dicke, Intensität, Laserpolarisation und Vorplasmabedingungen. Aus den gewonnenen Daten und Vergleichen mit 2-dimensionalen numerischen Simulationen konnte ein Modell des Beschleunigungsprozesses aufgestellt und durch Vergleich mit den experimentellen Ergebnissen geprüft werden. Dabei wurden klare Indizien für die Existenz eines neuen, nicht feldinduzierten, Beschleunigungsprozesses gefunden. Darüber hinaus wurde zur Polarisationsbeeinflussung ein optisches System entwickelt, das ausschließlich mit reflexiven Elementen arbeitet. Damit konnten viele Nachteile bestehender, auf Verzögerungsplatten beruhender Elemente vermieden, und die Anwendbarkeit bei hohen Laserenergien erreicht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Polysiloxanes can be synthesized and subsequently modified (i) by the attachment of small molecules that change the properties of the silicone in such a way that it becomes more hydrophilic, but under the premise that this does not go together with a loss of the silicone-specific features. This can be done by adding hydrophilic sidechains to a polysiloxane. Polyethers like poly(ethylene glycol) or hyperbranched polyether-polyols are suitable in this regard. In order to assure that the silicone properties retain, these side groups can be attached to only one part of the polysiloxane backbone, which results in a block copolymer that consists of a common polysiloxane and a second block of the modified structure. (ii) Polysiloxanes can be equipped with functional groups that are capable of initializing polymerization of a different monomer (macroinitiator approach). For example, hydroxyl groups are used to initiate the ring opening polymerization of cyclic esters, or ATRP macroinitiators can be synthesized to add a second block via controlled radical polymerization. Stimuli responsive polymers like poly(oligoethylene glycol methacrylate) (POEGMA) can be added via this route to create “smart” siloxane-containing block copolymers that respond to certain stimuli. rnAn important premise for all synthetic routes is to achieve the targeted structure in a process as simple as possible, because facile availability of the material is crucial with regard to industrial applicability of the invented products. rnConcerning characterization of the synthesized macromolecules, emphasize is put on their (temperature dependent) aggregation behavior, which can be investigated by several microscopic and scattering methods, their behavior at the interface between silicone oils and water and their thermal properties.rnrn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zweidimensionale Flüssigkeiten harter Scheiben sind in der Regel einfach zu simulieren, jedoch überraschend schwer theoretisch zu beschreiben. Trotz ihrer hohen Relevanz bleiben die meisten theoretischen Ansätze qualitativ. Hier wird eine Dichtefunktionaltheorie (DFT) vorgestellt, die erstmalig die Struktur solcher Flüssigkeiten bei hohen Dichten korrekt beschreibt und den Ansatz des Gefrierübergangs abbildet.rnEs wird gezeigt, dass der Ansatz der Fundamentalmaßtheorie zu einem solchen Funktional führt. Dabei werden sowohl Dichteverteilungen um ein Testteilchen als auch Zweiteilchen-Korrelationsfunktionen untersucht.rnGrafikkarten bieten sehr hohe Recheneffizienz und ihr Einsatz in der Wissenschaft nimmt stetig zu. In dieser Arbeit werden die Vor- und Nachteile der Grafikkarte für wissenschaftliche Berechnungen erörtert und es wird gezeigt, dass die Berechnung der DFT auf Grafikkarten effizient ausgeführt werden kann. Es wird ein Programm entwickelt, dass dies umsetzt. Dabei wird gezeigt, dass die Ergebnisse einfacher (bekannter) Funktionale mit denen von CPU-Berechnungen übereinstimmen, so dass durch die Nutzung der Grafikkarte keine systematischen Fehler zu erwarten sind.