206 resultados para mediale Erweiterung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird die Erweiterung und Optimierung eines Diodenlasersystems zur hochauflösenden Resonanzionisationsmassenspektrometrie beschrieben. Ein doppelinterferometrisches Frequenzkontrollsystem, welches Absolutstabilisierung auf ca. 1 MHz sowie sekundenschnelle Frequenzverstimmungen um mehrere GHz für bis zu drei Laser parallel ermöglicht, wurde optimiert. Dieses Lasersystem dient zwei wesentlichen Anwendungen. Ein Aspekt waren umfangreiche spektroskopische Untersuchungen an Uranisotopen mit dem Ziel der präzisen und eindeutigen Bestimmung von Energielagen, Gesamtdrehimpulsen, Hyperfeinkonstanten und Isotopieverschiebungen sowie die Entwicklung eines effizienten, mit kommerziellen Diodenlasern betreibbaren Anregungsschemas. Mit diesen Erkenntnissen wurde die Leistungsfähigkeit des Lasermassenspektrometers für die Ultraspurenanalyse des Isotops 236U, welches als Neutronendosimeter und Tracer für radioaktive anthropogene Kontaminationen in der Umwelt verwendet wird, optimiert und charakterisiert. Anhand von synthetischen Proben wurde eine Isotopenselektivität von 236U/238U=4,5(1,5)∙10-9 demonstriert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The complex nature of the nucleon-nucleon interaction and the wide range of systems covered by the roughly 3000 known nuclides leads to a multitude of effects observed in nuclear structure. Among the most prominent ones is the occurence of shell closures at so-called ”magic numbers”, which are explained by the nuclear shell model. Although the shell model already is on duty for several decades, it is still constantly extended and improved. For this process of extension, fine adjustment and verification, it is important to have experimental data of nuclear properties, especially at crucial points like in the vicinity of shell closures. This is the motivation for the work performed in this thesis: the measurement and analysis of nuclear ground state properties of the isotopic chain of 100−130Cd by collinear laser spectroscopy.rnrnThe experiment was conducted at ISOLDE/CERN using the collinear laser spectroscopy apparatus COLLAPS. This experiment is the continuation of a run on neutral atomic cadmium from A = 106 to A = 126 and extends the measured isotopes to even more exotic species. The required gain in sensitivity is mainly achieved by using a radiofrequency cooler and buncher for background reduction and by using the strong 5s 2S1/2 → 5p 2P3/2 transition in singly ionized Cd. The latter requires a continuous wave laser system with a wavelength of 214.6 nm, which has been developed during this thesis. Fourth harmonic generation of an infrared titanium sapphire laser is achieved by two subsequent cavity-enhanced second harmonic generations, leading to the production of deep-UV laser light up to about 100 mW.rnrnThe acquired data of the Z = 48 Cd isotopes, having one proton pair less than the Z = 50 shell closure at tin, covers the isotopes from N = 52 up to N = 82 and therefore almost the complete region between the neutron shell closures N = 50 and N = 82. The isotope shifts and the hyperfine structures of these isotopes have been recorded and the magnetic dipole moments, the electric quadrupole moments, spins and changes in mean square charge radii are extracted. The obtained data reveal among other features an extremely linear behaviour of the quadrupole moments of the I = 11/2− isomeric states and a parabolic development in differences in mean square nuclear charge radii between ground and isomeric state. The development of charge radii between the shell closures is smooth, exposes a regular odd-even staggering and can be described and interpreted in the model of Zamick and Thalmi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kalorimetrische Tieftemperatur-Detektoren (Calorimetric Low Temperature Detectors, CLTDs) wurden erstmals in Messungen zur Bestimmung des spezifischen Energieverlustes (dE/dx) niederenergetischer Schwerionen beim Durchgang durch Materie eingesetzt. Die Messungen wurden im Energiebereich unterhalb des Bragg-Peaks, mit 0.1 - 1.4 MeV/u 238U-Ionen in Kohlenstoff und Gold sowie mit 0.05 - 1.0 MeV/u 131Xe-Ionen in Kohlenstoff, Nickel und Gold, durchgeführt. Die Kombination der CLTDs mit einem Flugzeitdetektor ermöglichte dabei, kontinuierliche dE/dx-Kurven über größere Energiebereiche hinweg simultan zu bestimmen. Im Vergleich zu herkömmlichen Meßsystemen, die Ionisationsdetektoren zur Energiemessung verwenden, erlaubten die höhere Energieauflösung und -linearität der CLTDs eine Verringerung der Kalibrierungsfehler sowie eine Erweiterung des zugänglichen Energiebereiches der dE/dx-Messungen in Richtung niedriger Energien. Die gewonnen Daten können zur Anpassung theoretischer und semi-empirischer Modelle und somit zu einer Erhöhung der Präzision bei der Vorhersage spezifischer Energieverluste schwerer Ionen beitragen. Neben der experimentellen Bestimmung neuer Daten wurden das alternative Detektionsprinzip der CLTDs, die Vorteile dieser Detektoren bezüglich Energieauflösung und -linearität sowie der modulare Aufbau des CLTD-Arrays aus mehreren Einzeldetektoren genutzt, um diese Art von Messung auf potentielle systematische Unsicherheiten zu untersuchen. Unter anderem wurden hierbei unerwartete Channeling-Effekte beim Durchgang der Ionen durch dünne polykristalline Absorberfolien beobachtet. Die koinzidenten Energie- und Flugzeitmessungen (E-ToF) wurden weiterhin genutzt, um das Auflösungsvermögen des Detektor-Systems bei der direkten in-flight Massenbestimmung langsamer und sehr schwerer Ionen zu bestimmen. Durch die exzellente Energieauflösung der CLTDs konnten hierbei Massenauflösungen von Delta-m(FWHM) = 1.3 - 2.5 u für 0.1 - 0.6 MeV/u 238U-Ionen erreicht werden. In einer E-ToF-Messung mit Ionisationsdetektoren sind solche Werte in diesem Energie- und Massenbereich aufgrund der Limitierung der Energieauflösung durch statistische Schwankungen von Verlustprozessen beim Teilchennachweis nicht erreichbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Graphene nanoribbons (GNRs), which are defined as nanometer-wide strips of graphene, are attracting an increasing attention as one on the most promising materials for future nanoelectronics. Unlike zero-bandgap graphene that cannot be switched off in transistors, GNRs possess open bandgaps that critically depend on their width and edge structures. GNRs were predominantly prepared through “top-down” methods such as “cutting” of graphene and “unzipping” of carbon nanotubes, but these methods cannot precisely control the structure of the resulting GNRs. In contrast, “bottom-up” chemical synthetic approach enables fabrication of structurally defined and uniform GNRs from tailor-made polyphenylene precursors. Nevertheless, width and length of the GNRs obtainable by this method were considerably limited. In this study, lateral as well as longitudinal extensions of the GNRs were achieved while preserving the high structural definition, based on the bottom-up solution synthesis. Initially, wider (~2 nm) GNRs were synthesized by using laterally expanded monomers through AA-type Yamamoto polymerization, which proved more efficient than the conventional A2B2-type Suzuki polymerization. The wider GNRs showed broad absorption profile extending to the near-infrared region with a low optical bandgap of 1.12 eV, which indicated a potential of such GNRs for the application in photovoltaic cells. Next, high longitudinal extension of narrow (~1 nm) GNRs over 600 nm was accomplished based on AB-type Diels–Alder polymerization, which provided corresponding polyphenylene precursors with the weight-average molecular weight of larger than 600,000 g/mol. Bulky alkyl chains densely installed on the peripheral positions of these GNRs enhanced their liquid-phase processability, which allowed their formation of highly ordered self-assembled monolayers. Furthermore, non-contact time-resolved terahertz spectroscopy measurements demonstrated high charge-carrier mobility within individual GNRs. Remarkably, lateral extension of the AB-type monomer enabled the fabrication of wider (~2 nm) and long (>100 nm) GNRs through the Diels–Alder polymerization. Such longitudinally extended and structurally well-defined GNRs are expected to allow the fabrication of single-ribbon transistors for the fundamental studies on the electronic properties of the GNRs as well as contribute to the development of future electronic devices.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Modellierung niederenergetischer elektromagnetischer und hadronischer Prozesse im Rahmen einer manifest lorentzinvarianten, chiralen effektiven Feldtheorie unter expliziter, dynamischer Berücksichtigung resonanter, das heißt vektormesonischer Freiheitsgrade. Diese effektive Theorie kann daher als Approximation der grundlegenden Quantenchromodynamik bei kleinen Energien verstanden werden. Besonderes Augenmerk wird dabei auf das verwendete Zähl- sowie Renormierungschema gelegt, wodurch eine konsistente Beschreibung mesonischer Prozesse bis zu Energien von etwa 1GeV ermöglicht wird. Das verwendete Zählschema beruht dabei im Wesentlichen auf einem Argument für großes N_c (Anzahl der Farbfreiheitsgrade) und lässt eine äquivalente Behandlung von Goldstonebosonen (Pionen) und Resonanzen (Rho- und Omegamesonen) zu. Als Renormierungsschema wird das für (bezüglich der starken Wechselwirkung) instabile Teilchen besonders geeignete complex-mass scheme als Erweiterung des extended on-mass-shell scheme verwendet, welches in Kombination mit dem BPHZ-Renormierungsverfahren (benannt nach Bogoliubov, Parasiuk, Hepp und Zimmermann) ein leistungsfähiges Konzept zur Berechnung von Quantenkorrekturen in dieser chiralen effektiven Feldtheorie darstellt. Sämtliche vorgenommenen Rechnungen schließen Terme der chiralen Ordnung vier sowie einfache Schleifen in Feynman-Diagrammen ein. Betrachtet werden unter anderem der Vektorformfaktor des Pions im zeitartigen Bereich, die reelle Compton-Streuung (beziehungsweise Photonenfusion) im neutralen und geladenen Kanal sowie die virtuelle Compton-Streuung, eingebettet in die Elektron-Positron-Annihilation. Zur Extraktion der Niederenergiekopplungskonstanten der Theorie wird letztendlich eine Reihe experimenteller Datensätze verschiedenartiger Observablen verwendet. Die hier entwickelten Methoden und Prozeduren - und insbesondere deren technische Implementierung - sind sehr allgemeiner Natur und können daher auch an weitere Problemstellungen aus diesem Gebiet der niederenergetischen Quantenchromodynamik angepasst werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Regulatorische T-Zellen (Tregs) leisten durch ihre suppressiven Eigenschaften einen essenziellen Beitrag zur Aufrechterhaltung der immunologischen Toleranz. Sie verhindern schädliche Immunreaktionen gegen Autoantigene, kommensale Bakterien, sowie harmlose Nahrungsmittel-bestandteile. Gleichzeitig gewährleisten sie die Entwicklung effektiver Immunantworten gegen eindringende Pathogene, wie z.B. Parasiten, Bakterien und Viren. Damit haben Tregs direkten Einfluss auf das Gleichgewicht zwischen Immunität und Toleranz. Fehler in der suppressiven Funktionsweise von Tregs begünstigen daher auf der einen Seite die Entstehung zahlreicher autoimmuner Erkrankungen und Allergien. Auf der anderen Seite können Tregs Immunreaktionen bei chronischen Infektionen reduzieren, sowie die Entstehung effektiver Immunantworten gegen Tumore hemmen. Ihre Beteiligung an der Ätiologie all dieser Krankheiten macht Tregs zu einem bedeutenden potenziellen Zielobjekt, um diese Krankheiten effektiv zu therapieren. Die Erweiterung des Grundwissens um die molekularen Mechanismen der Treg-vermittelten Suppression ist daher ein notwendiger Schritt bei der Entwicklung Treg-basierter Theraphieansätze. 2003 konnte mit Foxp3 ein Transkriptionsfaktor identifiziert werden, der maßgeblich die suppressiven Funktionen von Tregs steuert. Um weiteren Einblick in die der Suppression zugrundeliegenden Signalwege zu erhalten, wurde im Institut für Immunologie ein komparativer Kinomarray durchgeführt, anhand dessen die Casein Kinase 2 (CK2) als eine der aktivsten Kinasen in Tregs identifiziert wurde (Daten freundlicherweise von Prof. Dr. Tobias Bopp bereitgestellt). rnBasierend auf den Ergebnissen des Kinomarrays wurde in dieser Arbeit die Funktion der CK2 in Tregs untersucht. Dabei konnte in in vitro Experimenten die Treg-vermittelte Suppression durch den pharmakologische CK2 Inhibitor DMAT aufgehoben werden. Weil derartige Inhibitoren jedoch nicht absolut spezifisch die Aktivität nur einer Kinase supprimieren, wurden außerdem Mäuse mit konditionalem „knockout“ der CK2β Untereinheit spezifisch in Tregs gekreuzt (CK2βTreg-/- Mäuse). Die Analyse dieser Tiere offenbarte eine essenzielle Beteiligung der CK2 an den suppressiven Funktionen von Tregs. So entwickeln CK2βTreg-/- Mäuse mit zunehmendem Alter Splenomegalien und Lymphadenopathien, von denen in besonderem Maße die Mukosa-assoziierten Lymphknoten betroffen sind. Eine Analyse des Aktivierungsstatus der T-Zellen in den Tieren konnte zudem einen erhöhten Anteil sogenannter Effektor-Gedächtnis T-Zellen aufdecken, die charakteristische Merkmale eines Th2 Phänotyps zeigten. Erhöhte Titer des Antikörperisotyps IgE in den Seren von CK2βTreg-/- Mäusen suggerieren zusätzlich eine fehlerhafte Suppression speziell Th2-vermittelter Immunantworten durch CK2β-defiziente Tregs. In Th2-vermittelten Asthma Experimenten in vivo konnte der Verdacht der fehlerhaften Kontrolle von Th2-Antwort bestätigt werden, wobei zusätzlich aufgedeckt wurde, dass bereits unbehandelte CK2βTreg-/- Mäuse Zeichen einer Entzündungsreaktion in der Lunge aufweisen. Bei der Suche nach den molekularen Ursachen der fehlerhaften Suppression Th2-vermittelter Immunantworten durch CK2β-defiziente Tregs konnten zwei mögliche Erklärungsansätze gefunden werden. Zum einen zeigen CK2β-defiziente Tregs eine verringerte Expression von Foxp3, was, in Analogie zu Ergebnissen der Gruppe von R. Flavell (Wang Y.Y. Nature. 445, 766-770 (2007)), zu einer Konversion von Tregs zu Th2 Zellen und damit zur Entstehung eines Th2-basierten, autoimmunen Phänotyps führt. Des Weiteren weisen CK2β-defiziente Tregs eine reduzierte Expression des Transkriptionsfaktors IRF4 auf, der in Tregs entscheidend für die Kontrolle Th2-basierter Immunreaktionen ist (Zheng Y. Nature. 19; 351-356 (2009)). Die dargelegten Ergebnisse identifizieren die CK2 damit als Kinase, die entscheidend an der Treg-vermittelten Suppression speziell Th2-basierter Immunantworten beteiligt ist. Demnach könnten pharmakologische CK2 Inhibitoren beispielsweise dazu eingesetzt werden, um die Treg-vermittelte Suppression im Rahmen chronischer Parasiten-Infektionen aufzuheben. Die in CK2βTreg-/- Mäusen beobachtete Prävalenz der Funktion der CK2 für Mukosa-assoziierte Organe stellt dabei einen zusätzlichen Vorteil dar, weil systemische Nebenwirkungen, die durch die Blockade der Treg-vermittelte Suppression entstehen, zumindest in nicht-Mukosa-assoziierten Geweben nicht zu erwarten sind.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The goal of this thesis is the acceleration of numerical calculations of QCD observables, both at leading order and next–to–leading order in the coupling constant. In particular, the optimization of helicity and spin summation in the context of VEGAS Monte Carlo algorithms is investigated. In the literature, two such methods are mentioned but without detailed analyses. Only one of these methods can be used at next–to–leading order. This work presents a total of five different methods that replace the helicity sums with a Monte Carlo integration. This integration can be combined with the existing phase space integral, in the hope that this causes less overhead than the complete summation. For three of these methods, an extension to existing subtraction terms is developed which is required to enable next–to–leading order calculations. All methods are analyzed with respect to efficiency, accuracy, and ease of implementation before they are compared with each other. In this process, one method shows clear advantages in relation to all others.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation beschaftigt sich mit der Steuerung der Absorption und Orbitalenergien von Perylenmonoimiden und Perylendiimiden fur die Anwendung in organischer Photovoltaik (OPV). Eine breite Absorption spielt hier eine wichtige Rolle, um moglichst viel Licht zu ernten, das dann in elektrische Energie umgewandelt wird. Um sicher zu stellen, dass die Zelle ezient arbeiten kann, ist die Abstimmung von Orbitalenergien eine zweite wichtige Voraussetzung. Es werden drei neue Design-Konzepte fur Perylenmonoimid-Sensibilatoren fur Festk orper-Farbstosolarzellen (solid-state dye-sensitised solar cells - sDSSCs) untersucht. Die Synthese, die optischen und elektronischen Eigenschaften der neuen Sensibilisator- Verbindungen sowie ihre Leistungsdaten in sDSSCs werden beschrieben und diskutiert. Die in dieser Arbeit vorgestellten Konzepte reichen von der Einfuhrung von - Abstandhaltern uber neue Funktionalisierungen bis hin zur Erweiterung der Perylenmonimid Grundkorper. Der Push-Pull-Charakter der Systeme variiert von starker Kopplung bis zu kompletter Entkopplung des Donors vom Akzeptor. Dies hat einen starken Ein uss sowohl auf die Absorptionseigenschaften, als auch auf die HOMO/LUMO Energie-Niveaus der Verbindungen. Einige der Konzepte konnen auf Perylendiimide ubertragen werden. Ein Beispiel von Perylendiimid (PDI)-Farbsteuerung wird an einer Reihe von drei Terthiophen-PDIs gezeigt

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit behandelt den fluid-kristallinen Phasenübergang sowie den Glasübergang anhand von kolloidalen Hart-Kugel(HK)-Modellsystemen. Die Untersuchungen erfolgen dabei im Wesentlichen mit unterschiedlichen Lichtstreumethoden und daher im reziproken Raum. rnDie Analyse der Kristallisationskinetik zeigt, dass es bei der Kristallisation zu signifikanten Abweichungen vom Bild der klassischen Nukleationstheorie (CNT) kommt. Diese geht von einem einstufigen Nukleationsprozess aus, wohingegen bei den hier durchgeführten Experimenten ein mehrstufiger Prozess beobachtet wird. Vor der eigentlichen Kristallisation kommt es zunächst zur Nukleation einer metastabilen Zwischenphase, sogenannter Precursor. In einer zweiten Stufe erfolgt innerhalb der Precursor die eigentliche Nukleation der Kristallite. rnDurch weitere Analyse und den Vergleich des Kristallisations- und Verglasungsszenarios konnte das Konzept der Precursornukleation auf den Vorgang der Verglasung erweitert werden. Während die Kristallnukleation oberhalb des Glasübergangspunktes zum Erliegen kommt, bleibt der Prozess der Precursornukleation auch bei verglasenden Proben erhalten. Ein Glas erstarrt somit in einem amorphen Zustand mit lokalen Precursorstrukturen. Die Korrelation der gemessenen zeitlichen Entwicklung der strukturellen sowie der dynamischen Eigenschaften zeigt darüber hinaus, dass das bisher unverstandene Ageing-Phänomen von HK-Gläsern mit der Nukleation von Precursorn zusammenhängt.rnEin solches mehrstufiges Szenario wurde bereits in früheren Veröffentlichungen beobachtet. Die im Rahmen dieser Arbeit durchgeführten Messungen ermöglichten erstmals die Bestimmung von Kristallnukleationsratendichten (Kristall-NRD) und Ratendichten für die Precursornukleation bis über den Glasübergangspunkt hinaus. Die Kristall-NRD bestätigen die Resultate aus anderen experimentellen Arbeiten. Die weiteren Analysen der Kristall-NRD belegen, dass die fluid-kristalline Grenzflächenspannung bei der Nukleation entgegen den Annahmen der CNT nicht konstant ist, sondern mit ansteigendem Volumenbruch linear zunimmt. Die Erweiterung der CNT um eine linear zunehmende Grenzflächenspannung ermöglichte eine quantitative Beschreibung der gemessenen Kristall- sowie der Precursor-NRD, was den Schluss zulässt, dass es sich in beiden Fällen um einen Boltzmann-aktivierten Prozess handelt. rnUm die beobachteten Abweichungen des Nukleationsprozesses vom Bild der CNT näher zu untersuchen, wurden die kollektiven Partikeldynamiken in stabilen Fluiden und metastabilen Schmelzen analysiert. Im klassischen Bild wird angenommen, dass die kollektive Partikeldynamik beim Vorgang der Nukleation keine Rolle spielt. Anhand der Resultate zeigen sich Abweichungen in der Dynamik stabiler Fluide und metastabiler Schmelzen. Während die kollektive Partikeldynamik in der stabilen Schmelze von der Struktur entkoppelt ist, tritt oberhalb des Phasenübergangspunktes eine Kopplung von Struktur und Dynamik auf. Dabei treten die Abweichungen zunächst in der Umgebung des ersten Strukturfaktormaximums und somit bei den am stärksten besetzten Moden auf. Mit steigender Unterkühlung nehmen die Anzahl der abweichenden Moden sowie die Stärke der Abweichungen zu. Dieses Phänomen könnte einen signifikanten Einfluss auf den Nukleationsprozess und somit auf die Kristallisationskinetik haben. Die Analyse der Dynamik im stabilen Fluid zeigt darüber hinaus Hinweise auf eine Singularität bei Annäherung an den fluid-kristallinen Phasenübergangspunkt.rnDes Weiteren wurden im Rahmen der vorliegenden Arbeit erstmals Ratendichten für die heterogene Nukleation eines HK-Systems an einer flachen Wand mittels statischer Lichtstreuung (SLS) bestimmt. Die Ergebnisse der Messung zeigen, dass die Nukleationsbarriere der heterogenen Nukleation annähernd Null ist und folglich eine vollständige Benetzung der Wand mit einer kristallinen Monolage vorliegt. Die Erweiterung der Untersuchungen auf gekrümmte Oberflächen in Form von sphärischen Partikeln (Seeds) stellt die erste experimentelle Arbeit dar, die den Einfluss eines Ensembles von Seeds auf die Kristallisationskinetik in HK-Systemen untersucht. Die Kristallisationskinetik und die Mikrostruktur werden abhängig von Größe und Anzahldichte der Seed-Partikel signifikant beeinflusst. In Übereinstimmung mit konfokalmikroskopischen Experimenten und Simulationen spielt dabei das Radienverhältnis der Majoritäts- zur Minoritätskomponente eine entscheidende Rolle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die BBC-Serie SHERLOCK war 2011 eine der meistexportierten Fernsehproduktionen Großbritanniens und wurde weltweit in viele Sprachen übersetzt. Eine der Herausforderungen bei der Übersetzung stellen die Schrifteinblendungen der Serie (kurz: Inserts) dar. Die Inserts versprachlichen die Gedanken des Protagonisten, bilden schriftliche und digitale Kommunikation ab und zeichnen sich dabei durch ihre visuelle Auffälligkeit und teilweise als einzige Träger sprachlicher Kommunikation aus, womit sie zum wichtigen ästhetischen und narrativen Mittel in der Serie werden. Interessanterweise sind in der Übersetztung alle stilistischen Eigenschaften der Original-Inserts erhalten. In dieser Arbeit wird einerseits untersucht, wie Schrifteinblendungen im Film theoretisch beschrieben werden können, und andererseits, was sie in der Praxis so übersetzt werden können, wie es in der deutschen Version von Sherlock geschah. Zur theoretischen Beschreibung werden zunächst die Schrifteinblendungen in Sherlock Untertitelungsnormen anhand relevanter grundlegender semiotischer Dimensionen gegenübergestellt. Weiterhin wird das Verhältnis zwischen Schrifteinblendungen und Filmbild erkundet. Dazu wird geprüft, wie gut verschiedene Beschreibungsansätze zu Text-Bild-Verhältnissen aus der Sprachwissenschaft, Comicforschung, Übersetzungswissenschaft und Typografie die Einblendungen in Sherlock erklären können. Im praktischen Teil wird die Übersetzung der Einblendungen beleuchtet. Der Übersetzungsprozess bei der deutschen Version wird auf Grundlage eines Experteninterviews mit dem Synchronautor der Serie rekonstruiert, der auch für die Formulierung der Inserts zuständig war. Abschließend werden spezifische Übersetzungsprobleme der Inserts aus der zweiten Staffel von SHERLOCK diskutiert. Es zeigt sich, dass Untertitelungsnormen zur Beschreibung von Inserts nicht geeignet sind, da sie in Dimensionen wie Position, grafische Gestaltung, Animation, Soundeffekte, aber auch Timing stark eingeschränkt sind. Dies lässt sich durch das historisch geprägte Verständnis von Untertiteln erklären, die als möglichst wenig störendes Beiwerk zum fertigen Filmbild und -ablauf (notgedrungen) hinzugefügt werden, wohingegen für die Inserts in SHERLOCK teilweise sogar ein zentraler Platz in der Bild- und Szenenkomposition bereits bei den Dreharbeiten vorgesehen wurde. In Bezug auf Text-Bild-Verhältnisse zeigen sich die größten Parallelen zu Ansätzen aus der Comicforschung, da auch dort schriftliche Texte im Bild eingebettet sind anstatt andersherum. Allerdings sind auch diese Ansätze zur Beschreibung von Bewegung und Ton unzureichend. Die Erkundung der Erklärungsreichweite weiterer vielversprechender Konzepte, wie Interface und Usability, bleibt ein Ziel für künftige Studien. Aus dem Experteninterview lässt sich schließen, dass die Übersetzung von Inserts ein neues, noch unstandardisiertes Verfahren ist, in dem idiosynkratische praktische Lösungen zur sprachübergreifenden Kommunikation zwischen verschiedenen Prozessbeteiligten zum Einsatz kommen. Bei hochqualitative Produktionen zeigt ist auch für die ersetzende Insertübersetzung der Einsatz von Grafikern unerlässlich, zumindest für die Erstellung neuer Inserts als Übersetzungen von gefilmtem Text (Display). Hierbei sind die theoretisch möglichen Synergien zwischen Sprach- und Bildexperten noch nicht voll ausgeschöpft. Zudem zeigt sich Optimierungspotential mit Blick auf die Bereitstellung von sorgfältiger Dokumentation zur ausgangssprachlichen Version. Diese wäre als Referenzmaterial für die Übersetzung insbesondere auch für Zwecke der internationalen Qualitätssicherung relevant. Die übersetzten Inserts in der deutschen Version weisen insgesamt eine sehr hohe Qualität auf. Übersetzungsprobleme ergeben sich für das genretypische Element der Codes, die wegen ihrer Kompaktheit und multiplen Bezügen zum Film eine Herausforderung darstellen. Neben weiteren bekannten Übersetzungsproblemen wie intertextuellen Bezügen und Realia stellt sich immer wieder die Frage, wieviel der im Original dargestellten Insert- und Displaytexte übersetzt werden müssen. Aus Gründen der visuellen Konsistenz wurden neue Inserts zur Übersetzung von Displays notwendig. Außerdem stellt sich die Frage insbesondere bei Fülltexten. Sie dienen der Repräsentation von Text und der Erweiterung der Grenzen der fiktiv dargestellten Welt, sind allerdings mit hohem Übersetzungsaufwand bei minimaler Bedeutung für die Handlung verbunden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis I present a new coarse-grained model suitable to investigate the phase behavior of rod-coil block copolymers on mesoscopic length scales. In this model the rods are represented by hard spherocylinders, whereas the coil block consists of interconnected beads. The interactions between the constituents are based on local densities. This facilitates an efficient Monte-Carlo sampling of the phase space. I verify the applicability of the model and the simulation approach by means of several examples. I treat pure rod systems and mixtures of rod and coil polymers. Then I append coils to the rods and investigate the role of the different model parameters. Furthermore, I compare different implementations of the model. I prove the capability of the rod-coil block copolymers in our model to exhibit typical micro-phase separated configurations as well as extraordinary phases, such as the wavy lamellar state, percolating structuresrnand clusters. Additionally, I demonstrate the metastability of the observed zigzag phase in our model. A central point of this thesis is the examination of the phase behavior of the rod-coil block copolymers in dependence of different chain lengths and interaction strengths between rods and coil. The observations of these studies are summarized in a phase diagram for rod-coil block copolymers. Furthermore, I validate a stabilization of the smectic phase with increasing coil fraction.rnIn the second part of this work I present a side project in which I derive a model permitting the simulation of tetrapods with and without grafted semiconducting block copolymers. The effect of these polymers is added in an implicit manner by effective interactions between the tetrapods. While the depletion interaction is described in an approximate manner within the Asakura-Oosawa model, the free energy penalty for the brush compression is calculated within the Alexander-de Gennes model. Recent experiments with CdSe tetrapods show that grafted tetrapods are clearly much better dispersed in the polymer matrix than bare tetrapods. My simulations confirm that bare tetrapods tend to aggregate in the matrix of excess polymers, while clustering is significantly reduced after grafting polymer chains to the tetrapods. Finally, I propose a possible extension enabling the simulation of a system with fluctuating volume and demonstrate its basic functionality. This study is originated in a cooperation with an experimental group with the goal to analyze the morphology of these systems in order to find the ideal morphology for hybrid solar cells.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio della sfera emozionale è stato da sempre oggetto d’interesse da parte di molti ambiti della Scienza, nonostante la sua perfetta mappatura costituisca ancora oggi un’ambizione non del tutto raggiunta. Comprendere quale sia il meccanismo specifico di genesi ed elaborazione delle emozioni e quali aree encefaliche ne siano responsabili, costituisce per gli scienziati una sfida di grande interesse. L’importanza dell’Amigdala nello studio e nella comprensione delle emozioni è conseguente alla scoperta di come questa struttura sia responsabile della genesi di un'emozione: la paura. Antica e ben radicata nel percorso evolutivo di ogni specie, la reazione di paura davanti ad un pericolo ha una funzione positiva: protegge da stimoli potenzialmente dannosi e, di base, non si apprende: tutti sono in grado di provare paura. L’Amigdala, denominata anche complesso nucleare amigdaloideo, è una struttura eterogenea, costituita da circa 13 nuclei e localizzata nella parte mediale del lobo temporale. I nuclei amigdaloidei vengono divisi in 3 gruppi: nuclei profondi, nuclei superficiali ed altre aree amigdaloidee. Le caratteristiche citoarchitettoniche e neurochimiche del complesso nucleare amigdaloideo sono state largamente studiate nei Mammiferi terrestri quali: ratto, scimmia, gatto ed Uomo. In letteratura non sono presenti particolari riferimenti ai Mammiferi marini. Per questo motivo la presente ricerca si propone di mostrare le caratteristiche citoarchitettoniche e neurochimiche del nucleo centrale dell’amigdala di tursiope (Tursiops truncatus), con particolare riferimento alle caratteristiche morfometriche dei neuroni esprimenti parvalbumina, calbindina-D28k e calretinina.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questo lavoro di tesi è stato quello di indagare come differenti angoli all’articolazione di caviglia possono influenzare l’architettura del muscolo Tibiale Anteriore, architettura che sua volta può influenzare la lettura degli elettromiogrammi superficiali. Questo è stato fatto attraverso l’utilizzo combinato di sistemi ecografici e stereofotogrammetrici, che nel loro complesso permettono la ricostruzione del volume della struttura di interesse. Dalle immagini ecografiche 3D è stato possibile valutare le modifiche dell’angolo di pennazione del muscolo, che ha mostrato differenze significative tra due condizioni di osservazione, ovvero passando dalla condizione con caviglia in posizione neutra a dorsiflessa e passando dalla posizione dorsiflessa a quella plantarflessa. Dalla ricostruzione del volume è stato possibile stimare le variazioni di spessore e larghezza del muscolo. Da queste stime sono state riscontrate differenze significative passando dalla condizione con caviglia in posizione neutra a dorsiflessa e passando dalla posizione dorsiflessa a quella plantarflessa, principalmente nella porzione più mediale del muscolo.