13 resultados para Hand shape

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Zusammenfassung:Das Ziel dieser Arbeit ist ein besseres Verständnis von der Art und Weise wie sich Formregelungsgefüge entwicklen. Auf dieser Basis wird der Nutzen von Formregelungsgefügen für die Geologie evaluiert. Untersuchungsmethoden sind Geländearbeit und -auswertung, numerische Simulationen und Analogexperimente. Untersuchungen an Formregelungsgefügen in Gesteinen zeigen, daß ein Formregelungsgefüge nur zu einem begrenzten Grad als Anzeiger für die Stärke der Verformung benutzt werden kann. Der angenommene Grund hierfür ist der Einfluß des Verhältnisses von ursprünglicher zu rekristallisierter Korngröße auf die Gefügeentwicklung und von der Art und Weise wie dynamische Rekristallisation ein Gefüge verändert. Um diese Beobachtung zu evaluieren, wurden verschiedene numerische Simulationen von dynamischer Rekristallisation durchgeführt. Ein neuer Deformationsapparat, mit dem generelle Fließregime modelliert werden können, wurde entwickelt. Die rheologischen Eigenschaften von Materialien, die für solche Experimente benutzt werden, wurden untersucht und diskutiert. Ergebnisse von Analogexperimenten zeigen, daß die Intensität eines Formregelungsgefüges positiv mit der Abnahme der 'kinematic vorticity number' und einem nicht-Newtonianischen, 'power law' Verhalten des Materixmaterials korreliert ist. Experimente, in denen die Formveränderung von viskosen Einschlüssen während der progressiven Verformung modelliert werden, zeigen, daß verschiedene Viskositätskontraste zwischen Matrix- und Einschlußmaterial in charakteristische Formgefüge resultieren.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der Vergleich der deutschen und der schweizerischen Rundfunkordnung unter dem Aspekt des Dualismus 1.Einleitung: Bedeutung und Grundlagen des „Dualismus“ 2.Das „duale System“ in der deutschen Rundfunkordnung 2.1 Die Genese des „dualen Systems“ - Historische und rechtliche Rahmenbedingungen 2.2 Die aktuelle Ausgestaltung des „dualen Systems“ 2.3 Das „duale System“ im europäischen Raum – europarechtliche Einflüsse und Vorgaben 3. Das „duale System“ in der schweizerischen Rundfunkordnung 3.1 Die Genese des „dualen Systems“ - Historische und rechtliche Rahmenbedingungen 3.2 Die aktuelle Ausgestaltung des „dualen Systems“ 3.3 Vergleichende Betrachtung unterschiedlicher Ausprägungen des „dualen Systems“ im Rahmen der Revision des RTVG 4. Vergleichende Betrachtung der „dualen Systeme“ 4.1 Historische und gesetzliche Rahmenbedingungen 4.2 Die spezifischen Besonderheiten des schweizerischen Rundfunkmarktes 4.3 Die einzelnen Elemente der Rundfunkordnung 5. Endergebnis Duale Systeme im Bereich des Rundfunkrechtes bedeuten Koexistenz von privaten und öffentlich-rechtlichen Rundfunkveranstaltern. Die in der Verfassung der Bundesrepublik Deutschland angelegte Rundfunkordnung ist im wesentlichen durch die Rechtsprechung des Bundesverfassungsgerichts geprägt worden. Das aufgrund dieser Vorgaben gewachsene duale System besteht aus einem starken öffentlich-rechtlichen Rundfunk, dessen Position durch die vorrangige Finanzierung aus Gebühren privilegiert wird. Im Gegenzug wird ihm die zentrale Aufgabe zur Sicherung der Grundversorgung zugewiesen. Daneben bestehen die privaten Rundfunkveranstalter, die sich aus Werbeeinnahmen und Nutzungsentgelten finanzieren und insoweit dem Wettbewerb im Markt in höherem Maße ausgeliefert sind. Im europäischen Bereich fällt der Schutz von Pluralismus und Meinungsvielfalt in erster Linie in den Zuständigkeitsbereich der Mitgliedstaaten. Die Medienlandschaften der Mitgliedstaaten sind durch vielfältige Eigenheiten und Traditionen geprägt, die gerade erhalten bleiben sollen. Die Ausgestaltung des dualen Systems im europäischen Rahmen wirft mithin Bedenken allein im Hinblick auf die Finanzierung der öffentlich-rechtlichen Veranstalter aus öffentlichen Ressourcen und die darauf basierende Wettbewerbsverzerrung auf. Mit dem Radio- und Fernsehgesetz von 1991 wurde in der Schweiz ein duales Rundfunksystem eingeführt. Das Treuhandmodell wurde ergänzt durch das Marktmodell. Allerdings galt das duale System für Rundfunk und Fernsehen in der Schweiz nur in der abgeschwächten Form eines staatlich geordneten Wettbewerbs. Es bestand ein Drei-Ebenen-Modell, das eine direkte Konkurrenz zwischen der nationalen Dachorganisation SRG (Schweizerische Rundfunkgesellschaft) und privaten Unternehmen weitestgehend vermied. Die Hauptverpflichtung des Service public oblag der SRG, die auch die Gebühren erhielt. Daneben wurden allerdings alle Veranstalter zu Service-public-Leistungen verpflichtet. Im Gegenzug dazu sah der Gesetzgeber in marktschwachen Regionen ein Gebührensplitting vor. Mit dem neuen RTVG soll dem Service Public eine Bestands- und Entwicklungsgarantie zugesichert werden. Anstelle einer scharfen Trennung zwischen gebühren- und werbefinanzierten Anbietern mit entsprechend unterschiedlichen Funktionen im Mediensystem sollen allerdings die elektronischen Medien in der Schweiz großflächig subventioniert und vermehrt mit Leistungsaufträgen gesteuert werden. Gerade auf lokaler Ebene wird eine Ausweitung des Gebührensplittings vorgesehen. Nicht nur einer, sondern eine Vielzahl von Veranstaltern soll künftig mit der Grundversorgung beauftragt werden. Insbesondere der Service public régional soll von privaten Anbietern und der SRG erbracht werden. Eine Inpflichtnahme sämtlicher privater Rundfunkveranstalter wird indes nicht vorgesehen. Anhand dieser Masterarbeit sollen weiterhin die Unterschiede herausgearbeitet werden, die einzelne nationale Rundfunksysteme aufweisen können und damit auch die rundfunkpolitischen Modelle trotz des gleich bleibenden Grundgedankens, hier des Dualismus. Die Modelle sind stets in ihrem spezifischen politischen und kulturellen Kontext zu sehen, woraus sie historisch gewachsen sind. Durch den Vergleich sollen auf der einen Seite die Probleme der Rundfunkmodelle dargelegt werden, die diesen unabhängig von ihrer Ausgestaltung in mehr oder minder ausgeprägter Form generell innewohnen (Definition der Grundversorgung - des Service public/ Ressourcenknappheit/ Krisen des dualen Systems). Andererseits sollen die spezifischen Probleme der Schweiz aufgrund ihrer mehrsprachigen, kleinstaatlichen Struktur verdeutlicht werden (Hoher Marktanteil an ausländischen, überwiegend deutschsprachigen Programmen an der Fernsehnutzung; Mehrsprachigkeit; Kleinräumigkeit von Zuschauer- und Zuhörermärkten sowie der Werbemärkte).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die DNA-Doppelhelix ist eine relativ dicke (Ø ≈ 2 nm), kompakte und dadurch auf kurzen Längenskalen relativ steife Verbindung (lp[dsDNA] ≈ 50-60 nm), mit einer klar definierten Struktur, die durch biologische Methoden sehr präzise manipuliert werden kann. Die Auswirkungen der primären Sequenz auf die dreidimensionale Strukturbildung ist gut verstanden und exakt vorhersagbar. Des Weiteren kann DNA an verschiedenen Stellen mit anderen Molekülen verknüpft werden, ohne dass ihre Selbsterkennung gestört wird. Durch die helikale Struktur besteht außerdem ein Zusammenhang zwischen der Lage und der räumlichen Orientierung von eingeführten Modifikationen. Durch moderne Syntheseverfahren lassen sich beliebige Oligonukleotidsequenzen im Bereich bis etwa 150-200 Basen relativ preiswert im Milligrammmaßstab herstellen. Diese Eigenschaften machen die DNA zu einem idealen Kandidaten zur Erzeugung komplexer Strukturen, die durch Selbsterkennung der entsprechenden Sequenzen gebildet werden. In der hier vorgelegten Arbeit wurden einzelsträngige DNA-Abschnitte (ssDNA) als adressierbare Verknüpfungsstellen eingesetzt, um verschiedene molekulare Bausteine zu diskreten nicht periodischen Strukturen zu verbinden. Als Bausteine dienten flexible synthetische Polymerblöcke und semiflexible Doppelstrang-DNA-Abschnitte (dsDNA), die an beiden Enden mit unterschiedlichen Oligonukleotidsequenzen „funktionalisiert“ sind. Die zur Verknüpfung genutzten Oligonukleotidabschnitte wurden so gewählt (n > 20 Basen), dass ihre Hybridisierung zu einer bei Raumtemperatur stabilen Doppelstrangbildung führt. Durch Kombination der Phosphoramiditsynthese von DNA mit einer festkörpergestützten Blockkopplungsreaktion konnte am Beispiel von Polyethylenoxiden ein sehr effektiver Syntheseweg zur Herstellung von ssDNA1-PEO-ssDNA2-Triblockcopolymeren entwickelt werden, der sich problemlos auf andere Polymere übertragen lassen sollte. Die Längen und Basenabfolgen der beiden Oligonukleotidsequenzen können dabei unabhängig voneinander frei gewählt werden. Somit wurden die Voraussetzungen geschaffen, um die Selbsterkennung von Oligonukleotiden durch Kombination verschiedener Triblockcopolymere zur Erzeugung von Multiblockcopolymeren zu nutzen, die mit klassischen Synthesetechniken nicht zugänglich sind. Semiflexible Strukturelemente lassen sich durch die Synthese von Doppelstrangfragmenten mit langen überstehenden Enden (sticky-ends) realisieren. Die klassischen Ansätze der molekularen Genetik zur Erzeugung von sticky-ends sind in diesem Fall nicht praktikabel, da sie zu Einschränkungen im Bezug auf Länge und Sequenz der überhängenden Enden führen. Als Methode der Wahl haben sich zwei verschiedene Varianten der Polymerase Kettenreaktion (PCR) erwiesen, die auf der Verwendung von teilkomplementären Primern beruhen. Die eigentlichen Primersequenzen wurden am 5´-Ende entweder über ein 2´-Desoxyuridin oder über einen kurzen Polyethylenoxid-Spacer (n = 6) mit einer frei wählbaren „sticky-end-Sequenz“ verknüpft. Mit diesen Methoden sind sowohl 3´- als auch 5´-Überhänge zugänglich und die Länge der Doppelstrangabschnitte kann über einen breiten Molmassenbereich sehr exakt eingestellt werden. Durch Kombination derartiger Doppelstrangfragmente mit den biosynthetischen Triblockcopolymeren lassen sich Strukturen erzeugen, die als Modellsysteme zur Untersuchung verschiedener Biomoleküle genutzt werden können, die in Form eines mehrfach gebrochenen Stäbchens vorliegen. Im letzten Abschnitt wurde gezeigt, dass durch geeignete Wahl der überstehenden Enden bzw. durch Hybridisierung der Doppelstrangfragmente mit passenden Oligonukleotiden verzweigte DNA-Strukturen mit Armlängen von einigen hundert Nanometern zugänglich sind. Im Vergleich zu den bisher veröffentlichten Methoden bietet diese Herangehensweise zwei entscheidende Vorteile: Zum einen konnte der Syntheseaufwand auf ein Minimum reduziert werden, zum anderen ist es auf diesem Weg möglich die Längen der einzelnen Arme, unabhängig voneinander, über einen breiten Molmassenbereich zu variieren.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

When a liquid crystal is confined to a cavity its director field becomes subject to competing forces: on the one hand, the surface of the cavity orients the director field (``surface anchoring''), on the other hand deformations of the director field cost elastic energy. Hence the equilibrium director field is determined by a compromise between surface anchoring and elasticity. One example of a confined liquid crystal that has attracted particular interest from physicists is the nematic droplet. In this thesis a system of hard rods is considered as the simplest model for nematic liquid crystals consisting of elongated molecules. First, systems of hard spherocylinders in a spherical geometry are investigated by means of canonical Monte Carlo simulations. In contrast to previous simulation work on this problem, a continuum model is used. In particular, the effects of ordering near hard curved walls are studied for the low-density regime. With increasing density, first a uniaxial surface film forms and then a biaxial surface film, which eventually fills the entire cavity. We study how the surface order, the adsorption and the shape of the director field depend on the curvature of the wall. We find that orientational ordering at a curved wall in a cavity is stronger than at a flat wall, while adsorption is weaker. For densities above the isotropic-nematic transition, we always find bipolar configurations. As a next step, an extension of the Asakura-Oosawa-Vrij model for colloid-polymer mixtures to anisotropic colloids is considered. By means of computer simulations we study how droplets of hard, rod-like particles optimize their shape and structure under the influence of the osmotic compression caused by the presence of spherical particles that act as depletion agents. At sufficiently high osmotic pressures the rods that make up the drops spontaneously align to turn them into uniaxial nematic liquid crystalline droplets. The nematic droplets or ``tactoids'' that so form are not spherical but elongated, resulting from the competition between the anisotropic surface tension and the elastic deformation of the director field. In agreement with recent theoretical predictions we find that sufficiently small tactoids have a uniform director field, whilst large ones are characterized by a bipolar director field. From the shape and director-field transformation of the droplets we estimate the surface anchoring strength.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Es wurde ein für bodengebundene Feldmessungen geeignetes System zur digital-holographischen Abbildung luftgetragener Objekte entwickelt und konstruiert. Es ist, abhängig von der Tiefenposition, geeignet zur direkten Bestimmung der Größe luftgetragener Objekte oberhalb von ca. 20 µm, sowie ihrer Form bei Größen oberhalb von ca. 100µm bis in den Millimeterbereich. Die Entwicklung umfaßte zusätzlich einen Algorithmus zur automatisierten Verbesserung der Hologrammqualität und zur semiautomatischen Entfernungsbestimmung großer Objekte entwickelt. Eine Möglichkeit zur intrinsischen Effizienzsteigerung der Bestimmung der Tiefenposition durch die Berechnung winkelgemittelter Profile wurde vorgestellt. Es wurde weiterhin ein Verfahren entwickelt, das mithilfe eines iterativen Ansatzes für isolierte Objekte die Rückgewinnung der Phaseninformation und damit die Beseitigung des Zwillingsbildes erlaubt. Weiterhin wurden mithilfe von Simulationen die Auswirkungen verschiedener Beschränkungen der digitalen Holographie wie der endlichen Pixelgröße untersucht und diskutiert. Die geeignete Darstellung der dreidimensionalen Ortsinformation stellt in der digitalen Holographie ein besonderes Problem dar, da das dreidimensionale Lichtfeld nicht physikalisch rekonstruiert wird. Es wurde ein Verfahren entwickelt und implementiert, das durch Konstruktion einer stereoskopischen Repräsentation des numerisch rekonstruierten Meßvolumens eine quasi-dreidimensionale, vergrößerte Betrachtung erlaubt. Es wurden ausgewählte, während Feldversuchen auf dem Jungfraujoch aufgenommene digitale Hologramme rekonstruiert. Dabei ergab sich teilweise ein sehr hoher Anteil an irregulären Kristallformen, insbesondere infolge massiver Bereifung. Es wurden auch in Zeiträumen mit formal eisuntersättigten Bedingungen Objekte bis hinunter in den Bereich ≤20µm beobachtet. Weiterhin konnte in Anwendung der hier entwickelten Theorie des ”Phasenrandeffektes“ ein Objekt von nur ca. 40µm Größe als Eisplättchen identifiziert werden. Größter Nachteil digitaler Holographie gegenüber herkömmlichen photographisch abbildenden Verfahren ist die Notwendigkeit der aufwendigen numerischen Rekonstruktion. Es ergibt sich ein hoher rechnerischer Aufwand zum Erreichen eines einer Photographie vergleichbaren Ergebnisses. Andererseits weist die digitale Holographie Alleinstellungsmerkmale auf. Der Zugang zur dreidimensionalen Ortsinformation kann der lokalen Untersuchung der relativen Objektabstände dienen. Allerdings zeigte sich, dass die Gegebenheiten der digitalen Holographie die Beobachtung hinreichend großer Mengen von Objekten auf der Grundlage einzelner Hologramm gegenwärtig erschweren. Es wurde demonstriert, dass vollständige Objektgrenzen auch dann rekonstruiert werden konnten, wenn ein Objekt sich teilweise oder ganz außerhalb des geometrischen Meßvolumens befand. Weiterhin wurde die zunächst in Simulationen demonstrierte Sub-Bildelementrekonstruktion auf reale Hologramme angewandt. Dabei konnte gezeigt werden, dass z.T. quasi-punktförmige Objekte mit Sub-Pixelgenauigkeit lokalisiert, aber auch bei ausgedehnten Objekten zusätzliche Informationen gewonnen werden konnten. Schließlich wurden auf rekonstruierten Eiskristallen Interferenzmuster beobachtet und teilweise zeitlich verfolgt. Gegenwärtig erscheinen sowohl kristallinterne Reflexion als auch die Existenz einer (quasi-)flüssigen Schicht als Erklärung möglich, wobei teilweise in Richtung der letztgenannten Möglichkeit argumentiert werden konnte. Als Ergebnis der Arbeit steht jetzt ein System zur Verfügung, das ein neues Meßinstrument und umfangreiche Algorithmen umfaßt. S. M. F. Raupach, H.-J. Vössing, J. Curtius und S. Borrmann: Digital crossed-beam holography for in-situ imaging of atmospheric particles, J. Opt. A: Pure Appl. Opt. 8, 796-806 (2006) S. M. F. Raupach: A cascaded adaptive mask algorithm for twin image removal and its application to digital holograms of ice crystals, Appl. Opt. 48, 287-301 (2009) S. M. F. Raupach: Stereoscopic 3D visualization of particle fields reconstructed from digital inline holograms, (zur Veröffentlichung angenommen, Optik - Int. J. Light El. Optics, 2009)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this thesis, a systematic analysis of the bar B to X_sgamma photon spectrum in the endpoint region is presented. The endpoint region refers to a kinematic configuration of the final state, in which the photon has a large energy m_b-2E_gamma = O(Lambda_QCD), while the jet has a large energy but small invariant mass. Using methods of soft-collinear effective theory and heavy-quark effective theory, it is shown that the spectrum can be factorized into hard, jet, and soft functions, each encoding the dynamics at a certain scale. The relevant scales in the endpoint region are the heavy-quark mass m_b, the hadronic energy scale Lambda_QCD and an intermediate scale sqrt{Lambda_QCD m_b} associated with the invariant mass of the jet. It is found that the factorization formula contains two different types of contributions, distinguishable by the space-time structure of the underlying diagrams. On the one hand, there are the direct photon contributions which correspond to diagrams with the photon emitted directly from the weak vertex. The resolved photon contributions on the other hand arise at O(1/m_b) whenever the photon couples to light partons. In this work, these contributions will be explicitly defined in terms of convolutions of jet functions with subleading shape functions. While the direct photon contributions can be expressed in terms of a local operator product expansion, when the photon spectrum is integrated over a range larger than the endpoint region, the resolved photon contributions always remain non-local. Thus, they are responsible for a non-perturbative uncertainty on the partonic predictions. In this thesis, the effect of these uncertainties is estimated in two different phenomenological contexts. First, the hadronic uncertainties in the bar B to X_sgamma branching fraction, defined with a cut E_gamma > 1.6 GeV are discussed. It is found, that the resolved photon contributions give rise to an irreducible theory uncertainty of approximately 5 %. As a second application of the formalism, the influence of the long-distance effects on the direct CP asymmetry will be considered. It will be shown that these effects are dominant in the Standard Model and that a range of -0.6 < A_CP^SM < 2.8 % is possible for the asymmetry, if resolved photon contributions are taken into account.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Gegenstand dieser Arbeit ist die Präparation und die ausführliche Charakterisierung epitaktischer Dünnschicht-Proben der Heusler Verbindung Ni2MnGa. Diese intermetallische Verbindung zeigt einen magnetischen Formgedächtnis-Effekt (MFG), der sowohl im Bezug auf mögliche Anwendungen, als auch im Kontext der Grundlagenforschung äußerst interessant ist. In Einkristallen nahe der Stöchiometrie Ni2MnGa wurden riesige magnetfeldinduzierte Dehnungen von bis zu 10 % nachgewiesen. Der zugrundeliegende Mechanismus basiert auf einer Umverteilung von kristallographischen Zwillings-Varianten, die eine tetragonale oder orthorhombische Symmetrie besitzen. Unter dem Einfluss des Magnetfeldes bewegen sich die Zwillingsgrenzen durch den Kristall, was eine makroskopische Formänderung mit sich bringt. Die somit erzeugten reversiblen Längenänderungen können mit hoher Frequenz geschaltet werden, was Ni2MnGa zu einem vielversprechenden Aktuatorwerkstoff macht. rnDa der Effekt auf einem intrinsischen Prozess beruht, eignen sich Bauteile aus MFG Legierungen zur Integration in Mikrosystemen (z.B. im Bereich der Mikrofluidik). rnrnBislang konnten große magnetfeldinduzierte Dehnungen nur für Einkristalle und Polykristalle mit hoher Porosität („foams") nachgewiesen werden. Um den Effekt für Anwendungen nutzbar zu machen, werden allerdings Konzepte zur Miniaturisierung benötigt. Eine Möglichkeit bieten epitaktische dünne Filme, die im Rahmen dieser Arbeit hergestellt und untersucht werden sollen. Im Fokus stehen dabei die Optimierung der Herstellungsparameter, sowie die Präparation von freitragenden Schichten. Zudem werden verschiedene Konzepte zur Herstellung freistehender Mikrostrukturen erprobt. Mittels Röntgendiffraktometrie konnte die komplizierte Kristallstruktur für verschiedene Wachstumsrichtungen verstanden und die genaue Verteilung der Zwillingsvarianten aufgedeckt werden. In Verbindung mit Mikroskopie-Methoden konnte so die Zwillingsstruktur auf verschiedenen Längenskalen geklärt werden. Die Ergebnisse erklären das Ausbleiben des MFG Effekts in den Proben mit (100) Orientierung. Andererseits wurde für Schichten mit (110) Wachstum eine vielversprechende Mikrostruktur entdeckt, die einen guten Ausgangspunkt für weitere Untersuchungen bietet.rnDurch die spezielle Geometrie der Proben war es möglich, Spektroskopie-Experimente in Transmission durchzuführen. Die Ergebnisse stellen den ersten experimentellen Nachweis der Änderungen in der elektronischen Struktur einer metallischen Verbindung während des martensitischen Phasenübergangs dar. Durch Messen des magnetischen Zirkulardichroismus in der Röntgenabsorption konnten quantitative Aussagen über die magnetischen Momente von Ni und Mn getroffen werden. Die Methode erlaubt überdies die Beiträge von Spin- und Bahn-Moment separat zu bestimmen. Durch winkelabhängige Messungen gelang es, die mikroskopische Ursache der magnetischen Anisotropie aufzuklären. Diese Ergebnisse tragen wesentlich zum Verständnis der komplexen magnetischen und strukturellen Eigenschaften von Ni2MnGa bei.rn

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese Arbeit untersucht zwei Lipoproteine, das discoidale High density-Lipoprotein (dHDL) und das β-Glukan-Bindeprotein (BGBP) aus dem Flusskrebs Astacus leptodactylus in funktioneller, struktureller und phylogenetischer Hinsicht. Die Nukleotid-Sequenz des BGBP konnte nahezu vollständig entschlüsselt werden. Dabei errechnet sich aus der abgeleiteten Aminosäure-Sequenz ein Molekulargewicht von 153 kDa. Das reife BGBP hat nur eine molekulare Masse von 105 kDa. Vermutlich kommt es durch eine Furin-ähnliche Protease zu einer post-translationalen N- und C-terminalen Prozessierung: zwei bisher nicht beschriebene, aber auch in der BGBP-Sequenz von anderen höheren Krebsen vorhandene, typische Furin-Schnittstellen (RAKR, bzw. RARR) wurden anhand von Sequenzvergleichen identifiziert. BGBP hat zwei Funktionen: zum Einen ist es für den Transport und die Aktivierung des proPhenoloxidase-Systems zuständig, zum Anderen für die Versorgung der Organe mit Lipiden, welche vermutlich der Energiegewinnung dienen. Eine 100 kDa große, BGBP-bindende Rezeptor-Fraktion konnte in Hämocyten-Membranen identifiziert werden. Das Vorkommen von dHDL war aus eigenen Befunden bisher ausschließlich in Astacus leptodactylus bekannt, doch konnte in dieser Arbeit ein mit dem dHDL-Antikörper reagierendes Protein erstmalig auch in anderen Arthropoden-Spezies nachgewiesen werden. Die discoidale Form und das Untereinheiten-Muster (240 + 85 kDa) sind typisch für die bei Vertretern ursprünglicher Tiergruppen gefundenen Lipoproteine (z.B. beim Cheliceraten Limulus und beim Polychaeten Nereis). Eventuell handelt es sich bei dHDL also um einen ‚Prototypen’ in der Lipoprotein-Evolution. Obwohl die Sequenz des dHDL auf Nukleotid-Ebene unbekannt ist, wurden die Sequenzen einiger dHDL-Peptide aus massenspektroskopischen Analysen gewonnen. Überraschenderweise befinden sich diese Sequenzen in der Aminosäuresequenz des BGBP. Dabei liegen alle Peptide am N- und/oder am C-Terminus der abgeleiteten BGBP-Aminosäure-Sequenz, und zwar in den Bereichen, die vermutlich durch das erwähnte Furin vom BGBP abgeschnitten werden, im reifen BGBP also gar nicht mehr vorkommen. Deshalb ist zu vermuten, dass BGBP und dHDL ein gemeinsames Vorläuferprotein haben und durch Genduplikation entstanden sind, oder dass es sich beim dHDL- und beim BGBP-Gen um ein und dasselbe Gen handelt. Das Genprodukt wird dann auf unterschiedliche Weise prozessiert und es entstehen die beiden Proteine dHDL und BGBP. Die Funktion von dHDL ist noch nicht eindeutig geklärt, es ließen sich aber dHDL-bindende Rezeptor-Fraktionen mit einer molekularen Masse von 160 kDa in somatischen Geweben (Muskel, Darm, Hepatopankreas, Kiemen und Samenleiter) sowie in Oocyten und Hämocyten nachweisen. Deshalb wird vermutet, dass dHDL als Energielieferant in Stoffwechsel-aktiven Organen und als Speicherprotein in Oocyten dient. Eine endocytotische Aufnahme konnte gezeigt werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Efficient coupling of light to quantum emitters, such as atoms, molecules or quantum dots, is one of the great challenges in current research. The interaction can be strongly enhanced by coupling the emitter to the eva-nescent field of subwavelength dielectric waveguides that offer strong lateral confinement of the guided light. In this context subwavelength diameter optical nanofibers as part of a tapered optical fiber (TOF) have proven to be powerful tool which also provide an efficient transfer of the light from the interaction region to an optical bus, that is to say, from the nanofiber to an optical fiber. rnAnother approach towards enhancing light–matter interaction is to employ an optical resonator in which the light is circulating and thus passes the emitters many times. Here, both approaches are combined by experi-mentally realizing a microresonator with an integrated nanofiber waist. This is achieved by building a fiber-integrated Fabry-Pérot type resonator from two fiber Bragg grating mirrors with a stop-band near the cesium D2-line wavelength. The characteristics of this resonator fulfill the requirements of nonlinear optics, optical sensing, and cavity quantum electrodynamics in the strong-coupling regime. Together with its advantageous features, such as a constant high coupling strength over a large volume, tunability, high transmission outside the mirror stop band, and a monolithic design, this resonator is a promising tool for experiments with nanofiber-coupled atomic ensembles in the strong-coupling regime. rnThe resonator's high sensitivity to the optical properties of the nanofiber provides a probe for changes of phys-ical parameters that affect the guided optical mode, e.g., the temperature via the thermo-optic effect of silica. Utilizing this detection scheme, the thermalization dynamics due to far-field heat radiation of a nanofiber is studied over a large temperature range. This investigation provides, for the first time, a measurement of the total radiated power of an object with a diameter smaller than all absorption lengths in the thermal spectrum at the level of a single object of deterministic shape and material. The results show excellent agreement with an ab initio thermodynamic model that considers heat radiation as a volumetric effect and that takes the emitter shape and size relative to the emission wavelength into account. Modeling and investigating the thermalization of microscopic objects with arbitrary shape from first principles is of fundamental interest and has important applications, such as heat management in nano-devices or radiative forcing of aerosols in Earth's climate system. rnUsing a similar method, the effect of the TOF's mechanical modes on the polarization and phase of the fiber-guided light is studied. The measurement results show that in typical TOFs these quantities exhibit high-frequency thermal fluctuations. They originate from high-Q torsional oscillations that couple to the nanofiber-guided light via the strain-optic effect. An ab-initio opto-mechanical model of the TOF is developed that provides an accurate quantitative prediction for the mode spectrum and the mechanically induced polarization and phase fluctuations. These high-frequency fluctuations may limit the ultimate ideality of fiber-coupling into photonic structures. Furthermore, first estimations show that they may currently limit the storage time of nanofiber-based atom traps. The model, on the other hand, provides a method to design TOFs with tailored mechanical properties in order to meet experimental requirements. rn

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Quantenchromodynamik ist die zugrundeliegende Theorie der starken Wechselwirkung und kann in zwei Bereiche aufgeteilt werden. Harte Streuprozesse, wie zum Beispiel die Zwei-Jet-Produktion bei hohen invarianten Massen, können störungstheoretisch behandelt und berechnet werden. Bei Streuprozessen mit niedrigen Impulsüberträgen hingegen ist die Störungstheorie nicht mehr anwendbar und phänemenologische Modelle werden für Vorhersagen benutzt. Das ATLAS Experiment am Large Hadron Collider am CERN ermöglicht es, QCD Prozesse bei hohen sowie niedrigen Impulsüberträgen zu untersuchen. In dieser Arbeit werden zwei Analysen vorgestellt, die jeweils ihren Schwerpunkt auf einen der beiden Regime der QCD legen:rnDie Messung von Ereignisformvariablen bei inelastischen Proton--Proton Ereignissen bei einer Schwerpunktsenergie von $sqrt{s} = unit{7}{TeV}$ misst den transversalen Energiefluss in hadronischen Ereignissen. rnDie Messung des zweifachdifferentiellen Zwei-Jet-Wirkungsquerschnittes als Funktion der invarianten Masse sowie der Rapiditätsdifferenz der beiden Jets mit den höchsten Transversalimpulsen kann genutzt werden um Theorievorhersagen zu überprüfen. Proton--Proton Kollisionen bei $sqrt{s} = unit{8}{TeV}$, welche während der Datennahme im Jahr 2012 aufgezeichnet wurden, entsprechend einer integrierten Luminosität von $unit{20.3}{fb^{-1}}$, wurden analysiert.rn

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Kulturlandschaften als Ausdruck einer über viele Jahrhunderte währenden intensiven Interaktion zwischen Menschen und der sie umgebenden natürlichen Umwelt, sind ein traditionelles Forschungsobjekt der Geographie. Mensch/Natur-Interaktionen führen zu Veränderungen der natürlichen Umwelt, indem Menschen Landschaften kultivieren und modifizieren. Die Mensch/Natur-Interaktionen im Weinbau sind intensiv rückgekoppelt, Veränderungen der natürlichen Umwelt wirken auf die in den Kulturlandschaften lebenden und wirtschaftenden Winzer zurück und beeinflussen deren weiteres Handeln, was wiederum Einfluss auf die Entwicklung der gesamten Weinbau-Kulturlandschaft hat. Kulturlandschaft wird aus diesem Grund als ein heterogenes Wirkungsgefüge sozialer und natürlicher Elemente konzeptionalisiert, an dessen Entwicklung soziale und natürliche Elemente gleichzeitig und wechselseitig beteiligt sind. Grundlegend für die vorliegende Arbeit ist die Überzeugung, dass sich Kulturlandschaften durch Mensch/Natur-Interaktionen permanent neu organisieren und nie in einen Gleichgewichtszustand geraten, sondern sich ständig weiterentwickeln und wandeln. Die Komplexitätstheorie bietet hierfür die geeignete theoretische Grundlage. Sie richtet ihren Fokus auf die Entwicklung und den Wandel von Systemen und sucht dabei nach den Funktionsweisen von Systemzusammenhängen, um ein Verständnis für das Gesamtsystemverhalten von nicht-linearen dynamischen Systemen zu erreichen. Auf der Grundlage der Komplexitätstheorie wird ein Untersuchungsschema entwickelt, dass es ermöglich, die sozio-ökonomischen und raum-strukturellen Veränderungsprozesse in der Kulturlandschaftsentwicklung als sich wechselseitig beeinflussenden Systemzusammenhang zu erfassen. Die Rekonstruktion von Entwicklungsphasen, die Analysen von raum-strukturellen Mustern und Akteurskonstellationen sowie die Identifikation von Bifurkationspunkten in der Systemgeschichte sind dabei von übergeordneter Bedeutung. Durch die Untersuchung sowohl der physisch-räumlichen als auch der sozio-ökonomischen Dimension der Kulturlandschaftsentwicklung im Weinbau des Oberen Mittelrheintals soll ein Beitrag für die geographische Erforschung von Mensch/Natur-Interaktionen im Schnittstellenbereich von Physischer Geographie und Humangeographie geleistet werden. Die Anwendung des Untersuchungsschemas erfolgt auf den Weinbau im Oberen Mittelrheintal. Das Anbaugebiet ist seit vielen Jahrzehnten einem starken Rückgang an Weinbaubetrieben und Rebfläche unterworfen. Die rückläufigen Entwicklungen seit 1950 verliefen dabei nicht linear, sondern differenzierten das System in unterschiedliche Entwicklungspfade aus. Die Betriebsstrukturen und die Rahmenbedingungen im Weinbau veränderten sich grundlegend, was sichtbare Spuren in der Kulturlandschaft hinterließ. Dies zu rekonstruieren, zu analysieren und die zu verschiedenen Phasen der Entwicklung bedeutenden externen und internen Einflussfaktoren zu identifizieren, soll dazu beitragen, ein tief greifendes Verständnis für das selbstorganisierte Systemverhalten zu generieren und darauf basierende Handlungsoptionen für zukünftige Eingriffe in die Systementwicklung aufzuzeigen