207 resultados para Virtuelle Prototypen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Identifizierung, Sequenzierung und Charakterisierung des Dmxl1-Gen in Mus musculus sowie die funktionelle Analyse durch Knock-OutrnrnBei Dmxl1 handelt es sich um ein neuartiges Gen aus Mus musculus. Das ebenfalls in der vorliegenden Arbeit bioinformatisch untersuchte Gen DMXL1 ist das zu Dmxl1 homologe Gen des Menschen. Beide Gene bestehen aus 43 Exons, das murine Dmxl1 codiert für eine mRNA von 10992 bp bzw. 12210 bp, das humane DMXL1 kodiert für eine cDNA von 11082 bp, der offene Leserahmen umfasst bei der Maus 9042 bp. In der Maus konnte ein mögliches alternatives Polyadenylierungssignal identifiziert werden. Zwischen beiden Spezies sind die Exonpositionen und ihre Längen hoch konserviert. Dmxl1 liegt auf dem Crick-Strang von Chromosom 18 Bande C, der translatierte Bereich erstreckt sich auf genomischer Ebene über 129558 bp und die Orientierung verläuft in Richtung Centromer. Dmxl1 und DMXL1 gehören damit zu den größten bekannten Genen in Maus und Mensch. Bei beiden Spezies liegen die DmX-Homologen genomisch innerhalb eines Bereichs der Isochoren-Klasse L1 in einer Gen-armen Region. Die Anzahl der repetitiven Elemente innerhalb der Genregion von Dmxl1 liegt 6% unter dem erwarteten Wert eines L1 Isochors, die Anzahl beim Menschen liegt 4% über dem erwarteten Wert. Um die mögliche Promotorstruktur von Dmxl1 darzustellen, wurden umfangreiche in silico-Analysen der Region um den putativen Transkriptionsstart vorgenommen. Mit Hilfe der gewonnenen Daten konnte ein Transkriptionstartpunkt identifiziert werden. Zudem wurde eine Promotorstruktur erarbeitet, bei der angenommen werden kann, dass sie eine gute Näherung an die tatsächlich vorhandenen Bindungsstellen von Transkriptionsfaktoren darstellt. Die mit bioinformatischen Werkzeugen erzeugte virtuelle Promotor- und Enhancerstruktur zeigt das Potenzial, Dmxl1 basal und ubiquitär zu exprimieren. Gleichzeitig zeigen diese Daten, dass Dmxl1 vermutlich in einigen Geweben der Keimbahn, im Fettgewebe, dem blutbildenen System und während der Embryogenese hochkomplex reguliert werden kann. Eine regulierte Expression zur Steuerung des Energiestoffwechsels ist ebenfalls wahrscheinlich. Diese Ergebnisse passen sehr gut zu den experimentell ermittelten Daten und den beobachteten Phänotypen Dmxl1-chimärer Mäuse.rnDie abgeleitete Aminosäuresequenz umfasst in der Maus 3013 AS, im Menschen 3027 AS, der Vergleich der abgeleiteten Aminosäuresequenzen zeigt eine Identität von 89,3 % und eine Similarität von 94,7 % zwischen beiden Spezies. Im Dmxl1/DMXL1-Protein von Maus und Mensch konnten mindestens 24 und maximal 36 WD-Wiederholungseinheiten identifiziert werden, zudem wurden eine Reihe weiterer konservierter Proteinmotive gefunden. Die in silico-Strukturanalysen beider abgeleiteter Aminosäuresequenzen lässt vermuten, dass sich C- und N-terminal WD-Propellerstrukturen befinden. In dieser Arbeit gelang eine C-terminale Rekonstruktion einer 10-blättrigen Propellerstruktur, denkbar ist jedoch auch eine Struktur mit mindestens drei WD-Propellern, wenn eine prädominante Struktur mit Propellern aus jeweils sieben Propellerblättern angenommen wird.rnDas primäre Ziel dieser Arbeit, die Etablierung einer stabilen Mauslinie mit diruptiertem Dmxl1-Gen konnte aufgrund einer beobachteten Haploinsuffizienz nicht erreicht werden. Trotz zahlreicher Transformationen von Maus-Stammzelllinien konnte letztlich nur eine stabil transformierte Linie mit einem Dmxl1-Null-Allel identifiziert werden, was auch zu den theoretischen Daten und den angenommenen Aufgaben von Dmxl1 als komplex und diffizil reguliertes Multifunktions-Protein passt. Aus der transformierten Mauszelllinie konnten chimäre Mäuse entwickelt werden, die in Abhängigkeit von dem Ausmaß des Chimärismus phänotypisch massive Schädigungen aufwiesen. Neben einer Teilsterilität wurden massive Fettleibigkeit und ein ausgeprägter Hypogonadismus beobachtet. Keines der Tiere war in der Lage das Dmxl1-Null-Allel zu transduzieren. Die Tiere waren nur sehr eingeschränkt fertil, die wenigen Nachkommen entsprachen genotypisch und phänotypisch ausschließlich den verwendeten Blastocysten.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis reports on the realization, characterization and analysis of ultracold bosonic and fermionic atoms in three-dimensional optical lattice potentials. Ultracold quantum gases in optical lattices can be regarded as ideal model systems to investigate quantum many-body physics. In this work interacting ensembles of bosonic 87Rb and fermionic 40K atoms are employed to study equilibrium phases and nonequilibrium dynamics. The investigations are enabled by a versatile experimental setup, whose core feature is a blue-detuned optical lattice that is combined with Feshbach resonances and a red-detuned dipole trap to allow for independent control of tunneling, interactions and external confinement. The Fermi-Hubbard model, which plays a central role in the theoretical description of strongly correlated electrons, is experimentally realized by loading interacting fermionic spin mixtures into the optical lattice. Using phase-contrast imaging the in-situ size of the atomic density distribution is measured, which allows to extract the global compressibility of the many-body state as a function of interaction and external confinement. Thereby, metallic and insulating phases are clearly identified. At strongly repulsive interaction, a vanishing compressibility and suppression of doubly occupied lattice sites signal the emergence of a fermionic Mott insulator. In a second series of experiments interaction effects in bosonic lattice quantum gases are analyzed. Typically, interactions between microscopic particles are described as two-body interactions. As such they are also contained in the single-band Bose-Hubbard model. However, our measurements demonstrate the presence of multi-body interactions that effectively emerge via virtual transitions of atoms to higher lattice bands. These findings are enabled by the development of a novel atom optical measurement technique: In quantum phase revival spectroscopy periodic collapse and revival dynamics of the bosonic matter wave field are induced. The frequencies of the dynamics are directly related to the on-site interaction energies of atomic Fock states and can be read out with high precision. The third part of this work deals with mixtures of bosons and fermions in optical lattices, in which the interspecies interactions are accurately controlled by means of a Feshbach resonance. Studies of the equilibrium phases show that the bosonic superfluid to Mott insulator transition is shifted towards lower lattice depths when bosons and fermions interact attractively. This observation is further analyzed by applying quantum phase revival spectroscopy to few-body systems consisting of a single fermion and a coherent bosonic field on individual lattice sites. In addition to the direct measurement of Bose-Fermi interaction energies, Bose-Bose interactions are proven to be modified by the presence of a fermion. This renormalization of bosonic interaction energies can explain the shift of the Mott insulator transition. The experiments of this thesis lay important foundations for future studies of quantum magnetism with fermionic spin mixtures as well as for the realization of complex quantum phases with Bose-Fermi mixtures. They furthermore point towards physics that reaches beyond the single-band Hubbard model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Infektiöse Komplikationen im Zusammenhang mit Implantaten stellen einen Großteil aller Krankenhausinfektionen dar und treiben die Gesundheitskosten signifikant in die Höhe. Die bakterielle Kolonisation von Implantatoberflächen zieht schwerwiegende medizinische Konsequenzen nach sich, die unter Umständen tödlich verlaufen können. Trotz umfassender Forschungsaktivitäten auf dem Gebiet der antibakteriellen Oberflächenbeschichtungen ist das Spektrum an wirksamen Substanzen aufgrund der Anpassungsfähigkeit und Ausbildung von Resistenzen verschiedener Mikroorganismen eingeschränkt. Die Erforschung und Entwicklung neuer antibakterieller Materialien ist daher von fundamentaler Bedeutung.rnIn der vorliegenden Arbeit wurden auf der Basis von Polymernanopartikeln und anorganischen/polymeren Verbundmaterialien verschiedene Systeme als Alternative zu bestehenden antibakteriellen Oberflächenbeschichtungen entwickelt. Polymerpartikel finden Anwendung in vielen verschiedenen Bereichen, da sowohl Größe als auch Zusammensetzung und Morphologie vielseitig gestaltet werden können. Mit Hilfe der Miniemulsionstechnik lassen sich u. A. funktionelle Polymernanopartikel im Größenbereich von 50-500 nm herstellen. Diese wurde im ersten System angewendet, um PEGylierte Poly(styrol)nanopartikel zu synthetisieren, deren anti-adhesives Potential in Bezug auf P. aeruginosa evaluiert wurde. Im zweiten System wurden sog. kontakt-aktive kolloide Dispersionen entwickelt, welche bakteriostatische Eigenschaften gegenüber S. aureus zeigten. In Analogie zum ersten System, wurden Poly(styrol)nanopartikel in Copolymerisation in Miniemulsion mit quaternären Ammoniumgruppen funktionalisiert. Als Costabilisator diente das zuvor quaternisierte, oberflächenaktive Monomer (2-Dimethylamino)ethylmethacrylat (qDMAEMA). Die Optimierung der antibakteriellen Eigenschaften wurde im nachfolgenden System realisiert. Hierbei wurde das oberflächenaktive Monomer qDMAEMA zu einem oberflächenaktiven Polyelektrolyt polymerisiert, welcher unter Anwendung von kombinierter Miniemulsions- und Lösemittelverdampfungstechnik, in entsprechende Polyelektrolytnanopartikel umgesetzt wurde. Infolge seiner oberflächenaktiven Eigenschaften, ließen sich aus dem Polyelektrolyt stabile Partikeldispersionen ohne Zusatz weiterer Tenside ausbilden. Die selektive Toxizität der Polyelektrolytnanopartikel gegenüber S. aureus im Unterschied zu Körperzellen, untermauert ihr vielversprechendes Potential als bakterizides, kontakt-aktives Reagenz. rnAufgrund ihrer antibakteriellen Eigenschaften wurden ZnO Nanopartikel ausgewählt und in verschiedene Freisetzungssysteme integriert. Hochdefinierte eckige ZnO Nanokristalle mit einem mittleren Durchmesser von 23 nm wurden durch thermische Zersetzung des Precursormaterials synthetisiert. Durch die nachfolgende Einkapselung in Poly(L-laktid) Latexpartikel wurden neue, antibakterielle und UV-responsive Hybridnanopartikel entwickelt. Durch die photokatalytische Aktivierung von ZnO mittels UV-Strahlung wurde der Abbau der ZnO/PLLA Hybridnanopartikel signifikant von mehreren Monaten auf mehrere Wochen verkürzt. Die Photoaktivierung von ZnO eröffnet somit die Möglichkeit einer gesteuerten Freisetzung von ZnO. Im nachfolgenden System wurden dünne Verbundfilme aus Poly(N-isopropylacrylamid)-Hydrogelschichten mit eingebetteten ZnO Nanopartikeln hergestellt, die als bakterizide Oberflächenbeschichtungen gegen E. coli zum Einsatz kamen. Mit minimalem Gehalt an ZnO zeigten die Filme eine vergleichbare antibakterielle Aktivität zu Silber-basierten Beschichtungen. Hierbei lässt sich der Gehalt an ZnO relativ einfach über die Filmdicke einstellen. Weiterhin erwiesen sich die Filme mit bakteriziden Konzentrationen an ZnO als nichtzytotoxisch gegenüber Körperzellen. Zusammenfassend wurden mehrere vielversprechende antibakterielle Prototypen entwickelt, die als potentielle Implantatbeschichtungen auf die jeweilige Anwendung weiterhin zugeschnitten und optimiert werden können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit untersucht zwei Lipoproteine, das discoidale High density-Lipoprotein (dHDL) und das β-Glukan-Bindeprotein (BGBP) aus dem Flusskrebs Astacus leptodactylus in funktioneller, struktureller und phylogenetischer Hinsicht. Die Nukleotid-Sequenz des BGBP konnte nahezu vollständig entschlüsselt werden. Dabei errechnet sich aus der abgeleiteten Aminosäure-Sequenz ein Molekulargewicht von 153 kDa. Das reife BGBP hat nur eine molekulare Masse von 105 kDa. Vermutlich kommt es durch eine Furin-ähnliche Protease zu einer post-translationalen N- und C-terminalen Prozessierung: zwei bisher nicht beschriebene, aber auch in der BGBP-Sequenz von anderen höheren Krebsen vorhandene, typische Furin-Schnittstellen (RAKR, bzw. RARR) wurden anhand von Sequenzvergleichen identifiziert. BGBP hat zwei Funktionen: zum Einen ist es für den Transport und die Aktivierung des proPhenoloxidase-Systems zuständig, zum Anderen für die Versorgung der Organe mit Lipiden, welche vermutlich der Energiegewinnung dienen. Eine 100 kDa große, BGBP-bindende Rezeptor-Fraktion konnte in Hämocyten-Membranen identifiziert werden. Das Vorkommen von dHDL war aus eigenen Befunden bisher ausschließlich in Astacus leptodactylus bekannt, doch konnte in dieser Arbeit ein mit dem dHDL-Antikörper reagierendes Protein erstmalig auch in anderen Arthropoden-Spezies nachgewiesen werden. Die discoidale Form und das Untereinheiten-Muster (240 + 85 kDa) sind typisch für die bei Vertretern ursprünglicher Tiergruppen gefundenen Lipoproteine (z.B. beim Cheliceraten Limulus und beim Polychaeten Nereis). Eventuell handelt es sich bei dHDL also um einen ‚Prototypen’ in der Lipoprotein-Evolution. Obwohl die Sequenz des dHDL auf Nukleotid-Ebene unbekannt ist, wurden die Sequenzen einiger dHDL-Peptide aus massenspektroskopischen Analysen gewonnen. Überraschenderweise befinden sich diese Sequenzen in der Aminosäuresequenz des BGBP. Dabei liegen alle Peptide am N- und/oder am C-Terminus der abgeleiteten BGBP-Aminosäure-Sequenz, und zwar in den Bereichen, die vermutlich durch das erwähnte Furin vom BGBP abgeschnitten werden, im reifen BGBP also gar nicht mehr vorkommen. Deshalb ist zu vermuten, dass BGBP und dHDL ein gemeinsames Vorläuferprotein haben und durch Genduplikation entstanden sind, oder dass es sich beim dHDL- und beim BGBP-Gen um ein und dasselbe Gen handelt. Das Genprodukt wird dann auf unterschiedliche Weise prozessiert und es entstehen die beiden Proteine dHDL und BGBP. Die Funktion von dHDL ist noch nicht eindeutig geklärt, es ließen sich aber dHDL-bindende Rezeptor-Fraktionen mit einer molekularen Masse von 160 kDa in somatischen Geweben (Muskel, Darm, Hepatopankreas, Kiemen und Samenleiter) sowie in Oocyten und Hämocyten nachweisen. Deshalb wird vermutet, dass dHDL als Energielieferant in Stoffwechsel-aktiven Organen und als Speicherprotein in Oocyten dient. Eine endocytotische Aufnahme konnte gezeigt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um die in der Atmosphäre ablaufenden Prozesse besser verstehen zu können, ist es wichtig dort vorhandene Partikel gut charakterisieren zu können. Dazu gehört unter anderem die Bestimmung der chemischen Zusammensetzung der Partikel. Zur Analyse insbesondere organischer Partikel wurde dazu in einer früheren Promotion das Aerosol-Ionenfallen-Massenspektrometer (AIMS) entwickelt.Im Rahmen dieser Arbeit wurden Entwicklungsarbeiten durchgeführt, um die Charakteristiken des Prototypen zu verbessern sowie es für den Feldeinsatz tauglich zu machen. Die durchgeführten Veränderungen betreffen mechanische und elektrische Komponenten sowie das LabView Steuerungsprogramm. So wurde z.B. die Ionenquelle derart modifiziert, dass die Ionen nicht mehr permanent erzeugt werden, sondern nur innerhalb des Zeitraums wenn sie auch in der Ionenfalle gespeichert werden können. Durch diese Modifikation konnte das Signal-zu-Rausch Verhältnis deutlich verbessert werden. Nach Beendigung der Umbauten wurden in ausführlichen Laborstudien die einzelnen Instrumentenparameter detailliert charakterisiert. Neben den Spannungen die zur Fokussierung oder zur Speicherung der Ionen in der Ionenfalle dienen, wurden die unterschiedlichen Arten der resonanten Anregung, mittels der die Ionen in der Ionenfalle gezielt zu Schwingungen angeregt werden können, sehr genau untersucht. Durch eine gezielte Kombination der unterschiedlichen Arten der resonanten Anregung ist es möglich MSn-Studien durchzuführen. Nach erfolgreicher Charakterisierung konnte in weiteren Laborstudien die MSn-Fähigkeit des AIMS demonstriert werden. Für Tryptophan (C11H12N2O2) wurde anhand von MS4-Studien ausgehend von m/z 130 ein möglicher Fragmentierungsweg identifiziert. Für die einzelnen Stufen der MS4-Studien wurden die Nachweisgrenzen abgeschätzt. Im Rahmen der PARADE (PArticles and RAdicals: Diel observations of the impact of urban and biogenic Emissions) Messkampagne im August/September 2011 auf dem kleinen Feldberg in der Nähe von Frankfurt am Main wurde die Feldtauglichkeit des AIMS demonstriert. Die Nachweisgrenzen liegen für eine Mittelungszeit von 60 Minuten für Organik bei 1,4 µg m-3, für Nitrat bei 0,5 µg m-3 und für Sulfat bei 0,7 µg m-3, was ausreichend ist um atmosphärisches Aerosol messen zu können. Dies ist ein signifikanter Fortschritt im Vergleich zum Prototypen, der aufgrund schlechter Reproduzierbarkeit und Robustheit noch nicht feldtauglich war. Im Vergleich zum HR-ToF-AMS, einem Standard-Aerosolmassenspektrometer, zeigte sich, dass beide Instrumente vergleichbare Trends für die Spezies Nitrat, Sulfat und Organik messen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit stelle ich Aspekte zu QCD Berechnungen vor, welche eng verknüpft sind mit der numerischen Auswertung von NLO QCD Amplituden, speziell der entsprechenden Einschleifenbeiträge, und der effizienten Berechnung von damit verbundenen Beschleunigerobservablen. Zwei Themen haben sich in der vorliegenden Arbeit dabei herauskristallisiert, welche den Hauptteil der Arbeit konstituieren. Ein großer Teil konzentriert sich dabei auf das gruppentheoretische Verhalten von Einschleifenamplituden in QCD, um einen Weg zu finden die assoziierten Farbfreiheitsgrade korrekt und effizient zu behandeln. Zu diesem Zweck wird eine neue Herangehensweise eingeführt welche benutzt werden kann, um farbgeordnete Einschleifenpartialamplituden mit mehreren Quark-Antiquark Paaren durch Shufflesummation über zyklisch geordnete primitive Einschleifenamplituden auszudrücken. Ein zweiter großer Teil konzentriert sich auf die lokale Subtraktion von zu Divergenzen führenden Poltermen in primitiven Einschleifenamplituden. Hierbei wurde im Speziellen eine Methode entwickelt, um die primitiven Einchleifenamplituden lokal zu renormieren, welche lokale UV Counterterme und effiziente rekursive Routinen benutzt. Zusammen mit geeigneten lokalen soften und kollinearen Subtraktionstermen wird die Subtraktionsmethode dadurch auf den virtuellen Teil in der Berechnung von NLO Observablen erweitert, was die voll numerische Auswertung der Einschleifenintegrale in den virtuellen Beiträgen der NLO Observablen ermöglicht. Die Methode wurde schließlich erfolgreich auf die Berechnung von NLO Jetraten in Elektron-Positron Annihilation im farbführenden Limes angewandt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Modellierung niederenergetischer elektromagnetischer und hadronischer Prozesse im Rahmen einer manifest lorentzinvarianten, chiralen effektiven Feldtheorie unter expliziter, dynamischer Berücksichtigung resonanter, das heißt vektormesonischer Freiheitsgrade. Diese effektive Theorie kann daher als Approximation der grundlegenden Quantenchromodynamik bei kleinen Energien verstanden werden. Besonderes Augenmerk wird dabei auf das verwendete Zähl- sowie Renormierungschema gelegt, wodurch eine konsistente Beschreibung mesonischer Prozesse bis zu Energien von etwa 1GeV ermöglicht wird. Das verwendete Zählschema beruht dabei im Wesentlichen auf einem Argument für großes N_c (Anzahl der Farbfreiheitsgrade) und lässt eine äquivalente Behandlung von Goldstonebosonen (Pionen) und Resonanzen (Rho- und Omegamesonen) zu. Als Renormierungsschema wird das für (bezüglich der starken Wechselwirkung) instabile Teilchen besonders geeignete complex-mass scheme als Erweiterung des extended on-mass-shell scheme verwendet, welches in Kombination mit dem BPHZ-Renormierungsverfahren (benannt nach Bogoliubov, Parasiuk, Hepp und Zimmermann) ein leistungsfähiges Konzept zur Berechnung von Quantenkorrekturen in dieser chiralen effektiven Feldtheorie darstellt. Sämtliche vorgenommenen Rechnungen schließen Terme der chiralen Ordnung vier sowie einfache Schleifen in Feynman-Diagrammen ein. Betrachtet werden unter anderem der Vektorformfaktor des Pions im zeitartigen Bereich, die reelle Compton-Streuung (beziehungsweise Photonenfusion) im neutralen und geladenen Kanal sowie die virtuelle Compton-Streuung, eingebettet in die Elektron-Positron-Annihilation. Zur Extraktion der Niederenergiekopplungskonstanten der Theorie wird letztendlich eine Reihe experimenteller Datensätze verschiedenartiger Observablen verwendet. Die hier entwickelten Methoden und Prozeduren - und insbesondere deren technische Implementierung - sind sehr allgemeiner Natur und können daher auch an weitere Problemstellungen aus diesem Gebiet der niederenergetischen Quantenchromodynamik angepasst werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Using navigation systems in general orthopaedic surgery and, in particular, knee replacement is becoming more and more accepted. This paper describes the basic technological concepts of modern computer assisted surgical systems. It explains the variation in currently available systems and outlines research activities that will potentially influence future products. In general, each navigation system is defined by three components: (1) the therapeutic object is the anatomical structure that is operated on using the navigation system, (2) the virtual object represents an image of the therapeutic object, with radiological images or computer generated models potentially being used, and (3) last but not least, the navigator acquires the spatial position and orientation of instruments and anatomy thus providing the necessary data to replay surgical action in real-time on the navigation system's screen.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador: