11 resultados para Prototypen

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der Arbeit war es zu klären, ob und auf welche WeiseGoldfische die Farben des Spektrums in Kategorien einteilen.Die Fische wurden dazu auf zwei bzw. sechs Wellenlängendressiert. Bei zwei Dressurwellenlängen durchliefen dieTiere verschiedene Tests. Sowohl der Transfertest, als auchder Generalisierungstest zeigten Ergebnisse, die nichtalleine mit der Wellenlängenunterscheidungsfähigkeit derFische erklärt werden können, sondern auf eineKategorisierung der Farben hindeuten. Dabei zeigt es sich,dass es zwischen 540 nm und 608 nm keinen direkten Überganggibt, während Bereiche zwischen anderen Wellenlängen, z.B.zwischen 438 und 501 nm, größere Ähnlichkeiten aufwiesen.Die Generalisierungsergebnisse der Versuche mit sechsDressurwellenlängen lassen eine genauere Einteilung desWellenlängenspektrums zu. Hier traten deutliche Unterschiedein den Wahlhäufigkeiten auf. Wenn man die Maxima derWahlhäufigkeiten als Prototypen einer Kategorie definiertund die Bereiche mit geringen Wahlhäufigkeiten alsÜbergangsbereich zwischen zwei Kategorien, so ergeben sichfünf bzw. sechs Kategorien, wenn man den breiten Bereich(zwischen 515 und 580 nm) mit niedrigen Wahlhäufigkeiten alseigene Kategorie wertet. Bezieht man die Ergebnisse derDressur auf zwei Wellenlängen mit ein, so ergibt sich eineEinteilung des Wellenlängenspektrums des Goldfisches von 388nm bis 685 nm in sieben Kategorien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Bedarf an hyperpolarisiertem 3He in Medizin und physikalischer Grundlagenforschung ist in den letzten ca. 10-15 Jahren sowohl in Bezug auf die zu Verfügung stehende Menge, als auch auf den benötigten Grad der Kernspinpolarisation stetig gestiegen. Gleichzeitig mußten Lösungen für die polarisationserhaltende Speicherung und den Transport gefunden werden, die je nach Anwendung anzupassen waren. Als Ergebnis kann mit dieser Arbeit ein in sich geschlossenes Gesamtkonzept vorgestellt werden, daß sowohl die entsprechenden Mengen für klinische Anwendungen, als auch höchste Polarisation für physikalische Grundlagenfor-schung zur Verfügung stellen kann. Verschiedene unabhängige Polarimetriemethoden zeigten in sich konsistente Ergebnisse und konnten, neben ihrer eigenen Weiterentwicklung, zu einer verläßlichen Charakterisierung des neuen Systems und auch der Transportzellen und –boxen eingesetzt werden. Die Polarisation wird mittels „Metastabilem Optischen Pumpen“ bei einem Druck von 1 mbar erzeugt. Dabei werden ohne Gasfluß Werte von P = 84% erreicht. Im Flußbetrieb sinkt die erreichbare Polarisation auf P ≈ 77%. Das 3He kann dann weitgehend ohne Polarisationsver-luste auf mehrere bar komprimiert und zu den jeweiligen Experimenten transportiert werden. Durch konsequente Weiterentwicklung der vorgestellten Polarisationseinheit an fast allen Komponenten kann somit jetzt bei einem Fluß von 0,8 barl/h eine Polarisation von Pmax = 77% am Auslaß der Apparatur erreicht werden. Diese skaliert linear mit dem Fluß, sodaß bei 3 barl/h die Polarisation immer noch bei ca. 60% liegt. Dabei waren die im Rahmen dieser Arbeit durchgeführten Verbesserungen an den Lasern, der Optik, der Kompressionseinheit, dem Zwischenspeicher und der Gasreinigung wesentlich für das Erreichen dieser Polarisatio-nen. Neben dem Einsatz eines neuen Faserlasersystems ist die hohe Gasreinheit und die lang-lebige Kompressionseinheit ein Schlüssel für diese Leistungsfähigkeit. Seit Herbst 2001 er-zeugte das System bereits über 2000 barl hochpolarisiertes 3He und ermöglichte damit zahl-reiche interdisziplinäre Experimente und Untersuchungen. Durch Verbesserungen an als Prototypen bereits vorhandenen Transportboxen und durch weitgehende Unterdrückung der Wandrelaxation in den Transportgefäßen aufgrund neuer Erkenntnisse über deren Ursachen stellen auch polarisationserhaltende Transporte über große Strecken kein Problem mehr dar. In unbeschichteten 1 Liter Kolben aus Aluminosilikatglä-sern werden nun problemlos Speicherzeiten von T1 > 200h erreicht. Im Rahmen des europäi-schen Forschungsprojektes „Polarized Helium to Image the Lung“ wurden während 19 Liefe-rungen 70barl 3He nach Sheffield (UK) und bei 13 Transporten 100 barl nach Kopenhagen (DK) per Flugzeug transportiert. Zusammenfassend konnte gezeigt werden, daß die Problematik der Kernspinpolarisationser-zeugung von 3He, die Speicherung, der Transport und die Verwendung des polarisierten Ga-ses in klinischer Diagnostik und physikalischen Grundlagenexperimenten weitgehend gelöst ist und das Gesamtkonzept die Voraussetzungen für allgemeine Anwendungen auf diesen Gebieten geschaffen hat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Elektrische Impedanztomographie soll als kostengünstige und nebenwirkungsfreie Tomographiemethode in der medizinischen Diagnostik, z. B. in der Mammographie dienen. Mit der EIT läßt sich Krebsgewebe von gesundem Gewebe unterscheiden, da es eine signifikant erhöhte Leitfähigkeit aufweist. Damit kann die EIT als Ergänzung zu den klassischen Diagnoseverfahren dienen. So ist z.B. bei jungen Frauen mit einem dichteren Fettgewebe die Identifizierung eines Mammakarzinoms mit der Röntgentomographie nicht immer möglich. Ziel dieser Arbeit war es, einen Prototypen für die Impedanztomographie zu entwickeln und mögliche Anwendungen zu testen. Der Tomograph ist in Zusammenarbeit mit Dr. K.H.Georgi gebaut worden. Der Tomograph erlaubt es niederohmige, Wechselströme an Elektroden auf der Körperoberfläche einzuspeisen. Die Potentiale können an diesen Elektroden programmierbar vorgegeben werden. Weitere hochohmige Elektroden dienen zur Potentialmessung. Um den Hautwiderstand zu überbrücken, werden Wechselstromfrequenzen von 20-100 kHz eingesetzt. Mit der Möglichkeit der Messung von Strom und Potential auf unterschiedlichen Elektroden kann man das Problem des nur ungenau bekannten Hautwiderstandes umgehen. Prinzipiell ist es mit dem Mainzer EIT System möglich, 100 Messungen in der Sekunde durchzuführen. Auf der Basis von mit dem Mainzer EIT gewonnenen Daten sollten unterschiedliche Rekonstruktionsalgorithmen getestet und weiterentwickelt werden. In der Vergangenheit sind verschiedene Rekonstruktionsalgorithmen für das mathematisch schlecht gestellte EIT Problem betrachtet worden. Sie beruhen im Wesentlichen auf zwei Strategien: Die Linearisierung und iterative Lösung des Problems und Gebietserkennungsmethoden. Die iterativen Verfahren wurden von mir dahingehend modifiziert, dass Leitfähigkeitserhöhungen und Leitfähigkeitserniedrigungen gleichberechtigt behandelt werden können. Für den modifizierten Algorithmus wurden zwei verschiedene Rekonstruktionsalgorithmen programmiert und mit synthetischen Daten getestet. Zum einen die Rekonstruktion über die approximative Inverse, zum anderen eine Rekonstruktion mit einer Diskretisierung. Speziell für die Rekonstruktion mittels Diskretisierung wurde eine Methode entwickelt, mit der zusätzliche Informationen in der Rekonstruktion berücksichtigt werden können, was zu einer Verbesserung der Rekonstruktion beiträgt. Der Gebietserkennungsalgorithmus kann diese Zusatzinformationen liefern. In der Arbeit wurde ein neueres Verfahren für die Gebietserkennung derart modifiziert, dass eine Rekonstruktion auch für getrennte Strom- und Spannungselektroden möglich wurde. Mit Hilfe von Differenzdaten lassen sich ausgezeichnete Rekonstruktionen erzielen. Für die medizinischen Anwendungen sind aber Absolutmessungen nötig, d.h. ohne Leermessung. Der erwartende Effekt einer Inhomogenität in der Leitfähigkeit ist sehr klein und als Differenz zweier grosser Zahlen sehr schwierig zu bestimmen. Die entwickelten Algorithmen kommen auch gut mit Absolutdaten zurecht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden drei wasserstoffverbrückte Systeme in der kondensierten Phase mit Hilfe von first-principles-Elektronenstruktur-Rechnungen untersucht, die auf der Dichtefunktionaltheorie (DFT) unter periodischen Randbedingungen basieren. Ihre lokalen Konformationen und Wasserstoffbrückenbindungen werden mittels ab-initio Molekulardynamiksimulationen berechnet und weiterhin durch die Bestimmung ihrer spektroskopischen Parameter charakterisiert. Der Schwerpunkt liegt dabei auf lokalen Strukturen und auf schnellen Fluktuationen der Wasserstoffbrückenbindungen, welche von zentraler Bedeutung für die physikalischen und chemischen Eigenschaften der betrachteten Systeme sind. Die für die lokalen, instantanen Konformationen berechneten Spektren werden verwendet, um die physikalischen Prozesse, die hinter den untersuchten Phänomenen stehen, zu erklären: die Wasseradsorption auf metallischen Oberflächen, die Ionensolvatisierung in wässrigen Lösungen und der Protonentransport in protonleitenden Polymeren, welche Prototypen von Membranen für Brennstoffzellen sind. Die Möglichkeit der Vorhersage spektroskopischer Parameter eröffnet vielfältige Möglichkeiten des Dialogs zwischen Experimenten und numerischen Simulationen. Die in dieser Arbeit vorgestellten Ergebnisse zeigen, dass die Zuverlässigkeit dieser theoretischen Berechnungen inzwischen für viele experimentell relevante Systeme ein quantitatives Niveau erreicht hat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Präsentiert wird ein vollständiger, exakter und effizienter Algorithmus zur Berechnung des Nachbarschaftsgraphen eines Arrangements von Quadriken (Algebraische Flächen vom Grad 2). Dies ist ein wichtiger Schritt auf dem Weg zur Berechnung des vollen 3D Arrangements. Dabei greifen wir auf eine bereits existierende Implementierung zur Berechnung der exakten Parametrisierung der Schnittkurve von zwei Quadriken zurück. Somit ist es möglich, die exakten Parameterwerte der Schnittpunkte zu bestimmen, diese entlang der Kurven zu sortieren und den Nachbarschaftsgraphen zu berechnen. Wir bezeichnen unsere Implementierung als vollständig, da sie auch die Behandlung aller Sonderfälle wie singulärer oder tangentialer Schnittpunkte einschließt. Sie ist exakt, da immer das mathematisch korrekte Ergebnis berechnet wird. Und schließlich bezeichnen wir unsere Implementierung als effizient, da sie im Vergleich mit dem einzigen bisher implementierten Ansatz gut abschneidet. Implementiert wurde unser Ansatz im Rahmen des Projektes EXACUS. Das zentrale Ziel von EXACUS ist es, einen Prototypen eines zuverlässigen und leistungsfähigen CAD Geometriekerns zu entwickeln. Obwohl wir das Design unserer Bibliothek als prototypisch bezeichnen, legen wir dennoch größten Wert auf Vollständigkeit, Exaktheit, Effizienz, Dokumentation und Wiederverwendbarkeit. Über den eigentlich Beitrag zu EXACUS hinaus, hatte der hier vorgestellte Ansatz durch seine besonderen Anforderungen auch wesentlichen Einfluss auf grundlegende Teile von EXACUS. Im Besonderen hat diese Arbeit zur generischen Unterstützung der Zahlentypen und der Verwendung modularer Methoden innerhalb von EXACUS beigetragen. Im Rahmen der derzeitigen Integration von EXACUS in CGAL wurden diese Teile bereits erfolgreich in ausgereifte CGAL Pakete weiterentwickelt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Infektiöse Komplikationen im Zusammenhang mit Implantaten stellen einen Großteil aller Krankenhausinfektionen dar und treiben die Gesundheitskosten signifikant in die Höhe. Die bakterielle Kolonisation von Implantatoberflächen zieht schwerwiegende medizinische Konsequenzen nach sich, die unter Umständen tödlich verlaufen können. Trotz umfassender Forschungsaktivitäten auf dem Gebiet der antibakteriellen Oberflächenbeschichtungen ist das Spektrum an wirksamen Substanzen aufgrund der Anpassungsfähigkeit und Ausbildung von Resistenzen verschiedener Mikroorganismen eingeschränkt. Die Erforschung und Entwicklung neuer antibakterieller Materialien ist daher von fundamentaler Bedeutung.rnIn der vorliegenden Arbeit wurden auf der Basis von Polymernanopartikeln und anorganischen/polymeren Verbundmaterialien verschiedene Systeme als Alternative zu bestehenden antibakteriellen Oberflächenbeschichtungen entwickelt. Polymerpartikel finden Anwendung in vielen verschiedenen Bereichen, da sowohl Größe als auch Zusammensetzung und Morphologie vielseitig gestaltet werden können. Mit Hilfe der Miniemulsionstechnik lassen sich u. A. funktionelle Polymernanopartikel im Größenbereich von 50-500 nm herstellen. Diese wurde im ersten System angewendet, um PEGylierte Poly(styrol)nanopartikel zu synthetisieren, deren anti-adhesives Potential in Bezug auf P. aeruginosa evaluiert wurde. Im zweiten System wurden sog. kontakt-aktive kolloide Dispersionen entwickelt, welche bakteriostatische Eigenschaften gegenüber S. aureus zeigten. In Analogie zum ersten System, wurden Poly(styrol)nanopartikel in Copolymerisation in Miniemulsion mit quaternären Ammoniumgruppen funktionalisiert. Als Costabilisator diente das zuvor quaternisierte, oberflächenaktive Monomer (2-Dimethylamino)ethylmethacrylat (qDMAEMA). Die Optimierung der antibakteriellen Eigenschaften wurde im nachfolgenden System realisiert. Hierbei wurde das oberflächenaktive Monomer qDMAEMA zu einem oberflächenaktiven Polyelektrolyt polymerisiert, welcher unter Anwendung von kombinierter Miniemulsions- und Lösemittelverdampfungstechnik, in entsprechende Polyelektrolytnanopartikel umgesetzt wurde. Infolge seiner oberflächenaktiven Eigenschaften, ließen sich aus dem Polyelektrolyt stabile Partikeldispersionen ohne Zusatz weiterer Tenside ausbilden. Die selektive Toxizität der Polyelektrolytnanopartikel gegenüber S. aureus im Unterschied zu Körperzellen, untermauert ihr vielversprechendes Potential als bakterizides, kontakt-aktives Reagenz. rnAufgrund ihrer antibakteriellen Eigenschaften wurden ZnO Nanopartikel ausgewählt und in verschiedene Freisetzungssysteme integriert. Hochdefinierte eckige ZnO Nanokristalle mit einem mittleren Durchmesser von 23 nm wurden durch thermische Zersetzung des Precursormaterials synthetisiert. Durch die nachfolgende Einkapselung in Poly(L-laktid) Latexpartikel wurden neue, antibakterielle und UV-responsive Hybridnanopartikel entwickelt. Durch die photokatalytische Aktivierung von ZnO mittels UV-Strahlung wurde der Abbau der ZnO/PLLA Hybridnanopartikel signifikant von mehreren Monaten auf mehrere Wochen verkürzt. Die Photoaktivierung von ZnO eröffnet somit die Möglichkeit einer gesteuerten Freisetzung von ZnO. Im nachfolgenden System wurden dünne Verbundfilme aus Poly(N-isopropylacrylamid)-Hydrogelschichten mit eingebetteten ZnO Nanopartikeln hergestellt, die als bakterizide Oberflächenbeschichtungen gegen E. coli zum Einsatz kamen. Mit minimalem Gehalt an ZnO zeigten die Filme eine vergleichbare antibakterielle Aktivität zu Silber-basierten Beschichtungen. Hierbei lässt sich der Gehalt an ZnO relativ einfach über die Filmdicke einstellen. Weiterhin erwiesen sich die Filme mit bakteriziden Konzentrationen an ZnO als nichtzytotoxisch gegenüber Körperzellen. Zusammenfassend wurden mehrere vielversprechende antibakterielle Prototypen entwickelt, die als potentielle Implantatbeschichtungen auf die jeweilige Anwendung weiterhin zugeschnitten und optimiert werden können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit untersucht zwei Lipoproteine, das discoidale High density-Lipoprotein (dHDL) und das β-Glukan-Bindeprotein (BGBP) aus dem Flusskrebs Astacus leptodactylus in funktioneller, struktureller und phylogenetischer Hinsicht. Die Nukleotid-Sequenz des BGBP konnte nahezu vollständig entschlüsselt werden. Dabei errechnet sich aus der abgeleiteten Aminosäure-Sequenz ein Molekulargewicht von 153 kDa. Das reife BGBP hat nur eine molekulare Masse von 105 kDa. Vermutlich kommt es durch eine Furin-ähnliche Protease zu einer post-translationalen N- und C-terminalen Prozessierung: zwei bisher nicht beschriebene, aber auch in der BGBP-Sequenz von anderen höheren Krebsen vorhandene, typische Furin-Schnittstellen (RAKR, bzw. RARR) wurden anhand von Sequenzvergleichen identifiziert. BGBP hat zwei Funktionen: zum Einen ist es für den Transport und die Aktivierung des proPhenoloxidase-Systems zuständig, zum Anderen für die Versorgung der Organe mit Lipiden, welche vermutlich der Energiegewinnung dienen. Eine 100 kDa große, BGBP-bindende Rezeptor-Fraktion konnte in Hämocyten-Membranen identifiziert werden. Das Vorkommen von dHDL war aus eigenen Befunden bisher ausschließlich in Astacus leptodactylus bekannt, doch konnte in dieser Arbeit ein mit dem dHDL-Antikörper reagierendes Protein erstmalig auch in anderen Arthropoden-Spezies nachgewiesen werden. Die discoidale Form und das Untereinheiten-Muster (240 + 85 kDa) sind typisch für die bei Vertretern ursprünglicher Tiergruppen gefundenen Lipoproteine (z.B. beim Cheliceraten Limulus und beim Polychaeten Nereis). Eventuell handelt es sich bei dHDL also um einen ‚Prototypen’ in der Lipoprotein-Evolution. Obwohl die Sequenz des dHDL auf Nukleotid-Ebene unbekannt ist, wurden die Sequenzen einiger dHDL-Peptide aus massenspektroskopischen Analysen gewonnen. Überraschenderweise befinden sich diese Sequenzen in der Aminosäuresequenz des BGBP. Dabei liegen alle Peptide am N- und/oder am C-Terminus der abgeleiteten BGBP-Aminosäure-Sequenz, und zwar in den Bereichen, die vermutlich durch das erwähnte Furin vom BGBP abgeschnitten werden, im reifen BGBP also gar nicht mehr vorkommen. Deshalb ist zu vermuten, dass BGBP und dHDL ein gemeinsames Vorläuferprotein haben und durch Genduplikation entstanden sind, oder dass es sich beim dHDL- und beim BGBP-Gen um ein und dasselbe Gen handelt. Das Genprodukt wird dann auf unterschiedliche Weise prozessiert und es entstehen die beiden Proteine dHDL und BGBP. Die Funktion von dHDL ist noch nicht eindeutig geklärt, es ließen sich aber dHDL-bindende Rezeptor-Fraktionen mit einer molekularen Masse von 160 kDa in somatischen Geweben (Muskel, Darm, Hepatopankreas, Kiemen und Samenleiter) sowie in Oocyten und Hämocyten nachweisen. Deshalb wird vermutet, dass dHDL als Energielieferant in Stoffwechsel-aktiven Organen und als Speicherprotein in Oocyten dient. Eine endocytotische Aufnahme konnte gezeigt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um die in der Atmosphäre ablaufenden Prozesse besser verstehen zu können, ist es wichtig dort vorhandene Partikel gut charakterisieren zu können. Dazu gehört unter anderem die Bestimmung der chemischen Zusammensetzung der Partikel. Zur Analyse insbesondere organischer Partikel wurde dazu in einer früheren Promotion das Aerosol-Ionenfallen-Massenspektrometer (AIMS) entwickelt.Im Rahmen dieser Arbeit wurden Entwicklungsarbeiten durchgeführt, um die Charakteristiken des Prototypen zu verbessern sowie es für den Feldeinsatz tauglich zu machen. Die durchgeführten Veränderungen betreffen mechanische und elektrische Komponenten sowie das LabView Steuerungsprogramm. So wurde z.B. die Ionenquelle derart modifiziert, dass die Ionen nicht mehr permanent erzeugt werden, sondern nur innerhalb des Zeitraums wenn sie auch in der Ionenfalle gespeichert werden können. Durch diese Modifikation konnte das Signal-zu-Rausch Verhältnis deutlich verbessert werden. Nach Beendigung der Umbauten wurden in ausführlichen Laborstudien die einzelnen Instrumentenparameter detailliert charakterisiert. Neben den Spannungen die zur Fokussierung oder zur Speicherung der Ionen in der Ionenfalle dienen, wurden die unterschiedlichen Arten der resonanten Anregung, mittels der die Ionen in der Ionenfalle gezielt zu Schwingungen angeregt werden können, sehr genau untersucht. Durch eine gezielte Kombination der unterschiedlichen Arten der resonanten Anregung ist es möglich MSn-Studien durchzuführen. Nach erfolgreicher Charakterisierung konnte in weiteren Laborstudien die MSn-Fähigkeit des AIMS demonstriert werden. Für Tryptophan (C11H12N2O2) wurde anhand von MS4-Studien ausgehend von m/z 130 ein möglicher Fragmentierungsweg identifiziert. Für die einzelnen Stufen der MS4-Studien wurden die Nachweisgrenzen abgeschätzt. Im Rahmen der PARADE (PArticles and RAdicals: Diel observations of the impact of urban and biogenic Emissions) Messkampagne im August/September 2011 auf dem kleinen Feldberg in der Nähe von Frankfurt am Main wurde die Feldtauglichkeit des AIMS demonstriert. Die Nachweisgrenzen liegen für eine Mittelungszeit von 60 Minuten für Organik bei 1,4 µg m-3, für Nitrat bei 0,5 µg m-3 und für Sulfat bei 0,7 µg m-3, was ausreichend ist um atmosphärisches Aerosol messen zu können. Dies ist ein signifikanter Fortschritt im Vergleich zum Prototypen, der aufgrund schlechter Reproduzierbarkeit und Robustheit noch nicht feldtauglich war. Im Vergleich zum HR-ToF-AMS, einem Standard-Aerosolmassenspektrometer, zeigte sich, dass beide Instrumente vergleichbare Trends für die Spezies Nitrat, Sulfat und Organik messen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.