23 resultados para automatisiert


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Digitale Ausweise (Ausweise mit einem Chip) werden in vielen Staaten vor allem aus zwei Gründen eingeführt. Zum einen wird in ihnen ein Mittel gesehen, um die drei wesentlichen Basistechnologien des elektronischen Rechts-, Geschäfts- und Verwaltungsverkehrs, Signieren, Verschlüsseln und Authentifizieren, bei den Nutzern zu verbreiten. Zum anderen werden sie als Mittel gesehen, um die Sicherheit staatlicher Ausweise als Identifizierungsinstrument durch zusätzliche automatisiert prüfbare biometrische Merkmale zu verbessern. Digitale Ausweise könnten schließlich - bisher weitgehend unbeachtet - Träger elektronischer Ausweise für die selbstbestimmte Benutzung im "Cyberspace" sein. Der Beitrag untersucht die Chancen und Risiken digitaler Ausweise hinsichtlicher dieser Zielsetzungen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der vorliegenden Arbeit wird ein Konzept zur mechanismenorientierten Lebensdauervorhersage entwickelt und auf eine Flanschwelle mit gradiertem Gefüge übertragen. Das Konzept wird in Form eines Computercodes (LOCC) zur Anwendung gebracht. Basierend auf lokalen Spannungen wird für jedes Element eines FE-Modells eine bedingte Versagenswahrscheinlichkeit berechnet. Mithilfe bruch- und ggf. mikromechanischer Modelle werden lokale kritische Risslängen und die bei gegebener Lebensdauer zugehörigen Anfangsrisslängen bestimmt. Diese werden mit geeigneten Modellen in mikrostrukturelle Größen überführt. Die Lebensdauerverteilung der Komponente ergibt sich schließlich aus der Verteilungsfunktion der Anfangsrisslängen bzw. der zugehörigen mikrostrukturellen Einheiten. Die betrachtete Flanschwelle weist als Ergebnis eines thermo-mechanischen Umformprozesses ein gradiertes Gefüge auf. Das Ermüdungsverhalten der Hauptphasen Ferrit-Perlit und Martensit wird untersucht. Während ausgewählter Ermüdungsversuche wird die Schädigungsentwicklung an der Oberfläche mit einem langreichweitigen Mikroskop beobachtet. Das ferritisch-perlitische Ausgangsgefüge zeigt eine sehr komplexe Schädigungsentwicklung (lokale plastische Aktivität, hohe Rissdichte), während beim Martensit keine multiple Rissinitiierung beobachtet wird. Anhand fraktographischer Untersuchungen wird dargelegt, dass der Hauptriss beim Martensit im Bereich von Karbidanhäufungen initiiert. Im LCF-Bereich wird nur ein verschwindender Anteil der Lebensdauer mit Langrisswachstum verbracht, d. h. die martensitischen Proben versagen fast unmittelbar nach der Rissinitiierung. Die Beschreibung ihrer Lebensdauer wird somit direkt auf die Rissinitiierungsphase zurückgeführt. Das ferritisch-perlitische Gefüge hingegen zeigt im LCF-Bereich sowohl eine ausgeprägte Rissinitiierungs- wie auch Langrisswachstumsphase. Diese komplexe Schädigungsentwicklung wird mittels verschiedener Schädigungsvariablen beschrieben, die im Rahmen einer automatisierten Bildanalyse bestimmt werden. Hierbei werden sowohl plastisch stark aktive Bereiche wie auch reale Risse pauschal als Schädigung definiert. Der Vergleich dieser automatisiert bestimmten Schädigungsvariablen mit ausgewählten Rissen zeigt deren Eignung zur quantitativen Beschreibung der Schädigungsentwicklung. Die Lebensdauer einer gradierten Komponente ergibt sich nicht direkt durch Verknüpfung der Lebensdauern der Einzelphasen, sondern sie hängt ggf. auch von den Übergangsbereichen zwischen den Phasen ab. Mithilfe einiger grundlegender bruchmechanischer Überlegungen wird ein konservatives Kriterium zur Behandlung solcher Übergangsbereiche bereitgestellt, womit das LOCC-Konzept letztendlich erfolgreich auf die gradierte Flanschwelle übertragen wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Dissertation werden mithilfe von Ansätzen, die aus der Mustererekennung abgeleiteten sind, zwei typische Aufgabenstellungen aus dem Bereich der geodätischen Überwachungsmessungen bearbeitet. Die hier benutzten Ansätze bedienen sich automatisch arbeitender Clusterverfahren, die unter Nutzung formaler Kriterien Daten in homogene Gruppen einordnen. Die Besonderheit sind hier die verwendeten Fuzzy-Clusterverfahren, bei denen die Daten nicht genau einer Gruppe zugeordnet werden, sondern jeder Gruppe mit einem graduell variierenden Zugehörigkeitswert. In dem ersten Beispiel geht es um das Auffinden von Punktgruppen mit einem gleichförmigen Bewegungsverhalten in einem zweidimensionalen Überwachungsnetz und in dem zweiten Beispiel um die automatische Klassifizierung von Setzungszeitreihen. In beiden Beispielen wird gezeigt, dass die bisher in der Praxis überwiegend durch einen erfahrenen Auswerter, durch manuelle Beurteilung von graphischen Darstellungen, erfolgte Vorgehensweise weitestgehend automatisiert werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit befasst sich mit der Modellbildung mechatronischer Systeme mit Reibung. Geeignete dynamische Modelle sind die Grundlage für verschiedenste Aufgabenstellungen. Sind dynamische Prozessmodelle verfügbar, so können leistungsfähige modellbasierte Entwurfsmethoden angewendet werden sowie modellbasierte Anwendungen entwickelt werden. Allerdings ist der Aufwand für die Modellbildung ein beschränkender Faktor für eine weite Verbreitung modellbasierter Applikationen in der Praxis. Eine Automatisierung des Modellbildungsprozesses ist deshalb von großem Interesse. Die vorliegende Arbeit stellt für die Klasse „mechatronischer Systeme mit Reibung“ drei Modellierungsmethoden vor: semi-physikalische Modellierung, Sliding-Mode-Beobachter-basierte Modellierung und empirische Modellierung mit einem stückweise affinen (PWA) Modellansatz. Zum Ersten wird die semi-physikalische Modellierung behandelt. Gegenüber anderen Verfahren, die häufig umfangreiche Vorkenntnisse und aufwändige Experimente erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand automatisiert werden kann. Zum Zweiten wird ein neuer Ansatz zur Reibkraftrekonstruktion und Reibmodellierung mittels Sliding-Mode-Beobachter präsentiert. Durch Verwendung des vorgestellten Sliding-Mode- Beobachters, der basierend auf einem einfachen linearen Zustandsraummodell entworfen wird, lässt sich die Reibung datengetrieben aus den Ein-/Ausgangsmessdaten (im offenen Regelkreis) rekonstruieren und modellieren. Im Vergleich zu anderen Reibmodellierungsmethoden, die häufig umfangreiche Vorkenntnisse und aufwändige Messungen im geschlossenen Regelkreis erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand weitgehend automatisiert werden kann. Zum Dritten wird ein PWA-Modellierungsansatz mit einer clusterungsbasierten Identifikationsmethode für Systeme mit Reibung vorgestellt. In dieser Methode werden die Merkmale in Hinblick auf Reibeffekte ausgewählt. Und zwar wird der klassische c-Means-Algorithmus verwendet, welcher bedienfreundlich, effizient und geeignet für große und reale Datensätze ist. Im Gegensatz zu anderen Methoden sind bei dieser Methode nur wenige Entwurfsparameter einzustellen und sie ist für reale Systeme mit Reibung einfach anwendbar. Eine weitere Neuheit der vorgestellten PWA-Methode liegt darin, dass die Kombination der Clustervaliditätsmaße und Modellprädiktionsfehler zur Festlegung der Anzahl der Teilmodelle benutzt wird. Weiterhin optimiert die vorgestellte Methode die Parameter der lokalen Teilmodelle mit der OE (Output-Fehler)-Schätzmethode. Als Anwendungsbeispiele werden Drosselklappen, Drallklappen und AGR-Ventile (Abgasrückführventil) im Dieselfahrzeug betrachtet und die erzeugten Modelle werden in der industriellen HiL-Simulation eingesetzt. Aufgrund der Effizienz und Effektivität der Modellierungsmethoden sind die vorgestellten Methoden direkt in der automobilen Praxis einsetzbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurde die elektromagnetische Pionproduktion unter der Annahme der Isospinsymmetrie der starken Wechselwirkung im Rahmen der manifest Lorentz-invarianten chiralen Störungstheorie in einer Einschleifenrechnung bis zur Ordnung vier untersucht. Dazu wurden auf der Grundlage des Mathematica-Pakets FeynCalc Algorithmen zur Berechnung der Pionproduktionsamplitude entwickelt. Bis einschließlich der Ordnung vier tragen insgesamt 105 Feynmandiagramme bei, die sich in 20 Baumdiagramme und 85 Schleifendiagramme unterteilen lassen. Von den 20 Baumdiagrammen wiederum sind 16 als Polterme und vier als Kontaktgraphen zu klassifizieren; bei den Schleifendiagrammen tragen 50 Diagramme ab der dritten Ordnung und 35 Diagramme ab der vierten Ordnung bei. In der Einphotonaustauschnäherung lässt sich die Pionproduktionsamplitude als ein Produkt des Polarisationsvektors des (virtuellen) Photons und des Übergangsstrommatrixelements parametrisieren, wobei letzteres alle Abhängigkeiten der starken Wechselwirkung beinhaltet und wo somit die chirale Störungstheorie ihren Eingang findet. Der Polarisationsvektor hingegen hängt von dem leptonischen Vertex und dem Photonpropagator ab und ist aus der QED bekannt. Weiterhin lässt sich das Übergangsstrommatrixelement in sechs eichinvariante Amplituden zerlegen, die sich im Rahmen der Isospinsymmetrie jeweils wiederum in drei Isospinamplituden zerlegen lassen. Linearkombinationen dieser Isospinamplituden erlauben letztlich die Beschreibung der physikalischen Amplituden. Die in dieser Rechnung auftretenden Einschleifenintegrale wurden numerisch mittels des Programms LoopTools berechnet. Im Fall tensorieller Integrale erfolgte zunächst eine Zerlegung gemäß der Methode von Passarino und Veltman. Da die somit erhaltenen Ergebnisse jedoch i.a. noch nicht das chirale Zählschema erfüllen, wurde die entsprechende Renormierung mittels der reformulierten Infrarotregularisierung vorgenommen. Zu diesem Zweck wurde ein Verfahren entwickelt, welches die Abzugsterme automatisiert bestimmt. Die schließlich erhaltenen Isospinamplituden wurden in das Programm MAID eingebaut. In diesem Programm wurden als Test (Ergebnisse bis Ordnung drei) die s-Wellenmultipole E_{0+} und L_{0+} in der Schwellenregion berechnet. Die Ergebnisse wurden sowohl mit Messdaten als auch mit den Resultaten des "klassischen" MAID verglichen, wobei sich i. a. gute Übereinstimmungen im Rahmen der Fehler ergaben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work focused on the synthesis of novel monomers for the design of a series of oligo(p-benzamide)s following two approaches: iterative solution synthesis and automated solid phase protocols. These approaches present a useful method to the sequence-controlled synthesis of side-chain and main-chain functionalized oligomers for the preparation of an immense variety of nanoscaffolds. The challenge in the synthesis of such materials was their modification, while maintaining the characteristic properties (physical-chemical properties, shape persistence and anisotropy). The strategy for the preparation of predictable superstructures was devote to the selective control of noncovalent interactions, monodispersity and monomer sequence. In addition to this, the structure-properties correlation of the prepared rod-like soluble materials was pointed. The first approach involved the solution-based aramide synthesis via introduction of 2,4-dimethoxybenzyl N-amide protective group via an iterative synthetic strategy The second approach focused on the implementation of the salicylic acid scaffold to introduce substituents on the aromatic backbone for the stabilization of the OPBA-rotamers. The prepared oligomers were analyzed regarding their solubility and aggregation properties by systematically changing the degree of rotational freedom of the amide bonds, side chain polarity, monomer sequence and degree of oligomerization. The syntheses were performed on a modified commercial peptide synthesizer using a combination of fluorenylmethoxycarbonyl (Fmoc) and aramide chemistry. The automated synthesis allowed the preparation of aramides with potential applications as nanoscaffolds in supramolecular chemistry, e.g. comb-like-

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Flüchtige organische Verbindungen (volatile organic compounds, VOCs), besonders rnTerpene, gelten als Vorläufer des sekundären organischen Aerosols (secondary rnorganic aerosols, SOA). Terpene werden von Pflanzen zur Abwehr oder zur rnAttraktion von Bestäubern emittiert. Ungesättigten Verbindungen, wie Sesquiterpene, rnsind sehr ozonolyseempfindlich und weisen nur geringe Konzentrationen in der rnAtmosphäre auf. Zudem lassen sie sich mit handelsüblichen rnThermodesorptionseinheiten meist nicht ohne Artefakte nachweisen, da sie eine hohe rnReaktivität mit vielen Oberflächen zeigen. rnDiese Arbeit präsentiert Forschungsergebnisse der qualitativen und rn(semi)quantitativen Auswertungen flüchtiger organischer Verbindungen in rnLaborstudien und biogenen Emissionsproben (Feldmessungen) mittels rnThermodesorption-Gaschromatographie-Massenspektrometrie (TD-GC/MS). Speziell rnzur Analyse hochreaktiver Verbindungen wurde eine Thermodesorptionseinheit für die rnGC/MS entwickelt. Diese besteht aus einer Kryofokussierung, einem Desorptionsofen rnund einer Heizung. Die Steuerung erfolgt über eine eigens dafür geschaffene rnBedienoberf läche von Labview® an einem PC über eine nachgeschaltete SPS rn(speicherprogrammierbare Steuerung). Das komplette Desorptionsprogramm und der rnStart der GC/MS-Analyse wurden automatisiert. rnDie Quantifizierung alle Proben wurde über Diffusionsquellen und rnVergleichsmessungen durch auf Adsorptionsröhrchen aufgebrachte rnVerdünnungsreihen realisiert. Um Informationen über die mutmaßlichen Vorläufer des rnsekundären organischen Aerosols zu erhalten, wurde zudem eine Ozon-Scrubber-rnMethode basierend auf Propen entwickelt. Diese wurde anhand von Standards in einer rnReaktionskammer getestet und in Feldmessungen erfolgreich angewendet. rnQuantitative Analysen zeigen, dass die meisten Terpene so vollständig vor der rnOzonolyse bewahrt werden können. Für hochreaktive Analyte wie α-Humulen oder rnβ-Caryophyllen wurden Wiederfindungsraten von über 80 % erreicht. So konnte die rnTemperaturabhängigkeit der Terpen-Emissionen der Fichte (Picea abies) in rnFeldmessungen nachgewiesen werden. rnEine weitere Anwendungsmöglichkeit wurde mit der Unterscheidung verschiedener rnArten der gleichen Gattung anhand der Emissionsmuster und der möglichen rnAbgrenzung verschiedener Bestäubertypen am Beispiel der Gattung Salvia untersucht. rnDie Emissionsanalysen zeigen, dass eine Zuordnung der Verwandtschaftsverhältnisse rnzusätzlich zu anderen Vergleichen möglich ist. Das gleiche gilt für die Differenzierung rnvon Bestäubertypen. Die Ergebnisse der Feldmessungen wurden durch rnMethodenvergleich zwischen biogenen Emissionsmessungen mit anschließender rnTD-GC/MS-Analyse und Extraktionen der jeweiligen Blüten/Blätter mit rnanschließender GC/MS-Messung bestätigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Auf Paulfallen basierende Experimente spielen eine wichtige Rolle in verschiedenen Bereichen der Physik, z.B. der Atomphysik zum Test theoretischer Modelle und der Massenspektroskopie. Die vorliegende Arbeit widmet sich beiden Themengebieten und gliedert sich entsprechend in zwei Teilbereiche: 1) Erdalkali-Ionen sind aufgrund ihrer Energieniveaus optimale Kandidaten für Laserspektroskopie-Experimente mit Ionenfallen und bestens geeignet, um mittels der spektroskopischen Daten die theoretischen Modelle zu testen. Lediglich für Ra+ fehlen bislang als einzigem Erdalkali-Ion diese Daten wie z.B. die Lebensdauern der metastabilen Niveaus. Diese wären auch von Interesse für bereits geplante Radium-Experimente zur Paritätsverletzung. Im ersten Teil dieser Arbeit wird der Aufbau eines Laser-Paulfallenexperiments zur Messung der Lebensdauer des 6D3/2 Zustands von 226Ra+ dokumentiert und es werden Testmessungen mit 138Ba+ vorgestellt. 2) Für die Verwendung der Paulfalle in der Massenspektroskopie und zur Analyse von Reaktionsprodukten ist die Kenntnis der Lage der im Speicherbereich auftretenden nichtlinearen Resonanzen wesentlich, ebenso wie deren Veränderung durch Dämpfung und Raumladung. Im zweiten Teil dieser Arbeit werden detaillierte Untersuchungen der Speicherung großer puffergasgekühlter Ionenwolken an zwei unterschiedlichen Paulfallen-Experimenten vorgestellt. Am ersten wurden 138Ba+-Ionenwolken kontinuierlich durch Laserspektroskopie bzw. über einen elektronischen Nachweis beobachtet, während das zweite N2+-Molekülionen automatisiert destruktiv nachwies. Am N2+-Experiment wurden zwei hochaufgelöste Messungen des ersten Speicherbereichs durchgeführt, die erstmals eine direkte Überprüfung der theoretisch berechneten Verläufe der Resonanzen mit experimentellen Daten erlauben. Die Nachweiseichung ermöglichte dabei zum ersten Mal die Angabe absoluter Ionenzahlen. Im Gegensatz zu vergleichbaren früheren Messungen wurden hierbei die sich überlagernden Speicherbereiche von 4 simultan gespeicherten Ionensorten beobachtet und zur Analyse der Resonanzen herangezogen. Die nichtlinearen Resonanzen wurden untersucht bei Variation von Puffergasdruck und Ionenzahl, wobei kollektive Resonanzen ohne zusätzliche externe Anregung beobachtet wurden. Die gemessenen Raumladungsverschiebungen wurden mit theoretischen Modellen verglichen. Bei Variation des Puffergasdrucks wurde mit Bariumionen die räumliche Ausdehnung der Ionenwolke gemessen und mit Stickstoffionen die Verschiebung des Punktes optimaler Speicherung bestimmt. Dabei wurde festgestellt, daß der zum Ioneneinfang optimale Puffergasdruck kleiner ist als der, bei dem die längsten Speicherdauern erzielt werden. Mit gespeicherten N2+-Ionen wurde die Position extern angeregter kollektiver und individueller Resonanzen im Frequenzspektrum bei Änderung der Parameter Ionenzahl, Puffergasdruck und Dauer der Anregung untersucht, ebenso wie die Resonanzform, die mit theoretischen Linienformen verglichen wurde. Bei Änderung der Fallenparameter wurden verstärkende Effekte zwischen nahen kollektiven Resonanzen festgestellt. Die Beobachtung, welche der im Frequenzspektrum vorher identifizierten Bewegungs-Resonanzen sich bei Variation der Fallenparameter a bzw. q überlagern, ermöglicht eine bislang nicht beschriebene einfache Methode der Bestimmung von nichtlinearen Resonanzen im Stabilitätsdiagramm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Messung eines möglichen elektrischen Dipolmoments des freien Neutrons erfordert genaustmögliche Kenntnis und Überwachung des magnetischen Feldes im Inneren der n2EDM-Spektrometerkammer. Die freie Spinpräzession von hyperpolarisiertem ³He kann verbunden mit einer Signalauslese mittels optisch gepumpter Cs-Magnetometer dazu genutzt werden, Messempfindlichkeit auf Magnetfeldschwankungen im Bereich weniger Femto-Tesla zu erhalten. Am Institut für Physik der Universität Mainz wurde eine ³He/Cs-Testanlage aufgebaut, um die Möglichkeiten der Signalauslese der ³He-Spinpräzession mittels eines lampengepumpten Cs-Magnetometers zu untersuchen. Darüber hinaus wurde eine ultrakompakte und transportable Polarisationseinheit entwickelt und installiert, welche ermöglicht, eine ³He-Hyperpolarisation von bis zu 55 Prozent zu erreichen. Im Anschluss wird das polarisierte 3He-Gas automatisiert komprimiert und in zwei Magnetometerzellen in Sandwichanordnung innerhalb der n2EDM-Spektrometerkammer gefüllt. In dieser Arbeit werden die Ergebnisse der ersten im Januar 2012 erfolgreich durchgeführten Messungen vorgestellt. Bei diesen Messungen wurde ³He-Gas in der ultrakompakten Polarisationseinheit hyperpolarisiert und über Führungsfelder eines Transfersystems in eine vierlagige Mumetall-Abschirmung transferiert. Im Anschluss konnte im Inneren der magnetischen Abschirmung die freie ³He-Spinpräzession mittels eines lampengepumpten Cs-Magnetometer eindeutig nachgewiesen werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atmosphärische Aerosolpartikel wirken in vielerlei Hinsicht auf die Menschen und die Umwelt ein. Eine genaue Charakterisierung der Partikel hilft deren Wirken zu verstehen und dessen Folgen einzuschätzen. Partikel können hinsichtlich ihrer Größe, ihrer Form und ihrer chemischen Zusammensetzung charakterisiert werden. Mit der Laserablationsmassenspektrometrie ist es möglich die Größe und die chemische Zusammensetzung einzelner Aerosolpartikel zu bestimmen. Im Rahmen dieser Arbeit wurde das SPLAT (Single Particle Laser Ablation Time-of-flight mass spectrometer) zur besseren Analyse insbesondere von atmosphärischen Aerosolpartikeln weiterentwickelt. Der Aerosoleinlass wurde dahingehend optimiert, einen möglichst weiten Partikelgrößenbereich (80 nm - 3 µm) in das SPLAT zu transferieren und zu einem feinen Strahl zu bündeln. Eine neue Beschreibung für die Beziehung der Partikelgröße zu ihrer Geschwindigkeit im Vakuum wurde gefunden. Die Justage des Einlasses wurde mithilfe von Schrittmotoren automatisiert. Die optische Detektion der Partikel wurde so verbessert, dass Partikel mit einer Größe < 100 nm erfasst werden können. Aufbauend auf der optischen Detektion und der automatischen Verkippung des Einlasses wurde eine neue Methode zur Charakterisierung des Partikelstrahls entwickelt. Die Steuerelektronik des SPLAT wurde verbessert, so dass die maximale Analysefrequenz nur durch den Ablationslaser begrenzt wird, der höchsten mit etwa 10 Hz ablatieren kann. Durch eine Optimierung des Vakuumsystems wurde der Ionenverlust im Massenspektrometer um den Faktor 4 verringert.rnrnNeben den hardwareseitigen Weiterentwicklungen des SPLAT bestand ein Großteil dieser Arbeit in der Konzipierung und Implementierung einer Softwarelösung zur Analyse der mit dem SPLAT gewonnenen Rohdaten. CRISP (Concise Retrieval of Information from Single Particles) ist ein auf IGOR PRO (Wavemetrics, USA) aufbauendes Softwarepaket, das die effiziente Auswertung der Einzelpartikel Rohdaten erlaubt. CRISP enthält einen neu entwickelten Algorithmus zur automatischen Massenkalibration jedes einzelnen Massenspektrums, inklusive der Unterdrückung von Rauschen und von Problemen mit Signalen die ein intensives Tailing aufweisen. CRISP stellt Methoden zur automatischen Klassifizierung der Partikel zur Verfügung. Implementiert sind k-means, fuzzy-c-means und eine Form der hierarchischen Einteilung auf Basis eines minimal aufspannenden Baumes. CRISP bietet die Möglichkeit die Daten vorzubehandeln, damit die automatische Einteilung der Partikel schneller abläuft und die Ergebnisse eine höhere Qualität aufweisen. Daneben kann CRISP auf einfache Art und Weise Partikel anhand vorgebener Kriterien sortieren. Die CRISP zugrundeliegende Daten- und Infrastruktur wurde in Hinblick auf Wartung und Erweiterbarkeit erstellt. rnrnIm Rahmen der Arbeit wurde das SPLAT in mehreren Kampagnen erfolgreich eingesetzt und die Fähigkeiten von CRISP konnten anhand der gewonnen Datensätze gezeigt werden.rnrnDas SPLAT ist nun in der Lage effizient im Feldeinsatz zur Charakterisierung des atmosphärischen Aerosols betrieben zu werden, während CRISP eine schnelle und gezielte Auswertung der Daten ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The biosphere emits copiously volatile organic compounds (VOCs) into the atmosphere, which are removed again depending on the oxidative capacity of the atmosphere and physical processes such as mixing, transport and deposition. Biogenic VOCs react with the primary oxidant of the atmosphere, the hydroxyl radical (OH), and potentially lead to the formation tropospheric ozone and aerosol, which impact regional climate and air quality. The rate of OH decay in the atmosphere, the total OH reactivity is a function of the atmospheric, reactive compound's concentration and reaction velocity with OH. One way to measure the total OH reactivity, the total OH sink, is with the Comparative Reactivity Method - CRM. Basically, the reaction of OH with a reagent (here pyrrole) in clean air and in the presence of atmospheric, reactive molecules is compared. This thesis presents measurements of the total OH reactivity at the biosphere-atmosphere interface to analyze various influences and driving forces. For measurements in natural environment the instrument was automated and a direct, undisturbed sampling method developed. Additionally, an alternative detection system was tested and compared to the originally used detector (Proton Transfer Reaction-Mass Spectrometer, PTR-MS). The GC-PID (Gas Chromatographic Photo-Ionization Detector) was found as a smaller, less expensive, and robust alternative for total OH reactivity measurements. The HUMPPA-COPEC 2010 measurement campaign in the Finish forest was impacted by normal boreal forest emissions as well as prolonged heat and biomass burning emissions. The measurement of total OH reactivity was compared with a comprehensive set of monitored individual species ambient concentration levels. A significant discrepancy between those individually measured OH sinks and the total OH reactivity was observed, which was characterized in detail by the comparison of within and above the forest canopy detected OH reactivity. Direct impact of biogenic emissions on total OH reactivity was examined on Kleiner Feldberg, Germany, 2011. Trans-seasonal measurements of an enclosed Norway spruce branch were conducted via PTR-MS, for individual compound's emission rates, and CRM, for total OH reactivity emission fluxes. Especially during summertime, the individually monitored OH sink terms could not account for the measured total OH reactivity. A controlled oxidation experiment in a low NOx environment was conducted in the EUPHORE reaction chamber (CHEERS, Spain 2011). The concentration levels of the reactant isoprene and its major products were monitored and compared to total OH reactivity measurements as well as to the results of two models. The individually measured compounds could account for the total OH reactivity during this experiment as well as the traditional model-degradation scheme for isoprene (MCM 3.2). Due to previous observations of high OH levels in the isoprene-rich environment of the tropics, a novel isoprene mechanism was recently suggested. In this mechanism (MIME v4) additional OH is generated during isoprene oxidation, which could not be verified in the conditions of the CHEERS experiment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Institut für Kernphysik der Universität Mainz betreibt seit 1990 eine weltweit einzigartige Beschleunigeranlage für kern- und teilchenphysikalische Experimente – das Mainzer Mikrotron (MAMI-B). Diese Beschleunigerkaskade besteht aus drei Rennbahn-Mikrotrons (RTMs) mit Hochfrequenzlinearbeschleunigern bei 2.45 GHz, mit denen ein quasi kontinuierlicher Elektronenstrahl von bis zu 100 μA auf 855MeV beschleunigt werden kann.rnrnIm Jahr 1999 wurde die Umsetzung der letzten Ausbaustufe – ein Harmonisches Doppelseitiges Mikrotron (HDSM, MAMI-C) – mit einer Endenergie von 1.5 GeV begonnen. Die Planung erforderte einige mutige Schritte, z.B. Umlenkmagnete mit Feldgradient und ihren daraus resultierenden strahloptischen Eigenschaften, die einen großen Einfluss auf die Longitudinaldynamik des Beschleunigers haben. Dies erforderte die Einführung der „harmonischen“ Betriebsweise mit zwei Frequenzen der zwei Linearbeschleuniger.rnrnViele Maschinenparameter (wie z.B. HF-Amplituden oder -Phasen) wirken direkt auf den Beschleunigungsprozess ein, ihre physikalischen Größen sind indes nicht immer auf einfache Weise messtechnisch zugänglich. Bei einem RTM mit einer verhältnismäßig einfachen und wohldefinierten Strahldynamik ist das im Routinebetrieb unproblematisch, beim HDSM hingegen ist schon allein wegen der größeren Zahl an Parametern die Kenntnis der physikalischen Größen von deutlich größerer Bedeutung. Es gelang im Rahmen dieser Arbeit, geeignete Methoden der Strahldiagnose zu entwickeln, mit denen diese Maschinenparameter überprüft und mit den Planungsvorgaben verglichen werden können.rnrnDa die Anpassung des Maschinenmodells an eine einzelne Phasenmessung aufgrund der unvermeidlichen Messfehler nicht immer eindeutige Ergebnisse liefert, wird eine Form der Tomographie verwendet. Der longitudinale Phasenraum wird dann in Form einer Akzeptanzmessung untersucht. Anschließend kann ein erweitertes Modell an die gewonnene Datenvielfalt angepasst werden, wodurch eine größere Signifikanz der Modellparameter erreicht wird.rnrnDie Ergebnisse dieser Untersuchungen zeigen, dass sich der Beschleuniger als Gesamtsystem im Wesentlichen wie vorhergesagt verhält und eine große Zahl unterschiedlicher Konfigurationen zum Strahlbetrieb möglich sind – im Routinebetrieb wird dies jedoch vermieden und eine bewährte Konfiguration für die meisten Situationen eingesetzt. Das führt zu einer guten Reproduzierbarkeit z.B. der Endenergie oder des Spinpolarisationswinkels an den Experimentierplätzen.rnrnDie Erkenntnisse aus diesen Untersuchungen wurden teilweise automatisiert, so dass nun den Operateuren zusätzliche und hilfreiche Diagnose zur Verfügung steht, mit denen der Maschinenbetrieb noch zuverlässiger durchgeführt werden kann.