738 resultados para Elbe-Weser-Gebiet


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Als paläoklimatische Archive können unter anderem Stalagmiten und Klappen von Ostrakoden herangezogen werden. Bisher gab es noch keine veröffentlichten Ergebnisse räumlich hochaufgelöster Spurenelementverteilungen in einzelnen Ostrakodenklappen. Das gleiche gilt für die Bestimmung radiogener Blei-Isotope in Stalagmiten. Um klimatische Prozesse vergangener Zeiten zu untersuchen, wurde eine neue LA-ICP-MS (Laserablations – Massenspektrometrie mit induktiv gekoppeltem Plasma) Technik für hochaufgelöste in-situ Messungen von Spurenelementen und Bleiisotopen entwickelt. rnrnZunächst wurden geeignete Materialien für die Kalibrierung der Technik untersucht; als Proben dienten die Silikatreferenzgläser BAM-S005-A und BAM-S005B der Bundesanstalt für Materialforschung und –prüfung (BAM). Die Homogenität dieser Referenzgläser wurde mit LA-ICP-MS und den anderen mikroanalytischen Methoden EPMA (Elektronenmikrosonde) und SIMS (Ionensonde) überprüft. Die Ergebnisse zeigten, dass alle Haupt- und die meisten Spurenelemente in beiden Gläsern selbst im Mikrometerbereich homogen verteilt sind. Ausnahmen sind einige Spurenelemente, wie Cs, Cl, Cr, Mo und Ni, die heterogen in den Gläsern verteilt sind. Die Hauptelementzusammensetzung von BAM-S005-A und BAM-S005-B wurde mit Hilfe der EPMA bestimmt, wobei die Ergebnisse die Referenzwerte des BAM-Zertifikats bestätigten. Mit Ausnahme von Sr, Ba, Ce und Pb, stimmten die LA-ICP-MS-Spurenelementwerte mit den zertifizierten Werten innerhalb der angegebenen Fehlergrenzen überein. Gründe für die Diskrepanz der vier oben erwähnten Elemente sind noch unklar, aber sind möglicherweise durch fehlerhafte Referenzwerte zu erklären. Zusätzlich wurden 22 Spurenelemente gemessen, deren Gehalte von BAM nicht zertifiziert wurden. Aufgrund dieser Untersuchungen konnte festgestellt werden, dass beide BAM-Gläser für mikroanalytische Anwendungen geeignet sind.rnrnUm neuartige paläoklimatische Proxies im Calcit von Ostrakoden aus tibetanischen Seesedimenten zu untersuchen, wurde die Spurenelementvariabilität in einzelnen Ostrakodenklappen durch eine neue LA-ICP-MS-Technik bestimmt. Klappen von Ostrakoden der drei Arten (Leucocytherella sinensis Huang, 1982, ?Leucocythere dorsotuberosa Huang, 1982 und ?L. dorsotuberosa f. postilirata sensu Pang, 1985) wurden aus zwei Sedimentkernen des Nam Co Sees auf dem Hochplateau von Tibet gewonnen. Zwei LA-ICP-MS-Varianten, Spot- bzw. Linienanalyse, wurden verwendet, um die Elementkonzentrationen der Spurenelemente Mg, Sr, Ba, U und die der Seltenen Erdelemente (SEE) in den Klappen einzelner Ostrakoden zu bestimmen. Die Ergebnisse zeigten, dass die Linienanalyse präzisere Daten als die Spotanalyse liefert und sie wurde daher vorgezogen. Signifikante Unterschiede in der Spurenelementzusammensetzung zwischen den verschiedenen Arten der Ostrakoden wurden nicht gefunden. Variationen der Elementverhältnisse Mg/Ca und Sr/Ca in den Klappen stimmen mit veröffentlichten Seenspiegelschwankungen während des Holozäns überein, was zeigt, dass Mg- und Sr-Messungen in den Ostrakoden zur Untersuchung paläohydrochemischer Prozesse in diesem Gebiet herangezogen werden kann. Die gute Korrelation, die in dieser Arbeit zwischen Ba/Ca und Sr/Ca gefunden wurde, ist ein Hinweis darauf, dass der Einbau von Ba und Sr in die Klappen durch den gleichen Mechanismus erfolgte. Eine mögliche Beziehung zwischen dem U/Ca-Verhältnis in den Ostrakoden und den Redoxbedingungen auf dem Boden des Sees in der Vergangenheit wird diskutiert. Relativ geringe und konstante La/Ca-Verhältnisse wurden festgestellt, deren Ursache möglicherweise entweder auf der SEE-Charakteristik des Seewassers, auf biologischen Prozessen in den Ostrakoden oder auf Kontamination von Fe-Mn und/oder organischen Substanzen beruhen. Weitere Untersuchungen an Proben aus diesem Gebiet, speziell Klappen von lebenden Ostrakoden, sind notwendig, um den Gehalt von Ba, U und den SEE in Ostrakoden als paläoklimatische Proxies von Umweltbedingungen zu verwenden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The goal of this thesis is the acceleration of numerical calculations of QCD observables, both at leading order and next–to–leading order in the coupling constant. In particular, the optimization of helicity and spin summation in the context of VEGAS Monte Carlo algorithms is investigated. In the literature, two such methods are mentioned but without detailed analyses. Only one of these methods can be used at next–to–leading order. This work presents a total of five different methods that replace the helicity sums with a Monte Carlo integration. This integration can be combined with the existing phase space integral, in the hope that this causes less overhead than the complete summation. For three of these methods, an extension to existing subtraction terms is developed which is required to enable next–to–leading order calculations. All methods are analyzed with respect to efficiency, accuracy, and ease of implementation before they are compared with each other. In this process, one method shows clear advantages in relation to all others.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die qualitative und quantitative Analyse von Biomolekülen hat in den letzten Jahren und Jahrzehnten immer mehr an Bedeutung gewonnen. Durch das Aufkommen und die kontinuierliche Weiterentwicklung neuer Separations- und Detektionsmethoden und deren Verbindung miteinander zu leistungsfähigen Einheiten, erlangte man Schritt für Schritt neue Erkenntnisse bei ihrer Untersuchung. Die Elementmassenspektrometrie als nachweisstarke Detektionsmethode wird von vielen wissenschaftlichen Arbeitsgruppen bei der Trennung und Quantifizierung von Proteinen und Metalloproteinen mittels Detektion der in den Biomolekülen vorkommenden Metalle und Heteroatome angewendet. Heteroatome (z.B. Schwefel, Phosphor) haben im Plasma des ICP-MS (inductively coupled plasma - mass spectrometer) schlechte Ionisationseigenschaften und dementsprechend deutlich höhere Nachweisgrenzen als Metalle. Ein Ansatz, schlecht oder nicht detektierbare Verbindungen (also solche, die keine Metalle oder Heteroatome enthalten) mit dem ICP-MS sichtbar zu machen, ist die Markierung der selbigen mit Metallionen oder -cluster. rnIn dieser Arbeit ist es gelungen, der Analyse ganz unterschiedlicher Substanzklassen, zum einen metallische Nanopartikel und zum anderen Proteine, neue Impulse zu geben und zukünftiges Potential bei der Anwendung gekoppelter Techniken zur Separation und Detektion aufzuzeigen. Durch die Verwendung einer alten, aber neu konzipierten Trenntechnik, der Gelelektrophorese (GE), und deren Kopplung an einen modernen Detektor, dem ICP-MS, kann die für die Proteinanalytik weit verbreitete Gelelektrophorese ihr enormes Potential bei der Trennung verschiedenster Verbindungsklassen mit der exzellenten Nachweisstärke und Elementspezifität des ICP-MS verbinden und dadurch mit deutlich weniger Arbeitsaufwand als bisher qualitative und auch quantitative Ergebnisse produzieren. Bisher war dies nur mit großem präparativem Aufwand unter Verwendung der laser ablation möglich. Bei der Analyse von Nanopartikeln konnte aufgezeigt werden, dass durch die GE-ICP-MS-Kopplung aufgrund der guten Trenneigenschaften der GE vorhandene Spezies bzw. Fraktionen voneinander separiert werden und mit Hilfe des ICP-MS Informationen auf atomarem Niveau gewonnen werden können. Es war möglich, das atomare Verhältnis der Metallatome im Kern und der Schwefelatome in der Ligandenhülle eines Nanopartikels zu bestimmen und damit die Größe des Partikels abzuschätzen. Auch konnte die Anzahl der Goldatome in einem dem Schmid-Cluster ähnlichen Nanopartikel bestimmt werden, was vorher nur mit Hilfe von MALDI-TOF möglich war. Bei der Analyse von Biomolekülen konnte auf einfache Weise der Phosphorylierungsgrad verschiedener Proteine bestimmt werden. Auch bei kleinen Molekülen erzielt die Gelelektrophorese ausgezeichnete Trennergebnisse, wie z. B. bei der Analyse verschiedener Brom- und Iodspezies.rnDie stöchiometrische Kopplung eines Proteins an einen Nanopartikel, ohne eine der beiden Verbindungen in einem größeren Maße zu verändern, stellte jedoch eine Herausforderung dar, die im Rahmen dieser Arbeit nicht vollständig gelöst werden konnte. Verschiedene Ansätze zur Kopplung der beiden Substanzen wurden erprobt, jedoch führte keine zu dem gewünschten Ergebnis einer stöchiometrisch vollständigen und spezifischen Modifikation eines Proteins mit einem Nanopartikel. Durch das Potential der GE-ICP-MS-Kopplung bei der Analyse beider Substanz-klassen und dem Beweis der Praktikabilität und Zuverlässigkeit der Methode ist jedoch der Grundstein für weitere Forschungen auf diesem Gebiet gelegt worden. Ist eine geeignete chemische Kopplung der beiden Substanzklassen gefunden und beherrscht, steht auf analytischer Seite eine leistungsstarke Kombination aus Trennung und Detektion zur Verfügung, um die Quantifizierung von Proteinen entscheidend zu verbessern.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Für das Vermögen der Atmosphäre sich selbst zu reinigen spielen Stickstoffmonoxid (NO) und Stickstoffdioxid (NO2) eine bedeutende Rolle. Diese Spurengase bestimmen die photochemische Produktion von Ozon (O3) und beeinflussen das Vorkommen von Hydroxyl- (OH) und Nitrat-Radikalen (NO3). Wenn tagsüber ausreichend Solarstrahlung und Ozon vorherrschen, stehen NO und NO2 in einem schnellen photochemischen Gleichgewicht, dem „Photostationären Gleichgewichtszustand“ (engl.: photostationary state). Die Summe von NO und NO2 wird deshalb als NOx zusammengefasst. Vorhergehende Studien zum photostationären Gleichgewichtszustand von NOx umfassen Messungen an unterschiedlichsten Orten, angefangen bei Städten (geprägt von starken Luftverschmutzungen), bis hin zu abgeschiedenen Regionen (geprägt von geringeren Luftverschmutzungen). Während der photochemische Kreislauf von NO und NO2 unter Bedingungen erhöhter NOx-Konzentrationen grundlegend verstanden ist, gibt es in ländlicheren und entlegenen Regionen, welche geprägt sind von niedrigeren NOx-Konzetrationen, signifikante Lücken im Verständnis der zugrundeliegenden Zyklierungsprozesse. Diese Lücken könnten durch messtechnische NO2-Interferenzen bedingt sein - insbesondere bei indirekten Nachweismethoden, welche von Artefakten beeinflusst sein können. Bei sehr niedrigen NOx-Konzentrationen und wenn messtechnische NO2-Interferenzen ausgeschlossen werden können, wird häufig geschlussfolgert, dass diese Verständnislücken mit der Existenz eines „unbekannten Oxidationsmittels“ (engl.: unknown oxidant) verknüpft ist. Im Rahmen dieser Arbeit wird der photostationäre Gleichgewichtszustand von NOx analysiert, mit dem Ziel die potenzielle Existenz bislang unbekannter Prozesse zu untersuchen. Ein Gasanalysator für die direkte Messung von atmosphärischem NO¬2 mittels laserinduzierter Fluoreszenzmesstechnik (engl. LIF – laser induced fluorescence), GANDALF, wurde neu entwickelt und während der Messkampagne PARADE 2011 erstmals für Feldmessungen eingesetzt. Die Messungen im Rahmen von PARADE wurden im Sommer 2011 in einem ländlich geprägten Gebiet in Deutschland durchgeführt. Umfangreiche NO2-Messungen unter Verwendung unterschiedlicher Messtechniken (DOAS, CLD und CRD) ermöglichten einen ausführlichen und erfolgreichen Vergleich von GANDALF mit den übrigen NO2-Messtechniken. Weitere relevante Spurengase und meteorologische Parameter wurden gemessen, um den photostationären Zustand von NOx, basierend auf den NO2-Messungen mit GANDALF in dieser Umgebung zu untersuchen. Während PARADE wurden moderate NOx Mischungsverhältnisse an der Messstelle beobachtet (10^2 - 10^4 pptv). Mischungsverhältnisse biogener flüchtige Kohlenwasserstoffverbindungen (BVOC, engl.: biogenic volatile organic compounds) aus dem umgebenden Wald (hauptsächlich Nadelwald) lagen in der Größenordnung 10^2 pptv vor. Die Charakteristiken des photostationären Gleichgewichtszustandes von NOx bei niedrigen NOx-Mischungsverhältnissen (10 - 10^3 pptv) wurde für eine weitere Messstelle in einem borealen Waldgebiet während der Messkampagne HUMPPA-COPEC 2010 untersucht. HUMPPA–COPEC–2010 wurde im Sommer 2010 in der SMEARII-Station in Hyytiälä, Süd-Finnland, durchgeführt. Die charakteristischen Eigenschaften des photostationären Gleichgewichtszustandes von NOx in den beiden Waldgebieten werden in dieser Arbeit verglichen. Des Weiteren ermöglicht der umfangreiche Datensatz - dieser beinhaltet Messungen von relevanten Spurengasen für die Radikalchemie (OH, HO2), sowie der totalen OH-Reaktivität – das aktuelle Verständnis bezüglich der NOx-Photochemie unter Verwendung von einem Boxmodell, in welches die gemessenen Daten als Randbedingungen eingehen, zu überprüfen und zu verbessern. Während NOx-Konzentrationen in HUMPPA-COPEC 2010 niedriger sind, im Vergleich zu PARADE 2011 und BVOC-Konzentrationen höher, sind die Zyklierungsprozesse von NO und NO2 in beiden Fällen grundlegend verstanden. Die Analyse des photostationären Gleichgewichtszustandes von NOx für die beiden stark unterschiedlichen Messstandorte zeigt auf, dass potenziell unbekannte Prozesse in keinem der beiden Fälle vorhanden sind. Die aktuelle Darstellung der NOx-Chemie wurde für HUMPPA-COPEC 2010 unter Verwendung des chemischen Mechanismus MIM3* simuliert. Die Ergebnisse der Simulation sind konsistent mit den Berechnungen basierend auf dem photostationären Gleichgewichtszustand von NOx.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Gebiet der drahtlosen Kommunikationsanwendungen befindet sich in einem permanenten Entwicklungsprozess (Mobilfunkstandards: GSM/UMTS/LTE/5G, glo-bale Navigationssatellitensysteme (GNSS): GPS, GLONASS, Galileo, Beidou) zu immer höheren Datenraten und zunehmender Miniaturisierung, woraus ein hoher Bedarf für neue, optimierte Hochfrequenzmaterialien resultiert. Diese Entwicklung zeigt sich besonders in den letzten Jahren in der zunehmenden Entwicklung und Anzahl von Smartphones, welche verschiedene Technologien mit unterschiedlichen Arbeitsfrequenzen innerhalb eines Geräts kombinieren (data: 1G-4G, GPS, WLAN, Bluetooth). Die für zukünftige Technologien (z.B. 5G) benötigte Performance-steigerung kann durch die Verwendung von auf MIMO basierenden Antennensystemen realisiert werden (multiple-input & multiple-output, gesteuerte Kombination von mehreren Antennen) für welche auf dielectric Loading basierende Technologien als eine der vielversprechendsten Implementierungslösungen angesehen werden. rnDas Ziel dieser Arbeit war die Entwicklung einer geeigneten paraelektrischen Glaskeramik ($varepsilon_{r}$ > 20, $Qf$ > 5000 GHz, |$tau_f$| < 20 ppm/K; im GHz Frequenzbe-reich) im $mathrm{La_{2}O_{3}}$-$mathrm{TiO_{2}}$-$mathrm{SiO_{2}}$-$mathrm{B_{2}O_{3}}$-System für auf dielectric Loading basierende Mobilfunkkommunikationstechnologien als Alternative zu existierenden kommerziell genutzten Sinterkeramiken. Der Fokus lag hierbei auf der Frage, wie die makroskopi-schen dielektrischen Eigenschaften der Glaskeramik mit ihrer Mikrostruktur korreliert bzw. modifiziert werden können. Es konnte gezeigt werden, dass die dielektrischen Materialanforderungen durch das untersuchte System erfüllt werden und dass auf Glaskeramik basierende Dielektrika weitere vorteilhafte nichtelektro-nische Eigenschaften gegenüber gesinterten Keramiken besitzen, womit dielektrische Glaskeramiken durchaus als geeignete Alternative angesehen werden können. rnEin stabiles Grünglas mit minimalen Glasbildneranteil wurde entwickelt und die chemische Zusammensetzung bezüglich Entglasung und Redoxinstabilitäten optimiert. Geeignete Dotierungen für dielektrisch verlustarme $mathrm{TiO_{2}}$-haltige Glaskeramiken wurden identifiziert.rnDer Einfluss der Schmelzbedingungen auf die Keimbildung wurde untersucht und der Keramisierungsprozess auf einen maximalen Anteil der gewünschten Kristallphasen optimiert um optimale dielektrische Eigenschaften zu erhalten. Die mikroskopische Struktur der Glaskeramiken wurde analysiert und ihr Einfluss auf die makroskopischen dielektrischen Eigenschaften bestimmt. Die Hochfrequenzverlustmechanismen wurden untersucht und Antennen-Prototypenserien wurden analysiert um die Eignung von auf Glaskeramik basierenden Dielektrika für die Verwendung in dielectric Loading Anwendungen zu zeigen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ozon (O3) ist ein wichtiges Oxidierungs- und Treibhausgas in der Erdatmosphäre. Es hat Einfluss auf das Klima, die Luftqualität sowie auf die menschliche Gesundheit und die Vegetation. Ökosysteme, wie beispielsweise Wälder, sind Senken für troposphärisches Ozon und werden in Zukunft, bedingt durch Stürme, Pflanzenschädlinge und Änderungen in der Landnutzung, heterogener sein. Es ist anzunehmen, dass diese Heterogenitäten die Aufnahme von Treibhausgasen verringern und signifikante Rückkopplungen auf das Klimasystem bewirken werden. Beeinflusst wird der Atmosphären-Biosphären-Austausch von Ozon durch stomatäre Aufnahme, Deposition auf Pflanzenoberflächen und Böden sowie chemische Umwandlungen. Diese Prozesse zu verstehen und den Ozonaustausch für verschiedene Ökosysteme zu quantifizieren sind Voraussetzungen, um von lokalen Messungen auf regionale Ozonflüsse zu schließen.rnFür die Messung von vertikalen turbulenten Ozonflüssen wird die Eddy Kovarianz Methode genutzt. Die Verwendung von Eddy Kovarianz Systemen mit geschlossenem Pfad, basierend auf schnellen Chemilumineszenz-Ozonsensoren, kann zu Fehlern in der Flussmessung führen. Ein direkter Vergleich von nebeneinander angebrachten Ozonsensoren ermöglichte es einen Einblick in die Faktoren zu erhalten, die die Genauigkeit der Messungen beeinflussen. Systematische Unterschiede zwischen einzelnen Sensoren und der Einfluss von unterschiedlichen Längen des Einlassschlauches wurden untersucht, indem Frequenzspektren analysiert und Korrekturfaktoren für die Ozonflüsse bestimmt wurden. Die experimentell bestimmten Korrekturfaktoren zeigten keinen signifikanten Unterschied zu Korrekturfaktoren, die mithilfe von theoretischen Transferfunktionen bestimmt wurden, wodurch die Anwendbarkeit der theoretisch ermittelten Faktoren zur Korrektur von Ozonflüssen bestätigt wurde.rnIm Sommer 2011 wurden im Rahmen des EGER (ExchanGE processes in mountainous Regions) Projektes Messungen durchgeführt, um zu einem besseren Verständnis des Atmosphären-Biosphären Ozonaustauschs in gestörten Ökosystemen beizutragen. Ozonflüsse wurden auf beiden Seiten einer Waldkante gemessen, die einen Fichtenwald und einen Windwurf trennt. Auf der straßenähnlichen Freifläche, die durch den Sturm "Kyrill" (2007) entstand, entwickelte sich eine Sekundärvegetation, die sich in ihrer Phänologie und Blattphysiologie vom ursprünglich vorherrschenden Fichtenwald unterschied. Der mittlere nächtliche Fluss über dem Fichtenwald war -6 bis -7 nmol m2 s-1 und nahm auf -13 nmol m2 s-1 um die Mittagszeit ab. Die Ozonflüsse zeigten eine deutliche Beziehung zur Pflanzenverdunstung und CO2 Aufnahme, was darauf hinwies, dass während des Tages der Großteil des Ozons von den Pflanzenstomata aufgenommen wurde. Die relativ hohe nächtliche Deposition wurde durch nicht-stomatäre Prozesse verursacht. Die Deposition über dem Wald war im gesamten Tagesverlauf in etwa doppelt so hoch wie über der Freifläche. Dieses Verhältnis stimmte mit dem Verhältnis des Pflanzenflächenindex (PAI) überein. Die Störung des Ökosystems verringerte somit die Fähigkeit des Bewuchses, als Senke für troposphärisches Ozon zu fungieren. Der deutliche Unterschied der Ozonflüsse der beiden Bewuchsarten verdeutlichte die Herausforderung bei der Regionalisierung von Ozonflüssen in heterogen bewaldeten Gebieten.rnDie gemessenen Flüsse wurden darüber hinaus mit Simulationen verglichen, die mit dem Chemiemodell MLC-CHEM durchgeführt wurden. Um das Modell bezüglich der Berechnung von Ozonflüssen zu evaluieren, wurden gemessene und modellierte Flüsse von zwei Positionen im EGER-Gebiet verwendet. Obwohl die Größenordnung der Flüsse übereinstimmte, zeigten die Ergebnisse eine signifikante Differenz zwischen gemessenen und modellierten Flüssen. Zudem gab es eine klare Abhängigkeit der Differenz von der relativen Feuchte, mit abnehmender Differenz bei zunehmender Feuchte, was zeigte, dass das Modell vor einer Verwendung für umfangreiche Studien des Ozonflusses weiterer Verbesserungen bedarf.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Spin Seebeck Effekt repräsentiert einen neuartigen Spin kalorischen Effekt mit vorteilhaften und aussichtsreichen Eigenschaften für Anwendungen in den Gebieten der Spintronik und Thermoelektrik.rnIn dieser Arbeit präsentieren wir eine umfangreiche Untersuchung des Spin Seebeck Effekts in isolierenden, magnetischen Granaten und geben Antworten zum kontrovers diskutierten Ursprung des Effekts. Um dieses Ziel zu erreichen, haben wir die Abhängigkeit des Spin Seebeck Effekts von der Dicke des Ferromagneten, der Temperatur, der Stärke des magnetisches Feldes, der Grenzflächen und des Detektormaterials, sowie Kombinationen dieser Parameter gemessen. Im Zuge dessen haben wir das Wachstum der untersuchten magnetischen Granate optimiert und eine umfassende Analyse der strukturellen und magnetischen Parameter durchgeführt, um Einflüsse der Probenqualität auszuschließen. Des Weiteren zeigte eine Untersuchung des magnetoresistiven Effekts, welcher als mögliche Ursache des Effekts galt, in Kombination mit einer Studie des Messaufbaus, dass parasitäre Einflüsse auf das Messergebnis ausgeschlossen werden können. Unsere Ergebnisse zeigen, dass der Spin Seebeck Effekt mit zunehmender Dicke des Ferromagneten eine Sättigung des Signals aufweist. Diese hängt zudem von der Temperatur ab, da mit abnehmender Temperatur die Sättigung erst bei dickeren Filmen auftritt. Außerdem fanden unsere Messungen ein Maximum des Spin Seebeck Effekts für Temperaturen unterhalb der Raumtemperatur, welcher sowohl von der Dicke des Materials als auch der Magnetfeldstärke und dem Detektormaterial beeinflusst wird. In Messungen bei hohen magnetischen Feldstärken beobachteten wir eine Unterdrückung des Messsignals, dessen Ursache mithilfe von Simulationen auf den magnonischen Ursprung des Spin Seebeck Effekts zurückgeführt werden kann. Dies unterstreicht, dass der Effekt auf vom Ferromagneten emittierten Magnonen basiert. Im letzten Abschnitt dieser Arbeit präsentieren wir Messungen in einem bislang nicht untersuchten ferrimagnetischen Material, welche zwei Vorzeichenwechsel des Spin Seebeck Effekts als Funktion der Temperatur aufzeigen. Dieses bisher unbekannte Signalverhalten betont, dass der Effekt aus einem komplexen Zusammenspiel der magnonischen Moden resultiert und zusätzlich vom Detektormaterial abhängt.rnSomit tragen unsere Ergebnisse und Beobachtungen im hohen Maße zur Beantwortung der Frage nach dem Ursprungs des Spin Seebeck Effekts bei und zeigen neuartige bisher nicht beobachtete Effekte, welche ein neues Kapitel für das Gebiet der Spin Kaloritronik eröffnen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation ist eine molekulargenetische Studie an humanem neolithischem Skelettmaterial. Im zentralen Blickpunkt stand die Bestimmung der Variabilität der mitochondrialen Haplogruppen einer frühneolithischen Stichprobe aus drei unterschiedlichen Kulturkreisen, welche die Linearbandkeramik (LBK und AVK), die Körös-Kultur und eine Sammelkategorie osteuropäischer spätmeso- und frühneolithischer Kulturen umfasste. Im Vergleich dieser Gruppen untereinander sowie mit Rezentdaten moderner Populationen aus vergleichbaren Gebieten Mittel- und Osteuropas sowie dem Nahen Osten sollten bestehende Modelle und Hypothesen zur Neolithisierung Mitteleuropas geprüft werden. Insgesamt konnte für 43 neolithische Individuen aus 16 Fundorten der reproduzierbare Nachweis endogener DNA erbracht werden. Eine eindeutige Haplogruppenbestimmung konnte durch die Sequenzierung vier überlappender Fragmente der mitochondrialen Hypervariablen Region I sowie durch RFLP-Analyse zusätzlicher charakteristischer Nukleotidpositionen für alle 43 Individuen durchgeführt werden. Die neolithischen Individuen der Linearbandkeramik sowie der Körös-Kultur zeigten eine hohe Diversität an bekannten europäischen Haplogruppen, wohingegen die kleinere Stichprobe aus dem Gebiet Osteuropas eine auffällige Homogenität aufwies. Neben Frequenzunterschieden zur modernen mitteleuropäischen Bevölkerung war innerhalb der LBK/AVK-Stichprobe eine hohe Frequenz der Haplogruppe N1a festzustellen, welche nicht in den beiden anderen neolithischen Stichproben zu finden war und auch in der heutigen Rezentbevölkerung Eurasiens und Nordafrikas nur mit einer durchschnittlichen Frequenz von 0,2% vertreten ist. Innerhalb der Individuen der Körös-Kultur fanden sich zwei Haplotypen, welche heute nicht in Europa bekannt sind, dagegen jedoch in Süd- bzw. Nordostasien gehäuft vorkommen. Die Ergebnisse der aDNA-Analysen bestätigten im Wesentlichen das komplexe Bild der Neolithischen Transition in Mitteleuropa und konnten die, für diesen Raum postulierte, Hypothese der leap frog colonization weitestgehend unterstützen. Auch für den geographischen Vergleichsraum des nördlichen Osteuropa konnten Parallelen zur etablierten Sichtweise der archäologischen Forschung zu diesem Gebiet und den vorliegenden Ergebnissen der aDNA-Analysen aufgezeigt werden. Die zeitlich verzögerte Annahme der neolithischen Lebensweise im waldreichen nördlichen Osteuropa spiegelt sich in der reduzierten Diversität an mtDNA-Haplogruppen wider. Die vorliegende Dissertation konnte nicht nur durch die Ergebnisse der Haplogruppen-Bestimmung, sondern vor allem durch die umfangreichen und elaborierten Reproduktions- und Authentifizierungprotokolle deutlich machen, dass der Nachweis von humaner alter DNA trotz der allgegenwärtigen, methodenimmanenten Kontaminationsgefahr unter streng kontrollierten Bedingungen möglich ist. Gleichermaßen konnte veranschaulicht werden, dass die aDNA-Analyse wertvolle Hinweise auf das genetische status quo einer Population liefern kann, welche nicht bzw. nur in sehr eingeschränkten Maße von rezenten DNA-Daten abgeleitet werden können. Als sekundäres Ergebnis erlaubte der bislang größte vorliegende Datensatz von ~2500 Klonsequenzen zudem einen detaillierten Einblick in Häufigkeiten und Verteilungsmuster von post mortem Sequenzveränderungen. Es konnten für den mitochondrialen Bereich der Nukleotidpositionen 15997-16409 so genannte hot bzw. cold spots definiert werden, welche für die Auswertung und Interpretation von zukünftigen Sequenzierungen der Hypervariablen Region I des mt-Genoms von entscheidender Bedeutung sein werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Klimamontoring benötigt eine operative, raum-zeitliche Analyse der Klimavariabilität. Mit dieser Zielsetzung, funktionsbereite Karten regelmäßig zu erstellen, ist es hilfreich auf einen Blick, die räumliche Variabilität der Klimaelemente in der zeitlichen Veränderungen darzustellen. Für aktuelle und kürzlich vergangene Jahre entwickelte der Deutsche Wetterdienst ein Standardverfahren zur Erstellung solcher Karten. Die Methode zur Erstellung solcher Karten variiert für die verschiedenen Klimaelemente bedingt durch die Datengrundlage, die natürliche Variabilität und der Verfügbarkeit der in-situ Daten.rnIm Rahmen der Analyse der raum-zeitlichen Variabilität innerhalb dieser Dissertation werden verschiedene Interpolationsverfahren auf die Mitteltemperatur der fünf Dekaden der Jahre 1951-2000 für ein relativ großes Gebiet, der Region VI der Weltorganisation für Meteorologie (Europa und Naher Osten) angewendet. Die Region deckt ein relativ heterogenes Arbeitsgebiet von Grönland im Nordwesten bis Syrien im Südosten hinsichtlich der Klimatologie ab.rnDas zentrale Ziel der Dissertation ist eine Methode zur räumlichen Interpolation der mittleren Dekadentemperaturwerte für die Region VI zu entwickeln. Diese Methode soll in Zukunft für die operative monatliche Klimakartenerstellung geeignet sein. Diese einheitliche Methode soll auf andere Klimaelemente übertragbar und mit der entsprechenden Software überall anwendbar sein. Zwei zentrale Datenbanken werden im Rahmen dieser Dissertation verwendet: So genannte CLIMAT-Daten über dem Land und Schiffsdaten über dem Meer.rnIm Grunde wird die Übertragung der Punktwerte der Temperatur per räumlicher Interpolation auf die Fläche in drei Schritten vollzogen. Der erste Schritt beinhaltet eine multiple Regression zur Reduktion der Stationswerte mit den vier Einflussgrößen der Geographischen Breite, der Höhe über Normalnull, der Jahrestemperaturamplitude und der thermischen Kontinentalität auf ein einheitliches Niveau. Im zweiten Schritt werden die reduzierten Temperaturwerte, so genannte Residuen, mit der Interpolationsmethode der Radialen Basis Funktionen aus der Gruppe der Neuronalen Netzwerk Modelle (NNM) interpoliert. Im letzten Schritt werden die interpolierten Temperaturraster mit der Umkehrung der multiplen Regression aus Schritt eins mit Hilfe der vier Einflussgrößen auf ihr ursprüngliches Niveau hochgerechnet.rnFür alle Stationswerte wird die Differenz zwischen geschätzten Wert aus der Interpolation und dem wahren gemessenen Wert berechnet und durch die geostatistische Kenngröße des Root Mean Square Errors (RMSE) wiedergegeben. Der zentrale Vorteil ist die wertegetreue Wiedergabe, die fehlende Generalisierung und die Vermeidung von Interpolationsinseln. Das entwickelte Verfahren ist auf andere Klimaelemente wie Niederschlag, Schneedeckenhöhe oder Sonnenscheindauer übertragbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To evaluate the significance of multislice CT for the diagnosis of uncertain penetrating globe injuries.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To judge the possibilities of detection of orbital foreign bodies in multidetector CT (MDCT) with a focus on glass slivers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Detailed evaluation and cost analysis of a cranial contrast-enhanced MRI (c-ceMRI) in outpatients, inpatients, patients in an intensive care unit and children under anesthesia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The therapy of acute ischemic stroke aims at fast recanalization of the occluded brain vessel. In contrast to intravenous thrombolysis (IVT), endovascular approaches yield higher recanalization rates especially in large vessel occlusions. Mechanical thrombectomy with the Merci Retriever received FDA approval in 2004 as an adjunct to IVT or in the case of failed recanalization after IVT. The time window for treatment is 8 h from stroke onset. However, the recanalization rate was 55 %, still leaving space for further improvement. In addition to the Merci Retriever, the Penumbra System received FDA approval in 2008. The newest endovascular approach comprising retrievable intracranial stents results in an increased recanalization rate exceeding 90 % and has markedly reduced the time to recanalization. On the other hand, the complication rate has not increased yet. These promising results suggest a combined therapy for acute ischemic stroke. In a first step IVT can be started independently of the size of the treating hospital and in a next step the patient is transferred to a neuroradiological center. If vessel occlusion persists, additional endovascular recanalization is performed (bridging concept). Patients who don't qualify for IVT are candidates for mechanical thrombectomy up to 8 h after stroke onset.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

To evaluate the effectiveness and safety of covered stents for the management of iatrogenic arterial injury.