1000 resultados para Hilfe


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wurde an derDrei-Spektrometer-Anlage des Beschleunigers MAMI das erstehochauflösende (e,e'pp)-Experiment in super-parallelerKinematik zur Untersuchung kurzreichweitiger Korrelationendurchgeführt. Mit der erzielten Energieauflösung in derAnregungsenergie des Restkerns von ?Ex ? 500 keVkonnten die einzelnen Endzustände der Reaktion16O(e,e'pp)14C gut voneinandergetrennt werden. Die Durchführung mehrerer Messungen mitunterschiedlichen Einstellungen der Hadronspektrometer hates ermöglicht, Verteilungen im fehlende Impuls für dieeinzelnen Endzustände von 14C im Bereich von -100MeV/c bis etwa 300 MeV/c anzugeben. Die apparativen Voraussetzungen für die Durchführung diesesExperimentes wurden durch den Aufbau und die Inbetriebnahmedes Spurdetektors von Spektrometer C im Rahmen dieser Arbeitgeschaffen. Der Detektor besteht aus vier Ebenen vonvertikalen Driftkammern mit einer sensitiven Fläche von(0.34 x 2.32) m2. Die Ortsauflösung ist besserals 100 ?m, die Winkelauflösung besser als 0.3 mrad in dendispersiven Koordinaten des Spektrometers. Durch den Einsatzspezieller Programme zur Spurrekonstruktion könnenNachweiswahrscheinlichkeiten von nahezu 100 % erzieltwerden. Nach der Inbetriebnahme von Spektrometer C wurde im Rahmendieser Arbeit die erste Dreifach-Koinzidenz-Testmessung ander Drei-Spektrometer-Anlage vorbereitet und erfolgreichdurchgeführt, sowie die ersten Messungen zum3He(e,e'pp)n-Experiment begonnen. Das bestehendeWassertarget wurde in Betrieb genommen, an die speziellenErfordernisse des C-Experimentes angepaßt und dessenZuverlässigkeit verbessert. Die Ergebnisse des16O(e,e'pp)14C-Experimentes wurden mitzwei mikroskopischen Rechnungen, die von realistischenNukleon-Nukleon-Potentialen ausgehen, verglichen, denModellen der Pavia- und der Gent-Gruppe. Der Vergleich zeigtein recht gute Übereinstimmung zwischen Theorie undExperiment. Gerade die gute Beschreibung des Grundzustandesum pm = 0 MeV/c gibt deutliche Hinweise aufkurzreichweitige Korrelationen im Grundzustand von16O. Die Untergrundprozesse, insbesondere dieAnregung der ?-Resonanz, werden von den Modellen gutbehandelt. Dies wird durch die sehr gute Beschreibung desÜberganges zum 1+ Zustandes bei Ex =11.3 MeV belegt, da dieser Übergang durch die Emission von3P Protonpaare dominiert wird. Bei derBeschreibung des Überganges zum ersten 2+ Zustandgibt es noch Diskrepanzen, die eine nicht ausreichendeBeschreibung dieses Überganges durch die theoretischenModelle andeuten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wurde eine Routinemethode zur Differenzierung und Identifizierung von Unterlagssorten in jedem Verarbeitungsstadium, wie Holz, Pfropfrebe, bereits im Weinberg gepflanzte Rebe, entwickelt. Hierfür wurde eine Methode erarbeitet, die es ermöglicht, DNA aus Blättern, Holz und Wurzeln gleichermaßen zu extrahieren. Vermischungen von Unterlagssorten in einem Unterlagenholzbündel konnten bis zu 10% Fremd-Unterlagenholz durch eine RAPD-PCR nachgewiesen werden. Mit den 12mer Primer #722b und #722c wurden sortenspezifische Banden für die Unterlagssorten Börner, 8B, 3309C und 5BB festgestellt. Der Primers # 751 war in der Lage von 151 Unterlagssorten und Wildarten 144 Genotypen zu unterschieden. Mit Hilfe der Optimierung von RAMP-Zeiten konnten die Bandenmuster der sieben in Deutschland am häufigsten verwendeten Unterlagssorten auf zwei unterschiedlichen Thermocyclern reproduziert werden. Aufgrund der Optimierung der RAPD-PCR war es möglich, die zur Unterscheidung notwendigen Banden durch eine lineare Transformation anhand einer ermittelten Referenzbande mathematisch und graphisch darzustellen. Klone der Unterlagssorten SO4, 125AA und 5C, sowie die Unterlagssorte Binova, wurden auf die Unterscheidungsmöglichkeit hin mit RAPD, AFLP und SAMPL untersucht. Innerhalb der AFLP-/SAMPL-Methode bildeten die zu einer Sorte gehörenden Unterlagenklone ein Cluster, wobei Binova innerhalb der SO4 Klone zu finden war. Es wurden ‚unterlagssortenspezifische Banden’, ‚wiederholende Banden’ und ‚Einzelbanden’ gefunden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In-situ Messung großer Hydrometeore mit Hilfe derIn-line-Holographie Diese Dissertation beschreibt die Entwicklung und Erprobungeiner Apparatur zur holographischen In-situ-Messung großerHydrometeore (HODAR). Dazu wird eine dreidimensionaleMomentaufnahme eines etwa 500 dm³ großes Meßvolumen derfreien Atmosphäre mittels der In-line-Holographieaufgezeichnet. In dieser Aufnahme kann die Größe und Formeinzelner Hydrometeore, aber auch ihre Position imMeßvolumen ausgemessen werden. Daraus sind Größen- undAbstandsverteilungen der Hydrometeore zu bestimmen. MitHilfe von Doppelbelichtungen lassen sich zusätzlich auchihre Geschwindigkeiten ermitteln.Im Verlauf dieser Arbeit werden zunächst die Hydrometeorevorgestellt. Die theoretischen Möglichkeiten einer Apparaturzur In-situ-Messung werden aus den Eigenschaften desholographischen Bildes entwickelt. Anschließend wird derverwirklichte Aufbau des HODAR erläutert. Kalibrierung undTest, sowie Messungen, die die Fähigkeiten des HODAR unterBeweis stellen, werden beschrieben.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der Filmbildungsprozess wässriger Polymerdispersionen wurde mit forcierter Rayleighstreuung untersucht.Diffusionskoeffizienten D von Farbstoffsonden sind damit zwischen 10^-21 und 10^-9 m^2s^-1 zugänglich. Das Diffusionsverhalten der hydrophoben FarbstoffsondeAberchrome in feuchten und trockenen Filmen aus Poly(n-butylmethacrylat-co-acrylsäure)-Dispersionen sowie bei der Wiederbefeuchtung trockener Filme wurde untersucht.Die Dynamik von Aberchrome weicht in feuchten Filmen von Fickscher Diffusion ab. Dies äußert sich in Abweichungen vomcharakteristischen q^2-Verhalten der Relaxationsrate tau^-1 (tau^-1 = Dq^2; q:Streuvektor) und im Auftreten gestrecktexponentieller Intensitätsrelaxationskurven. Diese Anomalie wurde mit einem apparenten, längenskalenabhängigen Diffusionskoeffizienten Dapp(Lambda) (Lambda= 2Pi/q) beschrieben, der für Lambda -> 0 Werte annimmt, die einem homogen hydroplastifizierten Polymermaterial entsprechen, während Dapp(Lambda) für Lambda -> Unendlich stark anwächst. Diese Anomalien verschwinden bei Wassergehalten entsprechend der Polymerwasserlöslichkeit. Weiteres Trocknen führt zum Absinken des Fickschen-Diffusionskoeffizienten auf einen Grenzwert für trockene Filme. Die Ergebnisse konnten mit einem Zwei-Zustands-Modell beschrieben werden: Die Sonde diffundiert Ficksch in einer hydrophilen Grenzflächenphase und einer langsamen Polymerphase. Austausch zwischendiesen Phasen ist ohne Einschränkung möglich. Das Modell erlaubt die Quantifizierung des Einflusses des Trocknungsprozesses auf Polymer- und Grenzflächenphaseneigenschaften.Dies wurde durch systematische Veränderungen der Grenzflächeneigenschaften demonstriert. Dies geschah durch Acrylsäuregehaltvariationen in den Poly(n-butylmethacrylat-co-acrylsäure)-Dispersionen und Emulgatorbedeckungsgradvariationen. In beiden Fällen reflektieren sich Dispersionsveränderungen in einer Veränderung der Modellparameter in der Grenzflächenphase.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Zusammenfassung der Dissertation von Anatol Julian Kallmann Farbkonstanz und Farbkontrast – eine Untersuchung mit Hilfeder farbigen Schatten Die farbigen Schatten werden als ein Spezialfall dessimultanen Farbkontrastes angesehen. Um herauszufinden,warum die farbigen Schatten im Vergleich zur gewöhnlichenDarstellung des simultanen Farbkontrastes so intensiv farbigerscheinen, wurde das Phänomen hinsichtlich derFarbparameter Helligkeit, Sättigung und Farbton analysiert. Der Induktionseffekt scheint weniger von der Sättigung desUmfeldes als vom Leuchtdichtekontrast zwischen dem Umfeldund dem Infeld abhängig zu sein.Das farbig beleuchtete Umfeld wurde von den Versuchspersonenmit einer geringeren Farbsättigung im Verhältnis zurtatsächlichen Umfeldsättigung eingestellt. Die Farbe desUmfeldes wurde unterschiedlich wahrgenommen, wenn keinzentrales Testfeld präsentiert wurde.Dichromaten nahmen das physikalisch weiße Infeld ebenfallsfarbig wahr. Sie stellten Farben auf dem Abgleichbildschirmein, deren Farborte in der CIE-Farbtafel auf denVerwechslungslinien liegen und somit denen der Trichromatenentsprechen. Die Farbbenennungen wichen jedoch von denen derTrichromaten ab. Das Phänomen der farbigen Schatten scheint ein Spezialfallder Farbkonstanz zu sein: Vermutlich dient das Umfeld alshellste Fläche im Gesichtsfeld dem visuellen System alsReferenz. Wenn die Helligkeit des zentralen Infeldeszunimmt, so dass dieses letztlich im visuellen Felddominiert, dann ist das visuelle System in der Lage, es als'weiß' wahrzunehmen. Es verwendet dann wahrscheinlich diesesFeld als Weißreferenz, welches die übrigen Farben imGesichtsfeld bestimmt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Für die Zukunft wird eine Zunahme an Verkehr prognostiziert, gleichzeitig herrscht ein Mangel an Raum und finanziellen Mitteln, um weitere Straßen zu bauen. Daher müssen die vorhandenen Kapazitäten durch eine bessere Verkehrssteuerung sinnvoller genutzt werden, z.B. durch Verkehrsleitsysteme. Dafür werden räumlich aufgelöste, d.h. den Verkehr in seiner flächenhaften Verteilung wiedergebende Daten benötigt, die jedoch fehlen. Bisher konnten Verkehrsdaten nur dort erhoben werden, wo sich örtlich feste Meßeinrichtungen befinden, jedoch können damit die fehlenden Daten nicht erhoben werden. Mit Fernerkundungssystemen ergibt sich die Möglichkeit, diese Daten flächendeckend mit einem Blick von oben zu erfassen. Nach jahrzehntelangen Erfahrungen mit Fernerkundungsmethoden zur Erfassung und Untersuchung der verschiedensten Phänomene auf der Erdoberfläche wird nun diese Methodik im Rahmen eines Pilotprojektes auf den Themenbereich Verkehr angewendet. Seit Ende der 1990er Jahre wurde mit flugzeuggetragenen optischen und Infrarot-Aufnahmesystemen Verkehr beobachtet. Doch bei schlechten Wetterbedingungen und insbesondere bei Bewölkung, sind keine brauchbaren Aufnahmen möglich. Mit einem abbildenden Radarverfahren werden Daten unabhängig von Wetter- und Tageslichtbedingungen oder Bewölkung erhoben. Im Rahmen dieser Arbeit wird untersucht, inwieweit mit Hilfe von flugzeuggetragenem synthetischem Apertur Radar (SAR) Verkehrsdaten aufgenommen, verarbeitet und sinnvoll angewendet werden können. Nicht nur wird die neue Technik der Along-Track Interferometrie (ATI) und die Prozessierung und Verarbeitung der aufgenommenen Verkehrsdaten ausführlich dargelegt, es wird darüberhinaus ein mit dieser Methodik erstellter Datensatz mit einer Verkehrssimulation verglichen und bewertet. Abschließend wird ein Ausblick auf zukünftige Entwicklungen der Radarfernerkundung zur Verkehrsdatenerfassung gegeben.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit behandelt die Adsorption von Phospholipidvesikeln, Proteinen und Latex Beads an funktionalisierten festkörpergestützten Oberflächen. Der Schwerpunkt der Abhandlung liegt in der Modellierung der Kinetik mit Hilfe eines Simulationsprogramms unter Berücksichtigung des Massentransports in Staupunktgeometrie, der Adsorption und nachfolgender konformativer Änderungen adhärierter Partikel. Das Simulationsprogramm basiert auf einem RSA (random sequential adsorption) Algorithmus und erlaubt es aufgrund zusätzlich implementierter Optionen, z.B. zur Behandlung elektrostatischer Abstoßung, von Spreitprozessen oder von Desorptionsereignissen, den Adsorptionsprozess unter realistischen physikalischen Bedingungen nachzuempfinden und spezifische biologische Fragestellungen zu beantworten. Aus Anpassungen von Simulationen an experimentelle Daten ergeben sich dynamische Parameter, wie z.B. die Transport-, Adsorptions-, Spreit- und die Desorptionsrate. Die experimentellen Daten wurden mit Hilfe der Quarzmikrowaagetechnik (QCM), der Impedanzspektroskopie (IS) und der Rasterkraftmikroskopie (AFM) erhoben. Zusätzlich zur Kinetik gibt die graphische Ausgabe des Simulationsprogramms Aufschluss über die Oberflächenverteilung der adsorbierten und gespreiteten Partikel. Bei der Untersuchung von Systemen, in denen die Adsorption reversibel ist und infolge dessen Desorptionsprozesse eine wichtige Rolle spielen, wurde mit Hilfe des Simulationsprogramms ein völlig neuartiges Sensorkonzept in Aussicht gestellt. Es wurde gezeigt, dass aus der Analyse des Leistungsspektrums der Fluktuationen in der Belegung die Kinetik von Adsorption und Desorption ermittelt werden kann. Dies ist aus sensorischer Sicht interessant, da eine Vielzahl störender Einflüsse, wie z.B: der Massentransport und die elektronische Drift in diesem Fall nicht berücksichtigt werden müssen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coupled-Cluster-Theorie (CC) ist in der heutigen Quantenchemie eine der erfolgreichsten Methoden zur genauen Beschreibung von Molekülen. Die in dieser Arbeit vorgestellten Ergebnisse zeigen, daß neben den Berechnungen von Energien eine Reihe von Eigenschaften wie Strukturparameter, Schwingungsfrequenzen und Rotations-Schwingungs-Parameter kleiner und mittelgrofler Moleküle zuverlässig und präzise vorhergesagt werden können. Im ersten Teil der Arbeit wird mit dem Spin-adaptierten Coupled-Cluster-Ansatz (SA-CC) ein neuer Weg zur Verbesserung der Beschreibung von offenschaligen Systemen vorgestellt. Dabei werden zur Bestimmung der unbekannten Wellenfunktionsparameter zusätzlich die CC-Spingleichungen gelöst. Durch dieses Vorgehen wird gewährleistet, daß die erhaltene Wellenfunktion eine Spineigenfunktion ist. Die durchgeführte Implementierung des Spin-adaptierten CC-Ansatzes unter Berücksichtigung von Einfach- und Zweifachanregungen (CCSD) für high-spin Triplett-Systeme wird ausführlich erläutert. Im zweiten Teil werden CC-Additionsschemata vorgestellt, die auf der Annahme der Additivität von Elektronenkorrelations- und Basissatzeffekten basieren. Die etablierte Vorgehensweise, verschiedene Beiträge zur Energie mit an den Rechenaufwand angepassten Basissätzen separat zu berechnen und aufzusummieren, wird hier auf Gradienten und Kraftkonstanten übertragen. Für eine Beschreibung von Bindungslängen und harmonischen Schwingungsfrequenzen mit experimenteller Genauigkeit ist die Berücksichtigung von Innerschalenkorrelationseffekten sowie Dreifach- und Vierfachanregungen im Clusteroperator der Wellenfunktion nötig. Die Basissatzkonvergenz wird dabei zusätzlich mit Extrapolationsmethoden beschleunigt. Die quantitative Vorhersage der Bindungslängen von 17 kleinen Molekülen, aufgebaut aus Atomen der ersten Langperiode, ist so mit einer Genauigkeit von wenigen Hundertstel Pikometern möglich. Für die Schwingungsfrequenzen dieser Moleküle weist das CC-Additionsschema basierend auf den berechneten Kraftkonstanten im Vergleich zu experimentellen Ergebnissen einen mittleren absoluten Fehler von 3.5 cm-1 und eine Standardabweichung von 2.2 cm-1 auf. Darüber hinaus werden zur Unterstützung von experimentellen Untersuchungen berechnete spektroskopische Daten einiger größerer Moleküle vorgelegt. Die in dieser Arbeit vorgestellten Untersuchungen zur Isomerisierung von Dihalogensulfanen XSSX (X= F, Cl) oder die Berechnung von Struktur- und Rotations-Schwingungs-Parametern für die Moleküle CHCl2F und CHClF2 zeigen, daß bereits störungstheoretische CCSD(T)-Näherungsmethoden qualitativ gute Vorhersagen experimenteller Resultate liefern. Desweiteren werden Diskrepanzen von experimentellen und berechneten Bindungsabständen bei den Molekülen Borhydrid- und Carbenylium durch die Berücksichtigung des elektronischen Beitrages zum Trägheitsmoment beseitigt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der hier vorliegenden Arbeit wurde am Beispiel der Kraut- und Knollenfäule an Kartoffeln Phytophthora infestans und des Kartoffelkäfers Leptinotarsa decemlineata untersucht, ob durch den Einsatz von Geographischen Informationssystemen (GIS) landwirtschaftliche Schader¬reger¬prognosen für jeden beliebigen Kartoffelschlag in Deutschland erstellt werden können. Um dieses Ziel zu erreichen, wurden die Eingangsparameter (Temperatur und relative Luftfeuchte) der Prognosemodelle für die beiden Schaderreger (SIMLEP1, SIMPHYT1, SIMPHYT3 and SIMBLIGHT1) so aufbereitet, dass Wetterdaten flächendeckend für Deutschland zur Verfügung standen. Bevor jedoch interpoliert werden konnte, wurde eine Regionalisierung von Deutschland in Interpolationszonen durchgeführt und somit Naturräume geschaffen, die einen Vergleich und eine Bewertung der in ihnen liegenden Wetterstationen zulassen. Hierzu wurden die Boden-Klima-Regionen von SCHULZKE und KAULE (2000) modifiziert, an das Wetterstationsnetz angepasst und mit 5 bis 10 km breiten Pufferzonen an der Grenze der Interpolationszonen versehen, um die Wetterstationen so häufig wie möglich verwenden zu können. Für die Interpolation der Wetterdaten wurde das Verfahren der multiplen Regression gewählt, weil dieses im Vergleich zu anderen Verfahren die geringsten Abweichungen zwischen interpolierten und gemessenen Daten aufwies und den technischen Anforderungen am besten entsprach. Für 99 % aller Werte konnten bei der Temperaturberechnung Abweichungen in einem Bereich zwischen -2,5 und 2,5 °C erzielt werden. Bei der Berechnung der relativen Luftfeuchte wurden Abweichungen zwischen -12 und 10 % relativer Luftfeuchte erreicht. Die Mittelwerte der Abweichungen lagen bei der Temperatur bei 0,1 °C und bei der relativen Luftfeuchte bei -1,8 %. Zur Überprüfung der Trefferquoten der Modelle beim Betrieb mit interpolierten Wetterdaten wurden Felderhebungsdaten aus den Jahren 2000 bis 2007 zum Erstauftreten der Kraut- und Knollenfäule sowie des Kartoffelkäfers verwendet. Dabei konnten mit interpolierten Wetterdaten die gleichen und auch höhere Trefferquoten erreicht werden, als mit der bisherigen Berechnungsmethode. Beispielsweise erzielte die Berechnung des Erstauftretens von P. infestans durch das Modell SIMBLIGHT1 mit interpolierten Wetterdaten im Schnitt drei Tage geringere Abweichungen im Vergleich zu den Berechnungen ohne GIS. Um die Auswirkungen interpretieren zu können, die durch Abweichungen der Temperatur und der relativen Luftfeuchte entstanden wurde zusätzlich eine Sensitivitätsanalyse zur Temperatur und relativen Luftfeuchte der verwendeten Prognosemodelle durchgeführt. Die Temperatur hatte bei allen Modellen nur einen geringen Einfluss auf das Prognoseergebnis. Veränderungen der relativen Luftfeuchte haben sich dagegen deutlich stärker ausgewirkt. So lag bei SIMBLIGHT1 die Abweichung durch eine stündliche Veränderung der relativen Luftfeuchte (± 6 %) bei maximal 27 Tagen, wogegen stündliche Veränderungen der Temperatur (± 2 °C) eine Abweichung von maximal 10 Tagen ausmachten. Die Ergebnisse dieser Arbeit zeigen, dass durch die Verwendung von GIS mindestens die gleichen und auch höhere Trefferquoten bei Schaderregerprognosen erzielt werden als mit der bisherigen Verwendung von Daten einer nahegelegenen Wetterstation. Die Ergebnisse stellen einen wesentlichen Fortschritt für die landwirtschaftlichen Schaderregerprognosen dar. Erstmals ist es möglich, bundesweite Prognosen für jeden beliebigen Kartoffelschlag zur Bekämpfung von Schädlingen in der Landwirtschaft bereit zu stellen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die unspezifische Provokation mit Methacholin ist die am weitesten verbreitete und akzeptierte Methode zur Diagnose bzw. zum Ausschluss der bronchialen Hyperreagibilität bei Patienten mit Verdacht auf ein Asthma bronchiale und zu dessen Therapiekontrolle. Um die Sicherheit und die Genauigkeit der Methode weiter zu verbessern, wurde daher ein Dosimeterprotokoll entwickelt, das die inhalierte Methacholin-Dosis anstatt durch die Erhöhung, d.h. in der Regel Verdoppelung, der Methacholinkonzentrationen nur durch Erhöhung der Anzahl der Inhalationen bei konstanter, niedriger Konzentration der Methacholinlösung steigert. Dieses neue Protokoll wurde verglichen mit anderen weit verbreiteten Methacholin-Provokationsprotokollen. Die Methacholinchlorid-Lösung (1,75 mg/ml) wurde mit Hilfe des Dosimetersystems ZAN 200 ProvAir II sowie des Verneblertopfes DeVilbiss 646 vernebelt. 15 Asthmapatienten mit einer vor der Provokation normalen Lungenfunktion (FEV1 98 +/- 9 % PN) und 18 Lungengesunde (FEV1 110 +/- 12 % PN) nahmen an der Testreihe teil. Begonnen wurde mit einer Dosis von 20 μg Methacholinchlorid (= eine Inhalation); beendet wurde der Versuch bei einer Kumulativdosis von 2000 μg Methacholinchlorid, wenn nicht vorher ein Kriterium für einen positiven Test und damit für einen Versuchsabbruch erfüllt wurde. Abbruchkriterien waren entweder ein Abfall der FEV1 um 20 % des Ausgangswertes oder ein Anstieg des totalen Atemwegswiderstandes auf ≥ 0,5 kPa*s/l. Mittels linearer Regression wurden die Provokationsdosen PD 20 FEV1 und PD Rtot ≥ 0,5 berechnet. Im Vergleich mit anderen Protokollen zeigte sich, dass auch das neue Protokoll zuverlässig und sicher zwischen gesund und krank unterscheidet. Der Median der PD 20 FEV1 liegt in der Gruppe der Asthmatiker bei 222 μg, bei den Lungengesunden bei 2000 μg; daraus ergibt sich ein p-Wert von < 0,001. In Bezug auf die PD Rtot ≥ 0,5 liegt der Median bei den Asthmatikern bei 122 μg, in der Gruppe der Lungengesunden bei 2000 μg; hieraus errechnet sich ebenfalls ein p-Wert von < 0,001. Sensitivität und Spezifität der Methode wurden mittels ROC-Kurven untersucht. Basierend auf der PD 20 FEV1 liefert die Methode für die Diagnose einer bronchialen Hyperreagibilität bei einer Enddosis von 1000 μg Methacholinchlorid eine Sensitivität von über 93 % und eine Spezifität von 83 %; basierend auf der PD Rtot ≥ 0,5 liegt die Sensitivität bei einer Dosis von 1000 μg bei 90 %, die Spezifität bei 89 %. Für die gemeinsame Betrachtung der parameterspezifischen Provokationsdosen PD 20 FEV1 und PD Rtot ≥ 0,5, der PD Minimal, bei 1000 μg liegt die Sensitivität bei über 93 % und die Spezifität bei 83 %. Daher können 1000 μg als Schwellendosis für den Ausschluss einer bronchialen Hyperreagibilität zum Untersuchungszeitpunkt angesehen werden, und der Test darf an diesem Punkt abgebrochen werden. Grundsätzlich ist festzustellen, dass die Diagnostik der bronchialen Hyperreagibilität sicher und genau mit Hilfe eines Dosimeterprotokolls erfolgen kann, das die Methacholin-Dosis nur durch die Steigerung der Inhalationen bei gleichbleibender Konzentration der Methacholinlösung erhöht. Die Schwellendosis zwischen normaler und pathologischer bronchialer Reaktion, Sensitivität und Spezifität sowie die Trennschärfe der Methode sind sehr gut vergleichbar mit anderen bisher etablierten Protokollen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit behandelt die Entwicklung und Erprobung zweier neuer dynamischer Lichtstreumethoden: Die Resonanz verstärkte Lichtstreuung (REDLS: resonance enhanced dynamic light scattering) und die Wellenleiter verstärkte Lichtstreuung (WEDLS: waveguide enhanced dynamic light scattering). Beide Methoden verwenden eine Kombination aus evaneszenten Wellen und dynamischer Lichtstreuung: Bei der REDLS-Technik wird das evaneszentes Feld eines Oberflächenplasmons verwendet, bei der WEDLS-Technik handelt es sich um das evaneszente Feld von Metallfilm verstärkten Leckwellenleitermoden. Die neuen Methoden liefern Informationen über die Dynamik an Grenzflächen über ein breites Zeitfenster (einige Nanosekunden bis hin zu mehreren Sekunden) mit einer räumlichen Auflösung im sub-Mikrometerbereich. Sie erweitern somit das Gebiet der dynamischen Lichtstreuung in evaneszenter Geometrie, bei dem bislang nur die evanescent wave dynamic light scattering (EWDLS) - Technik zur Verfügung stand. Bei der EWDLS-Technik wird das evaneszente Feld der Totalreflexion als kohärenter Lichtstrahl für die dynamische Lichtstreuung verwendet. Ein Vergleich mit der EWDLS-Technik zeigt ein stark erhöhtes Signal/Rausch-Verhältnis bei den neu entwickelten Techniken aufgrund der resonanten Anregung. Zusätzlich ist es sowohl bei der REDLS- als auch bei der WEDLS-Technik möglich Grenzflächenmodifikationen und damit z.B. Adsorptionsprozesse zu detektieren. Der Einfluss einer Grenzfläche auf die Diffusion von PS-Latex-Partikeln wurde untersucht. Die Grenzfläche bestand im Fall der REDLS-Technik aus Gold, bei der WEDLS-Technik aus PMMA. Die Funktionsweise und die Gültigkeit der neu entwickelten Techniken wurde mit Hilfe von PS-Latex-Partikeln mit hydrodynamischen Radien von R =11nm bis hin zu R=204nm demonstriert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Allgemein erlaubt adaptive Gitterverfeinerung eine Steigerung der Effizienz numerischer Simulationen ohne dabei die Genauigkeit des Ergebnisses signifikant zu verschlechtern. Es ist jedoch noch nicht erforscht, in welchen Bereichen des Rechengebietes die räumliche Auflösung tatsächlich vergröbert werden kann, ohne die Genauigkeit des Ergebnisses signifikant zu beeinflussen. Diese Frage wird hier für ein konkretes Beispiel von trockener atmosphärischer Konvektion untersucht, nämlich der Simulation von warmen Luftblasen. Zu diesem Zweck wird ein neuartiges numerisches Modell entwickelt, das auf diese spezielle Anwendung ausgerichtet ist. Die kompressiblen Euler-Gleichungen werden mit einer unstetigen Galerkin Methode gelöst. Die Zeitintegration geschieht mit einer semi-implizite Methode und die dynamische Adaptivität verwendet raumfüllende Kurven mit Hilfe der Funktionsbibliothek AMATOS. Das numerische Modell wird validiert mit Hilfe einer Konvergenzstudie und fünf Standard-Testfällen. Eine Methode zum Vergleich der Genauigkeit von Simulationen mit verschiedenen Verfeinerungsgebieten wird eingeführt, die ohne das Vorhandensein einer exakten Lösung auskommt. Im Wesentlichen geschieht dies durch den Vergleich von Eigenschaften der Lösung, die stark von der verwendeten räumlichen Auflösung abhängen. Im Fall einer aufsteigenden Warmluftblase ist der zusätzliche numerische Fehler durch die Verwendung der Adaptivität kleiner als 1% des gesamten numerischen Fehlers, wenn die adaptive Simulation mehr als 50% der Elemente einer uniformen hoch-aufgelösten Simulation verwendet. Entsprechend ist die adaptive Simulation fast doppelt so schnell wie die uniforme Simulation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der Rational-Choice-Ansatz (RCA) hat in den letzten Jahrzehnten eine weite Ver-rnbreitung in vielen sozialwissenschaftlichen Disziplinen erfahren. Insbesondere in den letzten zwei Jahrzehnten gab es wiederholte Bemühungen, den RCA auchrnauf geschichtswissenschaftliche Fragestellungen und Themen anzuwenden. Ein interssanter Ansatz dafür ist eine integrative Methodik, die unter der Bezeichnung „Analytic Narrative“ bekannt wurde. Damit wird versucht, die klassische narrative Form der Erklärung historischer Phänomene mit spieltheoretischen Modellierungen zu verbinden. Inspiriert durch diesen Ansatz geht die vorliegende Untersuchung der Frage nach, in welcher Form und unter welchen Umständen der RCA als analytische Grundlage für historische Themenfelder und Fragestellungen geeignet sein mag. Dies wird nicht nur theoretisch, sondern an einem historischen Beispiel untersucht. Konkreter Betrachtungsgegenstand der Arbeit ist der Vierte Kreuzzug. Vor über 800 Jahren endete dieser mit der Eroberung und Plünderung Konstantinopels sowie der Zerschlagung des Byzantinischen Reichs. Seit mehr als 150 Jahren streiten Historiker über die Ursachen für diese Ereignisse. Die theoretischenrnGrundpositionen, die innerhalb dieser Debatte durch einzelne Historiker einge-rnnommen wurden, dienen als Ausgangspunkt für die hier verfolgte Untersuchung.rnEs wird gezeigt, dass die Daten, die uns über den Vierten Kreuzzug vorliegen,rndie Möglichkeit eröffnen, verschiedene auf dem RCA basierende Analyseverfah-rnren zur Anwendung zu bringen. Das zentrale Ziel der Analyse besteht darin, ausrnden vorhandenen Quellen neue Einsichten in die strategischen Handlungsoptionen der für den Verlauf des Kreuzzugs relevanten Akteure zu generieren undrnüberdies ein Höchstmaß an Überprüfbarkeit zu gewährleisten.

Relevância:

20.00% 20.00%

Publicador: