999 resultados para praktische Anwendung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Archäologie werden elektrische Widerstandsmessungen routinemäßig zur Prospektion von Fundstellen eingesetzt. Die Methode ist kostengünstig, leicht anwendbar und liefert in den meisten Fällen zuverlässige und leicht zu interpretierende Ergebnisse. Dennoch kann die Methode die archäologischen Strukturen in manchen Fällen nur teilweise oder gar nicht abbilden, wenn die bodenphysikalischen und bodenchemischen Eigenschaften des Bodens und der archäologischen Strukturen dies nicht zulassen. Der spezifische elektrische Widerstand wird durch Parameter wie Wassergehalt, Bodenstruktur, Bodenskelett, Bodentextur, Salinität und Bodentemperatur beeinflusst. Manche dieser Parameter, wie z.B. der Wassergehalt und die Bodentemperatur, unterliegen einer saisonalen Veränderung. Die vorliegende Arbeit untersucht den spezifischen elektrischen Widerstand von archäologischen Steinstrukturen und evaluiert die Möglichkeit, auf Grundlage von Geländemessungen und Laboranalysen archäologische Strukturen und Böden als numerische Modelle darzustellen. Dazu wurde eine Kombination von verschiedenen bodenkundlichen, geoarchäologischen und geophysikalischen Methoden verwendet. Um archäologische Strukturen und Bodenprofile als numerische Widerstandsmodelle darstellen zu können, werden Informationen zur Geometrie der Strukturen und ihren elektrischen Widerstandswerten benötigt. Dabei ist die Qualität der Hintergrundinformationen entscheidend für die Genauigkeit des Widerstandsmodells. Die Geometrie der Widerstandsmodelle basiert auf den Ergebnissen von Rammkernsondierungen und archäologische Ausgrabungen. Die an der Ausbildung des elektrischen Widerstands beteiligten Parameter wurden durch die Analyse von Bodenproben gemessen und ermöglichen durch Pedotransfer-Funktion, wie die Rhoades-Formel, die Abschätzung des spezifischen elektrischen Widerstandes des Feinbodens. Um den Einfluss des Bodenskeletts auf den spezifischen elektrischen Widerstand von Bodenprofilen und archäologischen Strukturen zu berechnen, kamen die Perkolationstheorie und die Effective Medium Theory zum Einsatz. Die Genauigkeit und eventuelle Limitierungen der Methoden wurden im Labor durch experimentelle Widerstandsmessungen an ungestörten Bodenproben und synthetischen Materialien überprüft. Die saisonale Veränderung des Wassergehalts im Boden wurde durch numerische Modelle mit der Software HYDRUS simuliert. Die hydraulischen Modelle wurden auf Grundlage der ermittelten bodenkundlichen und archäologischen Stratigraphie erstellt und verwenden die Daten von lokalen Wetterstationen als Eingangsparameter. Durch die Kombination der HYDRUS-Ergebnisse mit den Pedotransfer-Funktionen konnte der Einfluss dieser saisonalen Veränderung auf die Prospektionsergebnisse von elektrischen Widerstandsmethoden berechnet werden. Die Ergebnisse der Modellierungsprozesse wurden mit den Geländemessungen verglichen. Die beste Übereinstimmung zwischen Modellergebnissen und den Prospektionsergebnissen konnte für die Fallstudie bei Katzenbach festgestellt werden. Bei dieser wurden die Modelle auf Grundlage von archäologischen Grabungsergebnissen und detaillierten bodenkundlichen Analysen erstellt. Weitere Fallstudien zeigen, dass elektrische Widerstandsmodelle eingesetzt werden können, um den Einfluss von ungünstigen Prospektionsbedingungen auf die Ergebnisse der elektrischen Widerstandsmessungen abzuschätzen. Diese Informationen unterstützen die Planung und Anwendung der Methoden im Gelände und ermöglichen eine effektivere Interpretation der Prospektionsergebnisse. Die präsentierten Modellierungsansätze benötigen eine weitere Verifizierung durch den Vergleich der Modellierungsergebnisse mit detailliertem geophysikalischem Gelände-Monitoring von archäologischen Fundstellen. Zusätzlich könnten elektrische Widerstandsmessungen an künstlichen Mauerstrukturen unter kontrollierten Bedingungen zur Überprüfung der Modellierungsprozesse genutzt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der vorliegenden Dissertation war es, Einblicke in das Kristallisationsverhalten weicher Materie („soft matter“), wie verschiedener Polymere oder Wasser, unter räumlicher Einschränkung („confinement“) zu erlangen. Dabei sollte untersucht werden, wie, weshalb und wann die Kristallisation in nanoporösen Strukturen eintritt. Desweiteren ist Kristallisation weicher Materie in nanoporösen Strukturen nicht nur aus Aspekten der Grundlagenforschung von großem Interesse, sondern es ergeben sich zahlreiche praktische Anwendungen. Durch die gezielte Steuerung der Kristallinität von Polymeren könnten somit Materialien mit verschiendenen mechanischen und optischen Eigenschaften erhalten werden. Desweiteren wurde auch räumlich eingeschränktes Wasser untersucht. Dieses spielt eine wichtige Rolle in der Molekularbiologie, z.B. für das globuläre Protein, und als Wolkenkondensationskeime in der Atmosphärenchemie und Physik. Auch im interstellaren Raum ist eingeschränktes Wasser in Form von Eispartikeln anzutreffen. Die Kristallisation von eingeschränktem Wasser zu verstehen und zu beeinflussen ist letztlich auch für die Haltbarkeit von Baumaterialien wie etwa Zement von großem Interesse.rnUm dies zu untersuchen wird Wasser in der Regel stark abgekühlt und das Kristallisationsverhalten in Abhängigkeit des Volumens untersucht. Dabei wurde beobachtet, dass Mikro- bzw. Nanometer große Volumina erst ab -38 °C bzw. -70 °C kristallisieren. Wasser unterliegt dabei in der Regel dem Prozess der homogenen Nukleation. In der Regel gefriert Wasser aber bei höheren Temperaturen, da durch Verunreinigungen eine vorzeitige, heterogene Nukleation eintritt.rnDie vorliegende Arbeit untersucht die sachdienlichen Phasendiagramme von kristallisierbaren Polymeren und Wasser unter räumlich eingeschränkten Bedingungen. Selbst ausgerichtetes Aluminiumoxid (AAO) mit Porengrößen im Bereich von 25 bis 400 nm wurden als räumliche Einschränkung sowohl für Polymere als auch für Wasser gewählt. Die AAO Nanoporen sind zylindrisch und parallel ausgerichtet. Außerdem besitzen sie eine gleichmäßige Porenlänge und einen gleichmäßigen Durchmesser. Daher eignen sie sich als Modelsystem um Kristallisationsprozesse unter wohldefinierter räumlicher Einschränkung zu untersuchen.rnEs wurden verschiedene halbkristalline Polymere verwendet, darunter Poly(ethylenoxid), Poly(ɛ-Caprolacton) und Diblockcopolymere aus PEO-b-PCL. Der Einfluss der Porengröße auf die Nukleation wurde aus verschiedenen Gesichtspunkten untersucht: (i) Einfluss auf den Nukleationmechanismus (heterogene gegenüber homogener Nukleation), (ii) Kristallorientierung und Kristallinitätsgrad und (iii) Zusammenhang zwischen Kristallisationstemperatur bei homogener Kristallisation und Glasübergangstemperatur.rnEs konnte gezeigt werden, dass die Kristallisation von Polymeren in Bulk durch heterogene Nukleation induziert wird und das die Kristallisation in kleinen Poren hauptsächlich über homogene Nukleation mit reduzierter und einstellbarer Kristallinität verläuft und eine hohe Kristallorientierung aufweist. Durch die AAOs konnte außerdem die kritische Keimgröße für die Kristallisation der Polymere abgeschätzt werden. Schließlich wurde der Einfluss der Polydispersität, von Oligomeren und anderen Zusatzstoffen auf den Nukleationsmechanismus untersucht.rn4rnDie Nukleation von Eis wurde in den selben AAOs untersucht und ein direkter Zusammenhang zwischen dem Nukleationstyp (heterogen bzw. homogen) und der gebildeten Eisphase konnte beobachtet werden. In größeren Poren verlief die Nukleation heterogen, wohingegen sie in kleineren Poren homogen verlief. Außerdem wurde eine Phasenumwandlung des Eises beobachtet. In den größeren Poren wurde hexagonales Eis nachgewiesen und unter einer Porengröße von 35 nm trat hauptsächlich kubisches Eis auf. Nennenswerter Weise handelte es sich bei dem kubischem Eis nicht um eine metastabile sondern eine stabile Phase. Abschließend wird ein Phasendiagramm für räumlich eingeschränktes Wasser vorgeschlagen. Dieses Phasendiagramm kann für technische Anwendungen von Bedeutung sein, so z.B. für Baumaterial wie Zement. Als weiteres Beispiel könnten AAOs, die die heterogene Nukleation unterdrücken (Porendurchmesser ≤ 35 nm) als Filter für Reinstwasser zum Einsatz kommen.rnNun zur Anfangs gestellten Frage: Wie unterschiedlich sind Wasser und Polymerkristallisation voneinander unter räumlicher Einschränkung? Durch Vergleich der beiden Phasendiagramme kommen wir zu dem Schluss, dass beide nicht fundamental verschieden sind. Dies ist zunächst verwunderlich, da Wasser ein kleines Molekül ist und wesentlich kleiner als die kleinste Porengröße ist. Wasser verfügt allerdings über starke Wasserstoffbrückenbindungen und verhält sich daher wie ein Polymer. Daher auch der Name „Polywasser“.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Metallische Nanopartikel und ihre Oxide (z.B. ZnO NP, TiO2 NP und Fe2O3 NP) werden aufgrund ihrer chemischen und physikalischen Eigenschaften häufig als Additive in der Reifenproduktion, in Katalysatoren, Lebensmitteln, Arzneimitteln und Kosmetikprodukten verwendet. Künftig wird ein kontinuierlicher Anstieg der industriellen Anwendung (~ 1663 Tonnen im Jahr 2025) mit gesteigerter Freisetzung in die Umwelt erwartet, was zwangsläufig zu einer vermehrten Aufnahme über das respiratorische Epithel führt. Metalldampffieber ist als gesundheitsschädigender Effekt von Metalloxid-haltigen Aerosolen (z.B. ZnO) nach Inhalation bekannt. Immunreaktionen, wie beispielsweise Entzündungen, werden häufig mit der Entstehung von Sauerstoffradikalen (ROS) in Verbindung gebracht, die wiederum zu DNA-Schäden führen können. Drei mögliche Ursachen der Genotoxität werden angenommen: direkte Interaktion von Nanopartikeln mit intrazellulären Strukturen, Interaktion von Ionen dissoziierter Partikel mit intrazellulären Strukturen sowie die Entstehung von ROS initiiert durch Partikel oder Ionen.rnDie vorliegende Studie befasst sich mit den Mechanismen der Genotoxizität von ZnO Nanopartikeln (ZnO NP), als Beispiel für metallische Nanopartikel, im respiratorischen Epithel. In der Studie wurde gezielt die intrazelluläre Aufnahme und Verteilung von ZnO NP, deren Toxizität, deren DNA schädigendes Potential sowie die Aktivierung der DNA damage response (DDR) analysiert.rnEs konnten kaum internalisierte ZnO NP mittels TEM detektiert werden. Innerhalb der ersten Sekunden nach Behandlung mit ZnO NP wurde spektrofluorometrisch ein starker Anstieg der intrazellulären Zn2+ Konzentration gemessen. In unbehandelten Zellen war Zn2+ in granulären Strukturen lokalisiert. Die Behandlung mit ZnO NP führte zu einer Akkumulation von Zn2+ in diesen Strukturen. Im zeitlichen Verlauf verlagerten sich die Zn2+-Ionen in das Zytoplasma, sowie in Zellkerne und Mitochondrien. Es wurde keine Kolokalisation von Zn2+ mit den frühen Endosomen und dem endoplasmatischen Retikulum beobachtet. Die Vorbehandlung der Zellen mit Diethylen-triaminpentaessigsäure (DTPA), als extrazellulärem Komplexbildner, verhinderte den intrazellulären Anstieg von Zn2+ nach Behandlung mit den Partikeln.rnDie Behandlung mit ZnO NP resultierte in einer zeit- und dosisabhängigen Reduktion der zellulären Viabilität, während die intrazelluläre ROS-Konzentrationen in den ersten 30 min leicht und anschließend kontinuierlich bis zum Ende der Messung anstiegen. Außerdem verringerte sich das mitochondriale Membranpotential, während sich die Anzahl der frühapoptotischen Zellen in einer zeitabhängigen Weise erhöhte. rnDNA Doppelstrangbrüche (DNA DSB) wurden mittels Immunfluoreszenz-Färbung der γH2A.X foci sichtbar gemacht und konnten nach Behandlung mit ZnO NP detektiert werden. Die Vorbehandlung mit dem Radikalfänger N-Acetyl-L-Cytein (NAC) resultierte in stark reduzierten intrazellulären ROS-Konzentrationen sowie wenigen DNA DSB. Die DNA Schädigung wurde durch Vorbehandlung mit DTPA ganz verhindert.rnDie Aktivierung der DDR wurde durch die Analyse von ATM, ATR, Chk1, Chk2, p53 und p21 mittels Western Blot und ELISA nach Behandlung mit ZnO NP überprüft. Der ATR/Chk1 Signalweg wurde durch ZnO NP nicht aktiviert. Die Komplexierung von Zn2+ resultierte in einer verminderten ATM/Chk2 Signalwegaktivierung. Es zeigte sich, dass das Abfangen von ROS keinen Effekt auf die ATM/Chk2 Signalwegaktivierung hatte.rnZusammengefasst wurde festgestellt, dass die Exposition mit ZnO NP in der Entstehung von ROS, reduzierter Viabilität und vermindertem mitochondrialem Membranpotential resultiert, sowie zeitabhängig eine frühe Apoptose initiiert. ZnO NP dissoziierten extrazellulär und wurden schnell als Zn2+ über unbekannte Mechanismen internalisiert. Die Zn2+-Ionen wurden im Zytoplasma, sowie besonders in den Mitochondrien und dem Zellkern, akkumuliert. Die DDR Signalgebung wurde durch ZnO NP aktiviert, jedoch nicht durch NAC inhibiert. Es wurde gezeigt, dass DTPA die DDR Aktivierung komplett inhibierte. Die Behandlung mit ZnO NP induzierte DNA DSB. Die Inhibition von ROS reduzierte die DNA DSB und die Komplexierung der Zn2+ verhinderte die Entstehung von DNA DSB.rnDiese Daten sprechen für die Dissoziation der Partikel und die hierbei freigesetzten Zn2+ als Hauptmediator der Genotoxizität metallischer Nanopartikel. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Addressing current limitations of state-of-the-art instrumentation in aerosol research, the aim of this work was to explore and assess the applicability of a novel soft ionization technique, namely flowing atmospheric-pressure afterglow (FAPA), for the mass spectrometric analysis of airborne particulate organic matter. Among other soft ionization methods, the FAPA ionization technique was developed in the last decade during the advent of ambient desorption/ionization mass spectrometry (ADI–MS). Based on a helium glow discharge plasma at atmospheric-pressure, excited helium species and primary reagent ions are generated which exit the discharge region through a capillary electrode, forming the so-called afterglow region where desorption and ionization of the analytes occurs. Commonly, fragmentation of the analytes during ionization is reported to occur only to a minimum extent, predominantly resulting in the formation of quasimolecular ions, i.e. [M+H]+ and [M–H]– in the positive and the negative ion mode, respectively. Thus, identification and detection of signals and their corresponding compounds is facilitated in the acquired mass spectra. The focus of the first part of this study lies on the application, characterization and assessment of FAPA–MS in the offline mode, i.e. desorption and ionization of the analytes from surfaces. Experiments in both positive and negative ion mode revealed ionization patterns for a variety of compound classes comprising alkanes, alcohols, aldehydes, ketones, carboxylic acids, organic peroxides, and alkaloids. Besides the always emphasized detection of quasimolecular ions, a broad range of signals for adducts and losses was found. Additionally, the capabilities and limitations of the technique were studied in three proof-of-principle applications. In general, the method showed to be best suited for polar analytes with high volatilities and low molecular weights, ideally containing nitrogen- and/or oxygen functionalities. However, for compounds with low vapor pressures, containing long carbon chains and/or high molecular weights, desorption and ionization is in direct competition with oxidation of the analytes, leading to the formation of adducts and oxidation products which impede a clear signal assignment in the acquired mass spectra. Nonetheless, FAPA–MS showed to be capable of detecting and identifying common limonene oxidation products in secondary OA (SOA) particles on a filter sample and, thus, is considered a suitable method for offline analysis of OA particles. In the second as well as the subsequent parts, FAPA–MS was applied online, i.e. for real time analysis of OA particles suspended in air. Therefore, the acronym AeroFAPA–MS (i.e. Aerosol FAPA–MS) was chosen to refer to this method. After optimization and characterization, the method was used to measure a range of model compounds and to evaluate typical ionization patterns in the positive and the negative ion mode. In addition, results from laboratory studies as well as from a field campaign in Central Europe (F–BEACh 2014) are presented and discussed. During the F–BEACh campaign AeroFAPA–MS was used in combination with complementary MS techniques, giving a comprehensive characterization of the sampled OA particles. For example, several common SOA marker compounds were identified in real time by MSn experiments, indicating that photochemically aged SOA particles were present during the campaign period. Moreover, AeroFAPA–MS was capable of detecting highly oxidized sulfur-containing compounds in the particle phase, presenting the first real-time measurements of this compound class. Further comparisons with data from other aerosol and gas-phase measurements suggest that both particulate sulfate as well as highly oxidized peroxyradicals in the gas phase might play a role during formation of these species. Besides applying AeroFAPA–MS for the analysis of aerosol particles, desorption processes of particles in the afterglow region were investigated in order to gain a more detailed understanding of the method. While during the previous measurements aerosol particles were pre-evaporated prior to AeroFAPA–MS analysis, in this part no external heat source was applied. Particle size distribution measurements before and after the AeroFAPA source revealed that only an interfacial layer of OA particles is desorbed and, thus, chemically characterized. For particles with initial diameters of 112 nm, desorption radii of 2.5–36.6 nm were found at discharge currents of 15–55 mA from these measurements. In addition, the method was applied for the analysis of laboratory-generated core-shell particles in a proof-of-principle study. As expected, predominantly compounds residing in the shell of the particles were desorbed and ionized with increasing probing depths, suggesting that AeroFAPA–MS might represent a promising technique for depth profiling of OA particles in future studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit widmet sich der Untersuchung der photophysikalischen Prozesse, die in Mischungen von Elektronendonoren mit Elektronenakzeptoren zur Anwendung in organischen Solarzellen auftreten. Als Elektronendonoren werden das Copolymer PBDTTT-C, das aus Benzodithiophen- und Thienothiophene-Einheiten besteht, und das kleine Molekül p-DTS(FBTTh2)2, welches Silizium-überbrücktes Dithiophen, sowie fluoriertes Benzothiadiazol und Dithiophen beinhaltet, verwendet. Als Elektronenakzeptor finden ein planares 3,4:9,10-Perylentetracarbonsäurediimid-(PDI)-Derivat und verschiedene Fullerenderivate Anwendung. PDI-Derivate gelten als vielversprechende Alternativen zu Fullerenen aufgrund der durch chemische Synthese abstimmbaren strukturellen, optischen und elektronischen Eigenschaften. Das gewichtigste Argument für PDI-Derivate ist deren Absorption im sichtbaren Bereich des Sonnenspektrums was den Photostrom verbessern kann. Fulleren-basierte Mischungen übertreffen jedoch für gewöhnlich die Effizienz von Donor-PDI-Mischungen.rnUm den Nachteil der PDI-basierten Mischungen im Vergleich zu den entsprechenden Fulleren-basierten Mischungen zu identifizieren, werden die verschiedenen Donor-Akzeptor-Kombinationen auf ihre optischen, elektronischen und strukturellen Eigenschaften untersucht. Zeitaufgelöste Spektroskopie, vor allem transiente Absorptionsspektroskopie (TA), wird zur Analyse der Ladungsgeneration angewendet und der Vergleich der Donor-PDI Mischfilme mit den Donor-Fulleren Mischfilmen zeigt, dass die Bildung von Ladungstransferzuständen einen der Hauptverlustkanäle darstellt.rnWeiterhin werden Mischungen aus PBDTTT-C und [6,6]-Phenyl-C61-buttersäuremethylesther (PC61BM) mittels TA-Spektroskopie auf einer Zeitskala von ps bis µs untersucht und es kann gezeigt werden, dass der Triplettzustand des Polymers über die nicht-geminale Rekombination freier Ladungen auf einer sub-ns Zeitskala bevölkert wird. Hochentwickelte Methoden zur Datenanalyse, wie multivariate curve resolution (MCR), werden angewendet um überlagernde Datensignale zu trennen. Zusätzlich kann die Regeneration von Ladungsträgern durch Triplett-Triplett-Annihilation auf einer ns-µs Zeitskala gezeigt werden. Darüber hinaus wird der Einfluss des Lösungsmitteladditivs 1,8-Diiodooctan (DIO) auf die Leistungsfähigkeit von p-DTS(FBTTh2)2:PDI Solarzellen untersucht. Die Erkenntnisse von morphologischen und photophysikalischen Experimenten werden kombiniert, um die strukturellen Eigenschaften und die Photophysik mit den relevanten Kenngrößen des Bauteils in Verbindung zu setzen. Zeitaufgelöste Photolumineszenzmessungen (time-resolved photoluminescence, TRPL) zeigen, dass der Einsatz von DIO zu einer geringeren Reduzierung der Photolumineszenz führt, was auf eine größere Phasentrennung zurückgeführt werden kann. Außerdem kann mittels TA Spektroskopie gezeigt werden, dass die Verwendung von DIO zu einer verbesserten Kristallinität der aktiven Schicht führt und die Generation freier Ladungen fördert. Zur genauen Analyse des Signalzerfalls wird ein Modell angewendet, das den gleichzeitigen Zerfall gebundener CT-Zustände und freier Ladungen berücksichtigt und optimierte Donor-Akzeptor-Mischungen zeigen einen größeren Anteil an nicht-geminaler Rekombination freier Ladungsträger.rnIn einer weiteren Fallstudie wird der Einfluss des Fullerenderivats, namentlich IC60BA und PC71BM, auf die Leistungsfähigkeit und Photophysik der Solarzellen untersucht. Eine Kombination aus einer Untersuchung der Struktur des Dünnfilms sowie zeitaufgelöster Spektroskopie ergibt, dass Mischungen, die ICBA als Elektronenakzeptor verwenden, eine schlechtere Trennung von Ladungstransferzuständen zeigen und unter einer stärkeren geminalen Rekombination im Vergleich zu PCBM-basierten Mischungen leiden. Dies kann auf die kleinere Triebkraft zur Ladungstrennung sowie auf die höhere Unordnung der ICBA-basierten Mischungen, die die Ladungstrennung hemmen, zurückgeführt werden. Außerdem wird der Einfluss reiner Fullerendomänen auf die Funktionsfähigkeit organischer Solarzellen, die aus Mischungen des Thienothienophen-basierenden Polymers pBTTT-C14 und PC61BM bestehen, untersucht. Aus diesem Grund wird die Photophysik von Filmen mit einem Donor-Akzeptor-Mischungsverhältnis von 1:1 sowie 1:4 verglichen. Während 1:1-Mischungen lediglich eine co-kristalline Phase, in der Fullerene zwischen den Seitenketten von pBTTT interkalieren, zeigen, resultiert der Überschuss an Fulleren in den 1:4-Proben in der Ausbildung reiner Fullerendomänen zusätzlich zu der co kristallinen Phase. Transiente Absorptionsspektroskopie verdeutlicht, dass Ladungstransferzustände in 1:1-Mischungen hauptsächlich über geminale Rekombination zerfallen, während in 1:4 Mischungen ein beträchtlicher Anteil an Ladungen ihre wechselseitige Coulombanziehung überwinden und freie Ladungsträger bilden kann, die schließlich nicht-geminal rekombinieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um einen positiven Einfluss auf den Krankheitsverlauf bei Patienten mit Rheumatoider Arthritis zu nehmen, ist die Compliance mit dem Basistherapeutikum Methotrexat unerlässlich. Therapietreue mit Methotrexat kann die Krankheitsprogression verhindern und irreversiblen Knochenerosionen vorbeugen. Methotrexat wird sowohl in subkutaner als auch in peroraler Applikationsform verordnet. Im Rahmen der vorliegenden Arbeit wurde die Compliance mit der Anwendung von Methotrexat Fertigspritzen und Tabletten mit einer elektronischen Messmethode (MEMS™) bestimmt. Hauptziel der Studie war die Bestimmung der Taking Compliance mit Methotrexat. Untersucht wurde hinsichtlich eines Unterschieds zwischen der Applikationsform und der Erkrankungsdauer. Daneben wurde die Dosing Compliance mit peroralem Methotrexat erfasst, sowie Einschätzungen der Patienten bezüglich der Compliance, Funktionskapazität, Lebensqualität und Zufriedenheit erhoben. Die Compliancestudie erfolgte in Kooperation mit dem Netzwerk ADAPTHERA. 74 Studienpatienten wurden 3 Gruppen zugeteilt: Gruppe 1 Methotrexat p.o.; Gruppe 2 Methotrexat s.c. und Erkrankungsdauer <24 Monate; Gruppe 3 Methotrexat s.c. und Erkrankungsdauer >24 Monate. Die Beobachtungsdauer betrug bei peroraler Applikationsform 9 Monate und bei subkutaner 6 Monate. Im Median wurde eine Taking und Dosing Compliance von 100% gemessen. Anhand der subjektiven Einschätzung der Patienten zur Funktionskapazität konnten geringe Einschränkungen für die Patienten im Alltag verzeichnet werden. 25% des Studienkollektivs litt unter einem reduzierten Wohlbefinden. Die Studie konnte zeigen, dass Patienten von einer frühzeitigen Therapie und einer hohen Compliancerate profitieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschreibt die Entwicklung, Konstruktion und Untersuchung eines Magnetometers zur exakten und präzisen Messung schwacher Magnetfelder. Diese Art von Magnetometer eignet sich zur Anwendung in physikalischen hochpräzisions Experimenten wie zum Beispiel der Suche nach dem elektrischen Dipolmomentrndes Neutrons. Die Messmethode beruht auf der gleichzeitigen Detektion der freien Spin Präzession Kern-Spin polarisierten 3He Gases durch mehrere optisch gepumpte Cäsium Magnetometer. Es wird gezeigt, dass Cäsium Magnetometer eine zuverlässige und vielseitige Methode zur Messung der 3He Larmor Frequenz und eine komfortable Alternative zur Benutzung von SQUIDs für diesen Zweck darstellen. Ein Prototyp dieses Magnetometers wurde gebaut und seine Funktion in der magnetisch abgeschirmten Messkabine der Physikalisch Technischen Bundesanstalt untersucht. Die Sensitivität des Magnetometers in Abhängigkeitrnvon der Messdauer wurde experimentell untersucht. Es wird gezeigt, dass für kurze Messperioden (< 500s) Cramér-Rao limitierte Messungen möglich sind während die Sensitivität bei längeren Messungen durch die Stabilität des angelegten Magnetfeldes limitiert ist. Messungen eines 1 muT Magnetfeldes mit einer relative Genauigkeit von besser als 5x10^(-8) in 100s werden präsentiert. Es wird gezeigt, dass die Messgenauigkeit des Magnetometers durch die Zahl der zur Detektion der 3He Spin Präzession eingesetzten Cäsium Magnetometer skaliert werden kann. Prinzipiell ist dadurch eine Anpassung der Messgenauigkeit an jegliche experimentellen Bedürfnisse möglich. Es wird eine gradiometrische Messmethode vorgestellt, die es erlaubt den Einfluss periodischerrnmagnetischer Störungen auf dieMessung zu unterdrücken. Der Zusammenhang zwischen der Sensitivität des kombinierten Magnetometers und den Betriebsparametern der Cäsium Magnetometer die zur Spin Detektion verwendet werden wird theoretisch untersucht und anwendungsspezifische Vor- und Nachteile verschiedener Betriebsartenwerden diskutiert. Diese Zusammenhänge werden in einer Formel zusammengefasst die es erlaubt, die erwartete Sensitivität des Magnetometers zu berechnen. Diese Vorhersagen befinden sich in perfekter Übereinstimmung mit den experimentellen Daten. Die intrinsische Sensitivität des Magnetometer Prototyps wird auf Basis dieser Formel theoretisch bestimmt. Ausserdem wird die erwartete Sensitivität für die Anwendung im Rahmen des Experiments der nächsten Generation zur Bestimmung des elektrischenrnDipolmoments des Neutrons am Paul Scherrer Institut abgeschätzt. Des weiteren wird eine bequeme experimentelle Methode zur Messung des Polarisationsgrades und des Rabi Flip-Winkels der 3He Kernspin Polarisation vorgestellt. Letztere Messung ist sehr wichtig für die Anwendung in hochpräzisions Experimenten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Form von Nanokapseln (AmB-HST), Nanoemulsion beziehungsweise multilamellaren Vesikeln (MLV) wurden drei Amphotericin-B-Formulierungen für die orale Applikation entwickelt, charakterisiert und verglichen. Die neuartige homogene Nanokapsel-Formulierung des hydrophoben Polyen-Antimykotikums Amphotericin B wurde in Analogie zu einem für Simvastatin und andere Arzneistoffe etablierten Prozess aus der Reinsubstanz, Lezithin und Gelatine mit Hilfe des HST-Verfahrens hergestellt. Photometrische Untersuchungen zeigten, dass das Endprodukt aus Monomeren aufgebaut ist. Mittels Mikroskopie ließen sich die Aggregate vor der Umhüllung mit Lezithin und Gelatine im Ausgangsmaterial als individuelle kugelförmige Arzneistoffpartikel darstellen. Strukturuntersuchungen mit dynamischer licht streuung (DLS) zeigten eine enge Größenverteilung der verkapselten Partikel von ca. 1 µm. Die Struktur der Hülle der HST-Partikel wurde erstmalig mit Neutronenstreuung unter Verwendung der Deuterium-basierten Lösungsmittel kontrastmethode aufgeklärt. Durch die teilweise Kontrastmaskierung des Partikelkerns bei der Neutronenstreuung konnte die Lezithin-Gelatine-Hülle als eine dünne, 5,64 ± 0.18 nm dicke Schicht aufgelöst werden, welche der biologischen Lipidmembran ähnlich, im Vergleich aber geringfügig größer ist. Dieses Resultat eröffnet Wege für die Optimierung der Formulierung von pharmazeutischen Nanopartikeln, z.B. durch Oberflächenmodifizierungen. Weitere Untersuchungen mittels Kleinwinkelneutronenstreuung unter Verwendung der D-Kontrastvariation deuten darauf hin, dass die Komponenten der Nanokapseln nicht den gleichen Masseschwerpunkt haben, sondern asymmetrisch aufgebaut sind und dass die stärker streuenden Domänen weiter außen liegen. Die Partikel sind im Vergleich zu Liposomen dichter. In-Vitro Freisetzungsstudien belegen das Solubilisierungsvermögen des HST-Systems, wonach die Freisetzung des Arzneistoffes aus der Formulierung zu allen gemessenen Zeitpunkten höher als diejenige der Reinsubstanz war. rnDie Nanoemulsion-Formulierung von Amphotericin B wurde mit einem Öl und Tensid system, jedoch mit unterschiedlichen Co-Solvenzien, erfolgreich entwickelt. Gemäß der Bestimmung der Löslichkeit in verschiedenen Hilfsstoffen erwies sich der Arzneistoff Amphotericin B als nicht-lipophil, gleichzeitig aber auch als nicht-hydrophil. Die zur Ermittlung der für die Emulsionsbildung notwendigen Hilfstoffkonzentrationen erstellten ternären Diagramme veranschaulichten, dass hohe Öl- und Tensidgehalte zu keiner Emulsionsbildung führten. Dementsprechend betrug der höchste Ölgehalt 10%. Die Tröpfchengröße wuchs mit zunehmender Tensidkonzentration, wobei die Co-Solventmenge der Propylenglykol-haltigen Nanoemulsion indirekt verringert wurde. Für die Transcutol®P-haltige Nanoemulsion hingegen wurde das Gegenteil beobachtet, nämlich eine Abnahme der Tröpfchengröße bei steigenden Tensidkonzentrationen. Durch den Einschluss des Arzneistoffes wurde nicht die Viskosität der Formulierung, sondern die Tröpfchengröße beeinflusst. Der Wirkstoffeinschluss führte zu höheren Tröpfchengrößen. Mit zunehmender Propylenglykolkonzentration wurde der Wirkstoffgehalt erhöht, mit zunehmender Transcutol®P-Konzentration dagegen vermindert. UV/VIS-spektroskopische Analysen deuten darauf hin, dass in beiden Formulierungen Amphotericin B als Monomer vorliegt. Allerdings erwiesen sich die Formulierungen Caco-2-Zellen und humanen roten Blutkörperchen gegenüber als toxisch. Da die Kontrollproben eine höhere Toxizität als die wirkstoffhaltigen Formulierungen zeigten, ist die Toxizität nicht nur auf Amphotericin, sondern auch auf die Hilfsstoffe zurückzuführen. Die solubilisierte Wirkstoffmenge ist in beiden Formulierungen nicht ausreichend im Hinblick auf die eingesetzte Menge an Hilfsstoff nach WHO-Kriterien. Gemäß diesen Untersuchungen erscheinen die Emulsions-Formulierungen für die orale Gabe nicht geeignet. Dennoch sind Tierstudien notwendig, um den Effekt bei Tieren sowie die systemisch verfügbare Wirkstoffmenge zu ermitteln. Dies wird bestandskräftige Schlussfolgerungen bezüglich der Formulierung und Aussagen über mögliche Perspektiven erlauben. Nichtsdestotrotz sind die Präkonzentrate sehr stabil und können bei Raumtemperatur gelagert werden.rnDie multilamellar-vesikulären Formulierungen von Amphotericin B mit ungesättigten und gesättigten neutralen Phospholipiden und Cholesterin wurden erfolgreich entwickelt und enthielten nicht nur Vesikel, sondern auch zusätzliche Strukturen bei zunehmender Cholesterinkonzentration. Mittels Partikelgrößenanalyse wurden bei den Formulierungen mit gesättigten Lipiden Mikropartikel detektiert, was abhängig von der Alkylkettenlänge war. Mit dem ungesättigten Lipid (DOPC) konnten hingegen Nanopartikel mit hinreichender Verkapselung und Partikelgrößenverteilung gebildet werden. Die Ergebnisse der thermischen und FTIR-spektroskopischen Analyse, welche den Einfluss des Arzneistoffes ausschließen ließen, liefern den Nachweis für die mögliche, bereits in der Literatur beschriebene Einlagerung des Wirkstoffs in lipid- und/oder cholesterinreiche Membranen. Mit Hilfe eines linearen Saccharosedichtegradienten konnte die Formulierung in Vesikel und Wirkstoff-Lipid-Komplexe nach bimodaler Verteilung aufgetrennt werden, wobei der Arzneistoff stärker mit den Komplexen als mit den Vesikeln assoziiert ist. Bei den Kleinwinkelneutronenstreu-Experimenten wurde die Methode der Kontrastvariation mit Erfolg angewendet. Dabei konnte gezeigt werden, dass Cholesterol in situ einen Komplex mit Amphotericin B bildet. Diesen Sachverhalt legt unter anderem die beobachtete Differenz in der äquivalenten Streulängendichte der Wirkstoff-Lipid- und Wirkstoff-Lipid-Cholesterin-haltigen kleinen unilamellaren Vesikeln nahe. Das Vorkommen von Bragg-Peaks im Streuprofil weist auf Domänen hin und systematische Untersuchungen zeigten, dass die Anzahl der Domänen mit steigendem Cholesteringehalt zunimmt, ab einem bestimmten Grenzwert jedoch wieder abnimmt. Die Domänen treten vor allem nahe der Außenfläche der Modellmembran auf und bestätigen, dass der Wirkstoff in den Cholesterinreichen Membranen vertikal eingelagert ist. Die Formulierung war sowohl Caco-2-Zellen als auch humanen roten Blutkörperchen gegenüber nicht toxisch und erwies sich unter Berücksichtigung der Aufnahme in Caco-2-Zellen als vielversprechend für die orale Applikation. Die Formulierung zeigt sich somit aussichtsreich und könnte in Tabletten weiterverarbeitet werden. Ein Filmüberzug würde den Wirkstoff gegen die saure Umgebung im Magen schützen. Für die Bestimmung der systemischen Verfügbarkeit der Formulierung sind Tierstudien notwendig. Die entwickelten multilamellaren Formulierungen einschließlich der Wirkstoff-Cholesterin-Komplexe bieten somit gute Aussichten auf die mögliche medizinische Anwendung. rnrn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation „Strategisches Innovationsmanagement von Buchverlagen im Kontext konvergierender Medienmärkte“ nimmt sich des Themengebiets der Innovation in Buchverlagen in Zeiten der Digitalisierung an. Grob gliedert die Arbeit sich in einen Theorieteil und einen Empirieteil. Den Einstieg in den Theorieteil bildet eine Einführung in die Themenstellung, in der das Erkenntnisinteresse anhand von vier forschungsleitenden Fragen eingegrenzt wird: rn1) „Welche Anforderungen an die Innovationsfähigkeit von Verlagen ergeben sich aus aktuellen und antizipierten zukünftigen Entwicklungen, insbesondere der Medienkonvergenz?“rn2) „Welchen Beitrag kann strategisches Innovationsmanagement leisten, um diesen Anforderungen mit erfolgreichen Innovationen gerecht zu werden?“ rn3) „Welches sind die kritischen Faktoren für erfolgreiches Innovieren im Buchverlag?“ rn4) „Wie kann erfolgsförderndes Innovationsmanagement in Buchverlage implementiert werden?“rnrnDer Ausgangspunkt ist dabei die Darstellung aktueller Entwicklungen im Buchmarkt, die in ihrer Relevanz für das Thema bewertet werden. Dabei stehen solche Veränderungen im Mediennutzungsverhalten und dem veränderten Marktumfeld im Fokus, aus denen resultiert, dass Verlage sich nicht mehr nur auf ihre tradierten Kernkompetenzen verlassen können. Der Medienkonvergenz wird in dem Kontext als Suprakategorie eine herausgehobene Bedeutung zuerkannt. Am Ende des dritten Kapitels wird resümierend erörtert, woraus für Verlage heute die Notwendigkeit innovativen Handelns erwächst. Damit findet auch eine Überleitung in das folgende Kapitel über Innovation im Buchverlag statt, das inhaltlich den Kern des Theorieteils der Arbeit bildet.rnrnIm Kapitel Innovation im Buchverlag wird zuerst eine definitorische Eingrenzung des Innovationsbegriffs vorgenommen. Dabei wird eine Entscheidung für den mehrdimensionalen Ansatz nach Hauschildt und Salomo als definitorisches Grundraster getroffen. Darauf folgt eine Einführung in theoretische Grundbegriffe und Konzepte des Innovationsmanagements. Im Folgenden finden Erkenntnisse aus der Innovationsforschung Anwendung auf Spezifika in Buchverlagen, wobei zunächst Handlungsfelder identifiziert werden. Eine wesentliche Rolle im Argumentationsgang der Arbeit spielen dann die Erfolgsfaktoren des Innovationsmanagements in Buchverlagen. Eine herausragende Stellung wird dabei dem Wissensmanagement zuerkannt. Es folgt darauf ein Unterkapitel über Innovationskooperation. Darin wird zunächst die strategische Relevanz von Kooperationen beleuchtet, wobei auch eine teils kritische Auseinandersetzung mit dem modernen Begriff der Open Innovation stattfindet. Dann wird dargestellt, wer sich als Kooperationspartner für Buchverlage eignet und welche Modi des kooperativen Innovierens existieren. Es folgen darauf Ausführungen zur Implementierung einer Innovationsstrategie, wobei sowohl aufbau- als auch ablauforganisatorische Aspekte zum Tragen kommen. Im Mittelpunkt steht dabei die Darstellung des Stage-Gate-Modells als Ansatz für die Ablaufplanung von Innovationsprozessen in Buchverlagen. Wegen seiner guten Skalierbarkeit wird diesem Ansatz eine Eignung sowohl für kleine als auch mittelgroße und große Verlage zuerkannt. Den Abschluss des Kapitels über Innovation im Buchverlag bilden Betrachtungen über die rechtliche und technische Absicherung von Innovationen. rnrnDer empirische Teil der Arbeit wird eingeläutet mit einer Herleitung empirischer Fragestellungen. Dies geschieht zum einen auf der Grundlage einer Betrachtung, welche Erkenntnislücken die rein theoretische Auseinandersetzung mit dem Thema offengelassen hat. Die empirischen Fragestellungen bilden das Grundgerüst, auf dem im Folgenden die Ergebnisse einer qualitativen Maßnahme in Form von Interviews und einer quantitativen Maßnahme in Form einer Befragung per Fragebogen dargestellt werden. In der Auswertung der Ergebnisse werden dabei zunächst Hypothesen aus den Fallstudien gebildet, die auf Grundlage der Interviews entstanden sind. Diese Hypothesen werden anhand der Daten, die bei der Erhebung per Fragebogen gewonnen wurden, mit statistischen Methoden überprüft.rnrnDen Abschluss der Arbeit bildet eine Schlussbetrachtung, in der die gewonnenen Erkenntnisse verdichtet und vor dem Hintergrund der eingangs gestellten forschungsleitenden Fragen als Quintessens der Arbeit präsentiert werden. Zu jeder forschungsleitenden Frage findet dabei ein kurzes Resümee statt. Als größte Anforderung an die Innovationsfähigkeit von Verlagen wird darin erkannt, den Modus der eigenen Wertschöpfung kontinuierlich zu aktualisieren und an die dynamischen Veränderungen im Umfeld anzupassen. Dem strategischen Innovationsmanagement kommt dabei vor allem die Bedeutung zu, dass es ein konsistentes Handeln ermöglicht, das als Voraussetzung für die Planbarkeit von Innovationserfolgen gesehen wird. Auch erscheint es zunehmend wichtig, den Paradigmenwechsel weg vom Denken in Produktkategorien hin zu einem Denken in Problemlösungskategorien zu vollziehen, wobei ein strategisches Innovationsmanagement Buchverlagen hilfreich sein kann.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit gliedert sich in drei Kapitel. Das erste Kapitel umfasst dabei die Darstellung von Methoden, die zum gegenwärtigen Zeitpunkt unter anderem in der provinzialrömischen Archäologie zur Untersuchung von Gefäßkeramik üblich sind, wobei die Einzelergebnisse des im Rahmen dieser Arbeit untersuchten gebrauchskeramischen Materials (Randfragmente) der Saalburg (bei Bad Homburg) am Ende des Kapitels zusammengefasst werden. Im zweiten Kapitel werden anhand des gleichen Materials einige naturwissenschaftliche Methoden dargestellt, die zur Materialanalyse sowohl in den Geowissenschaften (Materialwissenschaft), als auch in der Archäometrie häufig Anwendung finden und deren Ergebnisse am Ende des Kapitels zusammengefasst. In einer Gesamtbetrachtung (drittes Kapitel) werden schließlich diese hinsichtlich ihrer Aussagekraft in archäologischem Kontext evaluiert. Neben der im Anhang festgehaltenen Original-dokumentation der Dünnschliff-Untersuchungen (Ramanspektroskopie, „RS“), werden im Abbildungsteil die Kopien der Originaldaten aus der Röntgendiffraktometrie („XRD“) und der Röntgenfluoreszenzanalyse („RFA“, chemische Analyse), Abbildungen einiger Festkörper, als auch Zeichnungen, Photos und Dünnschliffe der Randfragmente aufgeführt. Während die Darstellung der angewandten Methoden einer Verständniserleichterung vor allem der komplexen chemisch-physikalischen Zusammenhänge dienen soll - nicht zuletzt auch, um die künftige Methodenwahl zu optimieren - soll mittels der Evaluation, vor allem für die Keramikforschung, die Entwicklung neuer Forschungsmethoden unterstützt werden. Aus dem Vergleich der Ergebnisse beider Kapitel erhebt sich nicht allein für die Keramikforschung die Frage, inwieweit die Anwendungen bestimmter Untersuchungen überhaupt sinnvoll sind, wenn sie nicht nur der Bestätigung dienen sollen, sondern welche Konsequenzen daraus auch für die Untersuchung anderer historisch-kultureller Materialgruppen resultieren könnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kulturlandschaften als Ausdruck einer über viele Jahrhunderte währenden intensiven Interaktion zwischen Menschen und der sie umgebenden natürlichen Umwelt, sind ein traditionelles Forschungsobjekt der Geographie. Mensch/Natur-Interaktionen führen zu Veränderungen der natürlichen Umwelt, indem Menschen Landschaften kultivieren und modifizieren. Die Mensch/Natur-Interaktionen im Weinbau sind intensiv rückgekoppelt, Veränderungen der natürlichen Umwelt wirken auf die in den Kulturlandschaften lebenden und wirtschaftenden Winzer zurück und beeinflussen deren weiteres Handeln, was wiederum Einfluss auf die Entwicklung der gesamten Weinbau-Kulturlandschaft hat. Kulturlandschaft wird aus diesem Grund als ein heterogenes Wirkungsgefüge sozialer und natürlicher Elemente konzeptionalisiert, an dessen Entwicklung soziale und natürliche Elemente gleichzeitig und wechselseitig beteiligt sind. Grundlegend für die vorliegende Arbeit ist die Überzeugung, dass sich Kulturlandschaften durch Mensch/Natur-Interaktionen permanent neu organisieren und nie in einen Gleichgewichtszustand geraten, sondern sich ständig weiterentwickeln und wandeln. Die Komplexitätstheorie bietet hierfür die geeignete theoretische Grundlage. Sie richtet ihren Fokus auf die Entwicklung und den Wandel von Systemen und sucht dabei nach den Funktionsweisen von Systemzusammenhängen, um ein Verständnis für das Gesamtsystemverhalten von nicht-linearen dynamischen Systemen zu erreichen. Auf der Grundlage der Komplexitätstheorie wird ein Untersuchungsschema entwickelt, dass es ermöglich, die sozio-ökonomischen und raum-strukturellen Veränderungsprozesse in der Kulturlandschaftsentwicklung als sich wechselseitig beeinflussenden Systemzusammenhang zu erfassen. Die Rekonstruktion von Entwicklungsphasen, die Analysen von raum-strukturellen Mustern und Akteurskonstellationen sowie die Identifikation von Bifurkationspunkten in der Systemgeschichte sind dabei von übergeordneter Bedeutung. Durch die Untersuchung sowohl der physisch-räumlichen als auch der sozio-ökonomischen Dimension der Kulturlandschaftsentwicklung im Weinbau des Oberen Mittelrheintals soll ein Beitrag für die geographische Erforschung von Mensch/Natur-Interaktionen im Schnittstellenbereich von Physischer Geographie und Humangeographie geleistet werden. Die Anwendung des Untersuchungsschemas erfolgt auf den Weinbau im Oberen Mittelrheintal. Das Anbaugebiet ist seit vielen Jahrzehnten einem starken Rückgang an Weinbaubetrieben und Rebfläche unterworfen. Die rückläufigen Entwicklungen seit 1950 verliefen dabei nicht linear, sondern differenzierten das System in unterschiedliche Entwicklungspfade aus. Die Betriebsstrukturen und die Rahmenbedingungen im Weinbau veränderten sich grundlegend, was sichtbare Spuren in der Kulturlandschaft hinterließ. Dies zu rekonstruieren, zu analysieren und die zu verschiedenen Phasen der Entwicklung bedeutenden externen und internen Einflussfaktoren zu identifizieren, soll dazu beitragen, ein tief greifendes Verständnis für das selbstorganisierte Systemverhalten zu generieren und darauf basierende Handlungsoptionen für zukünftige Eingriffe in die Systementwicklung aufzuzeigen

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Tauchtourismus übernimmt innerhalb des gesamten internationalen Tourismus in Ägypten eine wichtige Rolle. Besonders in Krisenzeiten sind es die Taucher, die aufgrund der einzigartigen Tauchgebiete weiterhin in das Land kommen und somit einen wesentlichen Beitrag zum Erhalt der Arbeitsplätze und der Infrastruktur beitragen. Doch der Konkurrenzkampf zwischen den Tauchbasen, das derzeit schlechte Image Ägyptens und die Attraktivität weltweiter Tauchdestinationen, zwingt die Betreiber von Tauchbasen dazu, sich einer wandelnden Gästestruktur und deren Reisegewohnheiten anzupassen. In der vorliegenden Untersuchung wird am Beispiel der Tauchbasenbetreiber in Ägypten untersucht, wie kulturelles Handeln eine Rolle bei der Bildung von Vertrauen zwischen einem Anbieter einer touristischen Dienstleistung und dem Kunden einnehmen kann. Als Ausgangspunkt dient dazu das Modell der „Transkulturalität als Praxis“ nach PÜTZ (2004), welches um den Aspekt der internationalen Kooperationsbeziehungen erweitert wird. Es besagt, dass im wirtschaftlichen Handeln zwischen den Akteuren das kulturelle Verständnis eine entscheidende Rolle bei der Bildung von Vertrauen einnimmt. Durch die Fähigkeit, einen kulturellen Blickwinkel in das alltägliche Handeln einzubeziehen, kann ein Unternehmer den Wettbewerbsvorsprung zu seinen Mitkonkurrenten ausbauen.rnrnIm Mittelpunkt des Forschungsinteresses stand dabei die Frage inwieweit die Basenbetreiber über die ihnen zur Verfügung stehenden Möglichkeiten kulturgebundenen Handelns Vertrauen zu den Tauchern generieren. Geschieht die Anwendung aus eigener Initiative heraus oder nur unter dem Konkurrenzdruck? Die Ergebnisse der Studie belegen, dass das Arbeiten im Umfeld kultureller Unterschiede den Blick der Basenbetreiber für die Notwendigkeit einer starken Vertrauensbeziehung zum Kunden von Anfang an geprägt hat. Das Handeln aller Interviewteilnehmer orientiert sich zuerst unbewusst an zahlreichen branchenüblichen Handlungsweisen und Symbolen, stößt aber ab einem bestimmten Punkt an seine Grenzen. Aufgrund von bewusstem kulturellen Handeln ist jedoch die Möglichkeit gegeben, diese Grenzen zu überwinden und individuelle und situationsspezifische Arten der Kundengewinnung in das Handeln einzubeziehen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Rational-Choice-Ansatz (RCA) hat in den letzten Jahrzehnten eine weite Ver-rnbreitung in vielen sozialwissenschaftlichen Disziplinen erfahren. Insbesondere in den letzten zwei Jahrzehnten gab es wiederholte Bemühungen, den RCA auchrnauf geschichtswissenschaftliche Fragestellungen und Themen anzuwenden. Ein interssanter Ansatz dafür ist eine integrative Methodik, die unter der Bezeichnung „Analytic Narrative“ bekannt wurde. Damit wird versucht, die klassische narrative Form der Erklärung historischer Phänomene mit spieltheoretischen Modellierungen zu verbinden. Inspiriert durch diesen Ansatz geht die vorliegende Untersuchung der Frage nach, in welcher Form und unter welchen Umständen der RCA als analytische Grundlage für historische Themenfelder und Fragestellungen geeignet sein mag. Dies wird nicht nur theoretisch, sondern an einem historischen Beispiel untersucht. Konkreter Betrachtungsgegenstand der Arbeit ist der Vierte Kreuzzug. Vor über 800 Jahren endete dieser mit der Eroberung und Plünderung Konstantinopels sowie der Zerschlagung des Byzantinischen Reichs. Seit mehr als 150 Jahren streiten Historiker über die Ursachen für diese Ereignisse. Die theoretischenrnGrundpositionen, die innerhalb dieser Debatte durch einzelne Historiker einge-rnnommen wurden, dienen als Ausgangspunkt für die hier verfolgte Untersuchung.rnEs wird gezeigt, dass die Daten, die uns über den Vierten Kreuzzug vorliegen,rndie Möglichkeit eröffnen, verschiedene auf dem RCA basierende Analyseverfah-rnren zur Anwendung zu bringen. Das zentrale Ziel der Analyse besteht darin, ausrnden vorhandenen Quellen neue Einsichten in die strategischen Handlungsoptionen der für den Verlauf des Kreuzzugs relevanten Akteure zu generieren undrnüberdies ein Höchstmaß an Überprüfbarkeit zu gewährleisten.