1000 resultados para Pullat, Raimo: Die Stadtbevölkerung Estlands im 18. Jahrhundert
Resumo:
Der irische Buchmarkt als Teil des englischsprachigen Buchmarktes ist stark von der Geschichte des Landes geprägt. Die Fremdbestimmung im Rahmen des Commonwealth unterdrückte eine eigenständige Verlagslandschaft bis weit ins 20. Jahrhundert hinein. Mit der Unabhängigkeit des irischen Staates stieg die Anzahl der Verlage langsam aber stetig an. In den 70er Jahren kam die irische Verlagslandschaft zu einem fast explosionsartigen Erblühen. Die Gründung des Verlegerverbandes Clé war einer von vielen Schritten, um den nationalen Buchmarkt von der Dominanz britischer Bücher in Buchhandlungen und Bibliotheken zu emanzipieren. Die Nachfrage nach Irish-Interest-Titeln ist im Inland hoch. Britische Verlage hatten bis dato diesen Bedarf übersehen, und so füllten irische Verlage diese Nische. Die Einführung eines von Großbritannien unabhängigen Lehrplans führte zur Etablierung eines eigenständigen Schulbuchmarktes, inklusive Lehrwerke zur irischen Sprache bzw. Titel auf Irisch. Irische Verlage sind in ihrem Programm größtenteils breit aufgestellt und selten spezialisiert. Sie sind erstaunlich häufig unabhängige mittelständische Unternehmen. Nur wenige Verlage sind staatlich geführt oder gehören ausländischen Konzernen an. Auch der stationäre Buchhandel ist überwiegend eigenständig, da die – vor dem Wirtschaftsboom wenig kaufkräftige - Republik von den expandierenden britischen Buchhandelsketten vernachlässigt wurde. Erst nach dem Wirtschaftsboom und dem damit verbundenen soziokulturellen Wandel von einer traditionellen Agrar- hin zu einer modernen Informationsgesellschaft stiegen die Umsätze mit Büchern stark an. Sobald der Buchmarkt eine nennenswerte wirtschaftliche Größe erreichte, eröffneten britische Buchhandlungen Filialen in irischen Städten. Sie vermochten jedoch nicht, die Sortimentsvielfalt der irischen Buchhandelslandschaft zu zerstören. Die fehlende Buchpreisbindung ist keine Bedrohung der Titelvielfalt, da Handelsformen wie Buchclubs, Supermärkte und Internethandel – die mit teils aggressivem Preismarketing arbeitenden Nebenmärkte – hier nur eine Randexistenz führen. In diesem Fall wandelt sich die geringe (Umsatz-) Größe und damit Attraktivität des Buchmarktes zum Vorteil. Die staatliche Kulturförderung ist ein bedeutender Beitrag zum Verlegen von Literatur, die wirtschaftlich gerechnet keine Daseinsberechtigung hätte. Irische Verleger mit relativ geringem Budget sind nicht in der Lage, solche unökonomischen Titel mit dem finanziellen Erfolg eines Bestsellers in Mischkalkulation aufzufangen. Hier greift die staatliche Unterstützung. Die Subventionierung von Titeln über die irischen Sprache bzw. von Literatur auf Irisch führte zur Herausbildung eines Marktsektors, der vor der Staatsgründung nicht existierte. Die Übersetzungsförderung verstärkt die Verbreitung von bis dato unbekannter irischer Literatur im Ausland und stimuliert das Lizenzgeschäft. Die aktuelle staatliche Kulturpolitik setzt ihren Schwerpunkt auf Marketing, PR sowie Nachfolgeregelung und fördert so nachhaltig statt bloß in Form einer kurzlebigen Titelsubvention. Eine noch mehr in die Zukunft gerichtete Förderung würde genauso wie die Unterstützung von Fortbildungsmaßnahmen zu besseren wirtschaftlichen Rahmenbedingungen führen. Auch wenn die nationale Verlagsszene im Aufschwung begriffen ist, befindet sich der irische Buchmarkt insgesamt in fester Hand der britischen Verlagsproduktion. Der britische Buchmarkt mit seinen multinationalen und finanzkräftigen Verlagen lebt vom Export. Aus Sicht von Großbritannien ist heutzutage der Nachbar Irland, einst Teil des britischen Buchmarktes, einer der besten Kunden. Dieser Aspekt bezieht sich nicht nur auf die langjährig entwickelten Handelsbeziehungen. In kulturellen Aspekten orientiert sich Irland stark am britischen Vorbild: Ein britischer Bestseller wird fast immer auch ein Bestseller in Irland. Lediglich Irish-Interest-Titel durchbrechen diesen Automatismus. Während Irish Interest im Inland hohe Umsätze vorweist, sind diese Titel im Ausland lediglich ein Nischenprodukt. Zusätzlich müssen irische Verlage außerhalb des Landes mit britischen und US-amerikanischen Verlagen in Konkurrenz treten, die ebenfalls Irish-Interest-Titel für die irische Diaspora anbieten. Es besteht daher nur eine geringe Chance, erfolgreich am globalen englischsprachigen Buchmarkt mitzuwirken. Bis dato haben Versuche, dem irischen Buchmarkt durch Export zu Umsatzwachstum zu verhelfen, keinen nennenswerten Erfolg gebracht. Lediglich auf dem Gebiet der populären Literatur und in Form von Kooperationen mit britischen Verlagskonzernen vermögen irische Verlage, am internationalen Buchhandel teilzuhaben.
Resumo:
Durch die Entwicklung der chemischen Industrie im 19. Jahrhundert traten völlig neue medizinische Probleme auf. 1895 postulierte Dr. Ludwig Rehn, ein Chirurg am Städtischen Krankenhaus in Frankfurt am Main, auf dem Chirurgenkongreß erstmals einen Zusammenhang zwischen dem Blasenkarzinom und seinem gehäuften Auftreten bei Arbeitern der organisch-chemischen Farbenfabriken. Er hatte bemerkt, daß er in relativ kurzer Zeit einige Patienten mit Blasenkrebs operiert hatte, die auffälligerweise alle in derselben Fabrik arbeiteten. Da diese Krankheit sehr selten war, versuchte er in Zusammenarbeit mit Heinrich Paul Schwerin das Phänomen zu ergründen. Einerseits mußte die schädliche Substanz selbst genau identifiziert werden, andererseits die Kanzerogenese aufgeklärt sowie eine Therapie gefunden bzw. prophylaktische Maßnahmen eingeleitet werden. Wie auch heute bei vielen neuen Entdeckungen dauerte es Jahrzehnte, bis Ärzte diese These anerkannten. Besonders starke Anfeindung erfuhr Ludwig Rehn von Fabrikärzten aufgrund ihrer Verpflichtung für das Wohlergehen der Arbeiter und ihrer Abhängigkeit von der wirtschaftlichen Prosperität der Fabriken, z. B. von Friedrich Wilhelm Grandhomme. Es ergab sich die bis heute bestehende Schwierigkeit, zwischen den Wünschen der produzierenden, arbeitsplätzeschaffenden Industrie und dem Schutz der Arbeitnehmer und der Umwelt einen Konsens herzustellen. Die Probleme Therapie und Prophylaxe sowie Identifikation aller Blasenkrebs verursachenden Substanzen sind auch im 21. Jahrhundert noch nicht völlig geklärt.
Resumo:
Hintergrund: Biogeographische Verbindungen der Alpen nach Asien wurden schon im 19. Jahrhundert durch floristische Vergleiche entdeckt. Ziele: In den vorliegenden drei Artikeln wird untersucht, ob diese Verbindung entlang einer nördlichen, arktisch-borealen Route oder entlang einer südlichen Route über dazwischen liegende Gebirge wie den Kaukasus bestand. Methoden: Molekulare Phylogenien von Epimedium (Berberidaceae) und der Tribus der Hyoscyameae (Solanaceae), deren Vertreter disjunkt in den Alpen, dem Kaukasus und in asiatischen Gebirgen vorkommen, wurden mit nukleären und plastidären Markern erstellt und bio¬geographisch ausgewertet. Zur Datierung der Diversifizierungsereignisse und Arealbil¬dung diente eine molekulare Uhr. Ein aktueller floristischer Vergleich von Gattungen, die in den Alpen, den asiatischen Gebirgen und in Gebieten entlang der potentiellen Routen vor¬kom¬men, wurde unternommen und ausgewertet. Daran anschließend wurde nach molekular-phylogenetischer Literatur für interessante Gruppen aus diesem Ver¬gleich recherchiert, um diese biogeogra¬phisch bezüglich der Fragestellung zu interpretieren. Ergebnisse: Von 429 Gattungen, die in den Alpen und im Himalaya vorkommen, wachsen 218 entlang der nördlichen und der südlichen Route. 203 kommen nur entlang der süd¬lichen und drei nur entlang der nördlichen Route vor. Fünf kommen nur in den Alpen und im Himalaya vor. Epimedium, Scopolia/Physochlaina aus den Hyoscyameae und Primula sect. Auricula sind Beispiele für eine nördliche biogeographische Verbindung zwischen den Alpen und Asien. Diese bestand zumindest in den ersten beiden Fällen wahrscheinlich aus einem durchgängigen Laubwaldgürtel, der durch das abkühlende und trockener werdende Klima im Pliozän und Pleistozän fragmentiert wurde und heute nicht mehr besteht. Es handelt sich also um ein Vikarianzmuster und weniger um eine Migrationsroute. Die größere Diver¬sität dieser Guppen, die in Asien beobachtet werden kann ist sekundär entstanden. Atropa aus den Hyoscyameae, Brachypodium, die Subtribus Loliinae aus den Poaceae, Bupleurum und Doronicum sind Beispiele für eine südliche Verbindung. Hier liegen die Diversitätszentren im Mediterraneum und die Vorkommen im Osten sind abgeleitet. Schlussfolgerungen: Die Datengrundlage aus der Literaturrecherche ist nicht sehr breit und die meisten Phylogenien waren für die Fragestellung nicht aussagekräftig. Die histori¬schen Erkenntnisse und die Ideen über den Zusammenhang der Alpenflora mit der asiatischer Gebirge werden grundsätzlich bestärkt. Die Flora der Alpen enthält ein Element das über eine nördliche Verbindung noch lange mit asiatischen Gebirgen in Kontakt stand und ein südliches Element, das aus dem Mittelmeer¬raum bzw. aus SW Asien stammt. Die Beispiele für eine nördliche Verbindung sprechen allerdings nicht für eine Migration von Asien nach Europa sondern zeigen ein Vikarianzmuster auf.
Resumo:
Das Jahr 1989 markiert nicht nur den Beginn entscheidender geopolitischer Veränderungen, sondern gleichzeitig den Ursprung eines bedeutsamen Wandels in der internationalen Entwicklungszusammenarbeit. Mit der viel beachteten Studie ‚Sub-Saharan Africa – From Crisis to Sustainable Growth’ initiierte die Weltbank eine Debatte über die Relevanz institutioneller Faktoren für wirtschaftliche Entwicklung, die in den folgenden Jahren unter dem Titel ‚Good Governance’ erhebliche Bedeutung erlangte. Nahezu alle zentralen Akteure begannen, entsprechende Aspekte in ihrer praktischen Arbeit zu berücksichtigen, und entwickelten eigene Konzepte zu dieser Thematik. Wenn auch mit der Konzentration auf Institutionen als Entwicklungsdeterminanten eine grundlegende Gemeinsamkeit der Ansätze festzustellen ist, unterscheiden sie sich jedoch erheblich im Hinblick auf die Einbeziehung politischer Faktoren, so dass von einem einheitlichen Verständnis von ‚Good Governance’ nicht gesprochen werden kann. Während die meisten bilateralen Akteure sowie DAC und UNDP Demokratie und Menschenrechte explizit als zentrale Bestandteile betrachten, identifiziert die Weltbank einen Kern von Good Governance, der unabhängig von der Herrschaftsform, also sowohl in Demokratien wie auch in Autokratien, verwirklicht werden kann. Die Implikationen dieser Feststellung sind weit reichend. Zunächst erlaubt erst diese Sichtweise der Bank überhaupt, entsprechende Aspekte aufzugreifen, da ihr eine Berücksichtigung politischer Faktoren durch ihre Statuten verboten ist. Bedeutsamer ist allerdings, dass die Behauptung der Trennbarkeit von Good Governance und der Form politischer Herrschaft die Möglichkeit eröffnet, Entwicklung zu erreichen ohne eine demokratische Ordnung zu etablieren, da folglich autokratische Systeme in gleicher Weise wie Demokratien in der Lage sind, die institutionellen Voraussetzungen zu verwirklichen, welche als zentrale Determinanten für wirtschaftlichen Fortschritt identifiziert wurden. Damit entfällt nicht nur ein bedeutsamer Rechtfertigungsgrund für demokratische Herrschaft als solche, sondern rekurrierend auf bestimmte, dieser zu attestierende, entwicklungshemmende Charakteristika können Autokratien nun möglicherweise als überlegene Herrschaftsform verstanden werden, da sie durch jene nicht gekennzeichnet sind. Die Schlussfolgerungen der Weltbank unterstützen somit auch die vor allem im Zusammenhang mit der Erfolgsgeschichte der ostasiatischen Tigerstaaten vertretene Idee der Entwicklungsdiktatur, die heute mit dem Aufstieg der Volksrepublik China eine Renaissance erlebt. Der wirtschaftliche Erfolg dieser Staaten ist danach auf die überlegene Handlungsfähigkeit autokratischer Systeme zurückzuführen, während Demokratien aufgrund der Verantwortlichkeitsbeziehungen zwischen Regierenden und Regierten nicht in der Lage sind, die notwendigen Entscheidungen zu treffen und durchzusetzen. Die dargestellte Sichtweise der Weltbank ist allerdings von verschiedenen Autoren in Zweifel gezogen worden, die auch für ein im Wesentlichen auf technische Elemente beschränktes Good Governance-Konzept einen Zusammenhang mit der Form politischer Herrschaft erkennen. So wird beispielsweise vertreten, das Konzept der Bank bewege sich ausdrücklich nicht in einem systemneutralen Vakuum, sondern propagiere zumindest implizit die Etablierung demokratischer Regierungsformen. Im Übrigen steht die aus den Annahmen der Weltbank neuerlich abgeleitete Idee der Entwicklungsdiktatur in einem erheblichen Widerspruch zu der von multilateralen wie bilateralen Akteuren verstärkt verfolgten Förderung demokratischer Herrschaft als Mittel für wirtschaftliche Entwicklung sowie der fortschreitenden Verbreitung der Demokratie. Besteht nun doch ein Einfluss der Herrschaftsform auf die Verwirklichung von Good Governance als zentraler Entwicklungsdeterminante und kann zudem davon ausgegangen werden, dass Demokratien diesbezüglich Vorteile besitzen, dann ist eine Entwicklungsdiktatur keine denkbare Möglichkeit, sondern im Gegenteil demokratische Herrschaft der gebotene Weg zu wirtschaftlichem Wachstum bzw. einer Verbesserung der Lebensverhältnisse. Aufgrund der mit den Schlussfolgerungen der Weltbank verbundenen bedeutsamen Implikationen und der bisher weitestgehend fehlenden ausführlichen Thematisierung dieses Gegenstands in der Literatur ist eine detaillierte theoretische Betrachtung der Zusammenhänge zwischen den zentralen Elementen von Good Governance und demokratischer Herrschaft notwendig. Darüber hinaus sollen die angesprochenen Beziehungen auch einer empirischen Analyse unterzogen werden. Gegenstand dieser Arbeit ist deshalb die Fragestellung, ob Good Governance eine von demokratischer Herrschaft theoretisch und empirisch unabhängige Entwicklungsstrategie darstellt.
Resumo:
In den konsultativen Referenden von 1972 und 1994 stimmte eine knappe Mehrheit der norwegischen Wählerschaft gegen einen Beitritt in die europäische Staatengemeinschaft. Regierung und Parlament zogen daraufhin ihr Aufnahmegesuch zurück. Ein erneuter Antrag auf Mitgliedschaft in der EU wird seither vermieden, da sich die Parteien des Konfliktpotenzials bewusst sind. Von der politischen Agenda ist diese Streitfrage jedoch nicht verschwunden. Die vorliegende Magisterarbeit greift den gängigen Erklärungsansatz der politikwissenschaftlichen Forschung auf: Das Scheitern der Referenden ist demnach auf die Aktualisierung traditioneller politischer Konfliktlinien zurückzuführen. Inwieweit diese Cleavages die Einstellungen norwegischer Staatsbürger zur Europäischen Integration bestimmen, wird anhand eines komplexen Konfliktlinienmodells und mittels aktueller Daten untersucht. Aufbauend auf dem klassischen Cleavage-Konzept von Seymour Lipset und Stein Rokkan (Zentrum/Peripherie, Staat/Kirche, Stadt/Land, Kapital/Arbeit), findet eine Konkretisierung von Stefano Bartolini und Peter Mair Anwendung, die jede der vier Konfliktlinien als dreidimensional (empirisch, normativ und organisatorisch) begreift. In einem historischen Überblick zeigt sich die Relevanz der tradierten Konfliktlinien für Norwegen, die sich sowohl im nationalen Parteiensystem als auch in den Standpunkten der Parteien zu einem EU-Beitritt widerspiegeln. Datengrundlage für die folgenden empirischen Analysen (Kreuztabellen, Mittelwert- und Korrelationsvergleiche, multiple lineare Regressionen) stellt die norwegische Teilstudie der zweiten Welle des European Social Survey von 2004/2005 dar. Europäische Integration wird von den meisten norwegischen Staatsbürgern, die sich empirisch, normativ und organisatorisch auf den Konfliktlinienpolen Peripherie, Kirche, Land oder Arbeit verorten lassen, negativ bewertet. Im Gegensatz dazu geht die recht häufig vertretene Kombination der empirischen Konfliktlinienpole Zentrum-Staat-Stadt-Kapital mit einer überdurchschnittlich positiven Einstellung einher. Insgesamt erweist sich der Zusammenhang mit der Zentrum/Peripherie-Konfliktlinie als am höchsten.
Resumo:
Die Geschichte und Entwicklung der ASEAN und Indonesiens im Zeitraum von 1967rnbis ins frühe 21. Jahrhundert sind eng miteinander verknüpft. Um der Frage nachrndem indonesischen Einflusspotenzial in der ASEAN im 21. Jahrhundert nachgehenrnund dann einen Ausblick auf die Zukunft der Rolle Indonesiens in der ASEAN gebenrnzu können, bedarf es zunächst einer Analyse dessen, was in der Vergangenheitrndazu führte, dass Indonesien in der Region als primus inter pares wahrgenommenrnwurde, und der Rolle, die Indonesien im Rahmen der Erweiterung und Vertiefung der ASEAN bisher spielte. So ist der Fokus der Arbeit auf vier Phasen gerichtet: (1) die Gründungszeit der ASEAN sowie die Etablierung Indonesiens als einer der einflussreichsten Mitgliedstaaten; (2) die asiatische Finanzkrise, die nicht nur der Entwicklung der ASEAN als erstem Erfolgsmodell regionaler Kooperation in Südostasien vorläufig ein Ende setzte, sondern auch Indonesien in große wirtschaftliche wie politische Turbulenzen trieb; (3) die überregionale Erweiterung der ASEAN und der Beginn der politischen Transformation in Indonesien sowie (4) die Vertiefung der ASEAN-Kooperation und die Stabilisierung Indonesiens als demokratischer Akteur. rnFür alle vier Phasen werden das materielle Machtprofil, die institutionellen Verknüpfungen sowie ideelle Faktoren des Einflusspotenzials Indonesiens untersucht, um sich einer Antwort auf die Frage zu nähern, über welches Einflusspotenzial Indonesien in der ASEAN des 21. Jahrhunderts verfügt. Die Analyse bringt zutage, dass es Indonesien vor der Asienkrise trotz erheblicherrnEntwicklungsrückstände möglich war, gestaltenden Einfluss auf die ASEANrnauszuüben und an regionaler Bedeutsamkeit sowie Einflusspotenzial in der ASEANrnzu gewinnen. Trotz deutlich erkennbarer Entwicklungsfortschritte ist dasrngegenwärtige Indonesien jedoch nicht in der Lage, sein Einflusspotenzial in derrnASEAN zu steigern, sich als relevanter Akteur zu etablieren und erneut einernSchlüsselrolle einzunehmen. Die Akteure der ASEAN folgen nicht wie einst denrnIdeen Indonesiens, und die regionale Fremdwahrnehmung Indonesiens wird ganzrnerheblich vom derzeitigen politischen und sozialen Wertesystem beeinflusst, mit dem sich kein anderer ASEAN-Staat ohne Einschränkung identifizieren kann. rnDie Erkenntnisse der Arbeit führen letztlich zu dem Fazit, dass es aktuell kaum Raum für eine Steigerung des indonesishen Einflusse innerhalb des ostasiatischenrnRegionalismus gibt. Für die Gegenwart und vielleicht die kommenden Dekaden mussrnfür Indonesien attestiert werden, dass es sich mit der Rolle als Teilnehmer in den ASEAN-Prozessen begnügen muss.
Resumo:
Wir untersuchen die numerische Lösung des inversen Streuproblems der Rekonstruktion der Form, Position und Anzahl endlich vieler perfekt leitender Objekte durch Nahfeldmessungen zeitharmonischer elektromagnetischer Wellen mit Hilfe von Metalldetektoren. Wir nehmen an, dass sich die Objekte gänzlich im unteren Halbraum eines unbeschränkten zweischichtigen Hintergrundmediums befinden. Wir nehmen weiter an, dass der obere Halbraum mit Luft und der untere Halbraum mit Erde gefüllt ist. Wir betrachten zuerst die physikalischen Grundlagen elektromagnetischer Wellen, aus denen wir zunächst ein vereinfachtes mathematisches Modell ableiten, in welchem wir direkt das elektromagnetische Feld messen. Dieses Modell erweitern wir dann um die Messung des elektromagnetischen Feldes von Sendespulen mit Hilfe von Empfangsspulen. Für das vereinfachte Modell entwickeln wir, unter Verwendung der Theorie des zugehörigen direkten Streuproblems, ein nichtiteratives Verfahren, das auf der Idee der sogenannten Faktorisierungsmethode beruht. Dieses Verfahren übertragen wir dann auf das erweiterte Modell. Wir geben einen Implementierungsvorschlag der Rekonstruktionsmethode und demonstrieren an einer Reihe numerischer Experimente die Anwendbarkeit des Verfahrens. Weiterhin untersuchen wir mehrere Abwandlungen der Methode zur Verbesserung der Rekonstruktionen und zur Verringerung der Rechenzeit.
Resumo:
Compliance lebertransplantierter Patienten mit der immunsuppressiven Therapie ist unerlässlich für den lang-fristigen Erfolg der Lebertransplantation. Aus Non-Compliance mit der immunsuppressiven Therapie können Abstoßungsreaktionen, Organverlust oder sogar Tod resultieren. Hauptziel der vorliegenden Studie war die erstmalige Evaluation der Compliance bei Einnahme von Prograf® (zweimal tägliche Einnahme von Tacrolimus) im Vergleich zur Einnahme von Advagraf® (einmal tägliche Einnahme von Tacrolimus). Von Interesse war außerdem die Fragestellung, ob sich die Compliance bezüglich der immunsuppressiven Therapie mit dem Zeitabstand zur Transplantation verändert. rnDie Compliancemessung wurde offen mittels MEMS® (Aardex Ltd., Schweiz) durchgeführt, der Patient war also über die Compliancekontrolle informiert. Mittels MEMS® konnten Datum und Uhrzeit der Dosisentnahme dokumentiert und damit zuverlässig das gesamte Compliancemuster über im Durchschnitt 176 Tage mit der zweimal täglichen Einnahme und 188 Tage mit der einmal täglichen Einnahme pro Patient erfasst werden. 65 Patienten mit dem Basisimmunsuppressivum Prograf® wurden in die prospektive, nicht-interventionelle Studie eingeschlossen und nach Per Protokoll-Analyse konnten die Daten von 63 in Mainz lebertransplantierten Patienten ausgewertet werden (Prograf®: Gruppe 1: 15 Patienten (Pat.), Gruppe 2: 23 Pat., Gruppe 3: 22 Pat., Drop-outs: 3 Pat.; Advagraf®: Gruppe 1: 16 Pat., Gruppe 2: 23 Pat., Gruppe 3: 23 Pat., Drop-outs: 1 Pat.). Die Dosing Compliance (DC), definiert als Prozent der Tage, an denen der MEMS®-Behälter korrekt geöffnet und die Dosis höchstwahrscheinlich korrekt eingenommen wurde, war der primäre Zielparameter. Weitere Methoden der Compliancemessung, wie der Pill Count, mehrere Fragebögen (Selbsteinschätzung, Patientenwissen-, Morisky-, MESI-, HADS-, SF-36- und Patientenzufriedenheit-Fragebogen) sowie die Blutspiegelmessung wurden eingesetzt, um die Compliance der Patienten umfassend charakterisieren zu können. rnDer Median der DC mit der zweimal täglichen Einnahme betrug 97% bei Pat. > 6 m.p.t. < 2 y.p.t., 97% bei Pat. > 2 y.p.t. < 5 y.p.t. und 98% bei Pat. > 5 y.p.t. (p=0,931; Kruskal-Wallis-Test). Der Median der DC von Tacroli-mus bei einmal täglicher Einnahme (Advagraf®) betrug 99% bei Pat. > 6 m.p.t. < 2 y.p.t., 98% bei Pat. > 2 y.p.t. < 5 y.p.t. und 97% bei Pat. > 5 y.p.t. (p=0,158; Kruskal-Wallis-Test). Insgesamt zeigten die Patienten während des gesamten Beobachtungszeitraums von 12 Monaten eine gute Compliance für die Einnahme ihres Immun-suppressivums. Die Timing Compliance (TiC)-raten lagen auf einem niedrigeren Niveau als die Dosing- und Taking Compliance (TC)-raten. Die Complianceraten der drei Subgruppen unterschieden sich nicht signifikant. Die Patienten mit dem geringsten Abstand zur Transplantation zeigten bei beinahe allen Messmethoden die höchste Compliance im Gegensatz zur etwas geringeren Compliance der Patienten mit größerem Abstand zur Transplantation. Die während der Advagraf®-Phase mittels MEMS® gemessenen DC-, TC- und TiC-raten fielen höher aus als bei Einnahme von Prograf® (p(DC)=0,003; p(TC)=0,077; p(TiC)=0,003; Wilcoxon Vorzeichen-Rang-Test). Dieses Ergebnis untermauert die in anderen Indikationen gefundene Complianceverbesserung durch die einmal tägliche Arzneimittelgabe im Vergleich zur zweimal täglichen Gabe. Die Auswertung der Drug Holidays ergab für die Advagraf®-Phase hingegen niedrigere Complianceraten als für die Prograf®-Phase. Dieses Ergebnis ist auf die Definition des Drug Holidays (keine Arzneimitteleinnahme über 48 h) zurück zu führen. Die Chance Advagraf® einmal pro Tag zu vergessen ist doppelt so hoch, als Prograf® dreimal aufeinander fol-gend zu vergessen. Mit einer verhältnismäßigeren Definition von Drug Holidays (Einnahmepause von 72 Stun-den bei einmal täglicher Einnahme von Advagraf® entsprechend drei ausgelassenen Dosen von Prograf®) ist die Compliancerate 81%. Die Ergebnisse des Pill Counts waren sowohl bei Einnahme von Prograf® als auch von Advagraf® mit der jeweils gemessenen TC vergleichbar, was die Zuverlässigkeit der Messergebnisse bes-tätigt. rnDie zusätzlich eingesetzten Methoden verifizierten das Ergebnis der höheren Compliance mit der einmal tägli-chen Einnahme. Die während der Advagraf®-Phase beantworteten Fragebögen zeigten einen Trend zu besserer Compliance und Lebensqualität. Lediglich die Ergebnisse des MESI-Fragebogens und der Blutspiegelmessungen wichen sowohl während der Prograf®- als auch während der Advagraf®-Phase stark von den Ergebnis-sen der anderen Methoden ab. rnUnter Einbeziehung aller mittels MEMS® und Pill Count objektiv gemessenen Complianceparameter konnten während der Prograf®-Einnahme 54 von 60 Pat. (90%) und während der Advagraf®-Phase 59 von 62 Pat. (95%) als compliant eingestuft werden. Aufgrund subjektiver Compliancemessungen waren 49 von 58 Pat. (84%) während der Prograf®- und 54 von 59 Pat. (92%) während der Advagraf®-Phase als compliant einzustufen. Es wurde beobachtet, dass die zeitlich korrekte Einnahme der Morgendosis einfacher und bei Einmalgabe zu bevorzugen ist. Die wochentagsbezogene Auswertung ergab erwartungsgemäß, dass am Wochenende (Samstag und Sonntag) am häufigsten Dosen ausgelassen wurden. rnDie Umstellung von Prograf® auf Advagraf® stellte kein Problem dar. Beinahe alle Patienten waren dankbar und zufrieden mit der Reduzierung der Dosierungsfrequenz und der größeren Unabhängigkeit durch die entfallene abendliche Einnahme. Der positive Einfluss der geringeren Dosierungshäufigkeit auf die Langzeitcompliance der Patienten, ist ein hinreichender Grund die Entwicklung von Formulierungen zur einmal täglichen Ein-nahme für weitere Immunsuppressiva zu fordern. Insbesondere bei den häufig eingesetzten Kombinationstherapien von Immunsuppressiva würde der Effekt der Complianceverbesserung noch verstärkt werden, wenn alle eingesetzten Immunsuppressiva zur einmal täglichen Gabe geeignet wären.
Resumo:
In Vertebraten und Insekten ist während der frühen Entwicklung des zentralen Nervensystems (ZNS), welches sich aus dem Gehirn und dem ventralen Nervensystem (VNS) zusammensetzt, die Unterteilung des Neuroektoderms (NE) in diskrete Genexpressions-Domänen entscheidend für die korrekte Spezifizierung neuraler Stammzellen. In Drosophila wird die Identität dieser Stammzellen (Neuroblasten, NB) festgelegt durch die positionellen Informationen, welche von den Produkten früher Musterbildungsgene bereitgestellt werden und das Neuroektoderm in anteroposteriorer (AP) und dorsoventraler (DV) Achse unterteilen. Die molekulargenetischen Mechanismen, welche der DV-Regionalisierung zugrunde liegen, wurden ausführlich im embryonalen VNS untersucht, sind für das Gehirn jedoch weitestgehend unverstanden. rnIm Rahmen dieser Arbeit wurden neue Erkenntnisse bezüglich der genetischen Mechanismen gewonnen, welche die frühembryonale Anlage des Gehirns in DV-Achse unterteilen. So konnte gezeigt werden, dass das cephale Lückengen empty spiracles (ems), das Segmentpolaritätsgen engrailed (en), sowie der „Epidermal growth factor receptor“ (EGFR) und das Gen Nk6 homeobox (Nkx6) für Faktoren codieren, die als zentrale Regulatoren die DV Musterbildung in der Gehirnanlage kontrollieren. Diese Faktoren interagieren zusammen mit den ebenso evolutionär konservierten Homöobox-Genen ventral nervous system defective (vnd), intermediate neuroblasts defective (ind) und muscle segment homeobox (msh) in einem komplexen, regulatorischen DV-Netzwerk. Die im Trito (TC)- und Deutocerebrum (DC) entschlüsselten genetischen Interaktionen basieren überwiegend auf wechselseitiger Repression. Dementsprechend sorgen 1) Vnd und Ems durch gegenseitige Repression für eine frühe DV-Unterteilung des NE, und 2) wechselseitige Repression zwischen Nkx6 und Msh, als auch zwischen Ind und Msh für die Aufrechterhaltung der Grenze zwischen intermediärem und dorsalem NE. 3) Sowohl Ind als auch Msh sind in der Lage, die Expression von vnd zu inhibieren. Ferner konnte gezeigt werden, dass Vnd durch Repression von Msh als positiver Regulator von Nkx6 fungiert. Überdies beeinflusst Vnd die Expression von ind in segment-spezifischer Art und Weise: Vnd reprimiert ind-Expression im TC, sorgt jedoch für eine positive Regulation von ind im DC durch Repression von Msh. Auch der EGFR-Signalweg ist an der frühen DV-Regionalisierung des Gehirns beteiligt, indem er durch positive Regulation der msh-Repressoren Vnd, Ind und Nkx6 dazu beiträgt, dass die Expression von msh auf dorsales NE beschränkt bleibt. Ferner stellte sich heraus, dass das AP-Musterbildungsgen ems die Expression der DV-Gene kontrolliert und umgekehrt: Ems ist für die Aktivierung von Nkx6, ind und msh in TC und DC erforderlich ist, während Nkx6 und Ind zu einem späteren Zeitpunkt benötigt werden, um ems im intermediären DC gemeinsam zu reprimieren. Überdies konnte gezeigt werden, dass das Segmentpolaritätsgen en Aspekte der Expression von vnd, ind und msh in segment-spezifischer Art und Weise reguliert. En reprimiert ind und msh, hält jedoch vnd-Expression im DC aufrecht; im TC wird En benötigt, um die Expression von Msh herunter zu regulieren und somit die Aktivierung von ind dort zu ermöglichen.rnrnZusammengenommen zeigen diese Ergebnisse, dass AP Musterbildungsfaktoren in umfangreichen Maß die Expression der DV Gene im Gehirn (und VNS) kontrollieren. Ferner deuten diese Daten darauf hin, dass sich das „Konzept der ventralen Dominanz“, welches für die DV-Musterbildung im VNS postuliert wurde, nicht auf das genregulatorische Netzwerk im Gehirn übertragen lässt, da Interaktionen zwischen den beteiligten Faktoren hauptsächlich auf wechselseitiger (und nicht einseitiger) Repression basieren. Zudem scheint das Konzept der ventralen Dominanz auch für das VNS nicht uneingeschränkt zu gelten, da in dieser Arbeit u.a. gezeigt werden konnte, dass dorsal exprimiertes Msh in der Lage ist, intermediäres ind zu reprimieren. Interessanterweise ist gegenseitige Repression von Homöodomänen-Proteinen im sich entwickelnden Neuralrohr von Vertebraten weit verbreitet und darüberhinaus essenziell für den Aufbau diskreter DV-Vorläuferdomänen, und weist insofern eine große Ähnlichkeit zu den in dieser Arbeit beschriebenen DV-Musterbildungsvorgängen im frühembryonalen Fliegengehirn auf.rn
Resumo:
Die vorliegende Arbeit untersucht klassische oikonomische Texte im Hinblick auf normative Aussagen, die das Gutsein im antiken Hausverband, dem Oikos, implizieren. Da der Oikos der Polis gegenüber nachrangig gesehen wird, erhalten die in Frage kommenden Vortrefflichkeiten den Namen subpolitische Tugenden. Als Quellentexte sind Xenophons Oikonomikos, Teile der aristotelischen Politik und der Nikomachischen Ethik sowie die pseudoaristotelischen Oikonomika zu betrachten. Im ersten Schritt werden die Empfehlungen für das Verhalten im häuslichen Beziehungsgeflecht analysiert; es verbindet den Hausherrn mit seiner Ehefrau, mit den Kindern und den alten Eltern sowie mit den Sklaven. Diese Relationen, allen voran die eheliche Partnerschaft, repräsentieren partielle Praxen des Oikos, aus denen tragfähige Ansatzpunkte in Bezug auf Verhaltensstandards hervorgehen. Oberstes Ziel der Empfehlungen ist jeweils, den Erfolg des Oikos und damit das gute Leben in begrenzter Autarkie zu ermöglichen. In gleicher Weise ergiebig zeigen sich anschließend die Paränesen für die Vortrefflichkeit im öffentlichen Raum, der durch den Umgang mit Besitz sowie durch das Bürgersein in der Polis gegeben ist. Unter Beachtung spezifischer methodologischer Aspekte werden die Einzelergebnisse zu einem Kanon der subpolitischen Tugenden kompiliert, dessen fünf Vortrefflichkeiten ohne Rangunterschied nebeneinanderstehen: Fürsorge, Zusammenarbeit, Eintracht, Mäßigung und Klugheit. Mit der Fürsorge (epimeleia) zeigt sich eine umfassende Forderung; sie versteht sich als jederzeitiges Bemühtsein und Sichkümmern um etwas Anvertrautes. Die Praxis der Zusammenarbeit (synergeia), ausgeübt in unterschiedlichen Formen von Arbeitsteilung, ist Voraussetzung für das Gelingen des häuslichen Funktionsverbands. Für die Vortrefflichkeit der Mäßigung (sophrosyne) zeigen sich primär extrinsische Begründungen, die sowohl Selbstbeherrschung verlangen als auch das Maßhalten in materiellen Dingen. Durch Eintracht (homonoia) verschaffen sich die Eheleute im Oikos selbst ein hohes Gut und zugleich Stärke nach außen. Schließlich gilt die Klugheit (phronesis) als Basistugend, indem sie das für den Oikos vorteilhafte Handeln erkennen oder durch Ratholen erfahren lässt. In der zugrunde gelegten oikonomischen Literatur wird ein originäres Thema antiker praktischer Philosophie adressiert. Ihre hier vorgelegte Befragung im Hinblick auf subpolitische Tugenden spricht von daher auch transdisziplinäre Problemstellungen an, wie etwa antike Sklaverei, ökonomische Dogmengeschichte und Geschlechterdifferenz in der klassischen Antike.
Resumo:
Mittels gründlicher Literaturrecherchen wurde dokumentiert, wie Wissenschaft, Medien, Wirtschaft und Staatsregierungen den globalen Klimawandel seit der Industriellen Revolution bewertet haben. Dabei wurde der breite wissenschaftliche Konsens über die ausschlaggebende Rolle des Treibhauseffektes dokumentiert. Kontrovers dazu wurden aber auch anderslautende Meinungen über „natürliche Faktoren“ im Klimasystem aufgezeigt. Bedenken des Verfassers bestehen zur Praktikabilität des Kyoto-Protokolls und zur politischen Anwendbarkeit der IPCC-Berichte, die in der Gefahr stehen, durch ihre nicht ableitbaren Wahrscheinlichkeitsaussagen eine wissenschaftliche Neutralität vermissen zu lassen. Im Blick auf die Klimaschutzpolitik kann Deutschland in der Welt als Vorreiter mit Einschränkungen angesehen werden. Die anwendungsbezogene Klimaforschung wird in Deutschland gefördert, in den USA dagegen die Grundlagenforschung, was mit der Herkunft der Klimaskeptiker einhergeht, die vorwiegend aus dem angloamerikanischen Kulturkreis stammen und kaum aus Deutschland kommen. Dies spiegelt sich als roter Faden in den Forschungsergebnissen verschiedener Medienwissenschaftler wider, wonach die US-Medien im Gegensatz zu deutschen um eine Balance zwischen anthropogenen und natürlichen Ursachen des Klimawandels bemüht sind. Ein in den USA medial präsentierter scheinbarer Dissens der Klimaforschung findet sich als Abbild in heterogenen klimaschutzpolitischen Ausrichtungen der USA auf föderaler und bundesstaatlicher Ebene wieder, wohingegen sich in Deutschland der wissenschaftliche Konsens und die mediale Berichterstattung in einer homogenen Klimaschutzpolitik niederschlagen.
Resumo:
Seit Anbeginn der Menschheitsgeschichte beeinflussen die Menschen ihre Umwelt. Durch anthropogene Emissionen ändert sich die Zusammensetzung der Atmosphäre, was einen zunehmenden Einfluss unter anderem auf die Atmosphärenchemie, die Gesundheit von Mensch, Flora und Fauna und das Klima hat. Die steigende Anzahl riesiger, wachsender Metropolen geht einher mit einer räumlichen Konzentration der Emission von Luftschadstoffen, was vor allem einen Einfluss auf die Luftqualität der windabwärts gelegenen ruralen Regionen hat. In dieser Doktorarbeit wurde im Rahmen des MEGAPOLI-Projektes die Abluftfahne der Megastadt Paris unter Anwendung des mobilen Aerosolforschungslabors MoLa untersucht. Dieses ist mit modernen, zeitlich hochauflösenden Instrumenten zur Messung der chemischen Zusammensetzung und Größenverteilung der Aerosolpartikel sowie einiger Spurengase ausgestattet. Es wurden mobile Messstrategien entwickelt und angewendet, die besonders geeignet zur Charakterisierung urbaner Emissionen sind. Querschnittsmessfahrten durch die Abluftfahne und atmosphärische Hintergrundluftmassen erlaubten sowohl die Bestimmung der Struktur und Homogenität der Abluftfahne als auch die Berechnung des Beitrags der urbanen Emissionen zur Gesamtbelastung der Atmosphäre. Quasi-Lagrange’sche Radialmessfahrten dienten der Erkundung der räumlichen Erstreckung der Abluftfahne sowie auftretender Transformationsprozesse der advehierten Luftschadstoffe. In Kombination mit Modellierungen konnte die Struktur der Abluftfahne vertieft untersucht werden. Flexible stationäre Messungen ergänzten den Datensatz und ließen zudem Vergleichsmessungen mit anderen Messstationen zu. Die Daten einer ortsfesten Messstation wurden zusätzlich verwendet, um die Alterung des organischen Partikelanteils zu beschreiben. Die Analyse der mobilen Messdaten erforderte die Entwicklung einer neuen Methode zur Bereinigung des Datensatzes von lokalen Störeinflüssen. Des Weiteren wurden die Möglichkeiten, Grenzen und Fehler bei der Anwendung komplexer Analyseprogramme zur Berechnung des O/C-Verhältnisses der Partikel sowie der Klassifizierung der Aerosolorganik untersucht. Eine Validierung verschiedener Methoden zur Bestimmung der Luftmassenherkunft war für die Auswertung ebenfalls notwendig. Die detaillierte Untersuchung der Abluftfahne von Paris ergab, dass diese sich anhand der Erhöhung der Konzentrationen von Indikatoren für unprozessierte Luftverschmutzung im Vergleich zu Hintergrundwerten identifizieren lässt. Ihre eher homogene Struktur kann zumeist durch eine Gauß-Form im Querschnitt mit einem exponentiellen Abfall der unprozessierten Schadstoffkonzentrationen mit zunehmender Distanz zur Stadt beschrieben werden. Hierfür ist hauptsächlich die turbulente Vermischung mit Umgebungsluftmassen verantwortlich. Es konnte nachgewiesen werden, dass in der advehierten Abluftfahne eine deutliche Oxidation der Aerosolorganik im Sommer stattfindet; im Winter hingegen ließ sich dieser Prozess während der durchgeführten Messungen nicht beobachten. In beiden Jahreszeiten setzt sich die Abluftfahne hauptsächlich aus Ruß und organischen Partikelkomponenten im PM1-Größenbereich zusammen, wobei die Quellen Verkehr und Kochen sowie zusätzlich Heizen in der kalten Jahreszeit dominieren. Die PM1-Partikelmasse erhöhte sich durch die urbanen Emissionen im Vergleich zum Hintergrundwert im Sommer in der Abluftfahne im Mittel um 30% und im Winter um 10%. Besonders starke Erhöhungen ließen sich für Polyaromaten beobachten, wo im Sommer eine mittlere Zunahme von 194% und im Winter von 131% vorlag. Jahreszeitliche Unterschiede waren ebenso in der Größenverteilung der Partikel der Abluftfahne zu finden, wo im Winter im Gegensatz zum Sommer keine zusätzlichen nukleierten kleinen Partikel, sondern nur durch Kondensation und Koagulation angewachsene Partikel zwischen etwa 10nm und 200nm auftraten. Die Spurengaskonzentrationen unterschieden sich ebenfalls, da chemische Reaktionen temperatur- und mitunter strahlungsabhängig sind. Weitere Anwendungsmöglichkeiten des MoLa wurden bei einer Überführungsfahrt von Deutschland an die spanische Atlantikküste demonstriert, woraus eine Kartierung der Luftqualität entlang der Fahrtroute resultierte. Es zeigte sich, dass hauptsächlich urbane Ballungszentren von unprozessierten Luftschadstoffen betroffen sind, advehierte gealterte Substanzen jedoch jede Region beeinflussen können. Die Untersuchung der Luftqualität an Standorten mit unterschiedlicher Exposition bezüglich anthropogener Quellen erweiterte diese Aussage um einen Einblick in die Variation der Luftqualität, abhängig unter anderem von der Wetterlage und der Nähe zu Emissionsquellen. Damit konnte gezeigt werden, dass sich die entwickelten Messstrategien und Analysemethoden nicht nur zur Untersuchung der Abluftfahne einer Großstadt, sondern auch auf verschiedene andere wissenschaftliche und umweltmesstechnische Fragestellungen anwenden lassen.
Resumo:
Die Dissertationsschrift beschäftigt sich mit der Entwicklung und Anwendung einer alternativen Probenzuführungstechnik für flüssige Proben in der Massenspektrometrie. Obwohl bereits einige Anstrengungen zur Verbesserung unternommen wurden, weisen konventionelle pneumatische Zerstäuber- und Sprühkammersysteme, die in der Elementspurenanalytik mittels induktiv gekoppeltem Plasma (ICP) standardmäßig verwendet werden, eine geringe Gesamteffizienz auf. Pneumatisch erzeugtes Aerosol ist durch eine breite Tropfengrößenverteilung gekennzeichnet, was den Einsatz einer Sprühkammer bedingt, um die Aerosolcharakteristik an die Betriebsbedingungen des ICPs anzupassen.. Die Erzeugung von Tropfen mit einer sehr engen Tropfengrößenverteilung oder sogar monodispersen Tropfen könnte die Effizienz des Probeneintrags verbessern. Ein Ziel dieser Arbeit ist daher, Tropfen, die mittels des thermischen Tintenstrahldruckverfahrens erzeugt werden, zum Probeneintrag in der Elementmassenspektrometrie einzusetzen. Das thermische Tintenstrahldruckverfahren konnte in der analytischen Chemie im Bereich der Oberflächenanalytik mittels TXRF oder Laserablation bisher zur gezielten, reproduzierbaren Deposition von Tropfen auf Oberflächen eingesetzt werden. Um eine kontinuierliche Tropfenerzeugung zu ermöglichen, wurde ein elektronischer Mikrokontroller entwickelt, der eine Dosiereinheit unabhängig von der Hard- und Software des Druckers steuern kann. Dabei sind alle zur Tropfenerzeugung relevanten Parameter (Frequenz, Heizpulsenergie) unabhängig voneinander einstellbar. Die Dosiereinheit, der "drop-on-demand" Aerosolgenerator (DOD), wurde auf eine Aerosoltransportkammer montiert, welche die erzeugten Tropfen in die Ionisationsquelle befördert. Im Bereich der anorganischen Spurenanalytik konnten durch die Kombination des DOD mit einem automatischen Probengeber 53 Elemente untersucht und die erzielbare Empfindlichkeiten sowie exemplarisch für 15 Elemente die Nachweisgrenzen und die Untergrundäquivalentkonzentrationen ermittelt werden. Damit die Vorteile komfortabel genutzt werden können, wurde eine Kopplung des DOD-Systems mit der miniaturisierten Fließinjektionsanalyse (FIA) sowie miniaturisierten Trenntechniken wie der µHPLC entwickelt. Die Fließinjektionsmethode wurde mit einem zertifizierten Referenzmaterial validiert, wobei für Vanadium und Cadmium die zertifizierten Werte gut reproduziert werden konnten. Transiente Signale konnten bei der Kopplung des Dosiersystems in Verbindung mit der ICP-MS an eine µHPLC abgebildet werden. Die Modifikation der Dosiereinheit zum Ankoppeln an einen kontinuierlichen Probenfluss bedarf noch einer weiteren Reduzierung des verbleibenden Totvolumens. Dazu ist die Unabhängigkeit von den bisher verwendeten, kommerziell erhältlichen Druckerpatronen anzustreben, indem die Dosiereinheit selbst gefertigt wird. Die Vielseitigkeit des Dosiersystems wurde mit der Kopplung an eine kürzlich neu entwickelte Atmosphärendruck-Ionisationsmethode, die "flowing atmospheric-pressure afterglow" Desorptions/Ionisations Ionenquelle (FAPA), aufgezeigt. Ein direkter Eintrag von flüssigen Proben in diese Quelle war bislang nicht möglich, es konnte lediglich eine Desorption von eingetrockneten Rückständen oder direkt von der Flüssigkeitsoberfläche erfolgen. Die Präzision der Analyse ist dabei durch die variable Probenposition eingeschränkt. Mit dem Einsatz des DOD-Systems können flüssige Proben nun direkt in die FAPA eingetragen, was ebenfalls das Kalibrieren bei quantitativen Analysen organischer Verbindungen ermöglicht. Neben illegalen Drogen und deren Metaboliten konnten auch frei verkäufliche Medikamente und ein Sprengstoffanalogon in entsprechend präpariertem reinem Lösungsmittel nachgewiesen werden. Ebenso gelang dies in Urinproben, die mit Drogen und Drogenmetaboliten versetzt wurden. Dabei ist hervorzuheben, dass keinerlei Probenvorbereitung notwendig war und zur Ermittlung der NWG der einzelnen Spezies keine interne oder isotopenmarkierte Standards verwendet wurden. Dennoch sind die ermittelten NWG deutlich niedriger, als die mit der bisherigen Prozedur zur Analyse flüssiger Proben erreichbaren. Um im Vergleich zu der bisher verwendeten "pin-to-plate" Geometrie der FAPA die Lösungsmittelverdampfung zu beschleunigen, wurde eine alternative Elektrodenanordnung entwickelt, bei der die Probe länger in Kontakt mit der "afterglow"-Zone steht. Diese Glimmentladungsquelle ist ringförmig und erlaubt einen Probeneintrag mittels eines zentralen Gasflusses. Wegen der ringförmigen Entladung wird der Name "halo-FAPA" (h-FAPA) für diese Entladungsgeometrie verwendet. Eine grundlegende physikalische und spektroskopische Charakterisierung zeigte, dass es sich tatsächlich um eine FAPA Desorptions/Ionisationsquelle handelt.
Resumo:
Im Mittelpunkt der vorliegenden Arbeit stehen zwei spätgotische Verglasungen aus der Region des Mittelrheins, die bislang zumeist aus stilistischen Gründen mehr oder weniger eng miteinander verknüpft worden sind. Die Partenheimer Scheiben entstanden für die nach 1435 erneuerte Pfarrkirche des gleichnamigen Ortes in Rheinhessen, die Bopparder Fenster waren für das ab 1440 errichtete Seitenschiff der dortigen Karmeliterkirche bestimmt. Beide Zyklen wurden bereits im frühen 19. Jahrhundert ihren ursprünglichen Standorten entfremdet. Der Partenheimer Bestand gelangte vor allem in das Hessische Landesmuseum von Darmstadt. Die Bopparder Glasmalereien haben sich mittlerweile weltweit über Museen und Privatsammlungen verstreut. Im Nachzeichnen der dabei gewählten Wege liegt einer der Schwerpunkte der Arbeit, im Feststellen der zugleich vorgenommenen Strukturveränderungen ein weiterer. Die nicht zuletzt auf dieser Basis erstellten Vorschläge zur Rekonstruktion der einst in situ bestehenden Verhältnisse erlauben dabei vor allem dem Bopparder Komplex eine Präzisierung oder sogar Korrektur von früheren Annahmen: Datieren lassen sich die Karmeliterfenster nunmehr in die Jahre zwischen 1443 und 1446. Zu ihren Stiftern zählten neben dem Trierer Erzbischof Jakob v. Sierck offenbar ausschließlich der lokale Adel sowie diverse Bruderschaften der Stadt inklusive einzelner Vertreter derselben. Das wichtigste Fazit dieser Neubestimmung ist deshalb die regionale Verankerung der Fenster. Nicht zu bestätigen ist die vormals postulierte Werkstattgemeinschaft beider Zyklen: Der um 1440 geschaffene Kernbestand von Partenheim scheint im Rhein-Main-Gebiet verwurzelt und nur das nördlichste Chorfenster wurde nach etwa zehnjähriger Pause von anderen Glasmalern ausgeführt. Den Bopparder Auftrag teilten sich stattdessen von vornherein eine vielleicht in Koblenz ansässige Werkstatt sowie ein in Lothringen tätiges Atelier. Vollkommen eigenständig sind die Zyklen von Partenheim und Boppard damit gleichwohl exemplarische Vertreter für die stilistische Vielfalt am Mittelrhein im 15. Jahrhundert.
Resumo:
In dieser Dissertation wird ein in Vergessenheit geratener Philosoph behandelt. Er hieß Karl Joël und war zu seinen Lebzeiten einer der bekannteren Philosophen. Die erste Bedeutung dieser Dissertation liegt deshalb darin, seine zwar genialen, aber vergessenen Gedanken (hauptsächlich von einem seiner Hauptwerke, „Seele und Welt“) wieder ans Licht gebracht zu haben. Es ist aber unmöglich, alle Gedanken einer großartigen Philosophie in einer einzigen Arbeit eingehend zu analysieren; aus diesem Grund wird in dieser Dissertation hauptsächlich Joëls „Seele und Welt“, eines seiner Hauptwerke, behandelt. rnAm Anfang dieser Doktorarbeit wird eine Einleitung (Kapitel 1) gegeben, die Lesern einen Überblick auf die gesamte Arbeit geben soll. Es folgt dann eine Biographie (Kapitel 2), in der das Leben des Philosophen relativ detailliert dargestellt wird. Da der Philosoph heute ein ziemlich unbekannter Philosoph ist, musste die Biographie einen dementsprechenden Umfang haben und nach vorne gestellt werden, so dass Leser gleich das ganze Bild seiner Philosophie haben können. Im Kapitel 3 werden Joëls frühere Werke bis „Seele und Welt“ behandelt und seine Gedanken bis „Seele und Welt“ verfolgt, um die Ideen in diesem Buch vertieft erforschen zu können. Im Kapitel 4 wird die Geschichte des Leib-Seele-Problems kurz zusammengefasst, um die Fragestellung des Problems zu verdeutlichen. Diese vier Kapitel machen zusammen den ersten Teil der Dissertation (die Einführung) aus. rnDanach fängt der zweite Teil der Dissertation an, der mit „Systematische Erklärung von Joëls Organismuskonzeption“ betitelt ist. Im Kapitel 5 wird Fechners Parallelismus erörtert. Joël kritisiert im ersten Teil von „Seele und Welt“ Fechners parallelistische Auffassung und versucht, diese zu überwinden. Deshalb musste in dieser Dissertation auch Fechners Parallelismus behandelt werden, um Joëls Kritik an Fechner richtig einschätzen zu können. Im Kapitel 6 wird zuerst der „Seelenbegriff im 19. Jahrhundert“ thematisiert und die philosophische Lage zu Joëls Zeit klar dargestellt. Anschließend wird Joëls Seelenbegriff behandelt. Joël versucht, seinen Seelenbegriff so formulieren, dass dieser über den traditionellen Seelenbegriff hinaus den neuen naturwissenschaftlichen Erkenntnissen gerecht werden kann. Im Kapitel 7 wird Joëls Organismusbegriff erörtert. Der Organismusbegriff macht das Wesentliche von Joëls Philosophie aus. Dies ist davon abzuleiten, dass „Seele und Welt“ eigentlich „Versuch einer organischen Auffassung“ heißt. Joël nahm neue Erkenntnisse auf und entwarf seinen Organismusbegriff, obwohl dieser von Schelling stark beeinflusst ist. rnAb dem Kapitel 8 wird die Philosophie Joëls dargestellt (der dritte Teil). Im Kapitel 8 wird der Indifferenzbegriff Joëls behandelt, aus der sich die zwei Weltextreme, Seele und Körper, entfalteten. In Kapiteln 9 und 10 wird dargestellt, wie aus der Indifferenz zur Mannigfaltigkeit der Welt gelangt wird. Im Kapitel 11 wird erklärt, wie die Äußerlichkeit (die Anschauungen) zur reinen Innerlichkeit (dem Denken) übergehen kann. Dadurch wird eine gewisse Erklärung für das Leib-Seele-Problem geliefert. Im Kapitel 12 wird versucht, Joëls Philosophie auf die moderne physische Problematik anzuwenden. Unsere Vorstellung des Raums als Dreidimensionalität kommt ins Wanken angesichts der neuen physischen Auffassung, dass es eigentlich nicht drei, sondern neun Raumdimensionen geben muss. In diesem Kapitel wird Joëls Begriff der Dreidimensionalität entwickelt, so dass sich dieser auch an die modernen Erkenntnisse anpassen kann. Im Kapitel 13 wird die Funktionsweise des Willens erörtert. Es ist unmöglich, den Willen als absolut frei oder notwendig zu bestimmen. Es kann nur nach einem freieren und notwendigeren Willen gefragt werden. Im Kapitel 14 befindet sich die Schlussbemerkung. Im Kapitel 15 findet man das Literaturverzeichnis von und über Joël. Da dieser Philosoph unbekannt ist, kann das Kapitel von größerer Bedeutung sein, als man sich sonst vorstellt.