8 resultados para Internationaler Wettbewerb

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Vergleich der deutschen und der schweizerischen Rundfunkordnung unter dem Aspekt des Dualismus 1.Einleitung: Bedeutung und Grundlagen des „Dualismus“ 2.Das „duale System“ in der deutschen Rundfunkordnung 2.1 Die Genese des „dualen Systems“ - Historische und rechtliche Rahmenbedingungen 2.2 Die aktuelle Ausgestaltung des „dualen Systems“ 2.3 Das „duale System“ im europäischen Raum – europarechtliche Einflüsse und Vorgaben 3. Das „duale System“ in der schweizerischen Rundfunkordnung 3.1 Die Genese des „dualen Systems“ - Historische und rechtliche Rahmenbedingungen 3.2 Die aktuelle Ausgestaltung des „dualen Systems“ 3.3 Vergleichende Betrachtung unterschiedlicher Ausprägungen des „dualen Systems“ im Rahmen der Revision des RTVG 4. Vergleichende Betrachtung der „dualen Systeme“ 4.1 Historische und gesetzliche Rahmenbedingungen 4.2 Die spezifischen Besonderheiten des schweizerischen Rundfunkmarktes 4.3 Die einzelnen Elemente der Rundfunkordnung 5. Endergebnis Duale Systeme im Bereich des Rundfunkrechtes bedeuten Koexistenz von privaten und öffentlich-rechtlichen Rundfunkveranstaltern. Die in der Verfassung der Bundesrepublik Deutschland angelegte Rundfunkordnung ist im wesentlichen durch die Rechtsprechung des Bundesverfassungsgerichts geprägt worden. Das aufgrund dieser Vorgaben gewachsene duale System besteht aus einem starken öffentlich-rechtlichen Rundfunk, dessen Position durch die vorrangige Finanzierung aus Gebühren privilegiert wird. Im Gegenzug wird ihm die zentrale Aufgabe zur Sicherung der Grundversorgung zugewiesen. Daneben bestehen die privaten Rundfunkveranstalter, die sich aus Werbeeinnahmen und Nutzungsentgelten finanzieren und insoweit dem Wettbewerb im Markt in höherem Maße ausgeliefert sind. Im europäischen Bereich fällt der Schutz von Pluralismus und Meinungsvielfalt in erster Linie in den Zuständigkeitsbereich der Mitgliedstaaten. Die Medienlandschaften der Mitgliedstaaten sind durch vielfältige Eigenheiten und Traditionen geprägt, die gerade erhalten bleiben sollen. Die Ausgestaltung des dualen Systems im europäischen Rahmen wirft mithin Bedenken allein im Hinblick auf die Finanzierung der öffentlich-rechtlichen Veranstalter aus öffentlichen Ressourcen und die darauf basierende Wettbewerbsverzerrung auf. Mit dem Radio- und Fernsehgesetz von 1991 wurde in der Schweiz ein duales Rundfunksystem eingeführt. Das Treuhandmodell wurde ergänzt durch das Marktmodell. Allerdings galt das duale System für Rundfunk und Fernsehen in der Schweiz nur in der abgeschwächten Form eines staatlich geordneten Wettbewerbs. Es bestand ein Drei-Ebenen-Modell, das eine direkte Konkurrenz zwischen der nationalen Dachorganisation SRG (Schweizerische Rundfunkgesellschaft) und privaten Unternehmen weitestgehend vermied. Die Hauptverpflichtung des Service public oblag der SRG, die auch die Gebühren erhielt. Daneben wurden allerdings alle Veranstalter zu Service-public-Leistungen verpflichtet. Im Gegenzug dazu sah der Gesetzgeber in marktschwachen Regionen ein Gebührensplitting vor. Mit dem neuen RTVG soll dem Service Public eine Bestands- und Entwicklungsgarantie zugesichert werden. Anstelle einer scharfen Trennung zwischen gebühren- und werbefinanzierten Anbietern mit entsprechend unterschiedlichen Funktionen im Mediensystem sollen allerdings die elektronischen Medien in der Schweiz großflächig subventioniert und vermehrt mit Leistungsaufträgen gesteuert werden. Gerade auf lokaler Ebene wird eine Ausweitung des Gebührensplittings vorgesehen. Nicht nur einer, sondern eine Vielzahl von Veranstaltern soll künftig mit der Grundversorgung beauftragt werden. Insbesondere der Service public régional soll von privaten Anbietern und der SRG erbracht werden. Eine Inpflichtnahme sämtlicher privater Rundfunkveranstalter wird indes nicht vorgesehen. Anhand dieser Masterarbeit sollen weiterhin die Unterschiede herausgearbeitet werden, die einzelne nationale Rundfunksysteme aufweisen können und damit auch die rundfunkpolitischen Modelle trotz des gleich bleibenden Grundgedankens, hier des Dualismus. Die Modelle sind stets in ihrem spezifischen politischen und kulturellen Kontext zu sehen, woraus sie historisch gewachsen sind. Durch den Vergleich sollen auf der einen Seite die Probleme der Rundfunkmodelle dargelegt werden, die diesen unabhängig von ihrer Ausgestaltung in mehr oder minder ausgeprägter Form generell innewohnen (Definition der Grundversorgung - des Service public/ Ressourcenknappheit/ Krisen des dualen Systems). Andererseits sollen die spezifischen Probleme der Schweiz aufgrund ihrer mehrsprachigen, kleinstaatlichen Struktur verdeutlicht werden (Hoher Marktanteil an ausländischen, überwiegend deutschsprachigen Programmen an der Fernsehnutzung; Mehrsprachigkeit; Kleinräumigkeit von Zuschauer- und Zuhörermärkten sowie der Werbemärkte).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Weltweit existiert keine zum Tierversuch alternative Methode, um adsorbierte Pertussis-Impfstoffe auf restliche Toxin-Aktivität hin zu untersuchen. Der im Europäischen Arzneibuch vorgeschriebene Tierversuch besitzt nach Erfahrungen der Industrie, internationaler Prüfbehörden sowie des Paul-Ehrlich-Institutes eine schlechte Aussagekraft. Er ist wenig standardisierbar und weist häufig ein zweifelhaftes Ergebnis auf, so dass Wiederholungen und damit einhergehend ein hoher Verbrauch an Versuchstieren unumgänglich sind. Enthält der Impfstoff Reste von nicht-inaktiviertem Pertussis-Toxin (PTx), muss mit schweren und schwersten Nebenwirkungen bei den Impflingen gerechnet werden. In dieser Arbeit wurde ein In vitro-Nachweis für aktives PTx entwickelt. rnAngeregt durch Publikationen, wonach Pertussis-Toxin humane Monozyten aktiviert, wurde zunächst versucht, diesen Effekt zum Toxin-Nachweis auszunutzen. Die vorliegende Arbeit zeigt jedoch eindeutig, dass Pertussis-Toxin selbst nicht zur Stimulation humaner Monozyten führt. Vielmehr konnte nachgewiesen werden, dass die Aktivierung dieser Immunzellen auf Kontaminationen durch Lipopolysaccharide zurückzuführen ist. Damit wurden die Aussagen in den oben erwähnten Veröffentlichungen widerlegt. Dieses Ergebnis wurde bereits zur Publikation eingereicht.rnNunmehr wurden verschiedene Ansätze zum Nachweis von Pertussis-Toxin entwickelt, welche seine enzymatischen Aktivitäten als NAD-Glycohydrolase und ADP-Ribosyltransferase ausnutzen. Zunächst wurde versucht, die Hydrolyse von NAD zu ADP-Ribose und Nicotinamid photometrisch nachzuweisen. Wegen unbefriedigender Sensitivität wurde dieses Verfahren zu einem fluorometrischen Nachweis weiterentwickelt. Verwendet wurde hier fluorogenes etheno-NAD, welches von Pertussis-Toxin als Substrat akzeptiert wird. Letzteres Prinzip ist zum In vitro-Nachweis von Pertussis-Toxin geeignet, wird jedoch durch das in Impfstoffen häufig verwendete Adsorbens Aluminiumhydroxid gestört. Deshalb wurde dieser Ansatz aufgegeben und ein neuer Weg verfolgt, welcher am Energiestoffwechsel von humanen Zellen ansetzt. Eine Konsequenz des Angriffs von Pertussis-Toxin auf seine Zielzellen im Respirationstrakt besteht – nach komplexen Reaktionen des Signaltransduktionsweges – im Absenken des ATP-Gehaltes. Als menschliche Surrogat-Zellen wurden frisch isolierte periphere mononukleäre Zellen (PBMCs) sowie die permanente Lymphozyten-Zelllinie Jurkat eingesetzt und deren ATP-Gehalt mittels Luziferin-Luziferase-Lumineszenz gemessen. Der Test wird nicht durch Lipopolysaccharid gestört und auch Aluminiumhydroxid übt erst nach mehreren Stunden Inkubation einen interferierenden Einfluss aus. Ebenso konnte aktives Pertussis-Toxin mit Hilfe kryokonservierter PBMCs detektiert werden, auch in orientierenden Versuchen mit komplexen Impfstoffen. Der Pertussis-ATP-Test kommt der In vivo-Situation in der Zelle sehr nahe, weil beide Untereinheiten des Toxins in einem Test überprüft werden. Demnach soll er Bestandteil einer geplanten internationalen Studie zu alternativen Pertussis-Toxin-Testungen sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wie kann man Ergebnisse internationaler Umweltpolitik erklären? Wie hilfreich ist dabei die liberale Theorie der Internationalen Beziehungen (IB) von Andrew Moravcsik? Die vorliegende Arbeit versucht diese Fragen anhand eines Fallbeispiels internationaler Umweltpolitik – der Position der Bundesrepublik Deutschland bezüglich der einzelnen Streitfragen der EU-Verordnung 443/2009 über den CO2-Ausstoß von Automobilen – zu beantworten. Es wird eine theoriegeleitete Außenpolitikanalyse durchgeführt, deren Hauptaugenmerk auf der spezifischen nationalen Präferenzbildung in einem bestimmten Fall liegt. Hier weist Moravcsiks Theorie eine „Lücke“ auf. Wessen Interessen sich aus welchen Gründen in einer bestimmten Situation wie durchsetzen und damit Politik beeinflussen bleibt unklar. Deshalb erweitert die Arbeit Moravcsiks liberale Theorie der IB mithilfe von Annahmen und Erkenntnissen aus der Verbändeforschung nach innen. Auf diese Weise werden die situationsspezifischen Interessen und die situationsspezifische Durchsetzungsfähigkeit der betroffenen Akteure – nationale Interessengruppen – erhoben und untersucht, inwiefern man mit ihrer Hilfe die deutsche Position zur EU-Verordnung 443/2009 erklären kann. Empirisch erweist sich dabei, dass die Position der BRD zu acht von neun Streitfragen der EU-Verordnung 443/2009 den Interessen einer Koalition aus Industriegewerkschaft (IG) Metall und Verband der Automobilindustrie (VDA) entsprach, weil diese im vorliegenden Fall mit Abstand die größte Durchsetzungsfähigkeit aufwiesen. Lediglich bezüglich einer Streitfrage wich die Position der BRD von den Interessen von IG Metall und VDA ab. Damit lässt sich festhalten: Die Position der BRD zur EU-Verordnung 443/2009 kann weitgehend mithilfe der nach innen erweiterten liberalen Theorie nach Andrew Moravcsik erklärt werden. Trotz möglicher Schwierigkeiten bei der Übertragung erscheint daher eine Anwendung des nach innen erweiterten Liberalismus auf weitere erklärungsbedürftige Phänomene der internationalen Umweltpolitik und damit eine Überprüfung der Theorie insgesamt eine interessante und sinnvolle Aufgabe zu sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein durchgängiger Befund internationaler Schulleistungsvergleichsstudien bezieht sich auf die niedrigere Lesekompetenz von Jungen im Vergleich zu Mädchen (OECD, 2010). Ziel der vorliegenden Arbeit war, zu prüfen, welchen Einfluss negative Stereotype – im Sinne der Stereotype Threat-Theorie (Steele & Aronson, 1995) – auf die Leseleistung von Jungen haben. Basierend auf Befunden aus der Lese- und Stereotype Threat-Forschung wurde ein Mediator-Moderator-Modell des Stereotype Threat-Effekts (vgl. Schmader, Johns & Forbes, 2008) auf die Leseleistung von Jungen abgeleitet und überprüft. Um diese Fragestellungen zu beantworten, wurden zwei quasiexperimentelle Untersuchungen mit Schülern achter und neunter Klassen durchgeführt. An der ersten Untersuchung nahmen insgesamt 167 Schüler (n = 69 Jungen, n = 98 Mädchen) zweier Gymnasien in privater Trägerschaft teil. Um die Fragestellungen an einer weniger selektiven Stichprobe untersuchen zu können, erfolgte eine zweite Untersuchung mit Schülern (N = 441) öffentlicher Schulen und verschiedener Schulformen, wobei der Fokus ausschließlich auf den männlichen Schülern (n = 188 Jungen; n = 122 Gymnasiasten, n = 66 Realschüler plus) lag. Für beide Experimente kann zusammenfassend festgehalten werden, dass sich, entgegen der Erwartungen, kein leistungsmindernder Stereotype Threat-Effekt auf die Leseleistung von Jungen zeigte. Ferner konnten keine signifikante Mediatoren und Moderatoren eines leistungsmindernden Stereotype Threat-Effekts auf die Leseleistung von Jungen identifiziert werden. Ziel zukünftiger Forschung muss sein, den Einfluss negativer Stereotype auf die Leistungen männlicher Probanden im Sinne von Mitgliedern dominanter Gruppen zu untersuchen. Besonderes Augenmerk sollte auf die stereotypisierte Fähigkeitsdomäne gelegt werden. Weiterhin ist wichtig, der Frage nach zugrunde liegenden Prozessen und Voraussetzungen für das Erleben von Stereotype Threat nachzugehen. Studien weisen darauf hin, dass unterschiedlich stigmatisierte Gruppen unterschiedlich auf Stereotype Threat reagieren. Daher sollte der Fokus zukünftiger Forschung darauf liegen, die Prozesse und Voraussetzungen näher zu untersuchen, die für Mitglieder sonst positiv stereotypisierter Gruppen in solchen Situationen zum Tragen kommen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Regulierung und Steuerung von Hochschulen unterliegt spätestens seit der Liberalisierung des Hochschulrahmengesetzes im Jahr 1998 einer erheblichen Reformdynamik. Hochschulautonomie, New Public Management, Profilbildung, Exzellenz und Wettbewerb sind zentrale Stichworte im Rahmen der durchgeführten politischen Reformen und Programme.rnDer politisch intendierte Ausbau einer organisationalen Selbststeuerung von Universitäten stellt die Hochschulen vor beachtliche Herausforderungen und kann als Paradigmenwechsel im Bereich der Hochschul-Governance betrachtet werden. In der Fachdiskussion wird der entsprechende Wandel auch als Stärkung der „managerial governance“ (bspw. de Boer et al. 2007) oder als Wandel von Universitäten hin zu „more complete organizations“ (Brunsson/ Sahlin-Andersson 2000) bzw. „organisational actors“ (Krücken/Meier 2006) beschrieben. rnGleichzeitig liegt bislang eher fragmentarisches Wissen darüber vor, wie der veränderte Re-gulierungskontext von den Steuerungsakteuren in deutschen Hochschulen aufgegriffen wird, d.h. ob auf Organisationsebene tatsächlich ein Ausbau der organisationalen Selbststeuerung stattfindet, welche Steuerungsinitiativen und -instrumente sich bewähren und warum dies der Fall ist. Die vorliegende Arbeit geht diesen Fragen im Rahmen einer vergleichenden Fallstudie an sechs Universitäten nach. rnIm Zentrum der empirischen Erhebung stehen 60 qualitative sozialwissenschaftliche Interviews mit Leitungsakteuren auf Hochschul- und Fachbereichsebene. Diese Daten werden ergänzt durch umfangreiche Dokumentenanalysen, insbesondere von Jahresberichten, Grundordnungen, Strategie- und Planungsdokumenten sowie durch Daten der amtlichen Hochschul-statistik. Das Untersuchungsdesign erlaubt überdies eine Gegenüberstellung von großen und kleinen Universitäten sowie von Hochschulen mit einer technisch-naturwissenschaftlichen Ausrichtung gegenüber solchen mit einem kultur- und sozialwissenschaftlichen Schwerpunkt. Die Untersuchung zeigt, dass an fünf der sechs untersuchten Hochschulen ein zum Teil deutlicher Ausbau der organisationalen Selbststeuerung festzustellen ist, wenngleich der spezifische organisationale Charakter von Universitäten, d.h. eine weitgehend lose Kopplung mit autonomen Professionals, im Wesentlichen erhalten bleibt. Die Zusammenschau der Veränderungen ergibt ein idealtypisches Modell des Wandels von Strategie, Struktur und Kultur der Hochschulen. Auf Basis der empirischen Ergebnisse werden weiterhin zentrale externe und interne Einflussfaktoren auf den spezifischen organisationalen Wandel analysiert. Schließlich werden Kosten und Nutzen sowie Risiken und Chancen der Governance-Reformen im Hoch-schulbereich gegenübergestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Addressing current limitations of state-of-the-art instrumentation in aerosol research, the aim of this work was to explore and assess the applicability of a novel soft ionization technique, namely flowing atmospheric-pressure afterglow (FAPA), for the mass spectrometric analysis of airborne particulate organic matter. Among other soft ionization methods, the FAPA ionization technique was developed in the last decade during the advent of ambient desorption/ionization mass spectrometry (ADI–MS). Based on a helium glow discharge plasma at atmospheric-pressure, excited helium species and primary reagent ions are generated which exit the discharge region through a capillary electrode, forming the so-called afterglow region where desorption and ionization of the analytes occurs. Commonly, fragmentation of the analytes during ionization is reported to occur only to a minimum extent, predominantly resulting in the formation of quasimolecular ions, i.e. [M+H]+ and [M–H]– in the positive and the negative ion mode, respectively. Thus, identification and detection of signals and their corresponding compounds is facilitated in the acquired mass spectra. The focus of the first part of this study lies on the application, characterization and assessment of FAPA–MS in the offline mode, i.e. desorption and ionization of the analytes from surfaces. Experiments in both positive and negative ion mode revealed ionization patterns for a variety of compound classes comprising alkanes, alcohols, aldehydes, ketones, carboxylic acids, organic peroxides, and alkaloids. Besides the always emphasized detection of quasimolecular ions, a broad range of signals for adducts and losses was found. Additionally, the capabilities and limitations of the technique were studied in three proof-of-principle applications. In general, the method showed to be best suited for polar analytes with high volatilities and low molecular weights, ideally containing nitrogen- and/or oxygen functionalities. However, for compounds with low vapor pressures, containing long carbon chains and/or high molecular weights, desorption and ionization is in direct competition with oxidation of the analytes, leading to the formation of adducts and oxidation products which impede a clear signal assignment in the acquired mass spectra. Nonetheless, FAPA–MS showed to be capable of detecting and identifying common limonene oxidation products in secondary OA (SOA) particles on a filter sample and, thus, is considered a suitable method for offline analysis of OA particles. In the second as well as the subsequent parts, FAPA–MS was applied online, i.e. for real time analysis of OA particles suspended in air. Therefore, the acronym AeroFAPA–MS (i.e. Aerosol FAPA–MS) was chosen to refer to this method. After optimization and characterization, the method was used to measure a range of model compounds and to evaluate typical ionization patterns in the positive and the negative ion mode. In addition, results from laboratory studies as well as from a field campaign in Central Europe (F–BEACh 2014) are presented and discussed. During the F–BEACh campaign AeroFAPA–MS was used in combination with complementary MS techniques, giving a comprehensive characterization of the sampled OA particles. For example, several common SOA marker compounds were identified in real time by MSn experiments, indicating that photochemically aged SOA particles were present during the campaign period. Moreover, AeroFAPA–MS was capable of detecting highly oxidized sulfur-containing compounds in the particle phase, presenting the first real-time measurements of this compound class. Further comparisons with data from other aerosol and gas-phase measurements suggest that both particulate sulfate as well as highly oxidized peroxyradicals in the gas phase might play a role during formation of these species. Besides applying AeroFAPA–MS for the analysis of aerosol particles, desorption processes of particles in the afterglow region were investigated in order to gain a more detailed understanding of the method. While during the previous measurements aerosol particles were pre-evaporated prior to AeroFAPA–MS analysis, in this part no external heat source was applied. Particle size distribution measurements before and after the AeroFAPA source revealed that only an interfacial layer of OA particles is desorbed and, thus, chemically characterized. For particles with initial diameters of 112 nm, desorption radii of 2.5–36.6 nm were found at discharge currents of 15–55 mA from these measurements. In addition, the method was applied for the analysis of laboratory-generated core-shell particles in a proof-of-principle study. As expected, predominantly compounds residing in the shell of the particles were desorbed and ionized with increasing probing depths, suggesting that AeroFAPA–MS might represent a promising technique for depth profiling of OA particles in future studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

„Intelligent, anpassungsfähig, verschwiegen und zuverlässig“ – so charakterisierte der Bundesnachrichtendienst seinen Agenten „ADLER“ in dessen Abschaltmeldung. rnEin halbes Jahr – von Mai bis Dezember 1966 – hatte „ADLER“ in Diensten des westdeutschen Auslandsnachrichtendienstes gestanden und seine Vorgesetzten für ein monatliches Salär von 500 DM mit Informationen über linksgerichtete Entwicklungstendenzen in Bolivien versorgt. rnBereits zwölf Jahre zuvor, im November 1954, war der deutsche Agent, der nun für den BND in Lateinamerika spionierte, vom Ständigen Militärgericht in Lyon aufgrund seiner während des Zweiten Weltkrieges begangenen Kriegsverbrechen in Abwesenheit zum Tode verurteilt worden. rnDoch Klaus Barbie, der sich in seiner Funktion als Gestapo-Offizier zwischen 1942 und 1944 am Mord hunderter Mitglieder der französischen Résistance schuldig gemacht hatte, war zu diesem Zeitpunkt bereits „verschwunden“. Deutsche und französische Ermittlungsbehörden vermuteten ihn in Deutschland, dann wieder in Ägypten. Erst zu Beginn der siebziger Jahre wurde der in Bolivien lebende Geschäftsmann „Klaus Altmann“ als ehemaliger Gestapo-Chef von Lyon identifiziert. rnSchon damals stellten Serge und Beate Klarsfeld, die mit ihren Ermittlungen den „Fall Barbie“ über Nacht auf die Titelseiten der internationalen Presse katapultierten, die berechtigte Frage, wie es möglich war, dass der NS-Kriegsverbrecher nach 1945 nach Lateinamerika entkommen konnte. Sie nährten damit bereits existierende Gerüchte, der amerikanische Geheimdienst sei an der Protektion Barbies nicht unbeteiligt gewesen. Die Auslieferungsbemühungen verliefen zunächst im Sande. rnZu groß war die Unterstützung, die der NS-Verbrecher von Seiten bolivianischer Militärdiktaturen genoss. Erst 1983 sollte Barbie an Frankreich ausgewiesen und vor Gericht gestellt werden. Die Flut internationaler Presseartikel im Vorfeld des „Jahrhundert-Prozesses“, die eine Beziehung Barbies mit westlichen Geheimdiensten nahelegte, gab schließlich Anlass für einen Offenbarungseid. Aus Angst, Barbie könne vor Gericht für einen Skandal sorgen, flüchtete die US-Regierung nach vorne: Gestützt auf hunderte Seiten teils streng geheimer Dokumente der US-Armee konnte der im August 1983 von Seiten des US-Justizministeriums vorgelegte Untersuchungsbericht belegen, dass das Counter Intelligence Corps, der Heeresgeheimdienst der US-Armee, den NS-Täter im April 1947 als Informanten angeworben, ihn vor den französischen Ermittlern versteckt und ihn 1951 mit Hilfe einer geheimen „Rattenlinie“ unter dem Aliasnamen „Altmann“ aus Europa nach Bolivien geschleust hatte.rnDie vorliegende Dissertation rekapituliert erstmals vollständig die Beziehungen zwischen Barbie und westlichen Geheimdiensten nach 1945 auf Basis des mittlerweile zugänglichen Aktenmaterials in deutschen, französischen, britischen, bolivianischen und US-amerikanischen Archiven. Im Mittelpunkt steht dabei die Analyse der einzelnen Faktoren, die die Rekrutierung von NS-Tätern durch westliche Nachrichtendienste nach 1945 begünstigten. rn rn