1000 resultados para König von Deutschland
Resumo:
Einleitung: Die Besonderheiten in der Gesundheitsversorgung von gehörlosen Bürgerinnen und Bürgern in Deutschland sind weitgehend unbekannt. Schätzungsweise 41.500 bis zu 80.000 Menschen sind in Deutschland von Geburt an gehörlos oder früh ertaubt. Diese Gehörlosengemeinschaft verwendet vorrangig die Deutsche Gebärdensprache, die seit 2002 per Gesetzgebung als selbstständige Sprache in Deutschland amtlich anerkannt ist. Der Gesetzgeber hat vorgesehen, dass ein von der Krankenversicherung bezahlter Dolmetscher bei einem Arztbesuch bestellt werden kann. Erkenntnisse, inwieweit dies unter den Betroffenen bekannt ist und genutzt wird, liegen nicht vor. Ebenso sind Annahmen, dass gehörlose Patienten in einer vorrangig von Hörenden gestalteten Gesundheitsversorgung mutmaßlich auf Probleme, Barrieren und Vorurteile stoßen, in Deutschland nicht systematisch untersucht. Die vorliegende Arbeit gibt erstmalig anhand eines größeren Studienkollektivs einen sozialmedizinischen Einblick in den Gesundheitsversorgungszustand von Gehörlosen in Deutschland. Methodik: Im Rahmen einer Vorstudie wurden 2009 zunächst qualitative Experteninterviews geführt, um den Zustand der medizinischen Versorgung von Gehörlosen zu explorieren und Problemfelder zu identifizieren. Anschließend wurde für die Hauptstudie auf der Grundlage der Experteninterviews ein quantitativer Online-Fragebogen mit Gebärdensprachvideos entwickelt und erstmalig in der sozialmedizinischen Gehörlosenforschung eingesetzt. Die gehörlosen Teilnehmer wurden über etablierte Internetportale für Gehörlose und mit Hilfe von Gehörlosenverbänden und Selbsthilfegruppen sowie einer Pressemitteilung rekrutiert. Insgesamt wurden den Teilnehmern bis zu 85 Fragen zu sozioökonomischen Daten, Dolmetschernutzung, Arzt-Patienten-Beziehung und häufig auftretenden Problemen gestellt. Es wurden absolute und relative Häufigkeiten bestimmt und mittels Chi2-Test bzw. exaktem Fisher-Test auf geschlechtsspezifische Unterschiede geprüft. Alle Tests wurden zweiseitig mit der lokalen Irrtumswahrscheinlichkeit α = 0,05 durchgeführt. Ergebnisse: Am Ende der Feldphase verzeichnete die automatische Datenbank 1369 vollständig bearbeitete Fragebögen. 843 entsprachen den a-priori definierten Auswertungskriterien (volljährige Personen, gehörlos, keine fehlenden Angaben in wesentlichen Zielfragen). Häufigstes Ausschlusskriterium war ein anderer Hörstatus als Gehörlosigkeit. Etwa die Hälfte der 831 Teilnehmer (45,1% bzw. 52,8%) schätzte trotz ausreichender Schulbildung ihre Lese- bzw. Schreibkompetenz als mäßig bis schlecht ein. Zeitdruck und Kommunikationsprobleme belasteten bei 66,7% und 71,1% der Teilnehmer bereits einmal einen Arztbesuch. Von 56,6% der Teilnehmer wurde angegeben, dass Hilflosigkeits- und Abhängigkeitsgefühle beim Arztbesuch auftraten. Falsche Diagnosen auf Grund von Kommunikationsproblemen wurden von 43,3% der Teilnehmer vermutet. 17,7% der Teilnehmer gaben an, sich bereits einmal aktiv um psychotherapeutische Unterstützung bemüht zu haben. Gebärdensprachkompetente Ärzte wären optimal um die Kommunikation zu verbessern, aber auch Dolmetscher spielen eine große Rolle in der Kommunikation. 31,4% der gehörlosen Teilnehmer gaben jedoch an, nicht über die aktuellen Regelungen zur Kostenübernahme bei Dolmetschereinsätzen informiert zu sein. Dies betraf besonders jüngere, wenig gebildete und stark auf die eigene Familie hin orientierte Gehörlose. Wesentliche geschlechtsspezifische Unterschiede konnten nicht festgestellt werden. Diskussion: Geht man von etwa 80.000 Gehörlosen in Deutschland aus, konnten mit der Mainzer Gehörlosen-Studie etwa 1% aller Betroffenen erreicht werden, wobei Selektionsverzerrungen zu diskutieren sind. Es ist anzunehmen, dass Personen, die nicht mit dem Internet vertraut sind, selten bis gar nicht teilgenommen haben. Hier könnten Gehörlose mit hohem Alter sowie möglicherweise mit niedriger Schreib- und Lesekompetenz besonders betroffen sein. Eine Prüfung auf Repräsentativität war jedoch nicht möglich, da die Grundgesamtheit der Gehörlosen mit sozioökonomischen Eckdaten nicht bekannt ist. Die dargestellten Ergebnisse weisen erstmalig bei einem großen Studienkollektiv Problembereiche in der medizinischen Versorgung von Gehörlosen in Deutschland auf: Gehörlose Patienten laufen Gefahr, ihren Arztbesuch durch vielfältige Kommunikationsbarrieren und Missverständnisse als Zumutung zu erleben. Eine Informationskampagne unter Ärzten könnte helfen, diese Situation zu verbessern. Dolmetscher können die Kommunikation zwischen Arzt und Patient enorm verbessern, die gesetzlich geregelte Kostenübernahme funktioniert dabei in der Regel auch problemlos. Allerdings gibt es noch viele Gehörlose, die nicht über die Regelungen zur Dolmetscherunterstützung informiert sind und die Dienste entsprechend nicht nutzen können. Hier muss es weitere Bemühungen geben, die Gehörlosen aufzuklären, um ihnen eine barrierefreie Nutzung von gesundheitsbezogenen Leistungen zu ermöglichen.
Resumo:
Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.
Resumo:
Die vorliegende Arbeit zeigt anhand von Einzelfällen, welche Probleme und Folgen eine Ausweisung und/oder Abschiebung von kriminell gewordenen Angehörigen der sogenannten zweiten Generation türkischer Staatsangehöriger im Hinblick auf deren Eingliederung in die türkische Gesellschaft mit sich bringt.rnDem Bereich der Ausweisung und/oder Abschiebung – beides Formen von Zwangsmigration – ausländischer Staatsangehöriger in ihr Herkunftsland wurde bislang im weiten Feld der Integrationsforschung kaum Aufmerksamkeit geschenkt. Nicht anders verhält es sich in der politischen und öffentlichen Diskussion, wenn es um die „Entfernung“ kriminell gewordener Ausländer, die mitunter in Deutschland geboren und aufgewachsen sind oder sich bereits viele Jahre in der Bundesrepublik aufhalten, aus dem Bundesgebiet geht. Bei dieser Diskussion wird zwar die Bestrafung kriminell gewordener Ausländer mittels Ausweisung und/oder Abschiebung vorschnell befürwortet, besonders in solch spektakulären Fällen, wie in dem des Jugendlichen Muhlis Arı, genannt „Mehmet“ oder in dem des als „Münchner U-Bahn Schläger“ bekannt gewordenen Serkan. Die weitreichenden Folgen für den Einzelnen werden in der Regel jedoch nicht tiefergehend betrachtet.rnDeshalb steht im Zentrum dieser Arbeit die Frage, wie sich die Eingliederung von in Deutschland geborenen und hier aufgewachsenen Nachkommen der „Gastarbeiter“-Generation sowie später nachgeholter Kinder im Anschluss an eine Ausweisung und/oder Abschiebung in die türkische Gesellschaft gestaltet. Die theoretische Grundlage der Untersuchung bilden vier theoretische Konzepte zu Integration, Fremdheit und Marginalität. Dabei handelt es sich um die „Integrationstheorie“ von Hartmut Esser, das Konzept des „bleibenden Fremden“ von Georg Simmel, das des „einwandernden Fremden“ von Alfred Schütz sowie um das Konzept des „marginal man“ von Robert E. Park. Auf Basis dieser vier theoretischen Konzepte und der Auswertung des erhobenen empirischen Datenmaterials wird deutlich, dass hohe soziale Barrieren auf Seiten der Mitglieder der türkischen Aufnahmegesellschaft, mangelnde integrationsförderliche Opportunitäten, aber auch eine geringe Motivation auf Seiten der Betroffenen zur Aufnahme integrationsförderlicher Handlungen eine Integration verhindern. Die von Ausweisung und/oder Abschiebung Betroffenen sind letztlich dazu gezwungen, dauerhaft ein Leben am Rande der Gesellschaft in der Marginalität zu führen.rn
Resumo:
Im Zuge dieser Arbeit ist ein Massenspektrometer zur flugzeuggetragenen Messung von HNO3 und HONO auf dem neuen deutschen Forschungsflugzeug HALO aufgebaut worden (AIMS - Atmospheric chemical Ionization Mass Spectrometer). Die Ionisation der HNO3- und HONO-Moleküle erfolgt chemisch durch Reaktion mit SF5- -Ionen. Basierend auf den Ergebnissen von Laborversuchen wurden die Betriebsparameter optimiert, die Einzelkomponenten im HALO-Rack zusammengestellt und eine Einlassleitung entworfen, die Wandeffekte minimiert und Untergrundmessungen und HNO3-Kalibrationen im Flug ermöglicht. Die Empfindlichkeit der Messung von HNO3 und HONO wurde ebenso im Labor untersucht wie Interferenzen mit Wasserdampf und Ozon. Die HONO-Vergleichskampagne FIONA am Europäischen Photoreaktor (EUPHORE) in Valencia war die erste Messkampagne mit AIMS. Bei den offenen Vergleichsmessungen stimmten die von AIMS gemessenen HONO-Mischungsverhältnisse innerhalb +-20% mit dem Median von 9 weiteren HONO-Messungen überein. Die ersten flugzeuggetragenen Messungen mit AIMS werden im Verlauf der HALO-Missionen ML-CIRRUS und TACTS stattfinden. Neben dem Aufbau und der Charakterisierung von AIMS war die Analyse der Aufnahme von HNO3 in Eispartikel von Kondensstreifen und Zirren Gegenstand dieser Arbeit. Die Aufnahme von HNO3 in Kondensstreifeneispartikel wurde erstmals systematisch anhand einer Flugzeugmesskampagne (CIRRUS-III) untersucht. Während CIRRUS-III im November 2006 wurden Zirren und zufällig knapp 40 persistente Kondensstreifen über Deutschland und Nordeuropa beprobt. Die Messungen fanden in Höhen zwischen 10 und 11.5 km und bei Temperaturen zwischen 210 und 230 K statt. Die HNO3-Konzentration wurde mit Hilfe von NOy-Messungen bestimmt. Im Mittel war in Kondensstreifen ein größerer Anteil des Gesamt-HNO3 in den Eispartikeln gebunden (6 %) als in Zirren (3 %). Das Gasphasenäquivalent des eisgebundenen HNO3 betrug in Zirren durchschnittlich 6 pmol/mol, in Kondensstreifen 14 pmol/mol und in jungen Kondensstreifen (Alter<1 h) 21 pmol/mol. Das Mischungsverhältnis von HNO3 zu H2O in Eispartikeln war in Kondensstreifen leicht höher als in Zirren unter ähnlichen meteorologischen Bedingungen. Ursächlich für die höheren Werte in persistenten Kondensstreifen sind wahrscheinlich die hohen HNO3-Konzentrationen in den Abgasfahnen der Flugzeuge bei der Kondensstreifenbildung. Die beobachtete Abnahme des HNO3/H2O-Molverhältnisses mit zunehmendem Effektivdurchmesser der Eispartikel deutet an, dass die HNO3-Konzentrationen in Eispartikeln von jungen Kondensstreifen durch die Aufnahme von Abgas-HNO3 in die gefrierenden Aerosolpartikel bestimmt wird. Die Konzentrationen in älteren Kondensstreifen werden zunehmend durch das Vergraben von Umgebungs-HNO3 in wachsenden Eispartikeln kontrolliert. Diese Studie leistet einen Beitrag zu einem besseren Prozessverständnis der HNO3-Aufnahme in atmosphärische Eispartikel. Sie motiviert die Nutzung persistenter Kondensstreifen als atmosphärisches Labor zur Untersuchung der Spurengasaufnahme in wachsende Eispartikel.
Resumo:
Wie kann man Ergebnisse internationaler Umweltpolitik erklären? Wie hilfreich ist dabei die liberale Theorie der Internationalen Beziehungen (IB) von Andrew Moravcsik? Die vorliegende Arbeit versucht diese Fragen anhand eines Fallbeispiels internationaler Umweltpolitik – der Position der Bundesrepublik Deutschland bezüglich der einzelnen Streitfragen der EU-Verordnung 443/2009 über den CO2-Ausstoß von Automobilen – zu beantworten. Es wird eine theoriegeleitete Außenpolitikanalyse durchgeführt, deren Hauptaugenmerk auf der spezifischen nationalen Präferenzbildung in einem bestimmten Fall liegt. Hier weist Moravcsiks Theorie eine „Lücke“ auf. Wessen Interessen sich aus welchen Gründen in einer bestimmten Situation wie durchsetzen und damit Politik beeinflussen bleibt unklar. Deshalb erweitert die Arbeit Moravcsiks liberale Theorie der IB mithilfe von Annahmen und Erkenntnissen aus der Verbändeforschung nach innen. Auf diese Weise werden die situationsspezifischen Interessen und die situationsspezifische Durchsetzungsfähigkeit der betroffenen Akteure – nationale Interessengruppen – erhoben und untersucht, inwiefern man mit ihrer Hilfe die deutsche Position zur EU-Verordnung 443/2009 erklären kann. Empirisch erweist sich dabei, dass die Position der BRD zu acht von neun Streitfragen der EU-Verordnung 443/2009 den Interessen einer Koalition aus Industriegewerkschaft (IG) Metall und Verband der Automobilindustrie (VDA) entsprach, weil diese im vorliegenden Fall mit Abstand die größte Durchsetzungsfähigkeit aufwiesen. Lediglich bezüglich einer Streitfrage wich die Position der BRD von den Interessen von IG Metall und VDA ab. Damit lässt sich festhalten: Die Position der BRD zur EU-Verordnung 443/2009 kann weitgehend mithilfe der nach innen erweiterten liberalen Theorie nach Andrew Moravcsik erklärt werden. Trotz möglicher Schwierigkeiten bei der Übertragung erscheint daher eine Anwendung des nach innen erweiterten Liberalismus auf weitere erklärungsbedürftige Phänomene der internationalen Umweltpolitik und damit eine Überprüfung der Theorie insgesamt eine interessante und sinnvolle Aufgabe zu sein.
Resumo:
In der Arbeit wird die Wahlbeteiligung bei Europawahlen analysiert. Es geht um die Beantwortung der Frage, ob die individuelle Wahlteilnahme in alten und neuen EU-Mitgliedsstaaten bzw. alten und jungen Demokratien auf die gleichen Erklärungsgrößen zurückgeht oder ob möglicherweise Unterschiede zwischen beiden Ländergruppen bestehen. rnAls Bezugspunkt dient die Europawahl, die im Juni 2009 stattfand: Bei dieser Wahl fällt nicht nur die generell niedrige Beteiligung auf, sondern auch erhebliche Niveauunterschiede zwischen den einzelnen Mitgliedsstaaten. Um diesen Befund erklären zu können, wird zunächst ein theoretisches Erklärungsmodell entwickelt, das sich auf die folgenden fünf Dimensionen bezieht: politisches System der EU, europäische politische Gemeinschaft, Wählermobilisierung während des Europawahlkampfes, Gewohnheitswahl und Einschätzung der staatlichen sowie der eigenen wirtschaftlichen Lage. Als Erklärungsgröße werden in den fünf Bereichen jeweils unterschiedlich stark ausgeprägte Defizite in den beiden Ländergruppen angenommen. rnExemplarisch werden Deutschland und Polen untersucht. Die empirischen Analysen basieren auf dem umfangreichen Datensatz der European Election Study 2009 (ESS), hier werden die Daten der Voter Study verwendet. Nicht alle Hypothesen lassen sich im Rahmen der Arbeit bestätigten, nur ein Teil der unabhängigen Variablen hat auch im multivariaten Modell noch einen Einfluss auf die Europawahlbeteiligung. rnFür Deutschland zeigen die Ergebnisse, dass Wahlnorm und Wählermobilisierung einen größeren Effekt auf die Stimmabgabe ausüben als die Nutzenseite (Effektivität) der Wahlen. Im zweiten Modell, das für die polnischen Befragten berechnet wurde, erweisen sich nur zwei der unabhängigen Variablen als signifikant, d.h. nur die Einschätzung der Effektivität der Wahl und die internalisierte Wahlnorm haben einen Einfluss auf die Wahlteilnahme. Von der Effektivitätseinstufung geht eine größere Erklärungskraft aus als von der Wahlnorm; in diesem Modell überwiegt folglich die Nutzenseite der Europawahl. Es kann gezeigt werden, dass die unterschiedlichen Beteiligungsraten in den beiden Staaten durch unterschiedlich stark ausgeprägte Defizite in den Bereichen des politischen Systems und der Wahlnorm zustande kommen. Die Defizite sind in Polen stärker ausgeprägt und können so die niedrigere Wahlbeteiligung erklären. Darüber hinaus kann resümiert werden, dass die Nutzenseite der Europawahl in Polen einen stärkeren Einfluss auf die Beteiligung ausübt als in Deutschland.
Resumo:
Mittels gründlicher Literaturrecherchen wurde dokumentiert, wie Wissenschaft, Medien, Wirtschaft und Staatsregierungen den globalen Klimawandel seit der Industriellen Revolution bewertet haben. Dabei wurde der breite wissenschaftliche Konsens über die ausschlaggebende Rolle des Treibhauseffektes dokumentiert. Kontrovers dazu wurden aber auch anderslautende Meinungen über „natürliche Faktoren“ im Klimasystem aufgezeigt. Bedenken des Verfassers bestehen zur Praktikabilität des Kyoto-Protokolls und zur politischen Anwendbarkeit der IPCC-Berichte, die in der Gefahr stehen, durch ihre nicht ableitbaren Wahrscheinlichkeitsaussagen eine wissenschaftliche Neutralität vermissen zu lassen. Im Blick auf die Klimaschutzpolitik kann Deutschland in der Welt als Vorreiter mit Einschränkungen angesehen werden. Die anwendungsbezogene Klimaforschung wird in Deutschland gefördert, in den USA dagegen die Grundlagenforschung, was mit der Herkunft der Klimaskeptiker einhergeht, die vorwiegend aus dem angloamerikanischen Kulturkreis stammen und kaum aus Deutschland kommen. Dies spiegelt sich als roter Faden in den Forschungsergebnissen verschiedener Medienwissenschaftler wider, wonach die US-Medien im Gegensatz zu deutschen um eine Balance zwischen anthropogenen und natürlichen Ursachen des Klimawandels bemüht sind. Ein in den USA medial präsentierter scheinbarer Dissens der Klimaforschung findet sich als Abbild in heterogenen klimaschutzpolitischen Ausrichtungen der USA auf föderaler und bundesstaatlicher Ebene wieder, wohingegen sich in Deutschland der wissenschaftliche Konsens und die mediale Berichterstattung in einer homogenen Klimaschutzpolitik niederschlagen.
Resumo:
Vor dem Hintergrund der demokratiegefährdenden Folgen, die eine strukturell verursachte Ungleichheit politischer Partizipation nach sich zieht, hat sich die Partizipationsforschung verstärkt der Frage zugewandt, ob zwischen partizipierenden Bürgern und ihren politisch passiven Mitbürgern systematische Unterschiede hinsichtlich ihrer Ausstattung mit partizipationsrelevanten Ressourcen bestehen. Der Fokus bisheriger empirischer Untersuchungen richtet sich jedoch ausschließlich auf die US-amerikanische Gesellschaft. Allerdings setzen sich auch die deutsche Gesellschaft aus einer Vielzahl von Einwanderergruppen zusammen, die unter der Bezeichnung ‚Personen mit Migrationshintergrund' subsummiert werden können. Laut Mikrozensus besitzen zum gegenwärtigen Zeitpunkt 19,6 Prozent der deutschen Bevölkerung einen Migrationshintergrund. Der Ursprung dieser Einwanderungsbewegung liegt in der sogenannten Gastarbeiterphase, in der zwischen 1952 und 1973 ausländische Arbeitskräfte zur Unterstützung der deutschen Wirtschaft angeworben wurden. Während dieser Ära herrschte in der deutschen Gesellschaft die Annahme, die Arbeitsmigranten würden spätestens nach zwei Jahren aufgrund eines gesetzlich vorgeschriebenen Rotationsverfahrens in ihre Heimatländer zurückkehren. Vor diesem Hintergrund wurde die Frage nach der politischen Integration der Arbeitsmigranten und ihrer Nachkommen in der Integrationsforschung weitgehend vernachlässigt – eine politische Beteiligung der Arbeitsmigranten war gesellschaftlich nicht erwünscht. Obwohl die Mehrheit der Arbeitsmigranten tatsächlich in ihre Heimatländer zurückkehrte, entschied sich ein Teil der Gastarbeiter, ihren Lebensmittelpunkt dauerhaft nach Deutschland zu verlagern und einen Nachzug ihrer Familienangehörigen zu arrangieren. Da aus den Gastarbeitern bleibende Mitbürger geworden sind und ihre in Deutschland geborenen und aufgewachsenen Nachkommen immer zahlreicher werden, kann die Integrationsforschung die Frage nach ihrer politischen Mitwirkung – insbesondere die der zweiten Migrantengeneration – nicht länger ignorieren. In Anknüpfung an die demokratiegefährdenden Folgen, die eine strukturell bedingte, ungleiche Wahrnehmung der politischen Partizipationsrechte nach sich zieht, soll im Rahmen der Magisterarbeit die Frage geklärt werden: Sind in Deutschland geborene Personen der zweiten Migrantengeneration politisch integriert, d.h. weisen sie ein ähnliches Partizipationsverhalten auf wie Deutsche ohne Migrationshintergrund?
Resumo:
Diese Forschungsarbeit zeigt erstmalig anhand von drei Fallbeispielen [„Lob der Disziplin. Eine Streitschrift“ von Bernhard Bueb, „Das Methusalem-Komplott“ von Frank Schirrmacher und „Deutschland schafft sich ab“ von Thilo Sarrazin] und aufbauend auf Bourdieus Theorie des politischen Feldes welche Wirkung s. g. Debattenbücher auf das gesellschaftliche Diskursfeld, die Politik und die Wissenschaft haben können. Die Arbeit gliedert sich in drei Teile. In einem ersten Schritt werden Unterschiede und Gemeinsamkeiten der Autoren und Werke herausgearbeitet. Es wird gezeigt welche Inszenierungsstrategien vorliegen und wie diese den Autor auf das Kräftemessen im politischen Feld vorbereiten. Im Anschluss wird im zweiten Schritt geklärt, wie sich der Autor im politischen Feld positioniert und welchen Einfluss er auf das bestehende Kräfteverhältnis politischer Akteure ausübt. Im letzten Schritt wird diesem Einfluss abstrahierend auf das gesellschaftliche Wirkungspotenzial von Debattenbüchern geschlossen. Unter Zuhilfenahme von Zeitungsartikeln, die bis zu 6 Monaten nach Erscheinungstermin des jeweiligen Titels, in Der Spiegel, Die Zeit und der Frankfurter Allgemeine Sonntagszeitung veröffentlicht wurden, wurde klar, dass Debattenbücher dann erfolgreich sind, wenn sie eine Meinung, die konträr zum gesellschaftlichen Konsens steht, provokativ und emotional aufbereiten und der Autor bereit ist, als Meinungsträger seine Thesen in der öffentlichen Debatte zu vertreten. So gestaltet regt das Debattenbuch – auch wenn es langfristig keinen Effekt auf das zentrale gesellschaftliche Diskursfeld hat - zur „Selbstfindung durch Emotionen“ an. Auf vermeintliche Sachlichkeit anspielend wirkt es, weil es den Lesern gesellschaftliche Konfliktherde auf emotionalem Wege bewusst werden lässt und so Impulse zur Veränderung setzt.
Synthese und Untersuchung des Aggregationsverhaltens von Oligo(p-benzamid)-Rod-Coil-Blockcopolymeren
Resumo:
In dieser Arbeit wird das erste Beispiel einer automatisierten Oligo(p-benzamid)synthese beschrieben. Die auf diese Weise synthetisierten Oligo(p-benzamid)e wurden zu verschiedensten Block-co-polymeren umgesetzt und, nach Abspaltung der p-Methoxybenzylschutzgruppe, die Lösungsaggregation der resultierenden Rod-Coil Block-co-polymere mithilfe der Transmissionselektronen-Mikroskopie untersucht.
Resumo:
Die großen christlichen Kirchen in Deutschland befinden sich in einem strukturellen Umbruch, der sich zunehmend auf die Pastoral der örtlichen Pfarreien und Kirchengemeinden auswirkt. Durch die Einführung von Verfahren aus dem New Public Management erhoffen sich Kirchenleitungen beider Konfessionen eine innerkirchliche Personalentwicklung, die vor allem das hauptberufliche Seelsorgepersonal neu motivieren soll. Insbesondere in der katholischen Kirche soll so - in Verbindung mit einem möglichst missionarisch wirksamen Neuaufbruch - die Transformation der ehemals volkskirchlich geprägten Pfarrgemeinden in eine sich neu abzeichnende Sozialgestalt von Kirche als Netzwerk größerer pastoraler Einheiten unterstützt werden. Die vorliegende Arbeit untersucht an der interdisziplinären Schnittstelle von Organisationforschung und praktischer Theologie, inwieweit die Einführung von Zielvereinbarungsgesprächen (ZVG) führungsverantwortliche Priester in der Wahrnehmung ihrer Leitungsaufgabe stärkt. Über 300 leitende Priester aus den Erzbistümern Freiburg und Paderborn hatten an der empirischen Studie mit zwei Messzeitpunkten teilgenommen. 73 Priester waren an beiden Messzeitpunkten A (2007) und B (2008) beteiligt. Unmittelbar nach dem Zeitpunkt A besuchten die befragten Priester der Erzdiözese Freiburg eine ZVG-Einführungsschulung, der sich eine einjährige Gesprächspraxis anschloss. Die in der Erzdiözese Paderborn befragten Priester bildeten die Vergleichsgruppe (ohne entsprechendes Treatment).rn rnWesentliches Ergebnis der Studie sind empirische Hinweise auf signifikante Zusammenhänge zwischen dem priesterlichem Leitungsselbstverständnis, der ZVG-Umsetzung und der Einschätzung der eigenen Führungsqualität.rnrnIn den Selbsteinschätzungen der leitenden Priester (z.B. im Hinblick auf Leitungszufriedenheit, Bedeutung bzw. Gelingen von einzelnen Leitungs- und Gesprächsaspekten, etc.) zeigten sich zum Zeitpunkt A im Vergleich zwischen beiden Diözesen nur geringe Unterschiede. Dies gilt auch für die in A erfolgte Auswertung offener Fragen zum priesterlichen Selbstverständnis, welches als leitungs-amtliche Handlungs- und Objektorientierung in beiden Diözesen am wenigsten stark ausgeprägt war.Zum Zeitpunkt B verdeutlichte die Untersuchung des Tätigkeitsfelds Gemeindeleitung, dass dessen Bedeutung in Freiburg größer war als in Paderborn. Der hierfür erbrachte Kraft- bzw. Zeitaufwand war in Freiburg jedoch niedriger als in Paderborn, was als eine Frucht der verbindlichen ZVG-Einführung in Freiburg interpretiert werden kann. Deutlich wird auch, dass Priester, die der ZVG-Einführung eine hohe Bedeutung beimessen, mit ihren Mitarbeitern viele Gespräche planen. Weil Folgegespräche zum Zeitpunkt B im gleichen Umfang wie schon zum Zeitpunkt A geplant wurden, müssen die konkreten Gesprächserfahrungen in der A-Phase hinreichend positiv gewesen sein. Die Umsetzung zum Zeitpunkt B war jedoch nicht in dem zum Zeitpunkt A geplanten Maß erfolgt, was sich mit Prioritätsverschiebungen erklären lässt. Interessanterweise korreliert die Anzahl der geführten Zielvereinbarungsgespräche mit dem Dienst- und Lebensalter der Priester. Erfahrene Priester, die sich auf eine Mitarbeiterführung durch Zielvereinbarung einlassen, machen demnach gute Erfahrungen mit diesem Personalentwicklungsinstrument. rnrnInsgesamt können die Ergebnisse der Studie zu einer weiteren Kultivierung der Zielvereinbarungsgespräche im kirchlichen Dienst ermutigen. Bistümern, die noch keine Zielvereinbarungsgespräche eingeführt haben, kann eine Implementierung angeraten werden. rn
Resumo:
In den letzten Jahren stieg in Deutschland der Gebrauch bzw. Missbrauch von Opioid-Analgetika zunehmend an. Das entwickelte Verfahren sollte unter Einbeziehung neuer Substanzen möglichst viele verschiedene Opioide und auch ihre pharmakologisch aktiven Stoffwechselprodukte berücksichtigen.rnVor Analyse wurden Blut-, Serum- oder Urinproben mit Phosphatpuffer versetzt und mittels Festphasenextraktion an C18-Säulenmaterial aufgearbeitet. Post-Mortem-Gewebematerial wurde mit isotonischer Kochsalzlösung versetzt, homogenisiert und anschließend durch eine Festphasenextraktion aufgereinigt. Haarproben wurden nach Zerkleinerung mit Methanol unter Ultrabeschallung extrahiert. Die Flüssigchromatographie gekoppelt mit Tandem-Massenspektrometrie (Elektrosprayionisation im positiven Modus) erwies sich als geeignetes Verfahren für die simultane Bestimmung der Opioide in biologischem Probenmaterial (Körperflüssigkeiten, Gewebe und Haaren). Der Multi-Analyt Assay erlaubt die quantitative Analyse von 35 verschiedenen Opioiden. Die Analyten wurden durch eine Phenyl-Hexyl Säule und einen Wasser/Acetonitril Gradienten durch eine UPLC 1290 Infinity gekoppelt mit einem 6490 Triple Quadrupol von Agilent Technologies separiert.rnDie LC/MS Methode zur simultanen Bestimmung von 35 Opioiden in Serum und Haaren wurde nach den Richtlinien der Gesellschaft für Toxikologische und Forensische Chemie (GTFCh) validiert. Im Fall der Serumvalidierung lagen die Nachweisgrenzen zwischen 0.02 und 0.6 ng/ml und die Bestimmungsgrenzen im Bereich von 0.1 bis 2.0 ng/ml. Die Kalibrationskurven waren für die Kalibrationslevel 1 bis 6 linear. Wiederfindungsraten lagen für alle Verbindungen zwischen 51 und 88 %, außer für Alfentanil, Bisnortiliidn, Pethidin und Morphin-3-Glucuronid. Der Matrixeffekt lag zwischen 86 % (Ethylmorphin) und 105 % (Desomorphin). Für fast alle Analyten konnten akzeptable Werte bei der Bestimmung der Genauigkeit und Richtigkeit nach den Richtlinien der GTFCh erhalten werden. Im Fall der Validierung der Haarproben lagen die Nachweisgrenzen zwischen 0.004 und 0.6 ng/Probe und die Bestimmungsgrenzen zwischen 0.1 ng/Probe und 2.0 ng/Probe. Für die Kalibrationslevel 1 bis 6 waren alle Kalibrationsgeraden linear. Die Wiederfindungsraten lagen für die Opioide im Bereich von 73.5 % (Morphin-6-Glucuronid) und 114.1 % (Hydrocodon). Die Werte für die Bestimmung der Richtigkeit lagen zwischen - 6.6 % (Methadon) und + 11.7 % (Pholcodin). Präzisionsdaten wurden zwischen 1.0 % für Dextromethorphan und 11.5 % für Methadon ermittelt. Die Kriterien der GTFCh konnten bei Ermittlung des Matrixeffekts für alle Substanzen erfüllt werden, außer für 6-Monoacetylmorphin, Bisnortilidin, Meperidin, Methadon, Morphin-3-glucuronid, Morphin-6-glucuronid, Normeperidin, Nortilidin und Tramadol.rnZum Test des Verfahrens an authentischem Probenmaterial wurden 206 Proben von Körperflüssigkeiten mit Hilfe der simultanen LC/MS Screening Methode untersucht. Über 150 Proben wurden im Rahmen von forensisch-toxikologischen Untersuchungen am Instituts für Rechtsmedizin Mainz analysiert. Dabei konnten 23 der 35 Opioide in den realen Proben nachgewiesen werden. Zur Untersuchung der Pharmakokinetik von Opioiden bei Patienten der anästhesiologischen Intensivstation mit Sepsis wurden über 50 Blutproben untersucht. Den Patienten wurde im Rahmen einer klinischen Studie einmal täglich vier Tage lang Blut abgenommen. In den Serumproben wurde hauptsächlich Sufentanil (0.2 – 0.8 ng/ml in 58 Fällen) und Piritramid (0.4 – 11 ng/ml in 56 Fällen) gefunden. Außerdem wurden die Proben von Körperflüssigkeiten und Gewebe von 13 verschiedenen Autopsiefällen mit Hilfe des Multi-Analyt Assays auf Opioide untersucht.rnIn einem zweiten Schritt wurde die Extraktions- und Messmethode zur Quantifizierung der 35 Opioide am Forensic Medicine Center in Ho Chi Minh City (Vietnam) etabliert. Insgesamt wurden 85 Herzblutproben von Obduktionsfällen mit Verdacht auf Opiatintoxikation näher untersucht. Der überwiegende Teil der untersuchten Fälle konnte auf eine Heroin- bzw. Morphin-Vergiftung zurückgeführt werden. Morphin wurde in 68 Fällen im Konzentrationsbereich 1.7 – 1400 ng/ml und der Heroinmetabolit 6-Monoactetylmorphin in 34 Fällen (0.3 – 160 ng/ml) nachgewiesen werden.rnSchließlich wurden noch 15 Haarproben von Patienten einer psychiatrischen Klinik, die illegale Rauschmittel konsumiert hatten, mit Hilfe der simultanen Opioid-LC/MS Screeningmethode gemessen. Die Ergebnisse der Untersuchung wurden mit früheren Auswertungen von gaschromatographischen Analysen verglichen. Es zeigte sich eine weitgehende Übereinstimmung der Untersuchungsergebnisse für die Opioide 6-Monoacetylmorphin, Morphin, Codein, Dihydrocodein und Methadon. Mit der LC/MS Methode konnten weitere Substanzen, wie zum Beispiel Bisnortilidin, Dextromethorphan und Tramadol in den Haarproben gefunden werden, die bislang nicht entdeckt worden waren.rn
Resumo:
Ist Deutschland auf Waldbrandkatastrophen vorbereitet? Dies ist die zentrale Frage dieser wissenschaftlichen Arbeit. Zahlreiche Großwaldbrände der Vergangenheit zeigen ein deutliches Waldbrandpotential für die bundesdeutschen Areale, speziell in Ostdeutschland. Als eine der Folgen des global warming ist zukünftig mit einem Anstieg der Gefahrensituation zu rechnen. Anhand der Untersuchung zweier Katastrophenwaldbrände wurden Schwachstellen bei der Bekämpfung dieser Waldbrände aufgezeigt, aber auch positive Aspekte herausgestellt. Die wichtigste Erkenntnis ist hierbei die große Bedeutung der Brandbekämpfung aus der Luft. Sie spielt die Schlüsselrolle bei der Bekämpfung von Großwaldbränden. Daher untersucht diese Arbeit die aktuelle Situation in Deutschland und erstellt erstmals ein bundesweites Kataster der Hubschrauberaußenlastbehälter sowie den dazugehörigen Trägerfahrzeugen (Hubschrauber). Aufgrund dieses Katasters sowie einer Auflistung der Systeme zur Branddetektion (Feuerwachtürme und kameragestützte Systeme) kommt diese Arbeit zu dem Ergebnis, dass man in Deutschland gut auf Waldbrandkatastrophen vorbereitet ist. Gleichzeitig liefert diese Arbeit aber auch Optimierungsmöglichkeiten in Form eines Maßnahmenkatalogs. So ist beispielsweise das System der Waldbrandprognose nach M-68 zu überarbeiten, da es die tatsächliche Gefährdungslage teilweise unterschätzt, Simulationsprogramme zur Ausbreitung von Waldbränden sind zu entwickeln, Sicherheitsregeln sind einzuführen. Weiterhin ist die indirekte Brandbekämpfung durch die Aufstellung von task-forces in Deutschland erstmalig zu ermöglichen.
Resumo:
„Intelligent, anpassungsfähig, verschwiegen und zuverlässig“ – so charakterisierte der Bundesnachrichtendienst seinen Agenten „ADLER“ in dessen Abschaltmeldung. rnEin halbes Jahr – von Mai bis Dezember 1966 – hatte „ADLER“ in Diensten des westdeutschen Auslandsnachrichtendienstes gestanden und seine Vorgesetzten für ein monatliches Salär von 500 DM mit Informationen über linksgerichtete Entwicklungstendenzen in Bolivien versorgt. rnBereits zwölf Jahre zuvor, im November 1954, war der deutsche Agent, der nun für den BND in Lateinamerika spionierte, vom Ständigen Militärgericht in Lyon aufgrund seiner während des Zweiten Weltkrieges begangenen Kriegsverbrechen in Abwesenheit zum Tode verurteilt worden. rnDoch Klaus Barbie, der sich in seiner Funktion als Gestapo-Offizier zwischen 1942 und 1944 am Mord hunderter Mitglieder der französischen Résistance schuldig gemacht hatte, war zu diesem Zeitpunkt bereits „verschwunden“. Deutsche und französische Ermittlungsbehörden vermuteten ihn in Deutschland, dann wieder in Ägypten. Erst zu Beginn der siebziger Jahre wurde der in Bolivien lebende Geschäftsmann „Klaus Altmann“ als ehemaliger Gestapo-Chef von Lyon identifiziert. rnSchon damals stellten Serge und Beate Klarsfeld, die mit ihren Ermittlungen den „Fall Barbie“ über Nacht auf die Titelseiten der internationalen Presse katapultierten, die berechtigte Frage, wie es möglich war, dass der NS-Kriegsverbrecher nach 1945 nach Lateinamerika entkommen konnte. Sie nährten damit bereits existierende Gerüchte, der amerikanische Geheimdienst sei an der Protektion Barbies nicht unbeteiligt gewesen. Die Auslieferungsbemühungen verliefen zunächst im Sande. rnZu groß war die Unterstützung, die der NS-Verbrecher von Seiten bolivianischer Militärdiktaturen genoss. Erst 1983 sollte Barbie an Frankreich ausgewiesen und vor Gericht gestellt werden. Die Flut internationaler Presseartikel im Vorfeld des „Jahrhundert-Prozesses“, die eine Beziehung Barbies mit westlichen Geheimdiensten nahelegte, gab schließlich Anlass für einen Offenbarungseid. Aus Angst, Barbie könne vor Gericht für einen Skandal sorgen, flüchtete die US-Regierung nach vorne: Gestützt auf hunderte Seiten teils streng geheimer Dokumente der US-Armee konnte der im August 1983 von Seiten des US-Justizministeriums vorgelegte Untersuchungsbericht belegen, dass das Counter Intelligence Corps, der Heeresgeheimdienst der US-Armee, den NS-Täter im April 1947 als Informanten angeworben, ihn vor den französischen Ermittlern versteckt und ihn 1951 mit Hilfe einer geheimen „Rattenlinie“ unter dem Aliasnamen „Altmann“ aus Europa nach Bolivien geschleust hatte.rnDie vorliegende Dissertation rekapituliert erstmals vollständig die Beziehungen zwischen Barbie und westlichen Geheimdiensten nach 1945 auf Basis des mittlerweile zugänglichen Aktenmaterials in deutschen, französischen, britischen, bolivianischen und US-amerikanischen Archiven. Im Mittelpunkt steht dabei die Analyse der einzelnen Faktoren, die die Rekrutierung von NS-Tätern durch westliche Nachrichtendienste nach 1945 begünstigten. rn rn