19 resultados para Deutschland-BRD

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die vorliegende Studie ist eine internationale vergleichende Journalistenbefragung über ein politisch-historisches Ereignis, das in allen untersuchten Ländern vorkommen. Untersucht werden Journalisten aus der Bundesrepublik Deutschland, Taiwan und Südkorea, die in den politischen oder relevanten Ressorts der bedeutenden Medien der jeweiligen Länder tätig sind. Die Themen der Befragung behandeln die Teilung und Wiedervereinigungsprobleme sowie die politisch-ideologischen Hintergründe der Teilung in der Bundesrepublik Deutschland, China und Korea. Obwohl alle drei Länder nach dem Zweiten Weltkrieg durch die ideologische Auseinandersetzung zwischen Ost und West geteilt wurden, zeichnet die Wahrnehmung dieses Ereignisses durch die Journalisten der drei Länder aufgrund ihrer unterschiedlichen politischen Entwicklungen und Pressetraditionen bemerkbare Unterschiede auf. Die deutschen Journalisten tendieren dazu, die Vorzüge der Bundesrepublik Deutschland gegenüber der damaligen DDR hervorzuheben. Die taiwanesischen Journalisten distanzieren sich wegen der asymmetrischen Teilungsgröße zwischen Taiwan und der Volksrepublik China von der Möglichkeit einer Wiedervereinigung Chinas. Die südkoreanischen Journalisten weisen starken Nationalismus auf und setzen sich am häufigsten für Nordkorea und eine eventuelle Wiedervereinigung der koreanischen Halbinsel ein. Im letzten Teil der Studie wird das Rollenverständnis der Journalisten für die Berichterstattung über die Teilungsprobleme untersucht. Es bestätigt sich, dass die Sichtweise der Journalisten über die Teilung und Wiedervereinigungsprobleme ihres Landes sich auf ihre Berichterstattung über die entsprechenden Themen auswirkt. Diese Ergebnisse stimmen mit der Theorie der „Instrumentellen Aktualisierung“ überein.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Entwicklung des Nordwestdeutschen Beckens und seiner rezenten Topographie ist geprägt von einer Vielzahl endogener und exogener Prozesse: Tektonik, Vulkanismus, Diapirismus, Eisvorstöße, elsterzeitlichen Rinnen und die Ablagerung von quartären Sedimenten. Mit Hilfe der Quantifizierung von Bodenbewegungspotenzialen wurde für Schleswig-Holstein der Einfluß von Tiefenstrukturen (insbesondere Salzstrukturen und tektonische Störungen) auf die Entwicklung der rezenten Topographie in Schleswig-Holstein untersucht. Dabei wurden folgende Parameter berücksichtigt: (1) Salzstrukturen; (2) Tektonischen Störungen; (3) Oberflächennahe Störungen, die mit einer hohen Wahrscheinlichkeit an der Erdoberfläche ausstreichen; (4) Elsterzeitliche Rinnen (tiefer 100 m); (5) Historische Erdbeben; (6) In Satellitenbildszenen kartierte Lineamente (7) Korrelationskoeffizienten, die zwischen 7 stratigraphischen Horizonten des „Geotektonischen Atlas von NW-Deutschland“ berechnet wurden. Die Ergebnisse zeigen, dass in Schleswig-Holstein großflächig rezente Bodenbewegungs-potenziale auftreten, die auf tektonische Störungen und Salzstrukturen zurückzuführen sind und sich hauptsächlich auf den Bereich des Glückstadt Grabens beschränken. In den 5 Gebieten Sterup, Tellingstedt Nord, Oldensworth Nord, Schwarzenbek und Plön treten die höchsten Bodenbewegungspotenziale auf. Sie dokumentieren rezente Prozesse in diesen Gebieten. In den Gebieten Sterup, Schwarzenbek und Plön sind aktive, an der Erdoberfläche ausstreichende Störungen lokalisiert, deren Auftreten auch durch kartierte Luft- und Satellitenbildlineare belegt wird. Im Gebiet Plön werden die ermittelten Bodenbewegungspotenziale durch eine, sich rezent vergrößernde Senke bei Kleinneudorf bestätigt. Unterhalb der Senke führen, begünstigt durch tektonische Störungen, Lösungsprozesse in tertiären Sedimenten zu Hohlraumbildungen, die das rezente Absacken der Senke verursachen. Für Bereiche höchsten Bodenbewegungspotenzials kann ein Einfluß von Tiefenstrukturen auf die Entwicklung der rezenten Topographie nachgewiesen werden. So beeinflussen oberflächennahe Störungen in dem Gebiet Plön die Entwicklung des Plöner Sees. Im Gebiet Schwarzenbek verursacht ein N-S orientiertes Störungsband ein Abknicken des Elbverlaufs. Weiterhin kann ein Einfluß der Entwicklung der rezenten Topographie durch eine Interaktion zwischen Eisauflast und Salzmobilität in den Gebieten Sterup und Oldensworth nachgewiesen werden. Demnach ist die Ablagerung quartärer Sedimente und somit der Grenzverlauf der Flußgebietseinheiten Eider und Schlei-Trave zwischen den Salzstrukturen Sterup und Meezen beeinflusst durch eine aktive Reaktion beider Salzstrukturen auf Eisauflast. Im Bereich Oldensworth zeigen geologische Schnitte von der Basis Oberkreide bis zur rezenten Topographie, dass die Salzmauern Oldensworth und Hennstedt die Ablagerung quartärer Sedimente aktiv beeinflussten. Weiterhin orientiert sich der Elbverlauf von Hamburg bis zur Mündung an den Randbereichen von Salzstrukturen, die bis in den oberflächennahen Bereich aufgestiegen sind.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Dissertation untersucht die geistige Produktion im Erziehungssystem anhand des Unterrichtsgegenstands populäre Musik. Hiermit ist sie im Kernbereich der musikpädagogischen Disziplin angesiedelt – Musik und Schule. Ferner rückt die Festlegung auf populäre Musik den Schüler in seinem Alltagswissen in den Vordergrund der Betrachtung. Die Frage nach dem Umgang mit populärer Musik ist somit indirekt eine Frage nach dem Umgang mit schülernahen Erfahrungswelten in der Schule. Innerhalb dieses Forschungsprofils erhält die Arbeit ihre eigentliche Relevanz - sie zeigt auf, wie eine moderne, selbstreferentielle Musikpädagogik eigene bedeutsame Kommunikationen beobachten kann. Entworfen in Anlehnung an die Systemtheorie nach Niklas Luhmann, werden in der Arbeit die unikalen Reflexionszusammenhänge von Pädagogik und Musikpädagogik anhand der folgenden Operationsfelder offengelegt: pädagogische und musikpädagogische Fachliteratur, Lehrpläne und Schulbücher. Nach Luhmann ist es erforderlich verstehend in die Unikalität systemischer Reflexionsleistungen einzudringen, um inkonsistente Anforderungen an die Aufgabe (Musik-)Erziehung und ihre Gegenstände aufzudecken und zukünftige Systemhandlungen zu optimieren. Die Arbeit ist in drei große historische Zeitblöcke gegliedert, die ihrerseits in verschiedene disziplinäre Operationsfelder unterteilt sind. Mit Hilfe dieser zweidimensionalen historisch-interdisziplinären Sichtweise wird populäre Musik als Bezugsgröße aufgewiesen, an der die zentralen Debatten von Pädagogik und Musikpädagogik kondensieren. Anhand von Schlüsselbegriffen wie Kultur, Gesellschaft und Ästhetik aber auch didaktischen Prinzipien wie Schüler- und Handlungsorientierung oder ganzheitliche (Musik-)Pädagogik lässt sich die Vielfalt historisch gewachsener inkonsistenter/konsistenter Forderungen belegen. Aus den Beobachtungen im Umgang mit populärer Musik werden Aufgaben deutlich, die die Disziplinen, vor allem die Musikpädagogik, in der Zukunft zu leisten haben. Diese beschäftigen sich auf der einen Seite mit dem disziplinären Selbstverständnis und auf der anderen Seite mit unbeantworteten didaktischen Fragestellungen wie den Möglichkeiten und Grenzen des einzelnen populären Musikstücks im konkret-situativen Lernkontext von Musikunterricht.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Mittelpunkt der Studie "The Sound of Democracy - the Sound of Freedom". Jazzrezeption in Deutschland (1945 - 1963) steht ein Korpus von 16 Oral-History-Interviews mit Zeitzeugen der deutschen Jazzszene. Interviewt wurden Musiker ebenso wie bildende Künstler, Journalisten, Clubbesitzer und Jazzfans, die die Jazzszene in den 1950ern bildeten. Die Interviews werden in einen Kontext zeitgenössischer Quellen gestellt: Zeitschriftenartikel (hauptsächlich aus dem "Jazz Podium" ebenso wie Radiomanuskripte des Bayerischen Rundfunks.rnDie Ausgangsüberlegung ist die Frage, was der Jazz für sein Publikum bedeutete, mit anderen Worten, warum wählte eine studentische, sich selbst als elitär wahrnehmende Schicht aus dem großen Fundus an kulturellen Ausdrucksformen, die nach dem Zweiten Weltkrieg aus den USA nach Deutschland strömten, ausgerechnet den Jazz als persönliche Ausdrucksform? Worin bestand seine symbolische Strahlkraft für diese jungen Menschen?rnIn Zusammenhang mit dieser Frage steht die Überlegung: In welchem Maße wurde Jazz als dezidiert amerikanische Ausdrucksform wahrgenommen und welche Amerikabilder wurden durch den Jazz transportiert? Wurde Jazz bewusst als Werkzeug der Besatzer zur demokratischen Umerziehung des deutschen Volkes eingesetzt und wenn ja, in welcher Form, beziehungsweise in welchem Maß? Wie stark war die Symbolleistung und metaphorische Bedeutung des Jazz für das deutsche Publikum und in welchem Zusammenhang steht die Symbolleistung des Jazz mit der Symbolleistung der USA als Besetzungs- bzw. Befreiungsmacht? rn

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sowohl in Deutschland als auch in Mexiko hat es in jüngster Zeit Gesetzesreformen gegeben, welche die Ermittlung und Anwendung ausländischen Rechts beeinflussten. So hat in Deutschland die Frage der Revisibilität ausländischen Rechts mit der Reform des Verfahrens in Familiensachen und in den Angelegenheiten der freiwilligen Gerichtsbarkeit neue Bedeutung erlangt. In Mexiko wurde durch Reformen der Zivilrechts- und Zivilprozessrechtsordnungen diernAmtsermittlungspflicht für ausländisches Recht eingeführt. Die damit zusammenhängenden Fragen und Probleme werden in der vorliegenden Arbeit erörtert. Zudem werden die bestehenden Möglichkeiten bei der Ermittlung ausländischen Rechts prinzipiell untersucht und neue, aus der stetig fortschreitenden Internationalisierung resultierende Möglichkeiten der Zusammenarbeit aufgezeigt. In diesem Zusammenhang werden internationale Übereinkommen wie das Londoner Europäische Übereinkommen betreffend Auskünfte über ausländisches Recht sowie die einschlägigen Interamerikanischen Konventionen, aber auch internationale Netzwerke zur justiziellen Zusammenarbeit wie das Europäische Justizielle Netz für Zivil- und Handelssachen und das Iberoamerikanische Kooperationsnetzwerk IberRed dargelegt und diskutiert. Die aktuelle Rechtslage in Mexiko wird anhand einer historischen Darstellung der Entwicklungen des internationalen Rechts in Mexiko und auf dem gesamten amerikanischen Kontinent seit dem Beginn des 19. Jahrhunderts analysiert und bewertet. Schließlich wird anhand von Gerichtsentscheidungen die Praxis der mexikanischen Rechtsprechung mit den durch Gesetzgeber und Schrifttum vorgegebenen theoretischen Regelungen hinsichtlich der Ermittlung und Anwendung ausländischen Rechts verglichen und besprochen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Einleitung: Die Besonderheiten in der Gesundheitsversorgung von gehörlosen Bürgerinnen und Bürgern in Deutschland sind weitgehend unbekannt. Schätzungsweise 41.500 bis zu 80.000 Menschen sind in Deutschland von Geburt an gehörlos oder früh ertaubt. Diese Gehörlosengemeinschaft verwendet vorrangig die Deutsche Gebärdensprache, die seit 2002 per Gesetzgebung als selbstständige Sprache in Deutschland amtlich anerkannt ist. Der Gesetzgeber hat vorgesehen, dass ein von der Krankenversicherung bezahlter Dolmetscher bei einem Arztbesuch bestellt werden kann. Erkenntnisse, inwieweit dies unter den Betroffenen bekannt ist und genutzt wird, liegen nicht vor. Ebenso sind Annahmen, dass gehörlose Patienten in einer vorrangig von Hörenden gestalteten Gesundheitsversorgung mutmaßlich auf Probleme, Barrieren und Vorurteile stoßen, in Deutschland nicht systematisch untersucht. Die vorliegende Arbeit gibt erstmalig anhand eines größeren Studienkollektivs einen sozialmedizinischen Einblick in den Gesundheitsversorgungszustand von Gehörlosen in Deutschland. Methodik: Im Rahmen einer Vorstudie wurden 2009 zunächst qualitative Experteninterviews geführt, um den Zustand der medizinischen Versorgung von Gehörlosen zu explorieren und Problemfelder zu identifizieren. Anschließend wurde für die Hauptstudie auf der Grundlage der Experteninterviews ein quantitativer Online-Fragebogen mit Gebärdensprachvideos entwickelt und erstmalig in der sozialmedizinischen Gehörlosenforschung eingesetzt. Die gehörlosen Teilnehmer wurden über etablierte Internetportale für Gehörlose und mit Hilfe von Gehörlosenverbänden und Selbsthilfegruppen sowie einer Pressemitteilung rekrutiert. Insgesamt wurden den Teilnehmern bis zu 85 Fragen zu sozioökonomischen Daten, Dolmetschernutzung, Arzt-Patienten-Beziehung und häufig auftretenden Problemen gestellt. Es wurden absolute und relative Häufigkeiten bestimmt und mittels Chi2-Test bzw. exaktem Fisher-Test auf geschlechtsspezifische Unterschiede geprüft. Alle Tests wurden zweiseitig mit der lokalen Irrtumswahrscheinlichkeit α = 0,05 durchgeführt. Ergebnisse: Am Ende der Feldphase verzeichnete die automatische Datenbank 1369 vollständig bearbeitete Fragebögen. 843 entsprachen den a-priori definierten Auswertungskriterien (volljährige Personen, gehörlos, keine fehlenden Angaben in wesentlichen Zielfragen). Häufigstes Ausschlusskriterium war ein anderer Hörstatus als Gehörlosigkeit. Etwa die Hälfte der 831 Teilnehmer (45,1% bzw. 52,8%) schätzte trotz ausreichender Schulbildung ihre Lese- bzw. Schreibkompetenz als mäßig bis schlecht ein. Zeitdruck und Kommunikationsprobleme belasteten bei 66,7% und 71,1% der Teilnehmer bereits einmal einen Arztbesuch. Von 56,6% der Teilnehmer wurde angegeben, dass Hilflosigkeits- und Abhängigkeitsgefühle beim Arztbesuch auftraten. Falsche Diagnosen auf Grund von Kommunikationsproblemen wurden von 43,3% der Teilnehmer vermutet. 17,7% der Teilnehmer gaben an, sich bereits einmal aktiv um psychotherapeutische Unterstützung bemüht zu haben. Gebärdensprachkompetente Ärzte wären optimal um die Kommunikation zu verbessern, aber auch Dolmetscher spielen eine große Rolle in der Kommunikation. 31,4% der gehörlosen Teilnehmer gaben jedoch an, nicht über die aktuellen Regelungen zur Kostenübernahme bei Dolmetschereinsätzen informiert zu sein. Dies betraf besonders jüngere, wenig gebildete und stark auf die eigene Familie hin orientierte Gehörlose. Wesentliche geschlechtsspezifische Unterschiede konnten nicht festgestellt werden. Diskussion: Geht man von etwa 80.000 Gehörlosen in Deutschland aus, konnten mit der Mainzer Gehörlosen-Studie etwa 1% aller Betroffenen erreicht werden, wobei Selektionsverzerrungen zu diskutieren sind. Es ist anzunehmen, dass Personen, die nicht mit dem Internet vertraut sind, selten bis gar nicht teilgenommen haben. Hier könnten Gehörlose mit hohem Alter sowie möglicherweise mit niedriger Schreib- und Lesekompetenz besonders betroffen sein. Eine Prüfung auf Repräsentativität war jedoch nicht möglich, da die Grundgesamtheit der Gehörlosen mit sozioökonomischen Eckdaten nicht bekannt ist. Die dargestellten Ergebnisse weisen erstmalig bei einem großen Studienkollektiv Problembereiche in der medizinischen Versorgung von Gehörlosen in Deutschland auf: Gehörlose Patienten laufen Gefahr, ihren Arztbesuch durch vielfältige Kommunikationsbarrieren und Missverständnisse als Zumutung zu erleben. Eine Informationskampagne unter Ärzten könnte helfen, diese Situation zu verbessern. Dolmetscher können die Kommunikation zwischen Arzt und Patient enorm verbessern, die gesetzlich geregelte Kostenübernahme funktioniert dabei in der Regel auch problemlos. Allerdings gibt es noch viele Gehörlose, die nicht über die Regelungen zur Dolmetscherunterstützung informiert sind und die Dienste entsprechend nicht nutzen können. Hier muss es weitere Bemühungen geben, die Gehörlosen aufzuklären, um ihnen eine barrierefreie Nutzung von gesundheitsbezogenen Leistungen zu ermöglichen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit zeigt anhand von Einzelfällen, welche Probleme und Folgen eine Ausweisung und/oder Abschiebung von kriminell gewordenen Angehörigen der sogenannten zweiten Generation türkischer Staatsangehöriger im Hinblick auf deren Eingliederung in die türkische Gesellschaft mit sich bringt.rnDem Bereich der Ausweisung und/oder Abschiebung – beides Formen von Zwangsmigration – ausländischer Staatsangehöriger in ihr Herkunftsland wurde bislang im weiten Feld der Integrationsforschung kaum Aufmerksamkeit geschenkt. Nicht anders verhält es sich in der politischen und öffentlichen Diskussion, wenn es um die „Entfernung“ kriminell gewordener Ausländer, die mitunter in Deutschland geboren und aufgewachsen sind oder sich bereits viele Jahre in der Bundesrepublik aufhalten, aus dem Bundesgebiet geht. Bei dieser Diskussion wird zwar die Bestrafung kriminell gewordener Ausländer mittels Ausweisung und/oder Abschiebung vorschnell befürwortet, besonders in solch spektakulären Fällen, wie in dem des Jugendlichen Muhlis Arı, genannt „Mehmet“ oder in dem des als „Münchner U-Bahn Schläger“ bekannt gewordenen Serkan. Die weitreichenden Folgen für den Einzelnen werden in der Regel jedoch nicht tiefergehend betrachtet.rnDeshalb steht im Zentrum dieser Arbeit die Frage, wie sich die Eingliederung von in Deutschland geborenen und hier aufgewachsenen Nachkommen der „Gastarbeiter“-Generation sowie später nachgeholter Kinder im Anschluss an eine Ausweisung und/oder Abschiebung in die türkische Gesellschaft gestaltet. Die theoretische Grundlage der Untersuchung bilden vier theoretische Konzepte zu Integration, Fremdheit und Marginalität. Dabei handelt es sich um die „Integrationstheorie“ von Hartmut Esser, das Konzept des „bleibenden Fremden“ von Georg Simmel, das des „einwandernden Fremden“ von Alfred Schütz sowie um das Konzept des „marginal man“ von Robert E. Park. Auf Basis dieser vier theoretischen Konzepte und der Auswertung des erhobenen empirischen Datenmaterials wird deutlich, dass hohe soziale Barrieren auf Seiten der Mitglieder der türkischen Aufnahmegesellschaft, mangelnde integrationsförderliche Opportunitäten, aber auch eine geringe Motivation auf Seiten der Betroffenen zur Aufnahme integrationsförderlicher Handlungen eine Integration verhindern. Die von Ausweisung und/oder Abschiebung Betroffenen sind letztlich dazu gezwungen, dauerhaft ein Leben am Rande der Gesellschaft in der Marginalität zu führen.rn

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit war die Untersuchung der Bedeutung des lebensgeschichtlichen Ereignisses (erzwungener) Emigration aus Deutschland zur Zeit des Nationalsozialismus für die Identitätsentwicklung von Kindern und Jugendlichen. Anhand der objektiv hermeneutischen Analyse und Interpretation lebensgeschichtlicher Interviews, objektiver Daten sowie z.T. weiterer (auto-)biographischer Materialien dreier Personen, die als Kinder in die USA emigrierten, wurde vor allem der Frage nachgegangen, welche Zusammenhänge herstellbar sind zwischen entwicklungsmäßig gewissermaßen ‚vorprogrammierten‘ Krisen der Bindung und Ablösung im Sozialisationsprozess und dem Ereignis Emigration als fallübergreifend vorliegender Besonderheit im Sinne eines potentiell traumatischen Krisenereignisses. Das zentrale Interesse bestand in der Rekonstruktion unterschiedlicher biographisch wirksamer Habitus der Krisenbewältigung. In heuristischer Absicht wurde dabei einerseits angeknüpft an das soziologisch strukturtheoretische Modell Ulrich Oevermanns von Sozialisation als Prozess der Krisenbewältigung, andererseits an Robert Kegans entwicklungspsychologisches Konzept der Entwicklung des Selbst in einbindenden Kulturen. Im Zuge der Fallrekonstruktionen ließen sich erstens von Fall zu Fall unterschiedliche Perspektiven auf die Erfahrung der Emigration herausarbeiten sowie zweitens jeweils spezifische Haltungen im Umgang mit (wie bewusst auch immer als solche wahrgenommenen) Entscheidungskrisen der Lebensgestaltung, also eine je eigene Form des Umgangs mit der für die menschliche Lebenspraxis konstitutiven widersprüchlichen Einheit von Entscheidungszwang und Begründungsverpflichtung. Die Ergebnisse verweisen zum einen auf den großen Einfluss familialer Sozialisation auf die Entwicklung, zeigen zum anderen aber auch die Bedeutsamkeit kultureller Einbindungsmöglichkeiten über die Lebensspanne auf. Sie bieten damit eine empirische Fundierung der Synthese des Oevermannschen und des Keganschen Modells.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Wie kann man Ergebnisse internationaler Umweltpolitik erklären? Wie hilfreich ist dabei die liberale Theorie der Internationalen Beziehungen (IB) von Andrew Moravcsik? Die vorliegende Arbeit versucht diese Fragen anhand eines Fallbeispiels internationaler Umweltpolitik – der Position der Bundesrepublik Deutschland bezüglich der einzelnen Streitfragen der EU-Verordnung 443/2009 über den CO2-Ausstoß von Automobilen – zu beantworten. Es wird eine theoriegeleitete Außenpolitikanalyse durchgeführt, deren Hauptaugenmerk auf der spezifischen nationalen Präferenzbildung in einem bestimmten Fall liegt. Hier weist Moravcsiks Theorie eine „Lücke“ auf. Wessen Interessen sich aus welchen Gründen in einer bestimmten Situation wie durchsetzen und damit Politik beeinflussen bleibt unklar. Deshalb erweitert die Arbeit Moravcsiks liberale Theorie der IB mithilfe von Annahmen und Erkenntnissen aus der Verbändeforschung nach innen. Auf diese Weise werden die situationsspezifischen Interessen und die situationsspezifische Durchsetzungsfähigkeit der betroffenen Akteure – nationale Interessengruppen – erhoben und untersucht, inwiefern man mit ihrer Hilfe die deutsche Position zur EU-Verordnung 443/2009 erklären kann. Empirisch erweist sich dabei, dass die Position der BRD zu acht von neun Streitfragen der EU-Verordnung 443/2009 den Interessen einer Koalition aus Industriegewerkschaft (IG) Metall und Verband der Automobilindustrie (VDA) entsprach, weil diese im vorliegenden Fall mit Abstand die größte Durchsetzungsfähigkeit aufwiesen. Lediglich bezüglich einer Streitfrage wich die Position der BRD von den Interessen von IG Metall und VDA ab. Damit lässt sich festhalten: Die Position der BRD zur EU-Verordnung 443/2009 kann weitgehend mithilfe der nach innen erweiterten liberalen Theorie nach Andrew Moravcsik erklärt werden. Trotz möglicher Schwierigkeiten bei der Übertragung erscheint daher eine Anwendung des nach innen erweiterten Liberalismus auf weitere erklärungsbedürftige Phänomene der internationalen Umweltpolitik und damit eine Überprüfung der Theorie insgesamt eine interessante und sinnvolle Aufgabe zu sein.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der Arbeit wird die Wahlbeteiligung bei Europawahlen analysiert. Es geht um die Beantwortung der Frage, ob die individuelle Wahlteilnahme in alten und neuen EU-Mitgliedsstaaten bzw. alten und jungen Demokratien auf die gleichen Erklärungsgrößen zurückgeht oder ob möglicherweise Unterschiede zwischen beiden Ländergruppen bestehen. rnAls Bezugspunkt dient die Europawahl, die im Juni 2009 stattfand: Bei dieser Wahl fällt nicht nur die generell niedrige Beteiligung auf, sondern auch erhebliche Niveauunterschiede zwischen den einzelnen Mitgliedsstaaten. Um diesen Befund erklären zu können, wird zunächst ein theoretisches Erklärungsmodell entwickelt, das sich auf die folgenden fünf Dimensionen bezieht: politisches System der EU, europäische politische Gemeinschaft, Wählermobilisierung während des Europawahlkampfes, Gewohnheitswahl und Einschätzung der staatlichen sowie der eigenen wirtschaftlichen Lage. Als Erklärungsgröße werden in den fünf Bereichen jeweils unterschiedlich stark ausgeprägte Defizite in den beiden Ländergruppen angenommen. rnExemplarisch werden Deutschland und Polen untersucht. Die empirischen Analysen basieren auf dem umfangreichen Datensatz der European Election Study 2009 (ESS), hier werden die Daten der Voter Study verwendet. Nicht alle Hypothesen lassen sich im Rahmen der Arbeit bestätigten, nur ein Teil der unabhängigen Variablen hat auch im multivariaten Modell noch einen Einfluss auf die Europawahlbeteiligung. rnFür Deutschland zeigen die Ergebnisse, dass Wahlnorm und Wählermobilisierung einen größeren Effekt auf die Stimmabgabe ausüben als die Nutzenseite (Effektivität) der Wahlen. Im zweiten Modell, das für die polnischen Befragten berechnet wurde, erweisen sich nur zwei der unabhängigen Variablen als signifikant, d.h. nur die Einschätzung der Effektivität der Wahl und die internalisierte Wahlnorm haben einen Einfluss auf die Wahlteilnahme. Von der Effektivitätseinstufung geht eine größere Erklärungskraft aus als von der Wahlnorm; in diesem Modell überwiegt folglich die Nutzenseite der Europawahl. Es kann gezeigt werden, dass die unterschiedlichen Beteiligungsraten in den beiden Staaten durch unterschiedlich stark ausgeprägte Defizite in den Bereichen des politischen Systems und der Wahlnorm zustande kommen. Die Defizite sind in Polen stärker ausgeprägt und können so die niedrigere Wahlbeteiligung erklären. Darüber hinaus kann resümiert werden, dass die Nutzenseite der Europawahl in Polen einen stärkeren Einfluss auf die Beteiligung ausübt als in Deutschland.