37 resultados para König von Deutschland
Resumo:
Die Alzheimer Krankheit ist eine fortschreitendende Demenzerkrankung von der in Deutschland ca. 1,6 Millionen Menschen betroffen sind. Im Gehirn der Patienten finden sich sogenannte amyloide Plaques, deren Hauptbestandteil das Aβ-Protein ist. Dieses Peptid ist ein Spaltprodukt des APP-Proteins (engl. amyloid precursor protein). APP ist das namensgebende Mitglied der APP-Proteinfamilie zu der neben APP die beiden APP-Homologen APLP1 und APLP2 (engl. amyloid precursor like protein) gehören. Obwohl inzwischen über die pathologische Rolle dieser Proteinfamilie bei der Alzheimer Krankheit vieles bekannt ist, bleiben die physiologischen Funktionen dieser Proteine bisher größtenteils ungeklärt. Die vorliegende Arbeit beschreibt erstmals einen APLP1-spezifischen Effekt auf die Ausbildung von Filopodien. Sowohl das humane als auch das murine APLP1 induzierten nach transienter Überexpression die Bildung zahlreicher filopodialer Fortsätze auf der Membran von PC12-Zellen. Vergleichbare Resultate konnten mit beiden APLP1-Proteinen auch auf der Membran von embryonalen (E18.5), cortikalen Neuronen der Ratte gezeigt werden. Dass APLP1 einen derartigen Effekt auf Neuronen und PC12-Zellen zeigt, begründet die Annahme, dass APLP1 in vivo eine Funktion bei der Entwicklung und Differenzierung von Neuronen übernimmt. Anhand von Versuchen mit deletierten APLP1-Proteinen und APLP1/APLP2-Chimärproteinen konnte gezeigt werden, dass die von Exon 5 und Exon 6 codierten Bereiche des APLP1 für die Induktion der Filopodien essentiell sind. Unter Einbeziehung von in ihrer räumlichen Struktur bereits bekannten Domänen und aufgrund von Homologievergleichen der primären Aminosäuresequenz dieser Region mit entsprechenden Bereichen der APP- bzw. APLP2-Proteine wurde die wahrscheinliche Lage der Filopodien-induzierenden Domäne innerhalb des von Exon 6 codierten Bereiches diskutiert. Es konnte ferner gezeigt werden, dass die untersuchte Induktion von Filopodien durch die sogenannte α-Sekretierung moduliert werden kann. Unter den gewählten Versuchsbedingungen war nur membranständiges APLP1, nicht aber sekretiertes APLP1 in der Lage, Filopodien zu induzieren. Abschliessend wurden Ergebnisse gezeigt, die erste Einblicke in Signalkaskaden erlauben, die von APLP1 angesteuert werden und so die Enstehung der Filopodien auslösen. Bezüglich des primären Prozesses der Signalkaskade, der Bindung von APLP1 an einen bisher unbekannten Rezeptor, wurde die Möglichkeit diskutiert, ob APP oder APLP2 oder sogar APLP1 selbst als Rezeptor fungieren könnten. Die beobachteten Prozesse nach Überexpression von APLP1 entsprechen vermutlich einer physiologischen Funktion bei der Differenzierung von Neuronen, die mit der Interaktion einer extrazellulär gelegenen Domäne mit einem Rezeptor beginnt, die Aktivierung einer Signalkaskade zur Akrinreorganisation zu Folge hat und die Entstehung filopodialer Strukturen auslöst.
Resumo:
Einfluss einer Pharmazeutischen Betreuung auf den klinischen Verlauf und die Behandlungsergebnisse von Diabetikern mit Diabetischem Fußsyndrom (DFS) Hintergrund/Rationale: In Deutschland gibt es etwa 6 Millionen Diabetiker und die Tendenz ist steigend. Das Diabetische Fußsyndrom (DFS) stellt eine häufige und besonders gravierende Folgeerkrankung des Diabetes mellitus dar. Jährlich werden in Deutschland ca. 45.000 Amputationen aufgrund des DFS bei Diabetikern durchgeführt. Es verursacht bei den Patienten physische und psychische Beeinträchtigungen und produziert hohe Krankheitskosten. Der Prävention, der Behandlung und der Rezidivprophylaxe des DFS kommt daher ein hoher Stellenwert zu. Ziel dieser Arbeit war es, ein klinisch-pharmazeutisches Betreuungsprogramm für Patienten mit DFS zu erarbeiten und den Einfluss der Pharmazeutischen Betreuung, speziell einer intensivierten Patientenschulung, auf klinische und soziale Behandlungsergebnisse hin zu untersuchen. Es sollte geklärt werden, ob eine zusätzliche pharmazeutische Betreuung Einfluss auf den Wundheilungsverlauf und die Abheilungsrate der Fußläsionen von Diabetikern mit DFS nehmen kann. Methoden: 52 Patienten mit DFS wurden in eine randomisierte, kontrollierte Studie eingeschlossen und im Verhältnis 1:1 einer Interventions- oder Kontrollgruppe zugeteilt. Die Interventionsgruppe wurde kontinuierlich durch einen Apotheker zusätzlich individuell betreut (Anleitung zum sachgerechten Umgang mit Arzneimitteln, Medizinprodukten und Therapiemaßnahmen), die Kontrollgruppe erhielt die übliche medizinische Betreuung. Die Auswirkungen der Intervention auf den klinischen Verlauf der beobachteten Fußläsionen, die Rezidivfreiheit und Rehospitalisierungsrate, aber auch auf die Patientenzufriedenheit, das Patientenwissen und die Lebensqualität wurden untersucht. Jeder Patient wurde über einen Zeitraum von 12 Monaten beobachtet. Ergebnisse: Die Studienergebnisse belegen einen positiven Einfluss der Pharmazeutischen Betreuung auf die klinischen Endpunkte der Diabetiker mit DFS. Die Wundheilung der Läsionen in der Interventionsgruppe, bezogen auf Abheilungsdauer und -rate, konnte klinisch positiv beeinflusst werden. Des weiteren konnte in der Interventionsgruppe die Anzahl an neu aufgetretenen Läsionen, sowie weiterer Krankenhausaufenthalte um jeweils fast 50% verringert werden. Durch die Pharmazeutische Betreuung konnte die Patientenzufriedenheit mit der Behandlung deutlich gesteigert werden. Entsprechendes fand sich für das Patientenwissen und die Lebensqualität.
Resumo:
Zusammenfassung Die Integration verhaltensauffälliger Schülerinnen und Schüler stellt besondere Herausforderungen an die Kompetenz von Lehrerinnen und Lehrern. Zum einen wirkt sich die spezielle Problematik dieser Schülergruppe auf die Beziehungsgestaltung mit Peers und Lehrpersonen aus, zum anderen werden auch spezifische methodische Änderungen im Unterrichts- und Lerngeschehen notwendig, um den Anforderungen, die auffällige Schüler an die Unterrichtsgestaltung stellen, gerecht zu werden. Dabei ist die Gruppe der auffälligen Schülerinnen und Schüler selbst sehr heterogen. Vor dem Hintergrund einer systemisch-konstruktivistischen Sichtweise von Auffälligkeit nähert sich diese Arbeit der Themenstellung der Integration verhaltensauffälliger Schülerinnen und Schüler und legt dar, dass hier vor allem das Passungsverhältnis zwischen (auffälligem) Individuum und sämtlichen Systemen seiner Umwelt in eine Schieflage geraten ist. Auf dieser Basis wurde nach erfolgreichen Modellen der Integration verhaltensauffälliger Schülerinnen und Schüler gesucht, wobei dem immer wiederkehrenden Verweis auf den hilfreichen Beitrag der Freinet-Pädagogik hierbei mit einer eigenen empirischen Studie nachgegangen wurde. An zwei Freinet-Schulen in Deutschland wurde mit Hilfe von teilnehmender Beobachtung, Interviews und Gruppendiskussion die Lehrersichtweise fördernder und hemmender Bedingungen des Integrationsgeschehens erhoben und analysiert. Dabei trat vor allem eine spezifische Haltung der Freinet-Lehrerinnen und Lehrer gegenüber den in der Literatur immer wieder als besonders schwierig dargestellten auffälligen Schülerinnen und Schülern zutage. Diese Einstellung besteht vor allem in der kompetenzorientierten Sicht der auffälligen Schülerinnen und Schüler, die ihre Stärken unterstützt. Auf dieser Basis wird durch viele pädagogische, beraterische und therapeutische Angebote bei den Prozessen, die noch nicht gelingen, angesetzt. Diese Haltung, die sich auch in entsprechenden Rahmenbedingungen ausdrückt (z.B. in Gremien, die die Partizipation der Kinder gewährleisten, oder in auf das Individuum abgestimmten Arbeitstechniken), wurde zusammen mit den Rahmenbedingungen als „Kernkategorie“ Schulkultur im Sinne der Grounded Theory gefasst. Indem die Lehrerinnen und Lehrer an beiden Schulen zuerst die besonderen Begabungen aller ihrer Schülerinnen und Schüler sahen und die auffälligen nicht als spezielle Gruppe heraushoben (die zudem nicht als immer störend oder „schwierig“ klassifiziert wurden), trugen sie nicht nur entscheidend zur gelingenden Integration dieser konkreten Schülerinnen und Schüler bei, sondern stellen auch ein Beispiel für die Erweiterung der pädagogischen Professionalität von Lehrern dar. Die anfängliche enge Fragestellung auf das Integrationsgeschehen von auffälligen Schülerinnen und Schülern konnte durch den Bezug zur Schulkultur und zum schulkulturellen Passungsverhältnis der Schüler erweitert werden. Die vorliegende Arbeit gibt so nicht nur Aufschluss über die Integrationspraxis an Freinet-Schulen, sondern auch über die verschiedenen Dimensionen ihrer jeweiligen Schulkultur.
Resumo:
Die Dissertation untersucht die geistige Produktion im Erziehungssystem anhand des Unterrichtsgegenstands populäre Musik. Hiermit ist sie im Kernbereich der musikpädagogischen Disziplin angesiedelt – Musik und Schule. Ferner rückt die Festlegung auf populäre Musik den Schüler in seinem Alltagswissen in den Vordergrund der Betrachtung. Die Frage nach dem Umgang mit populärer Musik ist somit indirekt eine Frage nach dem Umgang mit schülernahen Erfahrungswelten in der Schule. Innerhalb dieses Forschungsprofils erhält die Arbeit ihre eigentliche Relevanz - sie zeigt auf, wie eine moderne, selbstreferentielle Musikpädagogik eigene bedeutsame Kommunikationen beobachten kann. Entworfen in Anlehnung an die Systemtheorie nach Niklas Luhmann, werden in der Arbeit die unikalen Reflexionszusammenhänge von Pädagogik und Musikpädagogik anhand der folgenden Operationsfelder offengelegt: pädagogische und musikpädagogische Fachliteratur, Lehrpläne und Schulbücher. Nach Luhmann ist es erforderlich verstehend in die Unikalität systemischer Reflexionsleistungen einzudringen, um inkonsistente Anforderungen an die Aufgabe (Musik-)Erziehung und ihre Gegenstände aufzudecken und zukünftige Systemhandlungen zu optimieren. Die Arbeit ist in drei große historische Zeitblöcke gegliedert, die ihrerseits in verschiedene disziplinäre Operationsfelder unterteilt sind. Mit Hilfe dieser zweidimensionalen historisch-interdisziplinären Sichtweise wird populäre Musik als Bezugsgröße aufgewiesen, an der die zentralen Debatten von Pädagogik und Musikpädagogik kondensieren. Anhand von Schlüsselbegriffen wie Kultur, Gesellschaft und Ästhetik aber auch didaktischen Prinzipien wie Schüler- und Handlungsorientierung oder ganzheitliche (Musik-)Pädagogik lässt sich die Vielfalt historisch gewachsener inkonsistenter/konsistenter Forderungen belegen. Aus den Beobachtungen im Umgang mit populärer Musik werden Aufgaben deutlich, die die Disziplinen, vor allem die Musikpädagogik, in der Zukunft zu leisten haben. Diese beschäftigen sich auf der einen Seite mit dem disziplinären Selbstverständnis und auf der anderen Seite mit unbeantworteten didaktischen Fragestellungen wie den Möglichkeiten und Grenzen des einzelnen populären Musikstücks im konkret-situativen Lernkontext von Musikunterricht.
Resumo:
Im Mittelpunkt der Studie "The Sound of Democracy - the Sound of Freedom". Jazzrezeption in Deutschland (1945 - 1963) steht ein Korpus von 16 Oral-History-Interviews mit Zeitzeugen der deutschen Jazzszene. Interviewt wurden Musiker ebenso wie bildende Künstler, Journalisten, Clubbesitzer und Jazzfans, die die Jazzszene in den 1950ern bildeten. Die Interviews werden in einen Kontext zeitgenössischer Quellen gestellt: Zeitschriftenartikel (hauptsächlich aus dem "Jazz Podium" ebenso wie Radiomanuskripte des Bayerischen Rundfunks.rnDie Ausgangsüberlegung ist die Frage, was der Jazz für sein Publikum bedeutete, mit anderen Worten, warum wählte eine studentische, sich selbst als elitär wahrnehmende Schicht aus dem großen Fundus an kulturellen Ausdrucksformen, die nach dem Zweiten Weltkrieg aus den USA nach Deutschland strömten, ausgerechnet den Jazz als persönliche Ausdrucksform? Worin bestand seine symbolische Strahlkraft für diese jungen Menschen?rnIn Zusammenhang mit dieser Frage steht die Überlegung: In welchem Maße wurde Jazz als dezidiert amerikanische Ausdrucksform wahrgenommen und welche Amerikabilder wurden durch den Jazz transportiert? Wurde Jazz bewusst als Werkzeug der Besatzer zur demokratischen Umerziehung des deutschen Volkes eingesetzt und wenn ja, in welcher Form, beziehungsweise in welchem Maß? Wie stark war die Symbolleistung und metaphorische Bedeutung des Jazz für das deutsche Publikum und in welchem Zusammenhang steht die Symbolleistung des Jazz mit der Symbolleistung der USA als Besetzungs- bzw. Befreiungsmacht? rn
Resumo:
Die Hauskatze (F. s. catus) ist eines der beliebtesten Haustiere in Deutschland. Das enge Zusammenleben mit dem Menschen bedingt die Übertragung von Haaren auf Gegenstände oder andere Personen, sodass diese Spuren für eine forensische Untersuchung von größter Bedeutung sind. Da in Haaren mit einer sehr geringen Menge an Kern-DNA gerechnet werden muss und diese sich zudem in einem degradierten Zustand befindet, wurden die zur Individualisierung ausgewählten Tetranukleotid-STR-Markersysteme dahingehend optimiert. Die Optimierung umfasste neben der Reduktion der Produktgrößenbereiche auch die Anpassung der PCR-Profile. Die Sequenzierung und Beschreibung der Repeatmotive aller Marker führte überwiegend zu einer von der Literatur abweichenden Darstellung. Anhand der Sequenzanalyse erfolgte die Einteilung der Marker in STR-Klassen sowie die Einführung einer markerspezifischen Nomenklatur. Diese spiegelt sich vor allem in den erstellten Allelleitern wider, die zum Abgleich der amplifizierten Produkte eines jeden Markersystems eingesetzt werden. Die Allelleitern dienen als interne Laborreferenz und können als Standard für den Datenaustausch zwischen unterschiedlichen Laboren genutzt werden. Mittels 14 speziell angepassten Markersystemen und dem geschlechtsspezifischen Marker Amelogenin kann praktisch eine Individualisierung für F. s. catus durchgeführt werden. rnSind über die Kern-DNA keine oder nur unzureichende Ergebnisse zu erhalten, kann alternativ auf die Untersuchung der mitochondrialen DNA zurückgegriffen werden. Neben Systemen, die einen Aufschluss zum Artnachweis erbringen, stehen in der Kontrollregion von F. s. catus weitere Systeme für eine Differenzierung in Haplotypen zur Verfügung. Trotz der maternalen Vererbung der mtDNA und der dadurch nicht zu realisierenden Individualisierung liefert diese Einteilung einen hohen Anteil an einzigartigen Haplotypen, die in der untersuchten Stichprobe nur durch je ein Individuum repräsentiert wurden. Die Aufspaltung in Haplotypen liefert einen Aussagewert, mit dem gegebenenfalls ein Ausschluss zwischen Spur und Vergleich getroffen werden kann.rnBeide Analyseverfahren, sei es auf Ebene der Kern- oder mitochondrialen DNA, bieten eine Möglichkeit den größtmöglichsten Informationsgehalt aus einer Spur zu erhalten. Im forensischen Bereich steht somit erstmals ein komplett standardisiertes Verfahren zur Untersuchung von Spuren der Hauskatze zur Verfügung. Dieses reicht von der Artbestimmung einer Spur bis zur praktisch individuellen Zuordnung.
Resumo:
Das Auftreten von Psychostimulantien im Straßenverkehr und eine Beeinträchtigung der Fahrtüchtigkeit durch diese spielt in Deutschland zunehmend eine wichtige Rolle. Das Ziel der hier vorliegenden Arbeit war es retrospektiv die dokumentierten Ausfallserscheinungen von Personen unter Einfluss von Amphetaminderivaten anhand von ärztlichen Untersuchungsbögen, die bei polizeilich angeordneten Blutentnahmen ausgefüllt werden, des Zeitraums 2001 bis 2005 in Rheinland-Pfalz zu untersuchen. Aufgrund der hohen Fallzahlen konnten sehr strenge Auswahlkriterien angewandt werden, sodass lediglich reine Amphetaminderivat-Intoxikationen (Amphetamin, Methamphetamin, MDA, MDMA, MDE, MBDB) bei 923 Personen untersucht werden konnten. Es zeigten sich als verkehrsrelevante Beeinflussung die Erweiterung der Pupille mit einer geringeren Lichtreagibilität, eine Verlängerung des Drehnachnystagmus sowie eine Unsicherheit beim Rombergtest. Eine Dosis-Wirkungs-Beziehung konnte lediglich bei der Pupillenweite ansatzweise gefunden werden. Bei MDMA zeigte sich ein deutlich stärkerer Einfluss auf die Pupillenweitenregulation als bei Amphetamin. Die zur Detektion von alkoholbedingten Ausfallserscheinungen sinnvollen Gleichgewichts- und Koordinationstests waren im Falle der hier betrachteten Psychstimulantien nicht aussagekräftig. Es erscheint empfehlenswert die durchgeführten Untersuchungen mit Hilfe von einheitlichen Lichtverhältnissen und festgelegten Untersuchungsprozedere zu standardisieren ggf. auch durch die Einführung der Videookulographie. Die Einführung eines Reaktionstests sollte in Erwägung gezogen werden.
Resumo:
Sowohl in Deutschland als auch in Mexiko hat es in jüngster Zeit Gesetzesreformen gegeben, welche die Ermittlung und Anwendung ausländischen Rechts beeinflussten. So hat in Deutschland die Frage der Revisibilität ausländischen Rechts mit der Reform des Verfahrens in Familiensachen und in den Angelegenheiten der freiwilligen Gerichtsbarkeit neue Bedeutung erlangt. In Mexiko wurde durch Reformen der Zivilrechts- und Zivilprozessrechtsordnungen diernAmtsermittlungspflicht für ausländisches Recht eingeführt. Die damit zusammenhängenden Fragen und Probleme werden in der vorliegenden Arbeit erörtert. Zudem werden die bestehenden Möglichkeiten bei der Ermittlung ausländischen Rechts prinzipiell untersucht und neue, aus der stetig fortschreitenden Internationalisierung resultierende Möglichkeiten der Zusammenarbeit aufgezeigt. In diesem Zusammenhang werden internationale Übereinkommen wie das Londoner Europäische Übereinkommen betreffend Auskünfte über ausländisches Recht sowie die einschlägigen Interamerikanischen Konventionen, aber auch internationale Netzwerke zur justiziellen Zusammenarbeit wie das Europäische Justizielle Netz für Zivil- und Handelssachen und das Iberoamerikanische Kooperationsnetzwerk IberRed dargelegt und diskutiert. Die aktuelle Rechtslage in Mexiko wird anhand einer historischen Darstellung der Entwicklungen des internationalen Rechts in Mexiko und auf dem gesamten amerikanischen Kontinent seit dem Beginn des 19. Jahrhunderts analysiert und bewertet. Schließlich wird anhand von Gerichtsentscheidungen die Praxis der mexikanischen Rechtsprechung mit den durch Gesetzgeber und Schrifttum vorgegebenen theoretischen Regelungen hinsichtlich der Ermittlung und Anwendung ausländischen Rechts verglichen und besprochen.
Resumo:
Einleitung: Die Besonderheiten in der Gesundheitsversorgung von gehörlosen Bürgerinnen und Bürgern in Deutschland sind weitgehend unbekannt. Schätzungsweise 41.500 bis zu 80.000 Menschen sind in Deutschland von Geburt an gehörlos oder früh ertaubt. Diese Gehörlosengemeinschaft verwendet vorrangig die Deutsche Gebärdensprache, die seit 2002 per Gesetzgebung als selbstständige Sprache in Deutschland amtlich anerkannt ist. Der Gesetzgeber hat vorgesehen, dass ein von der Krankenversicherung bezahlter Dolmetscher bei einem Arztbesuch bestellt werden kann. Erkenntnisse, inwieweit dies unter den Betroffenen bekannt ist und genutzt wird, liegen nicht vor. Ebenso sind Annahmen, dass gehörlose Patienten in einer vorrangig von Hörenden gestalteten Gesundheitsversorgung mutmaßlich auf Probleme, Barrieren und Vorurteile stoßen, in Deutschland nicht systematisch untersucht. Die vorliegende Arbeit gibt erstmalig anhand eines größeren Studienkollektivs einen sozialmedizinischen Einblick in den Gesundheitsversorgungszustand von Gehörlosen in Deutschland. Methodik: Im Rahmen einer Vorstudie wurden 2009 zunächst qualitative Experteninterviews geführt, um den Zustand der medizinischen Versorgung von Gehörlosen zu explorieren und Problemfelder zu identifizieren. Anschließend wurde für die Hauptstudie auf der Grundlage der Experteninterviews ein quantitativer Online-Fragebogen mit Gebärdensprachvideos entwickelt und erstmalig in der sozialmedizinischen Gehörlosenforschung eingesetzt. Die gehörlosen Teilnehmer wurden über etablierte Internetportale für Gehörlose und mit Hilfe von Gehörlosenverbänden und Selbsthilfegruppen sowie einer Pressemitteilung rekrutiert. Insgesamt wurden den Teilnehmern bis zu 85 Fragen zu sozioökonomischen Daten, Dolmetschernutzung, Arzt-Patienten-Beziehung und häufig auftretenden Problemen gestellt. Es wurden absolute und relative Häufigkeiten bestimmt und mittels Chi2-Test bzw. exaktem Fisher-Test auf geschlechtsspezifische Unterschiede geprüft. Alle Tests wurden zweiseitig mit der lokalen Irrtumswahrscheinlichkeit α = 0,05 durchgeführt. Ergebnisse: Am Ende der Feldphase verzeichnete die automatische Datenbank 1369 vollständig bearbeitete Fragebögen. 843 entsprachen den a-priori definierten Auswertungskriterien (volljährige Personen, gehörlos, keine fehlenden Angaben in wesentlichen Zielfragen). Häufigstes Ausschlusskriterium war ein anderer Hörstatus als Gehörlosigkeit. Etwa die Hälfte der 831 Teilnehmer (45,1% bzw. 52,8%) schätzte trotz ausreichender Schulbildung ihre Lese- bzw. Schreibkompetenz als mäßig bis schlecht ein. Zeitdruck und Kommunikationsprobleme belasteten bei 66,7% und 71,1% der Teilnehmer bereits einmal einen Arztbesuch. Von 56,6% der Teilnehmer wurde angegeben, dass Hilflosigkeits- und Abhängigkeitsgefühle beim Arztbesuch auftraten. Falsche Diagnosen auf Grund von Kommunikationsproblemen wurden von 43,3% der Teilnehmer vermutet. 17,7% der Teilnehmer gaben an, sich bereits einmal aktiv um psychotherapeutische Unterstützung bemüht zu haben. Gebärdensprachkompetente Ärzte wären optimal um die Kommunikation zu verbessern, aber auch Dolmetscher spielen eine große Rolle in der Kommunikation. 31,4% der gehörlosen Teilnehmer gaben jedoch an, nicht über die aktuellen Regelungen zur Kostenübernahme bei Dolmetschereinsätzen informiert zu sein. Dies betraf besonders jüngere, wenig gebildete und stark auf die eigene Familie hin orientierte Gehörlose. Wesentliche geschlechtsspezifische Unterschiede konnten nicht festgestellt werden. Diskussion: Geht man von etwa 80.000 Gehörlosen in Deutschland aus, konnten mit der Mainzer Gehörlosen-Studie etwa 1% aller Betroffenen erreicht werden, wobei Selektionsverzerrungen zu diskutieren sind. Es ist anzunehmen, dass Personen, die nicht mit dem Internet vertraut sind, selten bis gar nicht teilgenommen haben. Hier könnten Gehörlose mit hohem Alter sowie möglicherweise mit niedriger Schreib- und Lesekompetenz besonders betroffen sein. Eine Prüfung auf Repräsentativität war jedoch nicht möglich, da die Grundgesamtheit der Gehörlosen mit sozioökonomischen Eckdaten nicht bekannt ist. Die dargestellten Ergebnisse weisen erstmalig bei einem großen Studienkollektiv Problembereiche in der medizinischen Versorgung von Gehörlosen in Deutschland auf: Gehörlose Patienten laufen Gefahr, ihren Arztbesuch durch vielfältige Kommunikationsbarrieren und Missverständnisse als Zumutung zu erleben. Eine Informationskampagne unter Ärzten könnte helfen, diese Situation zu verbessern. Dolmetscher können die Kommunikation zwischen Arzt und Patient enorm verbessern, die gesetzlich geregelte Kostenübernahme funktioniert dabei in der Regel auch problemlos. Allerdings gibt es noch viele Gehörlose, die nicht über die Regelungen zur Dolmetscherunterstützung informiert sind und die Dienste entsprechend nicht nutzen können. Hier muss es weitere Bemühungen geben, die Gehörlosen aufzuklären, um ihnen eine barrierefreie Nutzung von gesundheitsbezogenen Leistungen zu ermöglichen.
Resumo:
Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.
Resumo:
Die vorliegende Arbeit zeigt anhand von Einzelfällen, welche Probleme und Folgen eine Ausweisung und/oder Abschiebung von kriminell gewordenen Angehörigen der sogenannten zweiten Generation türkischer Staatsangehöriger im Hinblick auf deren Eingliederung in die türkische Gesellschaft mit sich bringt.rnDem Bereich der Ausweisung und/oder Abschiebung – beides Formen von Zwangsmigration – ausländischer Staatsangehöriger in ihr Herkunftsland wurde bislang im weiten Feld der Integrationsforschung kaum Aufmerksamkeit geschenkt. Nicht anders verhält es sich in der politischen und öffentlichen Diskussion, wenn es um die „Entfernung“ kriminell gewordener Ausländer, die mitunter in Deutschland geboren und aufgewachsen sind oder sich bereits viele Jahre in der Bundesrepublik aufhalten, aus dem Bundesgebiet geht. Bei dieser Diskussion wird zwar die Bestrafung kriminell gewordener Ausländer mittels Ausweisung und/oder Abschiebung vorschnell befürwortet, besonders in solch spektakulären Fällen, wie in dem des Jugendlichen Muhlis Arı, genannt „Mehmet“ oder in dem des als „Münchner U-Bahn Schläger“ bekannt gewordenen Serkan. Die weitreichenden Folgen für den Einzelnen werden in der Regel jedoch nicht tiefergehend betrachtet.rnDeshalb steht im Zentrum dieser Arbeit die Frage, wie sich die Eingliederung von in Deutschland geborenen und hier aufgewachsenen Nachkommen der „Gastarbeiter“-Generation sowie später nachgeholter Kinder im Anschluss an eine Ausweisung und/oder Abschiebung in die türkische Gesellschaft gestaltet. Die theoretische Grundlage der Untersuchung bilden vier theoretische Konzepte zu Integration, Fremdheit und Marginalität. Dabei handelt es sich um die „Integrationstheorie“ von Hartmut Esser, das Konzept des „bleibenden Fremden“ von Georg Simmel, das des „einwandernden Fremden“ von Alfred Schütz sowie um das Konzept des „marginal man“ von Robert E. Park. Auf Basis dieser vier theoretischen Konzepte und der Auswertung des erhobenen empirischen Datenmaterials wird deutlich, dass hohe soziale Barrieren auf Seiten der Mitglieder der türkischen Aufnahmegesellschaft, mangelnde integrationsförderliche Opportunitäten, aber auch eine geringe Motivation auf Seiten der Betroffenen zur Aufnahme integrationsförderlicher Handlungen eine Integration verhindern. Die von Ausweisung und/oder Abschiebung Betroffenen sind letztlich dazu gezwungen, dauerhaft ein Leben am Rande der Gesellschaft in der Marginalität zu führen.rn
Resumo:
Im Zuge dieser Arbeit ist ein Massenspektrometer zur flugzeuggetragenen Messung von HNO3 und HONO auf dem neuen deutschen Forschungsflugzeug HALO aufgebaut worden (AIMS - Atmospheric chemical Ionization Mass Spectrometer). Die Ionisation der HNO3- und HONO-Moleküle erfolgt chemisch durch Reaktion mit SF5- -Ionen. Basierend auf den Ergebnissen von Laborversuchen wurden die Betriebsparameter optimiert, die Einzelkomponenten im HALO-Rack zusammengestellt und eine Einlassleitung entworfen, die Wandeffekte minimiert und Untergrundmessungen und HNO3-Kalibrationen im Flug ermöglicht. Die Empfindlichkeit der Messung von HNO3 und HONO wurde ebenso im Labor untersucht wie Interferenzen mit Wasserdampf und Ozon. Die HONO-Vergleichskampagne FIONA am Europäischen Photoreaktor (EUPHORE) in Valencia war die erste Messkampagne mit AIMS. Bei den offenen Vergleichsmessungen stimmten die von AIMS gemessenen HONO-Mischungsverhältnisse innerhalb +-20% mit dem Median von 9 weiteren HONO-Messungen überein. Die ersten flugzeuggetragenen Messungen mit AIMS werden im Verlauf der HALO-Missionen ML-CIRRUS und TACTS stattfinden. Neben dem Aufbau und der Charakterisierung von AIMS war die Analyse der Aufnahme von HNO3 in Eispartikel von Kondensstreifen und Zirren Gegenstand dieser Arbeit. Die Aufnahme von HNO3 in Kondensstreifeneispartikel wurde erstmals systematisch anhand einer Flugzeugmesskampagne (CIRRUS-III) untersucht. Während CIRRUS-III im November 2006 wurden Zirren und zufällig knapp 40 persistente Kondensstreifen über Deutschland und Nordeuropa beprobt. Die Messungen fanden in Höhen zwischen 10 und 11.5 km und bei Temperaturen zwischen 210 und 230 K statt. Die HNO3-Konzentration wurde mit Hilfe von NOy-Messungen bestimmt. Im Mittel war in Kondensstreifen ein größerer Anteil des Gesamt-HNO3 in den Eispartikeln gebunden (6 %) als in Zirren (3 %). Das Gasphasenäquivalent des eisgebundenen HNO3 betrug in Zirren durchschnittlich 6 pmol/mol, in Kondensstreifen 14 pmol/mol und in jungen Kondensstreifen (Alter<1 h) 21 pmol/mol. Das Mischungsverhältnis von HNO3 zu H2O in Eispartikeln war in Kondensstreifen leicht höher als in Zirren unter ähnlichen meteorologischen Bedingungen. Ursächlich für die höheren Werte in persistenten Kondensstreifen sind wahrscheinlich die hohen HNO3-Konzentrationen in den Abgasfahnen der Flugzeuge bei der Kondensstreifenbildung. Die beobachtete Abnahme des HNO3/H2O-Molverhältnisses mit zunehmendem Effektivdurchmesser der Eispartikel deutet an, dass die HNO3-Konzentrationen in Eispartikeln von jungen Kondensstreifen durch die Aufnahme von Abgas-HNO3 in die gefrierenden Aerosolpartikel bestimmt wird. Die Konzentrationen in älteren Kondensstreifen werden zunehmend durch das Vergraben von Umgebungs-HNO3 in wachsenden Eispartikeln kontrolliert. Diese Studie leistet einen Beitrag zu einem besseren Prozessverständnis der HNO3-Aufnahme in atmosphärische Eispartikel. Sie motiviert die Nutzung persistenter Kondensstreifen als atmosphärisches Labor zur Untersuchung der Spurengasaufnahme in wachsende Eispartikel.
Resumo:
Wie kann man Ergebnisse internationaler Umweltpolitik erklären? Wie hilfreich ist dabei die liberale Theorie der Internationalen Beziehungen (IB) von Andrew Moravcsik? Die vorliegende Arbeit versucht diese Fragen anhand eines Fallbeispiels internationaler Umweltpolitik – der Position der Bundesrepublik Deutschland bezüglich der einzelnen Streitfragen der EU-Verordnung 443/2009 über den CO2-Ausstoß von Automobilen – zu beantworten. Es wird eine theoriegeleitete Außenpolitikanalyse durchgeführt, deren Hauptaugenmerk auf der spezifischen nationalen Präferenzbildung in einem bestimmten Fall liegt. Hier weist Moravcsiks Theorie eine „Lücke“ auf. Wessen Interessen sich aus welchen Gründen in einer bestimmten Situation wie durchsetzen und damit Politik beeinflussen bleibt unklar. Deshalb erweitert die Arbeit Moravcsiks liberale Theorie der IB mithilfe von Annahmen und Erkenntnissen aus der Verbändeforschung nach innen. Auf diese Weise werden die situationsspezifischen Interessen und die situationsspezifische Durchsetzungsfähigkeit der betroffenen Akteure – nationale Interessengruppen – erhoben und untersucht, inwiefern man mit ihrer Hilfe die deutsche Position zur EU-Verordnung 443/2009 erklären kann. Empirisch erweist sich dabei, dass die Position der BRD zu acht von neun Streitfragen der EU-Verordnung 443/2009 den Interessen einer Koalition aus Industriegewerkschaft (IG) Metall und Verband der Automobilindustrie (VDA) entsprach, weil diese im vorliegenden Fall mit Abstand die größte Durchsetzungsfähigkeit aufwiesen. Lediglich bezüglich einer Streitfrage wich die Position der BRD von den Interessen von IG Metall und VDA ab. Damit lässt sich festhalten: Die Position der BRD zur EU-Verordnung 443/2009 kann weitgehend mithilfe der nach innen erweiterten liberalen Theorie nach Andrew Moravcsik erklärt werden. Trotz möglicher Schwierigkeiten bei der Übertragung erscheint daher eine Anwendung des nach innen erweiterten Liberalismus auf weitere erklärungsbedürftige Phänomene der internationalen Umweltpolitik und damit eine Überprüfung der Theorie insgesamt eine interessante und sinnvolle Aufgabe zu sein.
Resumo:
In der Arbeit wird die Wahlbeteiligung bei Europawahlen analysiert. Es geht um die Beantwortung der Frage, ob die individuelle Wahlteilnahme in alten und neuen EU-Mitgliedsstaaten bzw. alten und jungen Demokratien auf die gleichen Erklärungsgrößen zurückgeht oder ob möglicherweise Unterschiede zwischen beiden Ländergruppen bestehen. rnAls Bezugspunkt dient die Europawahl, die im Juni 2009 stattfand: Bei dieser Wahl fällt nicht nur die generell niedrige Beteiligung auf, sondern auch erhebliche Niveauunterschiede zwischen den einzelnen Mitgliedsstaaten. Um diesen Befund erklären zu können, wird zunächst ein theoretisches Erklärungsmodell entwickelt, das sich auf die folgenden fünf Dimensionen bezieht: politisches System der EU, europäische politische Gemeinschaft, Wählermobilisierung während des Europawahlkampfes, Gewohnheitswahl und Einschätzung der staatlichen sowie der eigenen wirtschaftlichen Lage. Als Erklärungsgröße werden in den fünf Bereichen jeweils unterschiedlich stark ausgeprägte Defizite in den beiden Ländergruppen angenommen. rnExemplarisch werden Deutschland und Polen untersucht. Die empirischen Analysen basieren auf dem umfangreichen Datensatz der European Election Study 2009 (ESS), hier werden die Daten der Voter Study verwendet. Nicht alle Hypothesen lassen sich im Rahmen der Arbeit bestätigten, nur ein Teil der unabhängigen Variablen hat auch im multivariaten Modell noch einen Einfluss auf die Europawahlbeteiligung. rnFür Deutschland zeigen die Ergebnisse, dass Wahlnorm und Wählermobilisierung einen größeren Effekt auf die Stimmabgabe ausüben als die Nutzenseite (Effektivität) der Wahlen. Im zweiten Modell, das für die polnischen Befragten berechnet wurde, erweisen sich nur zwei der unabhängigen Variablen als signifikant, d.h. nur die Einschätzung der Effektivität der Wahl und die internalisierte Wahlnorm haben einen Einfluss auf die Wahlteilnahme. Von der Effektivitätseinstufung geht eine größere Erklärungskraft aus als von der Wahlnorm; in diesem Modell überwiegt folglich die Nutzenseite der Europawahl. Es kann gezeigt werden, dass die unterschiedlichen Beteiligungsraten in den beiden Staaten durch unterschiedlich stark ausgeprägte Defizite in den Bereichen des politischen Systems und der Wahlnorm zustande kommen. Die Defizite sind in Polen stärker ausgeprägt und können so die niedrigere Wahlbeteiligung erklären. Darüber hinaus kann resümiert werden, dass die Nutzenseite der Europawahl in Polen einen stärkeren Einfluss auf die Beteiligung ausübt als in Deutschland.
Resumo:
Mittels gründlicher Literaturrecherchen wurde dokumentiert, wie Wissenschaft, Medien, Wirtschaft und Staatsregierungen den globalen Klimawandel seit der Industriellen Revolution bewertet haben. Dabei wurde der breite wissenschaftliche Konsens über die ausschlaggebende Rolle des Treibhauseffektes dokumentiert. Kontrovers dazu wurden aber auch anderslautende Meinungen über „natürliche Faktoren“ im Klimasystem aufgezeigt. Bedenken des Verfassers bestehen zur Praktikabilität des Kyoto-Protokolls und zur politischen Anwendbarkeit der IPCC-Berichte, die in der Gefahr stehen, durch ihre nicht ableitbaren Wahrscheinlichkeitsaussagen eine wissenschaftliche Neutralität vermissen zu lassen. Im Blick auf die Klimaschutzpolitik kann Deutschland in der Welt als Vorreiter mit Einschränkungen angesehen werden. Die anwendungsbezogene Klimaforschung wird in Deutschland gefördert, in den USA dagegen die Grundlagenforschung, was mit der Herkunft der Klimaskeptiker einhergeht, die vorwiegend aus dem angloamerikanischen Kulturkreis stammen und kaum aus Deutschland kommen. Dies spiegelt sich als roter Faden in den Forschungsergebnissen verschiedener Medienwissenschaftler wider, wonach die US-Medien im Gegensatz zu deutschen um eine Balance zwischen anthropogenen und natürlichen Ursachen des Klimawandels bemüht sind. Ein in den USA medial präsentierter scheinbarer Dissens der Klimaforschung findet sich als Abbild in heterogenen klimaschutzpolitischen Ausrichtungen der USA auf föderaler und bundesstaatlicher Ebene wieder, wohingegen sich in Deutschland der wissenschaftliche Konsens und die mediale Berichterstattung in einer homogenen Klimaschutzpolitik niederschlagen.