579 resultados para deliberativ diskussion
Resumo:
Einleitung: Die Besonderheiten in der Gesundheitsversorgung von gehörlosen Bürgerinnen und Bürgern in Deutschland sind weitgehend unbekannt. Schätzungsweise 41.500 bis zu 80.000 Menschen sind in Deutschland von Geburt an gehörlos oder früh ertaubt. Diese Gehörlosengemeinschaft verwendet vorrangig die Deutsche Gebärdensprache, die seit 2002 per Gesetzgebung als selbstständige Sprache in Deutschland amtlich anerkannt ist. Der Gesetzgeber hat vorgesehen, dass ein von der Krankenversicherung bezahlter Dolmetscher bei einem Arztbesuch bestellt werden kann. Erkenntnisse, inwieweit dies unter den Betroffenen bekannt ist und genutzt wird, liegen nicht vor. Ebenso sind Annahmen, dass gehörlose Patienten in einer vorrangig von Hörenden gestalteten Gesundheitsversorgung mutmaßlich auf Probleme, Barrieren und Vorurteile stoßen, in Deutschland nicht systematisch untersucht. Die vorliegende Arbeit gibt erstmalig anhand eines größeren Studienkollektivs einen sozialmedizinischen Einblick in den Gesundheitsversorgungszustand von Gehörlosen in Deutschland. Methodik: Im Rahmen einer Vorstudie wurden 2009 zunächst qualitative Experteninterviews geführt, um den Zustand der medizinischen Versorgung von Gehörlosen zu explorieren und Problemfelder zu identifizieren. Anschließend wurde für die Hauptstudie auf der Grundlage der Experteninterviews ein quantitativer Online-Fragebogen mit Gebärdensprachvideos entwickelt und erstmalig in der sozialmedizinischen Gehörlosenforschung eingesetzt. Die gehörlosen Teilnehmer wurden über etablierte Internetportale für Gehörlose und mit Hilfe von Gehörlosenverbänden und Selbsthilfegruppen sowie einer Pressemitteilung rekrutiert. Insgesamt wurden den Teilnehmern bis zu 85 Fragen zu sozioökonomischen Daten, Dolmetschernutzung, Arzt-Patienten-Beziehung und häufig auftretenden Problemen gestellt. Es wurden absolute und relative Häufigkeiten bestimmt und mittels Chi2-Test bzw. exaktem Fisher-Test auf geschlechtsspezifische Unterschiede geprüft. Alle Tests wurden zweiseitig mit der lokalen Irrtumswahrscheinlichkeit α = 0,05 durchgeführt. Ergebnisse: Am Ende der Feldphase verzeichnete die automatische Datenbank 1369 vollständig bearbeitete Fragebögen. 843 entsprachen den a-priori definierten Auswertungskriterien (volljährige Personen, gehörlos, keine fehlenden Angaben in wesentlichen Zielfragen). Häufigstes Ausschlusskriterium war ein anderer Hörstatus als Gehörlosigkeit. Etwa die Hälfte der 831 Teilnehmer (45,1% bzw. 52,8%) schätzte trotz ausreichender Schulbildung ihre Lese- bzw. Schreibkompetenz als mäßig bis schlecht ein. Zeitdruck und Kommunikationsprobleme belasteten bei 66,7% und 71,1% der Teilnehmer bereits einmal einen Arztbesuch. Von 56,6% der Teilnehmer wurde angegeben, dass Hilflosigkeits- und Abhängigkeitsgefühle beim Arztbesuch auftraten. Falsche Diagnosen auf Grund von Kommunikationsproblemen wurden von 43,3% der Teilnehmer vermutet. 17,7% der Teilnehmer gaben an, sich bereits einmal aktiv um psychotherapeutische Unterstützung bemüht zu haben. Gebärdensprachkompetente Ärzte wären optimal um die Kommunikation zu verbessern, aber auch Dolmetscher spielen eine große Rolle in der Kommunikation. 31,4% der gehörlosen Teilnehmer gaben jedoch an, nicht über die aktuellen Regelungen zur Kostenübernahme bei Dolmetschereinsätzen informiert zu sein. Dies betraf besonders jüngere, wenig gebildete und stark auf die eigene Familie hin orientierte Gehörlose. Wesentliche geschlechtsspezifische Unterschiede konnten nicht festgestellt werden. Diskussion: Geht man von etwa 80.000 Gehörlosen in Deutschland aus, konnten mit der Mainzer Gehörlosen-Studie etwa 1% aller Betroffenen erreicht werden, wobei Selektionsverzerrungen zu diskutieren sind. Es ist anzunehmen, dass Personen, die nicht mit dem Internet vertraut sind, selten bis gar nicht teilgenommen haben. Hier könnten Gehörlose mit hohem Alter sowie möglicherweise mit niedriger Schreib- und Lesekompetenz besonders betroffen sein. Eine Prüfung auf Repräsentativität war jedoch nicht möglich, da die Grundgesamtheit der Gehörlosen mit sozioökonomischen Eckdaten nicht bekannt ist. Die dargestellten Ergebnisse weisen erstmalig bei einem großen Studienkollektiv Problembereiche in der medizinischen Versorgung von Gehörlosen in Deutschland auf: Gehörlose Patienten laufen Gefahr, ihren Arztbesuch durch vielfältige Kommunikationsbarrieren und Missverständnisse als Zumutung zu erleben. Eine Informationskampagne unter Ärzten könnte helfen, diese Situation zu verbessern. Dolmetscher können die Kommunikation zwischen Arzt und Patient enorm verbessern, die gesetzlich geregelte Kostenübernahme funktioniert dabei in der Regel auch problemlos. Allerdings gibt es noch viele Gehörlose, die nicht über die Regelungen zur Dolmetscherunterstützung informiert sind und die Dienste entsprechend nicht nutzen können. Hier muss es weitere Bemühungen geben, die Gehörlosen aufzuklären, um ihnen eine barrierefreie Nutzung von gesundheitsbezogenen Leistungen zu ermöglichen.
Resumo:
Dass Jugenddelinquenz eine ubiquitäre und ganz überwiegend nur passagere Erscheinungsform im Sozialisationsprozess ist, hat in den letzten Jahrzehnten eine Reduzierung formeller Verfahren gegen junge Straftäter bedingt. Empirische Studien haben bestätigt, dass gerade eine frühzeitige Verfahrenseinstellung die Rückfallquote verringert, so dass sich die Chance einer Legalbewährung bei informeller Erledigung besser darstellt als nach einer förmlichen Verurteilung. Damit werden Gefahren einer Wirkungsdynamik reduziert, die letztlich neue Rechtsbrüche begünstigen könnten. Die Wahl informeller Alternativen ist zudem geeignet, den Übergang zum Makel formeller Sanktionierung zu vermeiden bzw. zu verzögern und die stigmatisierende Wirkung förmlicher Strafverfahren zu reduzieren.rnIn der Diskussion um die Bewältigung der Alltags- und Bagatellkriminalität wird immer wieder die Frage nach der Einheitlichkeit der Rechtsanwendung des § 45 JGG aufgeworfen. Zur Beantwortung dieser Frage werden die von fast alle Bundesländern verabschiedeten Diversionsrichtlinien einer Untersuchung unterzogen.rnDiese findet zunächst anhand eines ausführlichen Textvergleichs der einzelnen Diversionsrichtlinien statt, gefolgt von einer Darstellung der Sanktionierungspraxis in Deutschland in den Jahren 1999 bis 2007, wobei zunächst die Häufigkeiten informeller Erledigungen im Jugendstrafrecht und im allgemeinen Strafverfahren für das gesamte Bundesgebiet betrachtet und dann ein Vergleich der Häufigkeiten informeller Erledigungen im Jugendstrafrecht und im allgemeinen Strafverfahren auf der Ebene der Bundesländer dargestellt wird.rnAls Ergebnis dieser Analyse kann festgehalten werden, dass der bisherige Versuch, eine einheitliche Entkriminalisierung auf Bundesebene aufgrund der bestehenden, von den einzelnen Bundesländern geschaffenen Diversions-Richtlinien zu schaffen, als teilweise gescheitert angesehen werden.rn
Resumo:
Der Forschungsgegenstand der vorliegenden Arbeit war die Identifikation und Interpretation von Traumata an menschlichen Skeletten. Neben einer umfassenden Darstellung des aktuellen Kenntnisstandes unter verschiedenen Gesichtspunkten wurden menschliche Überreste aus der Schlacht von Dornach 1499 n. Chr. untersucht. Ergänzend wurde eine Versuchsreihe mit Replika mittelalterlicher Waffen an Kunstköpfen durchgeführt. Für die Ansprache und Kategorisierung von Traumata an Skelettfunden existiert kein einheitliches und allgemein gebräuchliches System. Die verschiedenen Herangehensweisen und ihre Vor- und Nachteile wurden benannt und diskutiert. Nachfolgend wurden die Erscheinungsformen prä-, peri- und postmortaler Traumata bzw. Defekte sowie von Verletzungen durch stumpfe und scharfe Gewalt, Schussverletzungen und anderen Verletzungsarten dargestellt. Weitere besprochene Aspekte waren die Abgrenzung von Traumata gegen pathologische Veränderungen und anatomische Varianten sowie eine Diskussion der Methodik und Problematik der Erfassung von Verletzungsfrequenzen. Neben der Bestimmung von Geschlecht, Sterbealter und Körperhöhe wurden an den zur Untersuchung zur Verfügung stehenden Schädeln (N=106) und Femora (N=33) aus der Schlacht von Dornach 1499 n. Chr. pathologische und postmortale Veränderungen sowie als Schwerpunkt prä- und perimortale Traumata identifiziert und beschrieben. Die anthropologischen Befunde zeichneten das Bild einer in Hinsicht auf Sterbealter und Körperhöhe heterogenen Gruppe von Männern mit wenigen pathologischen Veränderungen. Die Ergebnisse wurden vor dem Hintergrund des spätmittelalterlichen Söldnerwesens diskutiert. An den Schädeln wurden insgesamt 417 perimortale Traumata identifiziert, wobei Hiebverletzungen stark überwogen. Die Entstehungsweise charakteristischer Merkmale von Hiebverletzungen konnte experimentell nachvollzogen werden. Weiter stellte sich heraus, dass Hiebverletzungen durch Schwerter und Hellebarden nur in Ausnahmefällen voneinander unterschieden werden können. Verletzungen durch punktuelle Einwirkungen und stumpfe Gewalt sowie Schussverletzungen wurden in weitaus geringerer Häufigkeit festgestellt. Experimentell konnte gezeigt werden, dass die Verletzungen durch punktuelle Einwirkungen mit einer Beibringung durch Langspiesse, Stossspitzen und Reisshaken von Hellebarden sowie Armbrustbolzen vereinbar sind, wobei beträchtliche Limitationen einer genaueren Waffenzuordnung offenkundig wurden. Die Verletzungen konnten als wohl typisch für die damalige Zeit bezeichnet werden, da sie das zeitgenössische Waffenspektrum deutlich widerspiegeln. Die Lokalisation der perimortalen Traumata am Schädel liess kein Muster erkennen, mit Ausnahme der Feststellung, dass grössere Schädelknochen mehr Verletzungen aufwiesen als kleinere. Diese regellose Verteilung wurde als Hinweis darauf verstanden, dass die Kampfweise keine „ritterliche“ gewesen sein dürfte, was in Einklang mit den damals geltenden Kriegsordnungen steht. Postmortale Veränderungen unterschiedlicher Art liessen vermuten, dass die untersuchten Individuen nicht bestattet wurden und dass die vom Schlachtfeld aufgesammelten Gebeine in Beinhäusern aufbewahrt wurden. Die Resultate bestätigten damit Angaben aus Schriftquellen und erlaubten die Zuordnung der Skelettreste zu Gefallenen des Reichsheeres. Beim Vergleich der Dornacher Stichprobe mit anderen mittelalterlichen Schlachtfeldserien traten sowohl hinsichtlich der anthropologischen Befunde als auch im Hinblick auf die Verletzungen und Verletzungsmuster deutliche Ähnlichkeiten zutage. Diese ergänzten nicht nur das lückenhafte Bild spätmittelalterlicher Heere und ihrer Kampfweise, sondern beleuchteten auch Unterschiede zwischen mittelalterlicher und neuzeitlicher Kriegsführung.
Resumo:
Die vorliegende Arbeit zeigt anhand von Einzelfällen, welche Probleme und Folgen eine Ausweisung und/oder Abschiebung von kriminell gewordenen Angehörigen der sogenannten zweiten Generation türkischer Staatsangehöriger im Hinblick auf deren Eingliederung in die türkische Gesellschaft mit sich bringt.rnDem Bereich der Ausweisung und/oder Abschiebung – beides Formen von Zwangsmigration – ausländischer Staatsangehöriger in ihr Herkunftsland wurde bislang im weiten Feld der Integrationsforschung kaum Aufmerksamkeit geschenkt. Nicht anders verhält es sich in der politischen und öffentlichen Diskussion, wenn es um die „Entfernung“ kriminell gewordener Ausländer, die mitunter in Deutschland geboren und aufgewachsen sind oder sich bereits viele Jahre in der Bundesrepublik aufhalten, aus dem Bundesgebiet geht. Bei dieser Diskussion wird zwar die Bestrafung kriminell gewordener Ausländer mittels Ausweisung und/oder Abschiebung vorschnell befürwortet, besonders in solch spektakulären Fällen, wie in dem des Jugendlichen Muhlis Arı, genannt „Mehmet“ oder in dem des als „Münchner U-Bahn Schläger“ bekannt gewordenen Serkan. Die weitreichenden Folgen für den Einzelnen werden in der Regel jedoch nicht tiefergehend betrachtet.rnDeshalb steht im Zentrum dieser Arbeit die Frage, wie sich die Eingliederung von in Deutschland geborenen und hier aufgewachsenen Nachkommen der „Gastarbeiter“-Generation sowie später nachgeholter Kinder im Anschluss an eine Ausweisung und/oder Abschiebung in die türkische Gesellschaft gestaltet. Die theoretische Grundlage der Untersuchung bilden vier theoretische Konzepte zu Integration, Fremdheit und Marginalität. Dabei handelt es sich um die „Integrationstheorie“ von Hartmut Esser, das Konzept des „bleibenden Fremden“ von Georg Simmel, das des „einwandernden Fremden“ von Alfred Schütz sowie um das Konzept des „marginal man“ von Robert E. Park. Auf Basis dieser vier theoretischen Konzepte und der Auswertung des erhobenen empirischen Datenmaterials wird deutlich, dass hohe soziale Barrieren auf Seiten der Mitglieder der türkischen Aufnahmegesellschaft, mangelnde integrationsförderliche Opportunitäten, aber auch eine geringe Motivation auf Seiten der Betroffenen zur Aufnahme integrationsförderlicher Handlungen eine Integration verhindern. Die von Ausweisung und/oder Abschiebung Betroffenen sind letztlich dazu gezwungen, dauerhaft ein Leben am Rande der Gesellschaft in der Marginalität zu führen.rn
Resumo:
Die vorliegende Arbeit ist ein Beitrag zur Neologismenforschung und Neologismenlexikografie (Neografie). Wiewohl letztere eine Entwicklung der 2. Hälfte des 20. Jh. ist, erlebt sie in den slavischen Sprachen vor allem nach den politischen Veränderungen der Jahre 1989/90 einen enormen Auftrieb, der in der Herausgabe neuer Neologismenwörterbücher mündet. Mit der Entwicklung der lexikografischen Praxis hat die Wörterbuchtheorie bislang nicht Schritt halten können. Anliegen dieser Arbeit ist es, zur Schließung dieser Lücke im Bereich der Makro- und Mediostruktur beizutragen. Grundlage der Untersuchung bilden knapp 60 einsprachige und 11 zweisprachige Neologismenwörterbücher und -listen des Polnischen, Russischen, Tschechischen, Deutschen und punktuell des Bulgarischen.rnDie im ersten Schritt durchgeführte Analyse der lexikologischen und lexikografischen Charakteristika der Erscheinung 'Neologismus' zeigt, dass in der Linguistik weitestgehend Konsens über den Begriff 'Neologismus' herrscht und dass die lexikologische Diskussion des Neologismusbegriffs zahlreiche Impulse durch die praktische Neologismenlexikografie erhalten hat.rnIm Rahmen der lexikografischen Bestandsaufnahme und Bestimmung der Erscheinung 'Neologismenlexikografie' bzw. 'Neografie' wird ein Modell entwickelt, das erlaubt, von einer Neografie im weiten und einer im engen Sinne, also von einem Zentrum und einer Peripherie der Neografie, zu sprechen. Die Zielsetzungen von Neologismenwörterbüchern sind primär, den neuen Wortschatz schnell und ausführlich zu registrieren und lexikografisch zu beschreiben, um so der Allgemeinlexikografie, der Forschung sowie der interessierten Öffentlichkeit entsprechende Informationen über die neue Lexik zeitnah zur Verfügung zu stellen.rnDie Untersuchung der Neologismenforschung und Neologismenlexikografie des Polnischen ergibt, dass der Neologismusbegriff in der polnischen Linguistik ähnlich wie in den übrigen untersuchten Sprachen betrachtet wird. Im Bereich der Neografie weist das Polnische zwar wichtige lexikografische Vorarbeiten auf, doch erst die Form der Bearbeitung von Neologismen im gerade entstehenden elektronischen Großwörterbuch des Polnischen und im geplanten einsprachigen Neologismenwörterbuch wird zeigen, ob es zu einer "Emanzipation" der polnischen Neografie gegenüber der Allgemeinlexikografie gekommen ist.rnDie Diskussion der makro- und mediostrukturellen Fragen zeigt, dass Aspekte wie Zusammenstellung der Wörterbuchbasis und die Kriterien für die Stichwortauswahl sowohl für gedruckte wie elektronische Neologismenwörterbücher dieselbe Geltung haben. Als wesentlich erweist sich in der Neografie das Aufzeigen der komplexen lexikalisch-semantischen Verflechtungen der neuen Wörter untereinander und mit etablierten Lexemen. Hier ergeben sich für die Neografie durch das elektronische Medium beträchtliche Möglichkeiten. Ein großes Potential stellen auch die einfachere Verknüpfbarkeit von Neologismen mit anderen lexikografischen und nicht-lexikografischen Ressourcen sowie die Entwicklung von individuellen Abfragemöglichkeiten über Drop-down-Menüs dar. Das elektronische Medium eröffnet auch die Option, auf die Herausgabe von Neologismenwörterbüchern zu verzichten und den neuen Wortschatz ausschließlich im Rahmen von elektronischen Allgemeinwörterbüchern zeitnah zu präsentieren – Voraussetzung hierfür ist allerdings eine durchgehende chronologische Markierung des Wortschatzes.
Resumo:
Die vorliegende Arbeit möchte die Anwendbarkeit ladungsstabilisierter kolloidaler Systeme als Modellsysteme für fundamentale Fragen der Festkörperphysik und Thermodynamik auf binäre Mischungen erweitern. In diesem Kontext untersucht sie das Phasenverhalten und mit ihm im Zusammenhang stehende Eigenschaften von binären Mischungen ladungsstabilisierter, sphärischer kolloidaler Partikel in wässriger Suspension. Da das Verhalten hartkugelähnlicher Systeme durch hohe Fremdionenkonzentrationen bereits gut bekannt ist, konzentriert sich diese Arbeit auf sehr langreichweitig repulsive Systeme unter deionisierten Bedingungen. Neben etablierten Methoden der Mikroskopie und statischer Lichtstreuung zur Phasendiagrammsbestimmung wird auch die Beobachtung der zeitabhängigen Entwicklung des Schermoduls verwendet, um eine langsame Erstarrungskinetik zu studieren. Es werden insbesondere Mischungen aus Komponenten unterschiedlicher Größe und Ladung der Größenverhältnisse 0,9, 0,82, 0,57, 0,39 und 0,37 untersucht. Diese zeigen in dieser Reihenfolge Phasendiagramme mit spindelförmigem fluid/kristallinen Koexistenzbereich wie auch azeotrope und eutektische Phasendiagramme. Die Strukturuntersuchungen aus der statischen Lichtstreuung stehen in praktisch allen Fällen im Einklang mit ungeordneten bcc- Substitutionskristallen, was über Modelle zu Schermodulmessungen bestätigt wird. Für das spindelförmige System wird ein überraschend weiter Koexistenzbereich beobachtet, wie er nicht von der Theorie erwartet wird. Die Lage, aber nicht die Form des Solidus stimmt quantitativ mit Simulationsvorhersagen zu einkomponentigen Systemen überein. Für das eutektische System bei einem Radienverhältnis von 0,57 wird der Einfluss der Schwerkraft auf das Phasenverhalten und die Erstarrungskinetik untersucht. Die der Kristallisation der kleineren Majoritätskomponente vorgelagerte gravitativ unterstützte Entmischung begünstigt hier die Verfestigung. Beobachtet werden Morphologien, die aus anderen Systemen bekannt sind (Facetten, Dendriten), wie auch erstmals eine kollumnare eutektische Morphologie. Aus den Ergebnissen wird der erste umfassende Überblick über das Phasenverhalten deionisierter Mischungen ladungsstabilisierter, sphärischer Partikel erstellt, die eine Diskussion der Daten anderer Autoren und unserer Gruppe über fluid-fluider Phasenseparation und einem System mit oberem azeotropen Punkt mit einschließt. Die meisten metallspezifischen Phasendiagrammtypen können mit ladungsstabilisierten kolloidalen Partikeln reproduziert werden. Die langreichweitig wechselwirkenden Partikel zeigt eine wesentlich verbesserte substitutionelle Mischbarkeit im Vergleich mit Hartkugel- und Metallsystemen. Das Größenverhältnis der sphärischen Partikel nimmt dabei die bestimmende Rolle für den Phasendiagrammtyp ein.
Resumo:
Plasmonen sind die kollektive resonante Anregung von Leitungselektronen. Vom Licht angeregternPlasmonen in subwellenlängen-grossen Nanopartikeln heissen Partikelplasmonen und sind vielversprechende Kandidaten für zukünftige Mikrosensoren wegen der starken Abhängigkeit der Resonanz an extern steuerbaren Parametern, wie die optischen Eigenschaften des umgebenden Mediums und die elektrische Ladung der Nanopartikel. Die extrem hohe Streue_zienz von Partikelplasmonen erlaubt eine einfache Beobachtung einzelner Nanopartikel in einem Mikroskop.rnDie Anforderung, schnell eine statistisch relevante Anzahl von Datenpunkten sammeln zu können,rnund die wachsende Bedeutung von plasmonischen (vor allem Gold-) Nanopartikeln für Anwendungenrnin der Medizin, hat nach der Entwicklung von automatisierten Mikroskopen gedrängt, die im bis dahin nur teilweise abgedeckten spektralen Fenster der biologischen Gewebe (biologisches Fenster) von 650 bis 900nm messen können. Ich stelle in dieser Arbeit das Plasmoscope vor, das genau unter Beobachtung der genannten Anforderungen entworfen wurde, in dem (1) ein einstellbarer Spalt in die Eingangsö_nung des Spektrometers, die mit der Bildebene des Mikroskops zusammenfällt, gesetzt wurde, und (2) einem Piezo Scantisch, der es ermöglicht, die Probe durch diesen schmalen Spalt abzurastern. Diese Verwirklichung vermeidet optische Elemente, die im nahen Infra-Rot absorbieren.rnMit dem Plasmoscope untersuche ich die plasmonische Sensitivität von Gold- und Silbernanostrnäbchen, d.h. die Plasmon-Resonanzverschiebung in Abhängigkeit mit der Änderung des umgebendenrnMediums. Die Sensitivität ist das Mass dafür, wie gut die Nanopartikeln Materialänderungenrnin ihrer Umgebung detektieren können, und damit ist es immens wichtig zu wissen, welche Parameterrndie Sensitivität beein_ussen. Ich zeige hier, dass Silbernanostäbchen eine höhere Sensitivität alsrnGoldnanostäbchen innerhalb des biologischen Fensters besitzen, und darüberhinaus, dass die Sensitivität mit der Dicke der Stäbchen wächst. Ich stelle eine theoretische Diskussion der Sensitivitätrnvor, indenti_ziere die Materialparameter, die die Sensitivität bein_ussen und leite die entsprechendenrnFormeln her. In einer weiteren Annäherung präsentiere ich experimentelle Daten, die die theoretische Erkenntnis unterstützen, dass für Sensitivitätsmessschemata, die auch die Linienbreite mitberücksichtigen, Goldnanostäbchen mit einem Aspektverhältnis von 3 bis 4 das optimalste Ergebnis liefern. Verlässliche Sensoren müssen eine robuste Wiederholbarkeit aufweisen, die ich mit Gold- und Silbernanostäbchen untersuche.rnDie Plasmonen-resonanzwellenlänge hängt von folgenden intrinsischen Materialparametern ab:rnElektrondichte, Hintergrundpolarisierbarkeit und Relaxationszeit. Basierend auf meinen experimentellen Ergebnissen zeige ich, dass Nanostäbchen aus Kupfer-Gold-Legierung im Vergleich zu ähnlich geformten Goldnanostäbchen eine rotverschobene Resonanz haben, und in welcher Weiserndie Linienbreite mit der stochimetrischen Zusammensetzung der legierten Nanopartikeln variiert.rnDie Abhängigkeit der Linienbreite von der Materialzusammensetzung wird auch anhand von silberbeschichteten und unbeschichteten Goldnanostäbchen untersucht.rnHalbleiternanopartikeln sind Kandidaten für e_ziente photovoltaische Einrichtungen. Die Energieumwandlung erfordert eine Ladungstrennung, die mit dem Plasmoscope experimentell vermessen wird, in dem ich die lichtinduzierte Wachstumsdynamik von Goldsphären auf Halbleiternanost äbchen in einer Goldionenlösung durch die Messung der gestreuten Intensität verfolge.rn
Resumo:
Efficient energy storage and conversion is playing a key role in overcoming the present and future challenges in energy supply. Batteries provide portable, electrochemical storage of green energy sources and potentially allow for a reduction of the dependence on fossil fuels, which is of great importance with respect to the issue of global warming. In view of both, energy density and energy drain, rechargeable lithium ion batteries outperform other present accumulator systems. However, despite great efforts over the last decades, the ideal electrolyte in terms of key characteristics such as capacity, cycle life, and most important reliable safety, has not yet been identified. rnrnSteps ahead in lithium ion battery technology require a fundamental understanding of lithium ion transport, salt association, and ion solvation within the electrolyte. Indeed, well-defined model compounds allow for systematic studies of molecular ion transport. Thus, in the present work, based on the concept of ‘immobilizing’ ion solvents, three main series with a cyclotriphosphazene (CTP), hexaphenylbenzene (HBP), and tetramethylcyclotetrasiloxane (TMS) scaffold were prepared. Lithium ion solvents, among others ethylene carbonate (EC), which has proven to fulfill together with pro-pylene carbonate safety and market concerns in commercial lithium ion batteries, were attached to the different cores via alkyl spacers of variable length.rnrnAll model compounds were fully characterized, pure and thermally stable up to at least 235 °C, covering the requested broad range of glass transition temperatures from -78.1 °C up to +6.2 °C. While the CTP models tend to rearrange at elevated temperatures over time, which questions the general stability of alkoxide related (poly)phosphazenes, both, the HPB and CTP based models show no evidence of core stacking. In particular the CTP derivatives represent good solvents for various lithium salts, exhibiting no significant differences in the ionic conductivity σ_dc and thus indicating comparable salt dissociation and rather independent motion of cations and ions.rnrnIn general, temperature-dependent bulk ionic conductivities investigated via impedance spectroscopy follow a William-Landel-Ferry (WLF) type behavior. Modifications of the alkyl spacer length were shown to influence ionic conductivities only in combination to changes in glass transition temperatures. Though the glass transition temperatures of the blends are low, their conductivities are only in the range of typical polymer electrolytes. The highest σ_dc obtained at ambient temperatures was 6.0 x 10-6 S•cm-1, strongly suggesting a rather tight coordination of the lithium ions to the solvating 2-oxo-1,3-dioxolane moieties, supported by the increased σ_dc values for the oligo(ethylene oxide) based analogues.rnrnFurther insights into the mechanism of lithium ion dynamics were derived from 7Li and 13C Solid- State NMR investigations. While localized ion motion was probed by i.e. 7Li spin-lattice relaxation measurements with apparent activation energies E_a of 20 to 40 kJ/mol, long-range macroscopic transport was monitored by Pulsed-Field Gradient (PFG) NMR, providing an E_a of 61 kJ/mol. The latter is in good agreement with the values determined from bulk conductivity data, indicating the major contribution of ion transport was only detected by PFG NMR. However, the μm-diffusion is rather slow, emphasizing the strong lithium coordination to the carbonyl oxygens, which hampers sufficient ion conductivities and suggests exploring ‘softer’ solvating moieties in future electrolytes.rn
Resumo:
In der vorliegenden Arbeit werden verschiedene, insbesondere zeitliche Aspekte des Blickrichtungsnacheffekts (gaze aftereffect) untersucht. Dieser Effekt besagt, dass nach längerer Betrachtung von Bildern, die Personen mit abgewandtem Blick zeigen, die Wahrnehmung von Blickrichtungen in Richtung des adaptierten Blickes verschoben ist. Betrachter halten dann zugewandte Blicke fälschlicherweise für in die Gegenrichtung verschoben, und Blicke in die Adaptationsblickrichtung fälschlicherweise für geradeaus, d.h. sie fühlen sich angeschaut, obwohl sie es nicht werden. In dieser Dissertation wird der Blickrichtungsnacheffekt mit vier psychophysischen Experimenten untersucht, in denen die Probanden einfache kategoriale Urteile über die Blickrichtung der Testbilder abzugeben hatten.rnrnDas erste Experiment untersucht die Induktion des Blickrichtungsnacheffekts. Es wird gezeigt, dass keine separate Adaptationsphase für die Induktion des Nacheffekts notwendig ist. Auch die alleinige, relativ kurze Darbietung des zur Adaptation verwendeten Reizes (TopUp-Display) vor der Präsentation eines Testbildes führt im Laufe wiederholter experimenteller Darbietungen zu einer Verschiebung der allgemeinen Blickrichtungs-Tuningkurve, sowie zu ihrer Verbreiterung. In einem zweiten Experiment wird nachgewiesen, dass die Ausprägung des Blickrichtungsnacheffekts von der jeweiligen Darbietungszeit des Adaptationsreizes abhängt. Zwar ist der Nacheffekt umso stärker, je länger das TopUp-Display gezeigt wird. Aber auch bei sehr kurzen Darbietungszeiten von einer Sekunde kommt der Effekt bereits zustande, hier zeigt sich eine lokal begrenztere Wirkung. Die Auswertung des zeitlichen Verlaufs ergibt, dass sich der Effekt rasch vollständig aufbaut und bereits innerhalb der ersten Darbietungen entsteht. Das dritte Experiment zeigt, dass dem Nacheffekt sowohl kurzfristige Einwirkungen der direkt vor dem Testbild erfolgten Reizung zugrunde liegen, als auch langfristige Memory-Effekte, die über die im Laufe des Experiments gegebenen Wiederholungen akkumuliert werden. Bei Blickwinkeln von 5° halten sich kurzfristige und langfristige Einwirkungen in etwa die Waage. Bei Blickwinkeln von 10° aber sind nur knapp 20% kurzfristig, und etwa 80% langfristige Einwirkungen für den Effekt verantwortlich. In einem vierten Experiment wird die zeitliche Rückbildung des Effekts untersucht und gezeigt, dass sich der Blickrichtungsnacheffekt im Kontrast zu seiner schnellen Entstehung langsam, nämlich innerhalb mehrerer Minuten zurückbildet.rnrnDie Diskussion der Ergebnisse kommt zu dem Schluss, dass die hier gefundene zeitliche Dynamik des Blickrichtungsnacheffekts Adaptationsprozesse auf höheren Schichten der visuellen Informationsverarbeitung als die zugrunde liegenden Mechanismen nahe legt.
Resumo:
Tonalite-trondhjemite-granodiorite (TTG) gneisses form up to two-thirds of the preserved Archean continental crust and there is considerable debate regarding the primary magmatic processes of the generation of these rocks. The popular theories indicate that these rocks were formed by partial melting of basaltic oceanic crust which was previously metamorphosed to garnet-amphibolite and/or eclogite facies conditions either at the base of thick oceanic crust or by subduction processes.rnThis study investigates a new aspect regarding the source rock for Archean continental crust which is inferred to have had a bulk compostion richer in magnesium (picrite) than present-day basaltic oceanic crust. This difference is supposed to originate from a higher geothermal gradient in the early Archean which may have induced higher degrees of partial melting in the mantle, which resulted in a thicker and more magnesian oceanic crust. rnThe methods used to investigate the role of a more MgO-rich source rock in the formation of TTG-like melts in the context of this new approach are mineral equilibria calculations with the software THERMOCALC and high-pressure experiments conducted from 10–20 kbar and 900–1100 °C, both combined in a forward modelling approach. Initially, P–T pseudosections for natural rock compositions with increasing MgO contents were calculated in the system NCFMASHTO (Na2O–CaO–FeO–MgO–Al2O3–SiO2–H2O–TiO2) to ascertain the metamorphic products from rocks with increasing MgO contents from a MORB up to a komatiite. A small number of previous experiments on komatiites showed the development of pyroxenite instead of eclogite and garnet-amphibolite during metamorphism and established that melts of these pyroxenites are of basaltic composition, thus again building oceanic crust instead of continental crust.rnThe P–T pseudosections calculated represent a continuous development of their metamorphic products from amphibolites and eclogites towards pyroxenites. On the basis of these calculations and the changes within the range of compositions, three picritic Models of Archean Oceanic Crust (MAOC) were established with different MgO contents (11, 13 and 15 wt%) ranging between basalt and komatiite. The thermodynamic modelling for MAOC 11, 13 and 15 at supersolidus conditions is imprecise since no appropriate melt model for metabasic rocks is currently available and the melt model for metapelitic rocks resulted in unsatisfactory calculations. The partially molten region is therfore covered by high-pressure experiments. The results of the experiments show a transition from predominantly tonalitic melts in MAOC 11 to basaltic melts in MAOC 15 and a solidus moving towards higher temperatures with increasing magnesium in the bulk composition. Tonalitic melts were generated in MAOC 11 and 13 at pressures up to 12.5 kbar in the presence of garnet, clinopyroxene, plagioclase plus/minus quartz (plus/minus orthopyroxene in the presence of quartz and at lower pressures) in the absence of amphibole but it could not be explicitly indicated whether the tonalitic melts coexisting with an eclogitic residue and rutile at 20 kbar do belong to the Archean TTG suite. Basaltic melts were generated predominantly in the presence of granulite facies residues such as amphibole plus/minus garnet, plagioclase, orthopyroxene that lack quartz in all MAOC compositions at pressures up to 15 kbar. rnThe tonalitic melts generated in MAOC 11 and 13 indicate that thicker oceanic crust with more magnesium than that of a modern basalt is also a viable source for the generation of TTG-like melts and therefore continental crust in the Archean. The experimental results are related to different geologic settings as a function of pressure. The favoured setting for the generation of early TTG-like melts at 15 kbar is the base of an oceanic crust thicker than existing today or by melting of slabs in shallow subduction zones, both without interaction of tonalic melts with the mantle. Tonalitic melts at 20 kbar may have been generated below the plagioclase stability by slab melting in deeper subduction zones that have developed with time during the progressive cooling of the Earth, but it is unlikely that those melts reached lower pressure levels without further mantle interaction.rn
Resumo:
Seit Jahren werden Diskussionen über Erfolgskontrolle in der kommunalen Wirtschaftsförderung geführt. Im Vordergrund steht dabei die Suche nach Indikatoren und Verfahren, die es den kommunalen Wirtschaftsförderungen ermöglichen sollen, Erfolge zu messen. rnDa die Wirtschaftsförderung zu den freiwilligen Leistungen einer Gemeinde zählt, erhöht sich der Druck der Rechtfertigung gegenüber der Öffentlichkeit oder der Politik, das gilt insbesondere in Zeiten knapper öffentlicher Haushalte. Firmenansiedlungen, eine positive wirtschaftliche Entwicklung oder eine geringe Arbeitslosenquote sind sowohl im öffentlichen Bewusstsein als auch in der Politik wesentliche Kriterien einer erfolgreichen Wirtschaftsförderung. Sich ständig ändernde Rahmenbedingungen im wirtschaftsstrukturellen Gefüge haben dazu geführt, dass diese klassischen Nachweise von Erfolg immer seltener als solche präsentiert werden können. Erfolge sollten dennoch gemessen werden, um Maßnahmen und Instrumente einer kommunalen Wirtschaftsförderung zu überprüfen und gegebenenfalls an die geänderten Bedingungen anzupassen. rnEs ist schon mehr als 30 Jahre her, als in den 1970er Jahren die Suche nach Methoden und Verfahren der Erfolgskontrolle in der öffentlichen Verwaltung begann. Erfolge von kommunaler Wirtschaftsförderung können nicht einfach und ausschließlich an den markantesten wirtschaftlichen Ziffern der Kommune gemessen werden, z. B. der Zahl der sozialversicherungspflichtigen Arbeitsplätze. Seit Jahren wird um einen Lösungsweg bei der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung gerungen, abschließend wurde jedoch noch kein vollends befriedigend praktikabler Weg gefunden. Zu hinterfragen ist vor dem Hintergrund, inwiefern die vier Elemente einer Erfolgskontrolle, nämlich die Zielerreichungs-, Vollzugs-, Bedingungs- und Wirkungskontrolle, tatsächlich und hinreichend zum Einsatz kommen können.rnDie vorliegenden empirischen Untersuchungen beleuchten nun das Thema aus Sicht der kommunalen Wirtschaftsförderer und liefern Ergebnisse, die zu einem veränderten Bewusstsein gegenüber der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung führen müssten. Unabhängig von der Organisationsform und der Größe einer kommunalen Wirtschaftsförderung lässt sich empirisch nachweisen, dass der Anspruch, den der Begriff der Erfolgskontrolle in seiner gängigen Beschreibung erhebt, nicht hinreichend von einer kommunalen Wirtschaftsförderung erfüllt werden kann. rnMit Hilfe des neu entwickelten Prozesses einer modifizierten Erfolgskontrolle wird in vorliegender Arbeit ein idealtypischer Ablauf für eine kommunale Wirtschaftsförderung dargestellt. Der neue Ansatz einer modifizierten Erfolgskontrolle ist eine konsequente Reduzierung der Anforderungen auf das Praktikable und führt dazu, dass Erfolge der kommunalen Wirtschaftsförderung dargestellt werden können, ohne dass das Verfahren mehr Fragen offen lässt, als es beantwortet. Durch die modifizierte Erfolgskontrolle können die spezifischen Erfolge einer kommunalen Wirtschaftsförderung dargestellt und dokumentiert werden. rnEine modifizierte Erfolgskontrolle kann zweierlei: Sie ist eine Hilfestellung für die politisch Verantwortlichen bei der Erkenntnis, dass eine Notwendigkeit nach konkreten und der Ist-Situation sowie den Randbedingungen angepassten Zielformulierungen besteht. Sie bietet aber auch eine Möglichkeit, dass die kommunalen Wirtschaftsförderungseinrichtungen dem in der öffentlichen Diskussion formulierten Anspruch nach Erfolgskontrolle mit einem hohen Grad an Praktikabilität gerecht werden können. rnBevor also viele kommunale Wirtschaftsförderungen durch die fragwürdige Forderung an eine Erfolgskontrolle aufgrund der zu hohen Anforderungen an Methodik, Zeit und Personal aufgeben, sollte ihnen die Konzentration auf das Praktikable wieder Anreiz sein, eine modifizierte Erfolgskontrolle nach dem neuen Prozessschema in Angriff zu nehmen. rnrn
Resumo:
The thesis deals with numerical algorithms for fluid-structure interaction problems with application in blood flow modelling. It starts with a short introduction on the mathematical description of incompressible viscous flow with non-Newtonian viscosity and a moving linear viscoelastic structure. The mathematical model consists of the generalized Navier-Stokes equation used for the description of fluid flow and the generalized string model for structure movement. The arbitrary Lagrangian-Eulerian approach is used in order to take into account moving computational domain. A part of the thesis is devoted to the discussion on the non-Newtonian behaviour of shear-thinning fluids, which is in our case blood, and derivation of two non-Newtonian models frequently used in the blood flow modelling. Further we give a brief overview on recent fluid-structure interaction schemes with discussion about the difficulties arising in numerical modelling of blood flow. Our main contribution lies in numerical and experimental study of a new loosely-coupled partitioned scheme called the kinematic splitting fluid-structure interaction algorithm. We present stability analysis for a coupled problem of non-Newtonian shear-dependent fluids in moving domains with viscoelastic boundaries. Here, we assume both, the nonlinearity in convective as well is diffusive term. We analyse the convergence of proposed numerical scheme for a simplified fluid model of the Oseen type. Moreover, we present series of experiments including numerical error analysis, comparison of hemodynamic parameters for the Newtonian and non-Newtonian fluids and comparison of several physiologically relevant computational geometries in terms of wall displacement and wall shear stress. Numerical analysis and extensive experimental study for several standard geometries confirm reliability and accuracy of the proposed kinematic splitting scheme in order to approximate fluid-structure interaction problems.
Resumo:
rnThis thesis is on the flavor problem of Randall Sundrum modelsrnand their strongly coupled dual theories. These models are particularly wellrnmotivated extensions of the Standard Model, because they simultaneously address rntherngauge hierarchy problem and the hierarchies in the quarkrnmasses and mixings. In order to put this into context, special attention is given to concepts underlying therntheories which can explain the hierarchy problem and the flavor structure of the Standard Model (SM). ThernAdS/CFTrnduality is introduced and its implications for the Randall Sundrum model withrnfermions in the bulk andrngeneral bulk gauge groups is investigated. It will be shown that the differentrnterms in the general 5D propagator of a bulk gauge field can be related tornthe corresponding diagrams of the strongly coupled dual, which allows for arndeeperrnunderstanding of the origin of flavor changing neutral currents generated by thernexchange of the Kaluza Klein excitations of these bulk fields.rnIn the numerical analysis, different observables which are sensitive torncorrections from therntree-levelrnexchange of these resonances will be presented on the basis of updatedrnexperimental data from the Tevatron and LHC experiments. This includesrnelectroweak precision observables, namely corrections to the S and Trnparameters followed by corrections to the Zbb vertex, flavor changingrnobservables with flavor changes at one vertex, viz. BR (Bd -> mu+mu-) and BR (Bs -> mu+mu-), and two vertices,rn viz. S_psiphi and |eps_K|, as well as bounds from direct detectionrnexperiments. rnThe analysis will show that all of these bounds can be brought in agreement withrna new physics scale Lambda_NP in the TeV range, except for the CPrnviolating quantity |eps_K|, which requires Lambda_NP= Ord(10) TeVrnin the absencernof fine-tuning. The numerous modifications of the Randall Sundrum modelrnin the literature, which try to attenuate this bound are reviewed andrncategorized.rnrnSubsequently, a novel solution to this flavor problem, based on an extendedrncolor gauge group in the bulk and its thorough implementation inrnthe RS model, will be presented, as well as an analysis of the observablesrnmentioned above in the extended model. This solution is especially motivatedrnfromrnthe point of view of the strongly coupled dual theory and the implications forrnstrongly coupled models of new physics, which do not possess a holographic dual,rnare examined.rnFinally, the top quark plays a special role in models with a geometric explanation ofrnflavor hierarchies and the predictions in the Randall-Sundrum model with andrnwithout the proposed extension for the forward-backward asymmetryrnA_FB^trnin top pair production are computed.
Resumo:
Ziel: Die Radiotherapie hat in der Behandlung von Plattenepithelkarzinomen des Kopf- und Halsbereichs nach wie vor einen hohen Stellenwert. Der Erfolg eines Therapieregimes, das die Behandlung mit ionisierenden Strahlen einschließt, ist jedoch häufig limitiert durch die Entwicklung radioresistenter Tumorzellpopulationen, die nicht selten durch die Bestrahlung selbst induziert wird. Die Mechanismen, die zu einer solchen bestrahlungsinduzierten Radioresistenz führen sind bisher nur unvollständig verstanden und Methoden, durch die die Entwicklung von Radioresistenz verhindert werden könnte, wie beispielsweise der präventive Einsatz von Pharmazeutika, sind bislang nicht systematisch untersucht. Das Ziel der vorliegenden Arbeit war es zu überprüfen, ob der Cyclooxygenase-Inhibitor Flurbiprofen durch Bestrahlung induzierte Veränderungen der Phosphoprotein-Expression verstärken oder abschwächen kann und ob sich aus solchen Modifikationen des Bestrahlungsergebnisses ein radioprotektiver Effekt der Flurbiprofenapplikation ableiten lässt. Methoden: Es wurde ein experimenteller Ansatz gewählt, der mittels 2D PAGE und anschließender MALDI-TOF Massenspektrometrie das Phosphoproteom einer HNSCC-Zelllinie unter verschiedenen Bedingungen untersuchte. Die Zellen wurden entweder mit einer Energiedosis von 8 Gy bestrahlt, mit einer 200 μM Flurbiprofen enthaltenden Lösung inkubiert oder sie wurden mit einer Kombination aus Flurbiprofenapplikation und Bestrahlung behandelt. Vor der 2D PAGE wurden die Phosphoproteine durch IMAC angereichert. Zur Verbesserung der Gel-Analytik wurde die Software Delta 2D angewendet, die zum Ausgleich von Laufweitenunterschieden zwischen den Gelen ein Warping vorsieht. Ergebnisse und Diskussion: Bei der Analyse, der unter den verschiedenen experimentellen Bedingungen differentiell exprimierten Phosphoproteinen mittels bioinformatischer Hilfsprogramme wie z.B. WEBGestalt und STRING, wurden sieben Proteine mit Bedeutung für das Wachstum und die Entdifferenzierung von Tumoren identifiziert und einer ausführlichen Literaturrecherche unterzogen. Auf diese Weise konnten die Ergebnisse der für die vorliegende Arbeit durchgeführten Experimente in den systembiologischen Kontext eingeordnet werden. Besonders hervorzuheben ist die Herabregulierung der möglicherweise Radioresistenz vermittelnden Proteine GRP-75, 14-3-3 sigma und CRT sowie die Herabregulierung des anti-apoptotischen und tumor-begünstigenden Hsp60 durch Flurbiprofen. Die Verminderung der Expression unterstreicht das Potential dieses Pharmakons sowie der Klasse der COX-Inhibitoren als mögliche radiosensitivierende und tumorsuppressive Substanzen.
Resumo:
Biobanken sind Sammlungen von Körpersubstanzen, die mit umfangreichen gesundheits- und lebensstilbezogenen sowie geneologischen Daten ihrer Spender verknüpft sind. Sie dienen der Erforschung weit verbreiteter Krankheiten. Diese sog. Volkskrankheiten sind multifaktoriell bedingte Krankheiten. Dies bedeutet, dass diese Krankheiten das Ergebnis eines komplizierten Zusammenspiels von umwelt- und verhaltensrelevanten Faktoren mit individuellen genetischen Prädispositionen sind. Forschungen im Bereich von Pharmakogenomik und Pharmakogenetik untersuchen den Einfluss von Genen und Genexpressionen auf die individuelle Wirksamkeit von Medikamenten sowie auf die Entstehung ungewollter Nebenwirkungen und könnten so den Weg zu einer individualisierten Medizin ebnen. Menschliches Material ist ein wichtiger Bestandteil dieser Forschungen und die Nachfrage nach Sammlungen, die Proben mit Daten verknüpfen, steigt. Einerseits sehen Mediziner in Biobanken eine Chance für die Weiterentwicklung der medizinischen Forschung und des Gesundheitswesens. Andererseits lösen Biobanken auch Ängste und Misstrauen aus. Insbesondere wird befürchtet, dass Proben und Daten unkontrolliert verwendet werden und sensible Bereiche des Persönlichkeitsrechts und der persönlichen Identität betroffen sind. Diese Gefahren und Befürchtungen sind nicht neu, sondern bestanden schon in der Vergangenheit bei jeglicher Form der Spende von Körpersubstanzen. Neu ist aber der Umfang an Informationen, der durch die Genanalyse entsteht und den Spender in ganz besonderer Weise betreffen kann. Bei der Speicherung und Nutzung der medizinischen und genetischen Daten ergibt sich somit ein Spannungsfeld insbesondere zwischen dem Recht der betroffenen Datenspender auf informationelle Selbstbestimmung und den Forschungsinteressen der Datennutzer. Im Kern dreht sich die ethisch-rechtliche Bewertung der Biobanken um die Frage, ob diese Forschung zusätzliche Regeln braucht, und falls ja, wie umfassend diese sein müssten. Im Zentrum dieser Diskussion stehen dabei v.a. ethische Fragen im Zusammenhang mit der informierten Einwilligung, dem Datenschutz, der Wiederverwendung von Proben und Daten, der Information der Spender über Forschungsergebnisse und der Nutzungsrechte an den Daten. Ziel dieser Arbeit ist es, vor dem Hintergrund des Verfassungsrechts, insbesondere dem Recht auf informationelle Selbstbestimmung, das Datenschutzrecht im Hinblick auf die Risiken zu untersuchen, die sich aus der Speicherung, Verarbeitung und Kommunikation von persönlichen genetischen Informationen beim Aufbau von Biobanken ergeben. Daraus ergibt sich die weitere Untersuchung, ob und unter welchen Voraussetzungen die sich entgegenstehenden Interessen und Rechte aus verfassungsrechtlichem Blickwinkel in Einklang zu bringen sind. Eine wesentliche Frage lautet, ob die bisherigen rechtlichen Rahmenbedingungen ausreichen, um den Schutz der gespeicherten höchstpersönlichen Daten und zugleich ihre angemessene Nutzung zu gewährleisten. Das Thema ist interdisziplinär im Schnittfeld von Datenschutz, Verfassungsrecht sowie Rechts- und Medizinethik angelegt. Aus dem Inhalt: Naturwissenschaftliche und empirische Grundlagen von Biobanken – Überblick über Biobankprojekte in Europa und im außereuropäischen Ausland – Rechtsgrundlagen für Biobanken - Recht auf informationelle Selbstbestimmung - Recht auf Nichtwissen - Forschungsfreiheit - Qualitätssicherung und Verfahren – informierte Einwilligung – globale Einwilligung - Datenschutzkonzepte - Forschungsgeheimnis –– Biobankgeheimnis - Biobankgesetz