688 resultados para Verfahren


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lava aus der quartären Vulkanregion der Eifel wurde in römischer Zeit großmaßstäblich abgebaut, um daraus Mühlsteine hoher Qualität herzustellen, die in großen Mengen in weite Teile des Römischen Reiches exportiert wurden. Somit erweisen sich diese Mühlsteine als ideale Indikatoren für Handelsgebiete und –wege dieser Zeit. Für eine erfolgreiche Herkunftsanalyse von Fundstücken ist eine genaue Charakterisierung der infrage kommenden Rohstoffe die unbedingte Voraussetzung. Aus diesem Grund konzentriert sich diese Arbeit auf die geochemische Definition der 16 bekannten römischen „Basalt“-Abbaustellen in den Vulkanfeldern der Ost- und Westeifel, mit dem vorrangigen Ziel, eine möglichste eindeutige Charakterisierung der einzelnen Abbaustellen zu erreichen. Auf dieser Basis wird eine Vorgehensweise zur folgenden Provenienzanalyse der Mühlsteine entwickelt. Um die geochemische Variabilität der Laven zu erfassen wurden die Abbaustellen großflächig beprobt. Die Proben wurden zunächst petrographisch bestimmt und der Phasenbestand mittels Röntgendiffraktometrie (XRD) untersucht. Die Haupt- und Spurenelement-Zusammensetzung wurde anhand von Röntgenfluoreszenzanalysen und Laser-Massenspektrometrie mit induktiv gekoppeltem Plasma (LA-ICP-MS) ermittelt, die Sr-Nd-Pb-Isotopie ausgewählter Proben mittels Thermo-Ionen-Massenspektrometrie (TIMS). Es zeigte sich, dass auf Grundlage der Haupt- und Spurenelementzusammensetzung, gemessen mit RFA, eine Abgrenzung der Abbaustellen zueinander mittels einer Kombination aus geochemischer Diskriminierung mit Cluster- und Diskriminanzanalysen gelingt. Die anschließende Provenienzanalyse der Mühlsteinfundstücke erfolgt analog zur Charakterisierung der Abbaustellen. Im ersten Schritt wird eine geochemische Zuordnung des Fundstücks vorgenommen, um zu überprüfen, ob eine Eifeler Herkunft überhaupt in Frage kommt. Lässt der geochemische Vergleich mit den Referenzdaten aus dem Gelände eine Eifeler Herkunft zu, kommt im zweiten Schritt die Clusteranalyse zum Einsatz. Hier wird auf multivariater Ebene geprüft, ob das Fundstück einer Eifeler Abbaustelle oder einem Cluster von Eifeler Abbaustellen zugeordnet werden kann. Bei einer positiven Zuordnung wird ergänzend als dritter Schritt die Diskriminanzanalyse angewendet, anhand der das Mühlstein-Fundstück einer Abbaustelle mit einer bestimmten Wahrscheinlichkeit zugewiesen wird. Bei 68 analysierten Mühlsteinen aus verschiedenen Regionen Mitteleuropas konnte so für 49 Fundstücke eine Eifeler Provenienz festgestellt werden. Alle römischen Eifeler Mühlsteine entstammen dem Bellerberg bei Mayen, ein mittelalterliches Stück aus dem Niedermendiger Lavastrom. Die Zuordnung der übrigen 19 Mühlsteine zu anderen möglichen Abbaugebieten erfolgt anhand geochemischer Daten aus der Literatur. Aufgrund der unzureichenden Datenlage sind im Falle dieser Proben jedoch im Gegensatz zur Lavastrom-genauen Zuordnung der Eifeler Mühlen lediglich Vermutungen über die Herkunftsregionen möglich. Damit zeigt sich, dass eine ausführliche Referenzdatenbank der in Frage kommenden Rohstoffe die erforderliche Basis für erfolgreiche Provenienzanalysen ist. Die Möglichkeit der genauen Zuordnungen von Mühlsteinen zu den Eifeler Abbaustellen belegt, dass die Verbindung von geochemischer Auswertung mit Cluster- und Diskriminanzanalysen ein hilfreiches Verfahren zur Provenienzanalyse darstellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Weltweit existiert keine zum Tierversuch alternative Methode, um adsorbierte Pertussis-Impfstoffe auf restliche Toxin-Aktivität hin zu untersuchen. Der im Europäischen Arzneibuch vorgeschriebene Tierversuch besitzt nach Erfahrungen der Industrie, internationaler Prüfbehörden sowie des Paul-Ehrlich-Institutes eine schlechte Aussagekraft. Er ist wenig standardisierbar und weist häufig ein zweifelhaftes Ergebnis auf, so dass Wiederholungen und damit einhergehend ein hoher Verbrauch an Versuchstieren unumgänglich sind. Enthält der Impfstoff Reste von nicht-inaktiviertem Pertussis-Toxin (PTx), muss mit schweren und schwersten Nebenwirkungen bei den Impflingen gerechnet werden. In dieser Arbeit wurde ein In vitro-Nachweis für aktives PTx entwickelt. rnAngeregt durch Publikationen, wonach Pertussis-Toxin humane Monozyten aktiviert, wurde zunächst versucht, diesen Effekt zum Toxin-Nachweis auszunutzen. Die vorliegende Arbeit zeigt jedoch eindeutig, dass Pertussis-Toxin selbst nicht zur Stimulation humaner Monozyten führt. Vielmehr konnte nachgewiesen werden, dass die Aktivierung dieser Immunzellen auf Kontaminationen durch Lipopolysaccharide zurückzuführen ist. Damit wurden die Aussagen in den oben erwähnten Veröffentlichungen widerlegt. Dieses Ergebnis wurde bereits zur Publikation eingereicht.rnNunmehr wurden verschiedene Ansätze zum Nachweis von Pertussis-Toxin entwickelt, welche seine enzymatischen Aktivitäten als NAD-Glycohydrolase und ADP-Ribosyltransferase ausnutzen. Zunächst wurde versucht, die Hydrolyse von NAD zu ADP-Ribose und Nicotinamid photometrisch nachzuweisen. Wegen unbefriedigender Sensitivität wurde dieses Verfahren zu einem fluorometrischen Nachweis weiterentwickelt. Verwendet wurde hier fluorogenes etheno-NAD, welches von Pertussis-Toxin als Substrat akzeptiert wird. Letzteres Prinzip ist zum In vitro-Nachweis von Pertussis-Toxin geeignet, wird jedoch durch das in Impfstoffen häufig verwendete Adsorbens Aluminiumhydroxid gestört. Deshalb wurde dieser Ansatz aufgegeben und ein neuer Weg verfolgt, welcher am Energiestoffwechsel von humanen Zellen ansetzt. Eine Konsequenz des Angriffs von Pertussis-Toxin auf seine Zielzellen im Respirationstrakt besteht – nach komplexen Reaktionen des Signaltransduktionsweges – im Absenken des ATP-Gehaltes. Als menschliche Surrogat-Zellen wurden frisch isolierte periphere mononukleäre Zellen (PBMCs) sowie die permanente Lymphozyten-Zelllinie Jurkat eingesetzt und deren ATP-Gehalt mittels Luziferin-Luziferase-Lumineszenz gemessen. Der Test wird nicht durch Lipopolysaccharid gestört und auch Aluminiumhydroxid übt erst nach mehreren Stunden Inkubation einen interferierenden Einfluss aus. Ebenso konnte aktives Pertussis-Toxin mit Hilfe kryokonservierter PBMCs detektiert werden, auch in orientierenden Versuchen mit komplexen Impfstoffen. Der Pertussis-ATP-Test kommt der In vivo-Situation in der Zelle sehr nahe, weil beide Untereinheiten des Toxins in einem Test überprüft werden. Demnach soll er Bestandteil einer geplanten internationalen Studie zu alternativen Pertussis-Toxin-Testungen sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enhancing the sensitivity of nuclear magnetic resonance measurements via hyperpolarization techniques like parahydrogen induced polarization (PHIP) is of high interest for spectroscopic investigations. Parahydrogen induced polarization is a chemical method, which makes use of the correlation between nuclear spins in parahydrogen to create hyperpolarized molecules. The key feature of this technique is the pairwise and simultaneous transfer of the two hydrogen atoms of parahydrogen to a double or triple bond resulting in a population of the Zeeman energy levels different from the Boltzmann equation. The obtained hyperpolarization results in antiphase peaks in the NMR spectrum with high intensities. Due to these strong NMR signals, this method finds arnlot of applications in chemistry e.g. the characterization of short-lived reaction intermediates. Also in medicine it opens up the possibility to boost the sensitivity of medical diagnostics via magnetic labeling of active contrast agents. Thus, further examination and optimization of the PHIP technique is of significant importance in order to achieve the highest possible sensitivity gain.rnrnIn this work, different aspects concerning PHIP were studied with respect to its chemical and spectroscopic background. The first part of this work mainly focused on optimizing the PHIP technique by investigating different catalyst systems and developing new setups for the parahydrogenation. Further examinations facilitated the transfer of the generated polarization from the protons to heteronuclei like 13C. The second part of this thesis examined the possibility to transfer these results to different biologically active compounds to enable their later application in medical diagnostics. Onerngroup of interesting substances is represented by metabolites or neurotransmitters in mammalian cells. Other interesting substances are clinically relevant drugs like a barbituric acid derivative or antidepressant drugs like citalopram which were investigated with regard to their applicability for the PHIP technique and the possibility to achievernpolarization transfer to 13C nuclei. The last investigated substrate is a polymerizable monomer whose polymer was used as a blood plasma expander for trauma victims after the first half of the 20th century. In this case, the utility of the monomer for the PHIP technique as a basis for later investigations of a polymerization reaction using hyperpolarized monomers was examined.rnrnHence, this thesis covers the optimization of the PHIP technology, hereby combining different fields of research like chemical and spectroscopical aspects, and transfers the results to applications of real biologally acitve compounds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Innerhalb der vorliegenden Untersuchung geht es um die Verknüpfung von Medienbildung, homosexueller Sozialität und der Methodik der Biografieanalyse. Ausgangsbasis ist eine sozialkonstruktivistische Sichtweise auf Geschlecht und (Homo-) Sexualität, wobei eine sozio-historische Kontextualisierung von Homosexualität unter Berücksichtigung von Diskriminierung erfolgt. Im Fokus steht der Coming-out-Prozess, der zwischen Zeigen und Verstecken changiert und mittels des Mediums Internet einen Raum findet, indem neue Bestimmungen homosexueller Identitäten und Formen homosexueller Sozialität möglich werden. Kommunikative Aspekte des Internets werden ausführlich expliziert und durch die strukturelle Medienbildungstheorie nach Marotzki (2009) ergänzt, um mögliche verbundene Bildungsprozesse zu beschreiben. Innerhalb dieser Theorie werden vier kritische Reflexionshorizonte (Wissensbezug, Handlungsbezug, Grenzbezug, Biografiebezug) entfaltet und auf die Artikulations- und Präsentationsmöglichkeiten des Internets bezogen. Deutlich wird, dass das Internet Spielräume für Identitäten bietet, denen Potenziale für reale Identitätskonstruktionen inneliegen. Fassbar werden diese Potenziale durch das medienpädagogische Konstrukt der Medienbiografie, sowie Konzepte der erziehungswissenschaftlichen Biografieforschung (Konstrukt Bildung nach Marotzki, 1990a; Konstrukt Sexualbiografie nach Scheuermann, 1999; 1995). Empirisch orientiert sich die Studie an Methodologie und Methodik der Biografieforschung, Grounded Theory (Glaser/Strauss, 1967) und dem narrationsstrukturellen Verfahren nach Schütze (1984, 1983). Konkret wird auf folgende Forschungsfragen referiert: Wie gestalten sich Lern- und Bildungsprozesse für männliche Homosexuelle in digitalen Medienwelten? Welche Möglichkeiten und Gestaltungschancen gibt es für die Repräsentation des (sexuellen) Selbst im Medium Internet? Welche Auswirkungen haben diese virtuellen Prozesse auf die real gelebte Biografie und das Selbst- und Weltverhältnis der einzelnen Homosexuellen? Durch Rekonstruktion von vier Fallbeispielen werden Möglichkeiten des Internets für die Repräsentation und Identitätsgestaltung von männlichen Homosexuellen präsentiert, bei denen die Gestaltbarkeit von Konstruktionen sexueller Identität und die Problematik der Subjekt-Umwelt-Relation deutlich werden. Im weiteren erfolgt ein kontrastierender Vergleich der Einzelfälle (Dimensionen: Familie, Peer Group, sexualbiografische Entwicklung, Medienbildungsprozesse, biografische Fallstruktur), die einer anschließenden Konstruktion von vier idealtypischen Prozessvarianten der sexualbiografischen Identitätsentwicklung zugeführt werden. Vier verschiedene Möglichkeiten des Internets als Präsentationstraum der eigenen Sexualität und Konstruktionen homosexueller Identität lassen sich somit skizzieren (Virtualitätslagerung, Zweckorientierung, reflexive Balancierung, periodische Selbstaktualisierung). Tentative Bildungs- und Identitätsprozesse sind also in der Virtualität des Internets möglich und können rekursiv-zirkulär auf reale Identitätsentwicklungen und reale Zugänge zu spezifischen sozialen Gruppen einwirken.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Kombination magnetischer Nanopartikel (NP) mit temperatursensitiven Polymeren führt zur Bildung neuer Komposit-Materialien mit interessanten Eigenschaften, die auf vielfältige Weise genutzt werden können. Mögliche Anwendungsgebiete liegen in der magnetischen Trennung, der selektiven Freisetzung von Medikamenten, dem Aufbau von Sensoren und Aktuatoren. Als Polymerkomponente können z.B. Hydrogele dienen. Die Geschwindigkeit der Quellgradänderung mittels externer Stimuli kann durch eine Reduzierung des Hydrogelvolumens erhöht werden, da das Quellen ein diffusionskontrollierter Prozess ist. rnIm Rahmen dieser Arbeit wurde ein durch ultraviolettes Licht vernetzbares Hydrogel aus N-isopropylacrylamid, Methacrylsäure und dem Vernetzer 4-Benzoylphenylmethacrylat hergestellt (PNIPAAm-Hydrogel) und mit magnetischen Nanopartikeln aus Magnetit (Fe3O4) kombiniert. Dabei wurde die Temperatur- und die pH-Abhängigkeit des Quellgrades im Hinblick auf die Verwendung als nanomechanische Cantilever Sensoren (NCS) untersucht. Desweiteren erfolgte eine Charakterisierung durch Oberflächenplasmonen- und optischer Wellenleitermoden-Resonanz Spektroskopie (SPR/OWS). Die daraus erhaltenen Werte für den pKa-Wert und die lower critical solution Temperatur (LCST) stimmten mit den bekannten Literaturwerten überein. Es konnte gezeigt werden, dass eine stärkere Vernetzung zu einer geringeren LCST führt. Die Ergebnisse mittels NCS wiesen zudem auf einen skin-effect während des Heizens von höher vernetzten Polymeren hin.rnDie Magnetit Nanopartikel wurden ausgehend von Eisen(II)acetylacetonat über eine Hochtemperaturreaktion synthetisiert. Durch Variation der Reaktionstemperatur konnte die Größe der hergestellten Nanopartikel zwischen 3.5 und 20 nm mit einer Größenverteilung von 0.5-2.5 nm eingestellt werden. Durch geeignete Oberflächenfunktionalisierung konnten diese in Wasser stabilisiert werden. Dazu wurde nach zwei Strategien verfahren: Zum einen wurden die Nanopartikel mittels einer Silika-Schale funktionalisiert und zum anderen Zitronensäure als Tensid eingesetzt. Wasserstabilität ist vor allem für biologische Anwendungen wünschenswert. Die magnetischen Partikel wurden mit Hilfe von Transmissionselektronenmikroskopie (TEM), und superconductive quantum interference device (SQUID) charakterisiert. Dabei wurde eine Größenabhängigkeit der magnetischen Eigenschaften sowie superparamagnetisches Verhalten beobachtet. Außerdem wurde die Wärmeerzeugung der magnetischen Nanopartikel in einem AC Magnetfeld untersucht. rnDie Kombination beider Komponenten in Form eines Ferrogels wurde durch Mischen Benzophenon funktionalisierter magnetischer Nanopartikel mit Polymer erreicht. Durch Aufschleudern (Spin-Coaten) wurden dünne Filme erzeugt und diese im Hinblick auf ihr Verhalten in einem Magnetfeld untersucht. Dabei wurde eine geringes Plastikverhalten beobachtet. Die experimentellen Ergebnisse wurden anschließend mit theoretisch berechneten Erwartungswerten verglichen und mit den unterschiedlichen Werten für dreidimensionale Ferrogele in Zusammenhang gestellt. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ökonomische Entscheidungen sind ebenso wie alltägliche Entscheidungen von der Aktivität von Hirnregionen abhängig, die zur Kontrolle verschiedener Teilschritte der Entscheidung beitragen. Aktivierung und Desaktivierung dieser Hirnregionen können mit Hilfe moderner bildgebender Verfahren, wie z.B. der funktionellen Magnet-Resonanz-Tomographie (fMRI) dargestellt werden. Die vorliegende Publikation gibt einen Überblick über das interdisziplinäre wissenschaftliche Arbeitsgebiet der „Neuroökonomie“ – einem jungen Forschungsfeld der Neurowissenschaften. Dieser Überblick ist auf sieben Hauptaspekte ökonomischer und finanzieller Entscheidungen fokusiert: 1. In welcher Weise werden ökonomische Parameter wie Wert und Nutzen einer Belohnung, Gewinn oder Verlust, Risiko und Ungewissheit in spezifischen Hirnregionen abgebildet? 2. In welcher spezifischen Weise tragen anatomisch definierte Areale des Gehirns zum Entscheidungsprozess bei? 3. In welcher Weise sind die Entscheidungsprozesse durch Läsion entscheidungsrelevanter Areale des Gehirns gestört? 4. In welcher Weise sind Hirnregionen, die an den Prozessen der Entscheidung beteiligt sind, miteinander vernetzt, um durch Interaktion die Entscheidung herbeizuführen? 5. In welcher Weise ist der Entscheidungsprozess von Persönlichkeitseigenschaften, von genetischen Variationen neuronaler Funktionen und von physiologischer Regulation, z.B. durch Hormone bestimmt? 6. In welcher Weise hängt der Entscheidungsprozess vom sozialen und kulturellen Umfeld des Entscheiders ab? 7. Auf welche Weise werden bei unvollständiger Information über die Optionen der Entscheidung Heuristiken oder Intuitionen genutzt, und in welcher Weise sind Entscheidungen durch Biases beeinflussbar? Der zentrale Teil dieser Publikation gibt einen zusammenfassenden Überblick (review) über die Ergebnisse neuroökonomischer Studien, die die fMRI-Technik nutzen (bis Juni 2010).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Forschungsgebiet der Künstlichen Intelligenz, insbesondere im Bereich des maschinellen Lernens, hat sich eine ganze Reihe von Verfahren etabliert, die von biologischen Vorbildern inspiriert sind. Die prominentesten Vertreter derartiger Verfahren sind zum einen Evolutionäre Algorithmen, zum anderen Künstliche Neuronale Netze. Die vorliegende Arbeit befasst sich mit der Entwicklung eines Systems zum maschinellen Lernen, das Charakteristika beider Paradigmen in sich vereint: Das Hybride Lernende Klassifizierende System (HCS) wird basierend auf dem reellwertig kodierten eXtended Learning Classifier System (XCS), das als Lernmechanismus einen Genetischen Algorithmus enthält, und dem Wachsenden Neuralen Gas (GNG) entwickelt. Wie das XCS evolviert auch das HCS mit Hilfe eines Genetischen Algorithmus eine Population von Klassifizierern - das sind Regeln der Form [WENN Bedingung DANN Aktion], wobei die Bedingung angibt, in welchem Bereich des Zustandsraumes eines Lernproblems ein Klassifizierer anwendbar ist. Beim XCS spezifiziert die Bedingung in der Regel einen achsenparallelen Hyperquader, was oftmals keine angemessene Unterteilung des Zustandsraumes erlaubt. Beim HCS hingegen werden die Bedingungen der Klassifizierer durch Gewichtsvektoren beschrieben, wie die Neuronen des GNG sie besitzen. Jeder Klassifizierer ist anwendbar in seiner Zelle der durch die Population des HCS induzierten Voronoizerlegung des Zustandsraumes, dieser kann also flexibler unterteilt werden als beim XCS. Die Verwendung von Gewichtsvektoren ermöglicht ferner, einen vom Neuronenadaptationsverfahren des GNG abgeleiteten Mechanismus als zweites Lernverfahren neben dem Genetischen Algorithmus einzusetzen. Während das Lernen beim XCS rein evolutionär erfolgt, also nur durch Erzeugen neuer Klassifizierer, ermöglicht dies dem HCS, bereits vorhandene Klassifizierer anzupassen und zu verbessern. Zur Evaluation des HCS werden mit diesem verschiedene Lern-Experimente durchgeführt. Die Leistungsfähigkeit des Ansatzes wird in einer Reihe von Lernproblemen aus den Bereichen der Klassifikation, der Funktionsapproximation und des Lernens von Aktionen in einer interaktiven Lernumgebung unter Beweis gestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The goal of this thesis was to increase the functionality of pristine DNA scaffolds by functionalizing them with fluorescent dyes and hydrophobic moieties. Two important steps were necessary to realize this aim successfully. First, nucleic acids needed to be synthesized making use of multidisciplinary toolbox for the generation and manipulation of polynucleic acids. The most important techniques were the solid phase synthesis involving the incorporation of standard and modified phosphoramidite building blocks as well as molecular biology procedures like the polymerase chain reaction, the bacterial amplification of plasmids and the enzymatic digestion of circular vectors. Second, and evenly important, was the characterization of the novel bioorganic hybrid structures by a multitude of techniques, especially optical measurements. For studying DNA-dye conjugates methods like UV/Vis and photoluminescence spectroscopy as well as time resolved luminescence spectroscopy were utilized. While these measurements characterized the bulk behavior of an ensemble of DNA-dye hybrids it was necessary for a complete understanding of the systems to look at single structures. This was done by single-molecule fluorescence spectroscopy and fluorescence correlation spectroscopy. For complete analysis the optical experiments were complemented by direct visualization techniques, i.e. high resolution transmission electron microscopy and scanning force microscopy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Entstehung eines Marktpreises für einen Vermögenswert kann als Superposition der einzelnen Aktionen der Marktteilnehmer aufgefasst werden, die damit kumulativ Angebot und Nachfrage erzeugen. Dies ist in der statistischen Physik mit der Entstehung makroskopischer Eigenschaften vergleichbar, die von mikroskopischen Wechselwirkungen zwischen den beteiligten Systemkomponenten hervorgerufen werden. Die Verteilung der Preisänderungen an Finanzmärkten unterscheidet sich deutlich von einer Gaußverteilung. Dies führt zu empirischen Besonderheiten des Preisprozesses, zu denen neben dem Skalierungsverhalten nicht-triviale Korrelationsfunktionen und zeitlich gehäufte Volatilität zählen. In der vorliegenden Arbeit liegt der Fokus auf der Analyse von Finanzmarktzeitreihen und den darin enthaltenen Korrelationen. Es wird ein neues Verfahren zur Quantifizierung von Muster-basierten komplexen Korrelationen einer Zeitreihe entwickelt. Mit dieser Methodik werden signifikante Anzeichen dafür gefunden, dass sich typische Verhaltensmuster von Finanzmarktteilnehmern auf kurzen Zeitskalen manifestieren, dass also die Reaktion auf einen gegebenen Preisverlauf nicht rein zufällig ist, sondern vielmehr ähnliche Preisverläufe auch ähnliche Reaktionen hervorrufen. Ausgehend von der Untersuchung der komplexen Korrelationen in Finanzmarktzeitreihen wird die Frage behandelt, welche Eigenschaften sich beim Wechsel von einem positiven Trend zu einem negativen Trend verändern. Eine empirische Quantifizierung mittels Reskalierung liefert das Resultat, dass unabhängig von der betrachteten Zeitskala neue Preisextrema mit einem Anstieg des Transaktionsvolumens und einer Reduktion der Zeitintervalle zwischen Transaktionen einhergehen. Diese Abhängigkeiten weisen Charakteristika auf, die man auch in anderen komplexen Systemen in der Natur und speziell in physikalischen Systemen vorfindet. Über 9 Größenordnungen in der Zeit sind diese Eigenschaften auch unabhängig vom analysierten Markt - Trends, die nur für Sekunden bestehen, zeigen die gleiche Charakteristik wie Trends auf Zeitskalen von Monaten. Dies eröffnet die Möglichkeit, mehr über Finanzmarktblasen und deren Zusammenbrüche zu lernen, da Trends auf kleinen Zeitskalen viel häufiger auftreten. Zusätzlich wird eine Monte Carlo-basierte Simulation des Finanzmarktes analysiert und erweitert, um die empirischen Eigenschaften zu reproduzieren und Einblicke in deren Ursachen zu erhalten, die zum einen in der Finanzmarktmikrostruktur und andererseits in der Risikoaversion der Handelsteilnehmer zu suchen sind. Für die rechenzeitintensiven Verfahren kann mittels Parallelisierung auf einer Graphikkartenarchitektur eine deutliche Rechenzeitreduktion erreicht werden. Um das weite Spektrum an Einsatzbereichen von Graphikkarten zu aufzuzeigen, wird auch ein Standardmodell der statistischen Physik - das Ising-Modell - auf die Graphikkarte mit signifikanten Laufzeitvorteilen portiert. Teilresultate der Arbeit sind publiziert in [PGPS07, PPS08, Pre11, PVPS09b, PVPS09a, PS09, PS10a, SBF+10, BVP10, Pre10, PS10b, PSS10, SBF+11, PB10].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Glaukom stellt eine heterogene Gruppe von okularen Erkrankungen dar, deren Pathogenese sich durch einen langsamen, progradienten Untergang von retinalen Ganglienzellen und ihren Axonen auszeichnet. rnIn den letzten Jahren wurde im Kontext der Glaukompathogenese verstärkt die Beteiligung autoreaktiver Antikörper diskutiert. Ein Schwerpunkt dieser Arbeit bestand in dem Vergleich solcher Autoantikörper-Reaktionen in den Serum- und Kammerwasserproben einzelner Glaukompatienten. Hierdurch sollte geklärt werden, inwieweit die Immunreaktivitäten dieser beiden Körperflüssigkeiten miteinander übereinstimmen und ob sich Hinweise auf eine lokale Antikörperproduktion im immunprivilegierten Auge finden lassen. Mittels eines etablierten Protein-Microarray-Verfahrens wurden die Immunreaktionen gegen 40 verschiedene Antigene, wie z.B. Hitzeschock-Proteine oder neuronale Strukturproteine, untersucht. Die Ergebnisse zeigten, dass die detektierten Autoantikörper-Reaktionen gegen mehr als 80% der untersuchten Antigene in beiden Körperflüssigkeiten miteinander übereinstimmen. Verdeutlicht wird hierdurch, dass die Antikörper-basierenden immunologischen Vorgänge im Auge bzw. Kammerwasser, trotz dessen Abschottung vom Blutkreislauf durch die Blut-Retina-Schranke, denen des Serums stark ähneln. Nur vereinzelt lassen sich Hinweise auf eine lokale Antikörperproduktion im Auge finden, wodurch die Bedeutung der detektierten Serumantikörper-Reaktionen für die Glaukomerkrankung belegt wird. rnEin weiterer Schwerpunkt der Arbeit lag auf der Detektion möglicher veränderter Proteinexpressionen in den Retinae und Serumproben von Glaukompatienten, die potentiell zu den neurodegenerativen Prozessen der Glaukompathogenese beitragen. Um die Analyse spezifischer Proteinexpressionen zu ermöglichen, wurde das Verfahren des Antikörper-Microarrays etabliert und auf die Fragestellung angewendet. Untersucht wurden hierbei vor allem die Abundanzen von Komplementproteinen, Zytokinen und Hitzeschock-Proteinen, aber auch die von verschiedenen neuronalen Strukturproteinen. Als Probenmaterial dienten Serum- und Retinaproben von Glaukompatienten, die vergleichend denen von gesunden Probanden gegenübergestellt wurden. Die Analyse erbrachte die Erkenntnis, dass neben der verstärkten Expression von Komplementproteinen in der Retina (z.B. C3, C6) auch im Serum der Glaukompatienten eine erhöhte Konzentration dieser Proteine vorliegt, die im Rahmen der Glaukomerkrankung möglicherweise ebenfalls eine Rolle spielen. Ähnliches konnte für verschiedene Zytokine, wie z.B. TNF-α, IFN-γ oder IL1-β beobachtet werden, die in den untersuchten Retinae von Glaukomprobanden, teilweise auch in den Serumproben der Patienten, in verstärktem Maße detektiert werden konnten. Die erhöhte Produktion von Zytokinen in der Retina ist wahrscheinlich auf die Aktivierung von Gliazellen zurückzuführen, ein Ereignis für das in dieser Arbeit zahlreiche Hinweise gefunden werden konnten. Die Gliaaktivierung wird vermutlich durch apoptotische Prozesse in der Retina ausgelöst, eventuell aber auch durch eine erfolgte Komplementaktivierung. Darüber hinaus konnten mittels eines massenspektrometrischen Verfahrens weitere Expressionsunterschiede verschiedener retinaler Proteine bei Glaukompatienten festgestellt werden. Diese Veränderungen, wie z.B. geminderte Mengen von ROS-eliminierenden Proteinen, wie der Superoxid Dismutase und Peroxiredoxin-2, begünstigen bzw. verstärken sehr wahrscheinlich die neurodegenerativen Prozesse in der Retina von GlaukompatientenrnInwieweit die untersuchten Faktoren kausativ an den neurodegenerativen Prozessen beteiligt sind, bleibt ungeklärt, jedoch untermauert deren Vielzahl die Notwendigkeit, die Ursache der Glaukomerkrankung als komplexe Interaktion und Wechselwirkung verschiedener Komponenten zu betrachten und nicht als einen einzelnen fehlgesteuerten Mechanismus.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassungrn Der Faltungsprozess des Hauptlichtsammelkomplexes des Photosystems II aus höheren Pflanzen (light harvesting complex II, LHCII) wurde bereits mehrfach untersucht, die Experimente hierzu fanden stets im Ensemble statt. Anhand der bislang veröffentlichten Faltungskinetiken des LHCII aus höheren Pflanzen lassen sich aber keine eindeutigen Aussagen bezüglich der Diversität der Faltungswege treffen. Daher sollten im Rahmen dieser Arbeit Faltungskinetiken einzelner LHCII-Moleküle während der Komplexbildung aufgenommen werden, um weitergehende Informationen zum Faltungsmechanismus zu erhalten und zur Frage, ob hier mehrere unterschiedliche Wege eingeschlagen werden.rnHierfür war zunächst die Etablierung einer Oberflächenimmobilisierung mit Glas als Trägermaterial notwendig. Nachdem Versuche, diese Immobilisierung über einen His6-tag oder über einen heterobifunktionellen Linker zu bewerkstelligen, nicht zum Erfolg geführt haben, konnte eine Immobilisierung des Biotin-markierten Proteins an Oberflächen-gebundenes Avidin erreicht werden. Die Qualität dieser Immobilisierung wurde hierbei sowohl über Bindungsversuche mit fluoreszenzfarbstoffmarkiertem Protein als auch über eine direkte Kontrolle der Oberflächenbeschaffenheit mittels Rasterkraftmikroskopie überprüft. Die für die folgenden Versuche optimale Belegungsdichte wurde im konfokalen Fluoreszenzmikroskop ermittelt. Zudem wurde sichergestellt, dass die Proteine vereinzelt auf der Oberfläche immobilisiert vorliegen.rnAuf dieser Basis wurden LHCII-Komplexe, die zuvor in vitro rekonstituiert wurden, immobilisiert und Versuche zur kontrollierten Denaturierung unternommen, um Zerfalls-kinetiken im Verfahren der internen Totalreflexionsfluoreszenzmikroskopie (total internal reflection fluorescence, TIRF) aufnehmen zu können. Hierbei traten Schwierigkeiten bezüglich der Lebensdauer der Komplexe unter Laser-Belichtung auf, da sich die Löschung der Fluoreszenz durch Zerstrahlung der Pigmente einerseits oder Dissoziation der LHCII andererseits nicht unterscheiden ließen. Auch durch verschiedene Maßnahmen zur Erhöhung der Lebensdauer konnte diese nicht in dem Maße gesteigert werden, wie es experimentell notwendig gewesen wäre.rnFür das eigentliche Hauptziel dieser Arbeit – die Aufzeichnung von Einzelmolekül-Faltungskinetiken – war die Entwicklung einer Methode zur Rekonstitution oberflächen-immobilisierter LHCII-Apoproteine notwendig. Dieses Ziel wurde mithilfe einer Detergenzmisch-Rekonstitution erreicht. Der Erfolg der Rekonstitution konnte experimentell sowohl im Fluorimeter anhand des komplexinternen Energietransfers auf einen kovalent an das Protein gebundenen Infrarot-Fluorophor als auch im TIRF-Verfahren direkt beobachtet werden. Auch hier konnte nach ca. 80 Sekunden ein Ausbleichen der Komplexe während der Belichtung durch den Anregungs-Laser beobachtet werden.rnIn Versuchen zur Beobachtung des Komplexbildungsvorganges zeigte sich, dass die Rekonstitution offenbar durch die Belichtung massiv gestört wird. Ein weiteres Problem war eine sehr starke Hintergrundfluoreszenz, ausgelöst durch die zur Rekonstitution notwendige Pigmentlösung, die trotz der TIRF-Anregung von ausschließlich oberflächengebundenem Material die Fluoreszenz der Komplexe überlagerte. Somit konnte die Rekonstitution oberflächenimmobilisierter LHCII-Proteine zwar in Vorher-Nachher-Aufnahmen gezeigt werden, der Faltungsprozess an sich konnte dagegen im Rahmen dieser Arbeit nicht aufgezeichnet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das chronische Postthorakotomie Schmerzsyndrom: Eine vergleichende Untersuchung zweier Analgesieverfahren (PCEA und PCA+Ketamin)rnrnFragestellung: Chronische Schmerzen im Narbenbereich nach Thorakotomien sind ein bekanntes und häufiges Problem. Die Prävalenz des chronischen Postthorakotomie Schmerzsyndroms sechs Monate postoperativ liegt zwischen 52% und 75%. Die Epiduralanästhesie gilt zurzeit als das beste Analgesieverfahren für Thorakotomiepatienten in Bezug auf das Auftreten akuter und chronischer Postthorakotomieschmerzen. In dieser Studie wurde untersucht, ob sich die Epiduralanästhesie (PCEA) und ein opioidbasiertes, systemisches Analgesieverfahren mit der zusätzlichen intravenösen Applikation von Ketamin, einem NMDA-Rezeptorantagonisten, (PCA+Ketamin) in der Prävalenz des chronischen Postthorakotomiesyndroms unterscheiden, oder ob beide Verfahren gleichwertig sind.rnrnMaterial u. Methoden: Es wurden die Datensätze von 173 Patienten, bei denen eine elektive Thorakotomie durchgeführt wurde, retrospektiv an Hand vorliegender Schmerzprotokolle erfasst. Ausgewertet wurden das durchgeführte Analgesieverfahren, die deskriptiven Daten der Patienten (Alter, Geschlecht, Hauptdiagnose, Zeitraum bis zur Nachbefragung), das postoperative Schmerzniveau der ersten beiden Tage, eventuelle Komplikationen und die Patientenzufriedenheit. Durch ein telefonisches Interview wurden die Patienten in einem Zeitraum von 6 bis 24 Monaten postoperativ zum aktuellen Schmerzniveau befragt.rnrnErgebnisse: Die beiden Analgesieverfahren PCEA (135 Patienten) und PCA+Ketamin (38 Patienten) unterscheiden sich signifikant in Bezug auf das Patientenalter, die Hauptdiagnose und das Schmerzniveau am 1. und 2. postoperativen Tag unter Belastung. Es konnte kein signifikanter Unterschied im Auftreten des chronischen Schmerzsyndroms nachgewiesen werden, allerdings gibt es einen deskriptiven Trend zu einer erhöhten Auftretenswahrscheinlichkeit des Postthorakotomiesyndroms in der Epiduralanästhesiegruppe (PCEA: 37,8% vs. PCA+Ketamin 23,7%).rnrnSchlussfolgerung: Die Ketamingabe zur PCA hat möglicherweise einen protektiven Effekt bezüglich der Prävalenz des Postthorakotomie Schmerzsyndroms. Auch wenn die Wirkungsweise des Ketamins auf den chronischen Postthorakotomieschmerz unklar ist, konnte in dieser Studie kein Unterschied in Bezug auf das Auftreten des chronischen Schmerzsyndroms zwischen den beiden Analgesiegruppen PCEA und PCA + Ketamin nachgewiesen werden. Unter Umständen könnte sogar ein Vorteil des PCA + Ketaminschemas gegenüber der Epiduralanästhesie bezüglich des Auftretens des Postthorakotomie Schmerzsyndroms bestehen. Dieser mögliche Vorteil sollte in weiteren Studien überprüft werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dass Jugenddelinquenz eine ubiquitäre und ganz überwiegend nur passagere Erscheinungsform im Sozialisationsprozess ist, hat in den letzten Jahrzehnten eine Reduzierung formeller Verfahren gegen junge Straftäter bedingt. Empirische Studien haben bestätigt, dass gerade eine frühzeitige Verfahrenseinstellung die Rückfallquote verringert, so dass sich die Chance einer Legalbewährung bei informeller Erledigung besser darstellt als nach einer förmlichen Verurteilung. Damit werden Gefahren einer Wirkungsdynamik reduziert, die letztlich neue Rechtsbrüche begünstigen könnten. Die Wahl informeller Alternativen ist zudem geeignet, den Übergang zum Makel formeller Sanktionierung zu vermeiden bzw. zu verzögern und die stigmatisierende Wirkung förmlicher Strafverfahren zu reduzieren.rnIn der Diskussion um die Bewältigung der Alltags- und Bagatellkriminalität wird immer wieder die Frage nach der Einheitlichkeit der Rechtsanwendung des § 45 JGG aufgeworfen. Zur Beantwortung dieser Frage werden die von fast alle Bundesländern verabschiedeten Diversionsrichtlinien einer Untersuchung unterzogen.rnDiese findet zunächst anhand eines ausführlichen Textvergleichs der einzelnen Diversionsrichtlinien statt, gefolgt von einer Darstellung der Sanktionierungspraxis in Deutschland in den Jahren 1999 bis 2007, wobei zunächst die Häufigkeiten informeller Erledigungen im Jugendstrafrecht und im allgemeinen Strafverfahren für das gesamte Bundesgebiet betrachtet und dann ein Vergleich der Häufigkeiten informeller Erledigungen im Jugendstrafrecht und im allgemeinen Strafverfahren auf der Ebene der Bundesländer dargestellt wird.rnAls Ergebnis dieser Analyse kann festgehalten werden, dass der bisherige Versuch, eine einheitliche Entkriminalisierung auf Bundesebene aufgrund der bestehenden, von den einzelnen Bundesländern geschaffenen Diversions-Richtlinien zu schaffen, als teilweise gescheitert angesehen werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die exzitatorische Neurotransmission erfolgt über ionotrope Glutamat-Rezeptoren von denen dem NMDA-(N-Methyl-D-aspartat)-Rezeptor durch seine hohe Leitfähigkeit für Ca2+-Ionen eine besondere Rolle zugesprochen wird. Bei seiner Überaktivierung kommt es zu exzitotoxischen Prozessen, die direkt mit neurodegenerativen Erkrankungen einhergehen und nach einem Schlaganfall, bei akuten Epilepsien, Morbus Parkinson, Alzheimer Demenz aber auch im Bereich der neuropathischen Schmerzentstehung eine wichtige Rolle spielen.rnDurch das Eingreifen in die glutamatvermittelten pathologischen Prozesse verspricht man sich daher die Möglichkeit einer Neuroprotektion bei der Therapie verschiedener neurodegenerativer Erkrankungen, die primär auf völlig unterschiedliche Ursachen zurückzuführen sind.rnAusgehend von in früheren Arbeiten synthetisierten Hydantoin-substituierten Dichlor-indol-2-carbonsäure-Derivaten, die hochaffine Eigenschaften zur Glycin-Bindungsstelle des NMDA-Rezeptors aufweisen, sollten neue Derivate entwickelt und untersucht werden, die hinsichtlich ihrer Affinität zur Glycin-Bindungsstelle des NMDA-Rezeptors, ihrer Pharmakokinetik sowie physikochemischen Parameter in präparativ-organischen, radiopharmazeutischen und zell- bzw. tierexperimentellen Studien in vitro sowie in vivo charakterisiert werden sollten. Von besonderem Interesse war dabei die Evaluierung der synthetisierten Verbindungen in einem Verdrängungsassay mit dem Radioliganden [3H]MDL105,519 mit dem der Einfluss der strukturellen Modifikationen auf die Affinität zur Glycin-Bindungsstelle des Rezeptors untersucht wurde, sowie die Selektivität und die Potenz der Liganden abgeschätzt wurde.rnIm Rahmen der Struktur-Wirkungs-Untersuchungen mit Hilfe der Bindungsexperimente konnten bestimmte Strukturmerkmale als essentiell herausgestellt bzw. bekräftigt werden. Die Testverbindungen zeigten dabei IC50-Werte im Bereich von 0,0028 bis 51,8 μM. Die entsprechenden Ester dagegen IC50-Werte von 23,04 bis >3000 μM. Als vielversprechende Strukturen mit Affinitäten im niedrigen nanomolaren Bereich stellten sich Derivate mit einer 4,6-Dichlor-oder Difluor-Substitution am Indolgrundgerüst (2,8 bis 4,6 nM) heraus. Auch die Substitution des Phenylhydantoin-Teils durch das bioisostere Thienylhydantoin führte zu einer gleichbleibenden ausgeprägten Affinität (3,1 nM). rnZur Abschätzung der Bioverfügbarkeit, insbesondere der Fähigkeit zur Überwindung der Blut-Hirn-Schranke, wurden die Lipophilien bei einer Auswahl der Testverbindungen durch Bestimmung ihrer log P-Werte ermittelt. Neben dem Verfahren der potentiometrischen Titration wurde eine HPLC-Methode an einer RP-Phase verwendet.rnUm das Zytotoxizitätsprofil der synthetisierten Strukturen frühzeitig abschätzen zu können, wurde ein schnell durchführbares, zellbasiertes in vitro-Testsystem, der kommerziell erhältliche „Cell Proliferation Kit II (XTT-Test)“, eingesetzt. rnIm Rahmen von Positronen-Emissions-Tomographie-Experimenten an Ratten wurde eine Aussage bezüglich der Aufnahme und Verteilung eines radioaktiv markierten, hochaffinen Liganden an der Glycinbindungsstelle des NMDA-Rezeptors im Gehirn getroffen. Dabei wurden sowohl ein Carbonsäure-Derivat sowie der korrespondierende Ethylester dieser Testung unterworfen.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen meiner Dissertation wurde ein 3He-Applikationssystem für die in-vivo 3He-Magnetresonanztomographie der Lunge von Ratten entwickelt. Im Gegensatz zu anderen bisher entwickelten MR-kompatiblen Beatmungsgeräten wurde in diesem Applikationssystem erstmals der polarisationserhaltende ³He-Langzeitspeicher im Streufeld des Tomographen integriert. Bei der 3He-Applikation wird das 3He-Gas automatisch aus dem Langzeitspeicher außerhalb des Magneten zum Tier in den Tomographen geleitet. Die Kernspin-Polarisationsverluste, die beim 3He-Transfer zum Tier in den Tomographen auftreten, betragen etwa 1% (rel.) und sind vernachlässigbar gering. Das Beatmungssystem wurde zusammen mit der MRT-Bildgebungssequenz COMSPIRA an mehr als 200 Tieren erfolgreich getestet. Die MRT-Aufnahmen fanden hauptsächlich an einem 0,47 T Niederfeldtomographen bei der Firma Boehringer-Ingelheim Pharma in Biberach statt. Es wurden sowohl morphologische Aufnahmen der Rattenlunge gemacht als auch der „Apparent Diffusion Coefficient“ (ADC) gemessen. Die relative Streuung der ADC-Werte innerhalb einer Gruppe von Tieren ähnlichen Alters und Gewichts betrug dabei 5%. Bei Wiederholungsmessungen an ein und demselben Tier verringerte sich die relative Streuung auf 1%. Diese Werte unterstreichen die hohe Reproduzierbarkeit des Beatmungssystems sowie des gesamten Messverfahrens. Weiterhin wurde ein Verfahren vorgestellt, das den experimentell bestimmten ADC unabhängig von dem Mischungsverhältnis zwischen dem applizierten 3He und der Atemluft in der Lunge macht. Dies kann erreicht werden, indem das hp 3He mit dem chemisch inerten und ungiftigen Gas SF6 in einem definierten Verhältnis gemischt wird und anschließend dem Tier appliziert wird. Zuletzt wurde der ADC von emphysematischen Rattenlungen und von gesunden Rattenlungen gemessen. Die Ergebnisse zeigten einen signifikant kleineren ADC innerhalb der Gruppe der erkrankten Tiere. Diese Dissertation wurde durch die Boehringer-Ingelheim Pharma GmbH & Co. KG unterstützt.