697 resultados para Adaptives Verfahren
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Hydrophobisierung anorganischer Nanopartikel für die Herstellung von Nanokompositen. Aufgrund der großen, reaktiven Oberfläche neigen Nanopartikel zur Aggregation, besonders in hydrophoben Medien. Literaturbekannte Verfahren der nachträglichen Modifizierung bereits existierender Partikeln führen nur teilweise zu gut redispergierbaren Partikeln in hydrophoben Medien. Da die Hülle erst nach der Partikelbildung erzeugt wird, läßt sich die Entstehung von Primäraggregaten nicht vermeiden. Die Neuheit der in dieser Arbeit angewandten Methode ist die Bildung der Partikelhülle vor der Entstehung der Partikel. Die Fällung der Nanopartikel innerhalb wäßriger Emulsionströpfchen schließt eine vorzeitige Aggregation der Partikel aus. Eine große Anzahl unterschiedlicher anorganischer Nanopartikel wurde hergestellt, deren Größe durch Variation der Syntheseparameter beeinflußt werden konnte. Ferner war es möglich, eine breite Variationsmöglichkeit der Art der Partikelhülle darzustellen, die sich als maßgeblich für die Kompatibilität zu einer Polymermatrix herausstellte. Die Kompatibilität zur Matrix ermöglichte eine einwandfreie Dispergierung von unterschiedlichen anorganischen Nanopartikeln im Kompositmaterial. Je nach Auswahl des anorganischen Materials können verschiedene Kompositeigenschaften, wie beispielsweise optische, elektrische, magnetische oder mechanische, beeinflußt werden. In dieser Arbeit wurde der Schwerpunkt auf eine erhöhte UV-Absorption gelegt, wobei sich auch eine verbesserte Schlagzähigkeit der Nanokomposite zeigte. Durch die hervorragende Dispergierung der Nanopartikel in der Matrix waren diese Nanokomposite hochtransparent.
Resumo:
Schon 1904 beschrieb Schulze den Aufbau von Silikatnadeln des Schwammes Monorhaphis chuni, eines Mitglieds der zweiten Familie von biosilifizierenden Schwämmen, den Hexactinelliden (Glasschwämmen). Weitergehende morphologische Untersuchungen und biochemische Analysen insbesondere mit modernen Methoden wurden an Hexactinelliden bisher kaum durchgeführt. Ziel der vorliegenden Arbeit bestand deshalb darin, Untersuchungen zur Morphologie, der chemischen Zusammensetzung, der Verteilung und Charakterisierung der beteiligten anorganischen und organischen Komponenten sowie einen molekularbiologischer Nachweis der Existenz von Silicatein in Hexactinelliden durchzuführen. Für diese Untersuchungen wurden zwei Spezies verwendet: Monorhaphis chuni und Crateromorpha meyeri. Mittels Elektronen-Mikrosonden-Technik wurde an Querschnitten der Pfahlnadel von M. chuni die Verteilung der Elemente innerhalb der Nadel untersucht. Am äußeren Rand der Nadel (150 µm) traten im Vergleich zur Nadelmitte prägnante Unterschiede in der Konzentration von Kaliumoxid und Natriumoxid auf. Diese Ergebnisse deuten auf das Vorhandensein eines ähnlichen Transportsystems zur Anreicherung von Silizium/Silikat bei der Nadelbildung hin, wie es bereits in S. domuncula bekannt ist. Mit elektronen- und lichtmikroskopischen Untersuchungen wurden die organischen Substanzen der Silikatnadel nachgewiesen und deren Verteilung innerhalb dieser Nadeln analysiert. In der lamellaren Zone befindet sich, eine säurelabile organische Netzstruktur, sowie eine, die Silikatschichten durchspannende, säulenähnliche Struktur. Im Axialzylinder zeigt das organische Material eine leicht verzweigte fibrilläre Anordnung. Mit biochemischen Verfahren wurden die organischen Komponenten der Nadeln detaillierter untersucht. Mehrere Proteine mit Molekulargewichten von 17, 24, 27 ,30, 36 und 70 kDa wurden durch gelelektrophoretische Analysen von Material der Pfahlnadel identifiziert. Die Analyse isolierter Anteile der lamellaren Zone zeigte ausschließlich ein 27 kDa Protein. Die restlichen Proteinbanden konnten hier nicht nachgewiesen werden. Das 27 kDa Protein reagierte im Westernblot mit Antikörpern gegen Silicatein aus S. domuncula. Ein weiteres Protein wurde näher charakterisert. Ein positiver Agglutinationsassay wies ein lectinähnliches Molekül innerhalb der Nadeln nach, wie es aus S. domuncula bekannt ist. Nach einer Deglycolysierung der Proteine reduzierte sich das scheinbare Molekulargewicht der 36 kDa Bande auf 30 kDa. Durch molekularbiologische Untersuchungen wurde erstmals in Hexactinelliden die Existenz von Silicatein nachgewiesen. Nach Isolierung der Gesamt-RNA von Crateromorpha meyeri, RT-PCR und Amplifizierung mit silicateinspezifischen Primern wurde eine 549 kBp Nukleotidsequenz gefunden, die auf Aminosäureebene starke Homologien (76% identische Aminosäuren) zu bekannten Silicateinen der Demospongia aufweist. Die Aminosäuren der katalytische Triade des Silicateins, essenziell für die enzymatische Katalyse des Enzyms, sind an den selben Positionen wie bei bekannten Silicateinen vorhanden.
Resumo:
Die vorliegende Dissertation entstand im Rahmen eines multizentrischen EU-geförderten Projektes, das die Anwendungsmöglichkeiten von Einzelnukleotid-Polymorphismen (SNPs) zur Individualisierung von Personen im Kontext der Zuordnung von biologischen Tatortspuren oder auch bei der Identifizierung unbekannter Toter behandelt. Die übergeordnete Zielsetzung des Projektes bestand darin, hochauflösende Genotypisierungsmethoden zu etablieren und zu validieren, die mit hoher Genauigkeit aber geringen Aufwand SNPs im Multiplexformat simultan analysieren können. Zunächst wurden 29 Y-chromosomale und 52 autosomale SNPs unter der Anforderung ausgewählt, dass sie als Multiplex eine möglichst hohe Individualisierungschance aufweisen. Anschließend folgten die Validierungen beider Multiplex-Systeme und der SNaPshot™-Minisequenzierungsmethode in systematischen Studien unter Beteiligung aller Arbeitsgruppen des Projektes. Die validierte Referenzmethode auf der Basis einer Minisequenzierung diente einerseits für die kontrollierte Zusammenarbeit unterschiedlicher Laboratorien und andererseits als Grundlage für die Entwicklung eines Assays zur SNP-Genotypisierung mittels der elektronischen Microarray-Technologie in dieser Arbeit. Der eigenständige Hauptteil dieser Dissertation beschreibt unter Verwendung der zuvor validierten autosomalen SNPs die Neuentwicklung und Validierung eines Hybridisierungsassays für die elektronische Microarray-Plattform der Firma Nanogen Dazu wurden im Vorfeld drei verschiedene Assays etabliert, die sich im Funktionsprinzip auf dem Microarray unterscheiden. Davon wurde leistungsorientiert das Capture down-Assay zur Weiterentwicklung ausgewählt. Nach zahlreichen Optimierungsmaßnahmen hinsichtlich PCR-Produktbehandlung, gerätespezifischer Abläufe und analysespezifischer Oligonukleotiddesigns stand das Capture down-Assay zur simultanen Typisierung von drei Individuen mit je 32 SNPs auf einem Microarray bereit. Anschließend wurde dieses Verfahren anhand von 40 DNA-Proben mit bekannten Genotypen für die 32 SNPs validiert und durch parallele SNaPshot™-Typisierung die Genauigkeit bestimmt. Das Ergebnis beweist nicht nur die Eignung des validierten Analyseassays und der elektronischen Microarray-Technologie für bestimmte Fragestellungen, sondern zeigt auch deren Vorteile in Bezug auf Schnelligkeit, Flexibilität und Effizienz. Die Automatisierung, welche die räumliche Anordnung der zu untersuchenden Fragmente unmittelbar vor der Analyse ermöglicht, reduziert unnötige Arbeitsschritte und damit die Fehlerhäufigkeit und Kontaminationsgefahr bei verbesserter Zeiteffizienz. Mit einer maximal erreichten Genauigkeit von 94% kann die Zuverlässigkeit der in der forensischen Genetik aktuell eingesetzten STR-Systeme jedoch noch nicht erreicht werden. Die Rolle des neuen Verfahrens wird damit nicht in einer Ablösung der etablierten Methoden, sondern in einer Ergänzung zur Lösung spezieller Probleme wie z.B. der Untersuchung stark degradierter DNA-Spuren zu finden sein.
Resumo:
Es wurde ein für bodengebundene Feldmessungen geeignetes System zur digital-holographischen Abbildung luftgetragener Objekte entwickelt und konstruiert. Es ist, abhängig von der Tiefenposition, geeignet zur direkten Bestimmung der Größe luftgetragener Objekte oberhalb von ca. 20 µm, sowie ihrer Form bei Größen oberhalb von ca. 100µm bis in den Millimeterbereich. Die Entwicklung umfaßte zusätzlich einen Algorithmus zur automatisierten Verbesserung der Hologrammqualität und zur semiautomatischen Entfernungsbestimmung großer Objekte entwickelt. Eine Möglichkeit zur intrinsischen Effizienzsteigerung der Bestimmung der Tiefenposition durch die Berechnung winkelgemittelter Profile wurde vorgestellt. Es wurde weiterhin ein Verfahren entwickelt, das mithilfe eines iterativen Ansatzes für isolierte Objekte die Rückgewinnung der Phaseninformation und damit die Beseitigung des Zwillingsbildes erlaubt. Weiterhin wurden mithilfe von Simulationen die Auswirkungen verschiedener Beschränkungen der digitalen Holographie wie der endlichen Pixelgröße untersucht und diskutiert. Die geeignete Darstellung der dreidimensionalen Ortsinformation stellt in der digitalen Holographie ein besonderes Problem dar, da das dreidimensionale Lichtfeld nicht physikalisch rekonstruiert wird. Es wurde ein Verfahren entwickelt und implementiert, das durch Konstruktion einer stereoskopischen Repräsentation des numerisch rekonstruierten Meßvolumens eine quasi-dreidimensionale, vergrößerte Betrachtung erlaubt. Es wurden ausgewählte, während Feldversuchen auf dem Jungfraujoch aufgenommene digitale Hologramme rekonstruiert. Dabei ergab sich teilweise ein sehr hoher Anteil an irregulären Kristallformen, insbesondere infolge massiver Bereifung. Es wurden auch in Zeiträumen mit formal eisuntersättigten Bedingungen Objekte bis hinunter in den Bereich ≤20µm beobachtet. Weiterhin konnte in Anwendung der hier entwickelten Theorie des ”Phasenrandeffektes“ ein Objekt von nur ca. 40µm Größe als Eisplättchen identifiziert werden. Größter Nachteil digitaler Holographie gegenüber herkömmlichen photographisch abbildenden Verfahren ist die Notwendigkeit der aufwendigen numerischen Rekonstruktion. Es ergibt sich ein hoher rechnerischer Aufwand zum Erreichen eines einer Photographie vergleichbaren Ergebnisses. Andererseits weist die digitale Holographie Alleinstellungsmerkmale auf. Der Zugang zur dreidimensionalen Ortsinformation kann der lokalen Untersuchung der relativen Objektabstände dienen. Allerdings zeigte sich, dass die Gegebenheiten der digitalen Holographie die Beobachtung hinreichend großer Mengen von Objekten auf der Grundlage einzelner Hologramm gegenwärtig erschweren. Es wurde demonstriert, dass vollständige Objektgrenzen auch dann rekonstruiert werden konnten, wenn ein Objekt sich teilweise oder ganz außerhalb des geometrischen Meßvolumens befand. Weiterhin wurde die zunächst in Simulationen demonstrierte Sub-Bildelementrekonstruktion auf reale Hologramme angewandt. Dabei konnte gezeigt werden, dass z.T. quasi-punktförmige Objekte mit Sub-Pixelgenauigkeit lokalisiert, aber auch bei ausgedehnten Objekten zusätzliche Informationen gewonnen werden konnten. Schließlich wurden auf rekonstruierten Eiskristallen Interferenzmuster beobachtet und teilweise zeitlich verfolgt. Gegenwärtig erscheinen sowohl kristallinterne Reflexion als auch die Existenz einer (quasi-)flüssigen Schicht als Erklärung möglich, wobei teilweise in Richtung der letztgenannten Möglichkeit argumentiert werden konnte. Als Ergebnis der Arbeit steht jetzt ein System zur Verfügung, das ein neues Meßinstrument und umfangreiche Algorithmen umfaßt. S. M. F. Raupach, H.-J. Vössing, J. Curtius und S. Borrmann: Digital crossed-beam holography for in-situ imaging of atmospheric particles, J. Opt. A: Pure Appl. Opt. 8, 796-806 (2006) S. M. F. Raupach: A cascaded adaptive mask algorithm for twin image removal and its application to digital holograms of ice crystals, Appl. Opt. 48, 287-301 (2009) S. M. F. Raupach: Stereoscopic 3D visualization of particle fields reconstructed from digital inline holograms, (zur Veröffentlichung angenommen, Optik - Int. J. Light El. Optics, 2009)
Resumo:
Neurosteroide können langsame genomische und schnelle nicht-genomische Effekte zeigen. Die Synthese und der Metabolismus von Neurosteroiden werden entwicklungsbedingt reguliert. In den letzten Jahren sind immer mehr schnelle Steroideffekte bekannt geworden, die sowohl über klassische als auch über nicht-klassische Rezeptoren laufen. Zum heutigen Stand der Forschung sind die morphologischen Effekte von Neurosteroiden auf das neuronale Cytoskelett und die involvierten Signalkaskaden noch weitgehend unerforscht. In diesem Zusammenhang stellen sich auch die Fragen nach den verantwortlichen Rezeptoren und dem Transportmechanismus sowie der subzellulären Lokalisation der Steroide. Die im Rahmen meiner Promotion erhaltenen Ergebnisse zeigen, dass die Steroide DHEA und Testosteron eine Reorganisation des Aktincytoskeletts in neuronalen Zellen induzieren und dass diese Effekte diesen Steroiden und nicht ihren Folgemetaboliten zuzuordnen sind. DHEA bewirkt die Kontraktion der Zellen, eine erhöhte Ausbildung von Stressfasern und fokalen Adhäsionskomplexen sowie die Bildung von Filopodien. Der diesen Effekten zu Grunde liegende Signalweg konnte eindeutig identifiziert werden. DHEA induziert in neuronalen Zellen die Aktivierung des Rho-Signalwegs. Diese Aktivierung führt zu einem erhöhten Phosphorylierungsstatus der regulatorischen leichten Kette von Myosin II (MRLC) an Serin 19 und der damit verbundenen erhöhten Myosin-Aktin-Interaktion. Die Ausbildung von Filopodien wird vermutlich über eine Aktivierung der GTPase Cdc42 vermittelt. Testosteron induziert das Auswachsen langer Neuriten sowie eine Verminderung von Stressfasern in neuronalen Zellen. Diese Effekte sind abhängig von der Aktivität der PI3-Kinase. Die im Rahmen dieser Arbeit gewonnenen Erkenntnisse deuten darauf hin, dass Testosteron über die PI3-Kinase und FAK den Rac-Signalweg induziert, da es zu einer Inhibierung des Rho-Signalwegs kommt. Zahlreiche Erkenntnisse weisen darauf hin, dass DHEA und Testosteron die Aktivierung der beteiligten Signalwege über einen G-Protein gekoppelten Rezeptor induzieren. DHEA und Testosteron beeinflussen auch die Expression und die Lokalisation der regulatorischen leichten Ketten von Myosin II. Im Gegensatz zu DHEA (Lokalisation der MRLC in der kortikalen Region der Zelle), induziert Testosteron eine Umlokalisation der MRLC in den Zellkern. Daher ist es denkbar, dass die MRLCs, wie auch Aktin, als Transkriptionsfaktoren wirken können. Die Synthese eines funktionalen, fluoreszierenden DHEA-Derivats (DHEA-Bodipy) ermöglichte erstmals, den Transport und die subzelluläre Lokalisation von DHEA in neuronalen Zellen zu beobachten. DHEA-Bodipy wird in neuronalen Zellen in den Mitochondrien lokalisiert. Diese Lokalisation ergibt völlig neue Ansätze im Verständnis zellulärer Wirkungsorte von Steroiden und beteiligter Rezeptoren. Das in meiner Arbeit vorgestellte Verfahren zur Fluoreszenzmarkierung von Steroiden bietet vielfältige Möglichkeiten im Einsatz zellbiologischer Methoden. Nach diesem Verfahren hergestellte, fluoreszierende Steroide eignen sich aufgrund ihrer Stabilität sehr gut für die Untersuchung des Transports und der subzellulären Lokalisation von Steroiden an fixierten und lebenden Zellen sowie für Colokalisationsexperimente. Diese Methode grenzt somit auch die Anzahl möglicher molekularer Interaktionspartner ein. Für Testosteron konnte ebenfalls ein fluoreszierendes Testosteron-Derivat (Testosteron-Bodipy) synthetisiert werden. Die Aufklärung der Effekte von Steroiden auf das neuronale Cytoskelett und der beteiligten Signalkaskaden sowie die Identifizierung der zellulären Wirkungsorte ermöglichen therapeutische Ansätze zur Behandlung neurodegenerativer Erkrankungen, deren Ursachen in Abnormitäten des Cytoskeletts oder fehlregulierter Neurosteroidogenese zu begründen sind.
Resumo:
Die Hauskatze (F. s. catus) ist eines der beliebtesten Haustiere in Deutschland. Das enge Zusammenleben mit dem Menschen bedingt die Übertragung von Haaren auf Gegenstände oder andere Personen, sodass diese Spuren für eine forensische Untersuchung von größter Bedeutung sind. Da in Haaren mit einer sehr geringen Menge an Kern-DNA gerechnet werden muss und diese sich zudem in einem degradierten Zustand befindet, wurden die zur Individualisierung ausgewählten Tetranukleotid-STR-Markersysteme dahingehend optimiert. Die Optimierung umfasste neben der Reduktion der Produktgrößenbereiche auch die Anpassung der PCR-Profile. Die Sequenzierung und Beschreibung der Repeatmotive aller Marker führte überwiegend zu einer von der Literatur abweichenden Darstellung. Anhand der Sequenzanalyse erfolgte die Einteilung der Marker in STR-Klassen sowie die Einführung einer markerspezifischen Nomenklatur. Diese spiegelt sich vor allem in den erstellten Allelleitern wider, die zum Abgleich der amplifizierten Produkte eines jeden Markersystems eingesetzt werden. Die Allelleitern dienen als interne Laborreferenz und können als Standard für den Datenaustausch zwischen unterschiedlichen Laboren genutzt werden. Mittels 14 speziell angepassten Markersystemen und dem geschlechtsspezifischen Marker Amelogenin kann praktisch eine Individualisierung für F. s. catus durchgeführt werden. rnSind über die Kern-DNA keine oder nur unzureichende Ergebnisse zu erhalten, kann alternativ auf die Untersuchung der mitochondrialen DNA zurückgegriffen werden. Neben Systemen, die einen Aufschluss zum Artnachweis erbringen, stehen in der Kontrollregion von F. s. catus weitere Systeme für eine Differenzierung in Haplotypen zur Verfügung. Trotz der maternalen Vererbung der mtDNA und der dadurch nicht zu realisierenden Individualisierung liefert diese Einteilung einen hohen Anteil an einzigartigen Haplotypen, die in der untersuchten Stichprobe nur durch je ein Individuum repräsentiert wurden. Die Aufspaltung in Haplotypen liefert einen Aussagewert, mit dem gegebenenfalls ein Ausschluss zwischen Spur und Vergleich getroffen werden kann.rnBeide Analyseverfahren, sei es auf Ebene der Kern- oder mitochondrialen DNA, bieten eine Möglichkeit den größtmöglichsten Informationsgehalt aus einer Spur zu erhalten. Im forensischen Bereich steht somit erstmals ein komplett standardisiertes Verfahren zur Untersuchung von Spuren der Hauskatze zur Verfügung. Dieses reicht von der Artbestimmung einer Spur bis zur praktisch individuellen Zuordnung.
Resumo:
Zahlreiche neurologische Erkrankungen wie Morbus Parkinson oder Epilepsien sind mit nicht erholsamem Schlaf und erhöhter Tagesschläfrigkeit assoziiert. Andere Erkrankungen wie Multiple Sklerose induzieren zwar Fatigue / Müdigkeit, aber keine objektivierbar erhöhte Einschlafneigung. Aufgrund der komplexen Interaktionen von Grunderkrankung, Krankheitsfolgen und Medikationseffekten differieren subjektive Einschätzung und objektive Maße von Schläfrigkeit oft erheblich. Der pupillographische Schläfrigkeitstest (PST) ist ein effizientes und objektives Verfahren zur Bestimmung der Vigilanz bzw. Tagesschläfrigkeit, für neurologische Patienten unter naturalistischen Bedingungen liegen aber nur wenige Daten vor.
Resumo:
In the present dissertation we consider Feynman integrals in the framework of dimensional regularization. As all such integrals can be expressed in terms of scalar integrals, we focus on this latter kind of integrals in their Feynman parametric representation and study their mathematical properties, partially applying graph theory, algebraic geometry and number theory. The three main topics are the graph theoretic properties of the Symanzik polynomials, the termination of the sector decomposition algorithm of Binoth and Heinrich and the arithmetic nature of the Laurent coefficients of Feynman integrals.rnrnThe integrand of an arbitrary dimensionally regularised, scalar Feynman integral can be expressed in terms of the two well-known Symanzik polynomials. We give a detailed review on the graph theoretic properties of these polynomials. Due to the matrix-tree-theorem the first of these polynomials can be constructed from the determinant of a minor of the generic Laplacian matrix of a graph. By use of a generalization of this theorem, the all-minors-matrix-tree theorem, we derive a new relation which furthermore relates the second Symanzik polynomial to the Laplacian matrix of a graph.rnrnStarting from the Feynman parametric parameterization, the sector decomposition algorithm of Binoth and Heinrich serves for the numerical evaluation of the Laurent coefficients of an arbitrary Feynman integral in the Euclidean momentum region. This widely used algorithm contains an iterated step, consisting of an appropriate decomposition of the domain of integration and the deformation of the resulting pieces. This procedure leads to a disentanglement of the overlapping singularities of the integral. By giving a counter-example we exhibit the problem, that this iterative step of the algorithm does not terminate for every possible case. We solve this problem by presenting an appropriate extension of the algorithm, which is guaranteed to terminate. This is achieved by mapping the iterative step to an abstract combinatorial problem, known as Hironaka's polyhedra game. We present a publicly available implementation of the improved algorithm. Furthermore we explain the relationship of the sector decomposition method with the resolution of singularities of a variety, given by a sequence of blow-ups, in algebraic geometry.rnrnMotivated by the connection between Feynman integrals and topics of algebraic geometry we consider the set of periods as defined by Kontsevich and Zagier. This special set of numbers contains the set of multiple zeta values and certain values of polylogarithms, which in turn are known to be present in results for Laurent coefficients of certain dimensionally regularized Feynman integrals. By use of the extended sector decomposition algorithm we prove a theorem which implies, that the Laurent coefficients of an arbitrary Feynman integral are periods if the masses and kinematical invariants take values in the Euclidean momentum region. The statement is formulated for an even more general class of integrals, allowing for an arbitrary number of polynomials in the integrand.
Resumo:
Lava aus der quartären Vulkanregion der Eifel wurde in römischer Zeit großmaßstäblich abgebaut, um daraus Mühlsteine hoher Qualität herzustellen, die in großen Mengen in weite Teile des Römischen Reiches exportiert wurden. Somit erweisen sich diese Mühlsteine als ideale Indikatoren für Handelsgebiete und –wege dieser Zeit. Für eine erfolgreiche Herkunftsanalyse von Fundstücken ist eine genaue Charakterisierung der infrage kommenden Rohstoffe die unbedingte Voraussetzung. Aus diesem Grund konzentriert sich diese Arbeit auf die geochemische Definition der 16 bekannten römischen „Basalt“-Abbaustellen in den Vulkanfeldern der Ost- und Westeifel, mit dem vorrangigen Ziel, eine möglichste eindeutige Charakterisierung der einzelnen Abbaustellen zu erreichen. Auf dieser Basis wird eine Vorgehensweise zur folgenden Provenienzanalyse der Mühlsteine entwickelt. Um die geochemische Variabilität der Laven zu erfassen wurden die Abbaustellen großflächig beprobt. Die Proben wurden zunächst petrographisch bestimmt und der Phasenbestand mittels Röntgendiffraktometrie (XRD) untersucht. Die Haupt- und Spurenelement-Zusammensetzung wurde anhand von Röntgenfluoreszenzanalysen und Laser-Massenspektrometrie mit induktiv gekoppeltem Plasma (LA-ICP-MS) ermittelt, die Sr-Nd-Pb-Isotopie ausgewählter Proben mittels Thermo-Ionen-Massenspektrometrie (TIMS). Es zeigte sich, dass auf Grundlage der Haupt- und Spurenelementzusammensetzung, gemessen mit RFA, eine Abgrenzung der Abbaustellen zueinander mittels einer Kombination aus geochemischer Diskriminierung mit Cluster- und Diskriminanzanalysen gelingt. Die anschließende Provenienzanalyse der Mühlsteinfundstücke erfolgt analog zur Charakterisierung der Abbaustellen. Im ersten Schritt wird eine geochemische Zuordnung des Fundstücks vorgenommen, um zu überprüfen, ob eine Eifeler Herkunft überhaupt in Frage kommt. Lässt der geochemische Vergleich mit den Referenzdaten aus dem Gelände eine Eifeler Herkunft zu, kommt im zweiten Schritt die Clusteranalyse zum Einsatz. Hier wird auf multivariater Ebene geprüft, ob das Fundstück einer Eifeler Abbaustelle oder einem Cluster von Eifeler Abbaustellen zugeordnet werden kann. Bei einer positiven Zuordnung wird ergänzend als dritter Schritt die Diskriminanzanalyse angewendet, anhand der das Mühlstein-Fundstück einer Abbaustelle mit einer bestimmten Wahrscheinlichkeit zugewiesen wird. Bei 68 analysierten Mühlsteinen aus verschiedenen Regionen Mitteleuropas konnte so für 49 Fundstücke eine Eifeler Provenienz festgestellt werden. Alle römischen Eifeler Mühlsteine entstammen dem Bellerberg bei Mayen, ein mittelalterliches Stück aus dem Niedermendiger Lavastrom. Die Zuordnung der übrigen 19 Mühlsteine zu anderen möglichen Abbaugebieten erfolgt anhand geochemischer Daten aus der Literatur. Aufgrund der unzureichenden Datenlage sind im Falle dieser Proben jedoch im Gegensatz zur Lavastrom-genauen Zuordnung der Eifeler Mühlen lediglich Vermutungen über die Herkunftsregionen möglich. Damit zeigt sich, dass eine ausführliche Referenzdatenbank der in Frage kommenden Rohstoffe die erforderliche Basis für erfolgreiche Provenienzanalysen ist. Die Möglichkeit der genauen Zuordnungen von Mühlsteinen zu den Eifeler Abbaustellen belegt, dass die Verbindung von geochemischer Auswertung mit Cluster- und Diskriminanzanalysen ein hilfreiches Verfahren zur Provenienzanalyse darstellt.
Resumo:
Weltweit existiert keine zum Tierversuch alternative Methode, um adsorbierte Pertussis-Impfstoffe auf restliche Toxin-Aktivität hin zu untersuchen. Der im Europäischen Arzneibuch vorgeschriebene Tierversuch besitzt nach Erfahrungen der Industrie, internationaler Prüfbehörden sowie des Paul-Ehrlich-Institutes eine schlechte Aussagekraft. Er ist wenig standardisierbar und weist häufig ein zweifelhaftes Ergebnis auf, so dass Wiederholungen und damit einhergehend ein hoher Verbrauch an Versuchstieren unumgänglich sind. Enthält der Impfstoff Reste von nicht-inaktiviertem Pertussis-Toxin (PTx), muss mit schweren und schwersten Nebenwirkungen bei den Impflingen gerechnet werden. In dieser Arbeit wurde ein In vitro-Nachweis für aktives PTx entwickelt. rnAngeregt durch Publikationen, wonach Pertussis-Toxin humane Monozyten aktiviert, wurde zunächst versucht, diesen Effekt zum Toxin-Nachweis auszunutzen. Die vorliegende Arbeit zeigt jedoch eindeutig, dass Pertussis-Toxin selbst nicht zur Stimulation humaner Monozyten führt. Vielmehr konnte nachgewiesen werden, dass die Aktivierung dieser Immunzellen auf Kontaminationen durch Lipopolysaccharide zurückzuführen ist. Damit wurden die Aussagen in den oben erwähnten Veröffentlichungen widerlegt. Dieses Ergebnis wurde bereits zur Publikation eingereicht.rnNunmehr wurden verschiedene Ansätze zum Nachweis von Pertussis-Toxin entwickelt, welche seine enzymatischen Aktivitäten als NAD-Glycohydrolase und ADP-Ribosyltransferase ausnutzen. Zunächst wurde versucht, die Hydrolyse von NAD zu ADP-Ribose und Nicotinamid photometrisch nachzuweisen. Wegen unbefriedigender Sensitivität wurde dieses Verfahren zu einem fluorometrischen Nachweis weiterentwickelt. Verwendet wurde hier fluorogenes etheno-NAD, welches von Pertussis-Toxin als Substrat akzeptiert wird. Letzteres Prinzip ist zum In vitro-Nachweis von Pertussis-Toxin geeignet, wird jedoch durch das in Impfstoffen häufig verwendete Adsorbens Aluminiumhydroxid gestört. Deshalb wurde dieser Ansatz aufgegeben und ein neuer Weg verfolgt, welcher am Energiestoffwechsel von humanen Zellen ansetzt. Eine Konsequenz des Angriffs von Pertussis-Toxin auf seine Zielzellen im Respirationstrakt besteht – nach komplexen Reaktionen des Signaltransduktionsweges – im Absenken des ATP-Gehaltes. Als menschliche Surrogat-Zellen wurden frisch isolierte periphere mononukleäre Zellen (PBMCs) sowie die permanente Lymphozyten-Zelllinie Jurkat eingesetzt und deren ATP-Gehalt mittels Luziferin-Luziferase-Lumineszenz gemessen. Der Test wird nicht durch Lipopolysaccharid gestört und auch Aluminiumhydroxid übt erst nach mehreren Stunden Inkubation einen interferierenden Einfluss aus. Ebenso konnte aktives Pertussis-Toxin mit Hilfe kryokonservierter PBMCs detektiert werden, auch in orientierenden Versuchen mit komplexen Impfstoffen. Der Pertussis-ATP-Test kommt der In vivo-Situation in der Zelle sehr nahe, weil beide Untereinheiten des Toxins in einem Test überprüft werden. Demnach soll er Bestandteil einer geplanten internationalen Studie zu alternativen Pertussis-Toxin-Testungen sein.
Resumo:
Enhancing the sensitivity of nuclear magnetic resonance measurements via hyperpolarization techniques like parahydrogen induced polarization (PHIP) is of high interest for spectroscopic investigations. Parahydrogen induced polarization is a chemical method, which makes use of the correlation between nuclear spins in parahydrogen to create hyperpolarized molecules. The key feature of this technique is the pairwise and simultaneous transfer of the two hydrogen atoms of parahydrogen to a double or triple bond resulting in a population of the Zeeman energy levels different from the Boltzmann equation. The obtained hyperpolarization results in antiphase peaks in the NMR spectrum with high intensities. Due to these strong NMR signals, this method finds arnlot of applications in chemistry e.g. the characterization of short-lived reaction intermediates. Also in medicine it opens up the possibility to boost the sensitivity of medical diagnostics via magnetic labeling of active contrast agents. Thus, further examination and optimization of the PHIP technique is of significant importance in order to achieve the highest possible sensitivity gain.rnrnIn this work, different aspects concerning PHIP were studied with respect to its chemical and spectroscopic background. The first part of this work mainly focused on optimizing the PHIP technique by investigating different catalyst systems and developing new setups for the parahydrogenation. Further examinations facilitated the transfer of the generated polarization from the protons to heteronuclei like 13C. The second part of this thesis examined the possibility to transfer these results to different biologically active compounds to enable their later application in medical diagnostics. Onerngroup of interesting substances is represented by metabolites or neurotransmitters in mammalian cells. Other interesting substances are clinically relevant drugs like a barbituric acid derivative or antidepressant drugs like citalopram which were investigated with regard to their applicability for the PHIP technique and the possibility to achievernpolarization transfer to 13C nuclei. The last investigated substrate is a polymerizable monomer whose polymer was used as a blood plasma expander for trauma victims after the first half of the 20th century. In this case, the utility of the monomer for the PHIP technique as a basis for later investigations of a polymerization reaction using hyperpolarized monomers was examined.rnrnHence, this thesis covers the optimization of the PHIP technology, hereby combining different fields of research like chemical and spectroscopical aspects, and transfers the results to applications of real biologally acitve compounds.
Resumo:
Innerhalb der vorliegenden Untersuchung geht es um die Verknüpfung von Medienbildung, homosexueller Sozialität und der Methodik der Biografieanalyse. Ausgangsbasis ist eine sozialkonstruktivistische Sichtweise auf Geschlecht und (Homo-) Sexualität, wobei eine sozio-historische Kontextualisierung von Homosexualität unter Berücksichtigung von Diskriminierung erfolgt. Im Fokus steht der Coming-out-Prozess, der zwischen Zeigen und Verstecken changiert und mittels des Mediums Internet einen Raum findet, indem neue Bestimmungen homosexueller Identitäten und Formen homosexueller Sozialität möglich werden. Kommunikative Aspekte des Internets werden ausführlich expliziert und durch die strukturelle Medienbildungstheorie nach Marotzki (2009) ergänzt, um mögliche verbundene Bildungsprozesse zu beschreiben. Innerhalb dieser Theorie werden vier kritische Reflexionshorizonte (Wissensbezug, Handlungsbezug, Grenzbezug, Biografiebezug) entfaltet und auf die Artikulations- und Präsentationsmöglichkeiten des Internets bezogen. Deutlich wird, dass das Internet Spielräume für Identitäten bietet, denen Potenziale für reale Identitätskonstruktionen inneliegen. Fassbar werden diese Potenziale durch das medienpädagogische Konstrukt der Medienbiografie, sowie Konzepte der erziehungswissenschaftlichen Biografieforschung (Konstrukt Bildung nach Marotzki, 1990a; Konstrukt Sexualbiografie nach Scheuermann, 1999; 1995). Empirisch orientiert sich die Studie an Methodologie und Methodik der Biografieforschung, Grounded Theory (Glaser/Strauss, 1967) und dem narrationsstrukturellen Verfahren nach Schütze (1984, 1983). Konkret wird auf folgende Forschungsfragen referiert: Wie gestalten sich Lern- und Bildungsprozesse für männliche Homosexuelle in digitalen Medienwelten? Welche Möglichkeiten und Gestaltungschancen gibt es für die Repräsentation des (sexuellen) Selbst im Medium Internet? Welche Auswirkungen haben diese virtuellen Prozesse auf die real gelebte Biografie und das Selbst- und Weltverhältnis der einzelnen Homosexuellen? Durch Rekonstruktion von vier Fallbeispielen werden Möglichkeiten des Internets für die Repräsentation und Identitätsgestaltung von männlichen Homosexuellen präsentiert, bei denen die Gestaltbarkeit von Konstruktionen sexueller Identität und die Problematik der Subjekt-Umwelt-Relation deutlich werden. Im weiteren erfolgt ein kontrastierender Vergleich der Einzelfälle (Dimensionen: Familie, Peer Group, sexualbiografische Entwicklung, Medienbildungsprozesse, biografische Fallstruktur), die einer anschließenden Konstruktion von vier idealtypischen Prozessvarianten der sexualbiografischen Identitätsentwicklung zugeführt werden. Vier verschiedene Möglichkeiten des Internets als Präsentationstraum der eigenen Sexualität und Konstruktionen homosexueller Identität lassen sich somit skizzieren (Virtualitätslagerung, Zweckorientierung, reflexive Balancierung, periodische Selbstaktualisierung). Tentative Bildungs- und Identitätsprozesse sind also in der Virtualität des Internets möglich und können rekursiv-zirkulär auf reale Identitätsentwicklungen und reale Zugänge zu spezifischen sozialen Gruppen einwirken.
Resumo:
Die Kombination magnetischer Nanopartikel (NP) mit temperatursensitiven Polymeren führt zur Bildung neuer Komposit-Materialien mit interessanten Eigenschaften, die auf vielfältige Weise genutzt werden können. Mögliche Anwendungsgebiete liegen in der magnetischen Trennung, der selektiven Freisetzung von Medikamenten, dem Aufbau von Sensoren und Aktuatoren. Als Polymerkomponente können z.B. Hydrogele dienen. Die Geschwindigkeit der Quellgradänderung mittels externer Stimuli kann durch eine Reduzierung des Hydrogelvolumens erhöht werden, da das Quellen ein diffusionskontrollierter Prozess ist. rnIm Rahmen dieser Arbeit wurde ein durch ultraviolettes Licht vernetzbares Hydrogel aus N-isopropylacrylamid, Methacrylsäure und dem Vernetzer 4-Benzoylphenylmethacrylat hergestellt (PNIPAAm-Hydrogel) und mit magnetischen Nanopartikeln aus Magnetit (Fe3O4) kombiniert. Dabei wurde die Temperatur- und die pH-Abhängigkeit des Quellgrades im Hinblick auf die Verwendung als nanomechanische Cantilever Sensoren (NCS) untersucht. Desweiteren erfolgte eine Charakterisierung durch Oberflächenplasmonen- und optischer Wellenleitermoden-Resonanz Spektroskopie (SPR/OWS). Die daraus erhaltenen Werte für den pKa-Wert und die lower critical solution Temperatur (LCST) stimmten mit den bekannten Literaturwerten überein. Es konnte gezeigt werden, dass eine stärkere Vernetzung zu einer geringeren LCST führt. Die Ergebnisse mittels NCS wiesen zudem auf einen skin-effect während des Heizens von höher vernetzten Polymeren hin.rnDie Magnetit Nanopartikel wurden ausgehend von Eisen(II)acetylacetonat über eine Hochtemperaturreaktion synthetisiert. Durch Variation der Reaktionstemperatur konnte die Größe der hergestellten Nanopartikel zwischen 3.5 und 20 nm mit einer Größenverteilung von 0.5-2.5 nm eingestellt werden. Durch geeignete Oberflächenfunktionalisierung konnten diese in Wasser stabilisiert werden. Dazu wurde nach zwei Strategien verfahren: Zum einen wurden die Nanopartikel mittels einer Silika-Schale funktionalisiert und zum anderen Zitronensäure als Tensid eingesetzt. Wasserstabilität ist vor allem für biologische Anwendungen wünschenswert. Die magnetischen Partikel wurden mit Hilfe von Transmissionselektronenmikroskopie (TEM), und superconductive quantum interference device (SQUID) charakterisiert. Dabei wurde eine Größenabhängigkeit der magnetischen Eigenschaften sowie superparamagnetisches Verhalten beobachtet. Außerdem wurde die Wärmeerzeugung der magnetischen Nanopartikel in einem AC Magnetfeld untersucht. rnDie Kombination beider Komponenten in Form eines Ferrogels wurde durch Mischen Benzophenon funktionalisierter magnetischer Nanopartikel mit Polymer erreicht. Durch Aufschleudern (Spin-Coaten) wurden dünne Filme erzeugt und diese im Hinblick auf ihr Verhalten in einem Magnetfeld untersucht. Dabei wurde eine geringes Plastikverhalten beobachtet. Die experimentellen Ergebnisse wurden anschließend mit theoretisch berechneten Erwartungswerten verglichen und mit den unterschiedlichen Werten für dreidimensionale Ferrogele in Zusammenhang gestellt. rn
Resumo:
Ökonomische Entscheidungen sind ebenso wie alltägliche Entscheidungen von der Aktivität von Hirnregionen abhängig, die zur Kontrolle verschiedener Teilschritte der Entscheidung beitragen. Aktivierung und Desaktivierung dieser Hirnregionen können mit Hilfe moderner bildgebender Verfahren, wie z.B. der funktionellen Magnet-Resonanz-Tomographie (fMRI) dargestellt werden. Die vorliegende Publikation gibt einen Überblick über das interdisziplinäre wissenschaftliche Arbeitsgebiet der „Neuroökonomie“ – einem jungen Forschungsfeld der Neurowissenschaften. Dieser Überblick ist auf sieben Hauptaspekte ökonomischer und finanzieller Entscheidungen fokusiert: 1. In welcher Weise werden ökonomische Parameter wie Wert und Nutzen einer Belohnung, Gewinn oder Verlust, Risiko und Ungewissheit in spezifischen Hirnregionen abgebildet? 2. In welcher spezifischen Weise tragen anatomisch definierte Areale des Gehirns zum Entscheidungsprozess bei? 3. In welcher Weise sind die Entscheidungsprozesse durch Läsion entscheidungsrelevanter Areale des Gehirns gestört? 4. In welcher Weise sind Hirnregionen, die an den Prozessen der Entscheidung beteiligt sind, miteinander vernetzt, um durch Interaktion die Entscheidung herbeizuführen? 5. In welcher Weise ist der Entscheidungsprozess von Persönlichkeitseigenschaften, von genetischen Variationen neuronaler Funktionen und von physiologischer Regulation, z.B. durch Hormone bestimmt? 6. In welcher Weise hängt der Entscheidungsprozess vom sozialen und kulturellen Umfeld des Entscheiders ab? 7. Auf welche Weise werden bei unvollständiger Information über die Optionen der Entscheidung Heuristiken oder Intuitionen genutzt, und in welcher Weise sind Entscheidungen durch Biases beeinflussbar? Der zentrale Teil dieser Publikation gibt einen zusammenfassenden Überblick (review) über die Ergebnisse neuroökonomischer Studien, die die fMRI-Technik nutzen (bis Juni 2010).
Resumo:
Im Forschungsgebiet der Künstlichen Intelligenz, insbesondere im Bereich des maschinellen Lernens, hat sich eine ganze Reihe von Verfahren etabliert, die von biologischen Vorbildern inspiriert sind. Die prominentesten Vertreter derartiger Verfahren sind zum einen Evolutionäre Algorithmen, zum anderen Künstliche Neuronale Netze. Die vorliegende Arbeit befasst sich mit der Entwicklung eines Systems zum maschinellen Lernen, das Charakteristika beider Paradigmen in sich vereint: Das Hybride Lernende Klassifizierende System (HCS) wird basierend auf dem reellwertig kodierten eXtended Learning Classifier System (XCS), das als Lernmechanismus einen Genetischen Algorithmus enthält, und dem Wachsenden Neuralen Gas (GNG) entwickelt. Wie das XCS evolviert auch das HCS mit Hilfe eines Genetischen Algorithmus eine Population von Klassifizierern - das sind Regeln der Form [WENN Bedingung DANN Aktion], wobei die Bedingung angibt, in welchem Bereich des Zustandsraumes eines Lernproblems ein Klassifizierer anwendbar ist. Beim XCS spezifiziert die Bedingung in der Regel einen achsenparallelen Hyperquader, was oftmals keine angemessene Unterteilung des Zustandsraumes erlaubt. Beim HCS hingegen werden die Bedingungen der Klassifizierer durch Gewichtsvektoren beschrieben, wie die Neuronen des GNG sie besitzen. Jeder Klassifizierer ist anwendbar in seiner Zelle der durch die Population des HCS induzierten Voronoizerlegung des Zustandsraumes, dieser kann also flexibler unterteilt werden als beim XCS. Die Verwendung von Gewichtsvektoren ermöglicht ferner, einen vom Neuronenadaptationsverfahren des GNG abgeleiteten Mechanismus als zweites Lernverfahren neben dem Genetischen Algorithmus einzusetzen. Während das Lernen beim XCS rein evolutionär erfolgt, also nur durch Erzeugen neuer Klassifizierer, ermöglicht dies dem HCS, bereits vorhandene Klassifizierer anzupassen und zu verbessern. Zur Evaluation des HCS werden mit diesem verschiedene Lern-Experimente durchgeführt. Die Leistungsfähigkeit des Ansatzes wird in einer Reihe von Lernproblemen aus den Bereichen der Klassifikation, der Funktionsapproximation und des Lernens von Aktionen in einer interaktiven Lernumgebung unter Beweis gestellt.