688 resultados para Verfahren
Resumo:
In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.
Resumo:
Die Leber besitzt das Potential nach verursachter Zellschädigung durch chemische, toxische, traumatische oder virale Einwirkung (55, 73, 79, 95) sich selbst zu regenerieren. Dies geschieht entweder durch Hyperplasie der Hepatozyten, d.h. einer Volumenzunahme durch vermehrte Zellteilung und Erhöhung der Zellzahl (73, 79). Bei massiver und chronischer Leberzellschädigung, wie z.B. alkohol-verursachter Leberzirrhose oder durch chronisch virale Hepatitis (55, 74, 81) können die Hepatozyten den entstandenen Defekt nicht kompensieren und die oval cells, Bezeichnung im Rahmen der Nagetiermodelle, werden aktiviert (98, 105). Das humane Equivalent zu den oval cells bei Nagetieren stellen die hepatischen Progenitorzellen dar (79), diese sind in den Hering-Kanälchen lokalisiert (1, 42, 49). Aufgrund ihrer bipotenten Differenzierungsfähigkeit, können aus den hepatischen Progenitorzellen sowohl Hepatozyten als auch Cholangiozyten hervorgehen (18, 45). rnFür die Untersuchungen einer positiven Albumin-mRNA-Expression in Gallengangsproliferaten bei menschlichen zirrhotischen Leberpräparaten, die im Rahmen der Leberregeneration aus hepatischen Progenitorzellen entstehen, bietet sich das bereits etablierte Verfahren der Albumin mRNA in situ Hybridisierung an. Zur Durchführung der Methode wurde ein bereits etabliertes Protokoll zur in situ Hybridiserung von mRNAs peroxisomaler Proteine verwendet (86, 87).rnDas Patientenkollektiv bestand aus insgesamt 50 Patienten (9 weiblichen und 41 männlichen), im Alter von 40 bis 69 Jahren (Median=53, 25 %-Perzentile=49, 75%-Perzentile=60). Sieben Patienten zeigten eine Leberzirrhose auf dem Boden einer Hepatitis B, 24 Patienten eine Leberzirrhose auf dem Boden einer Hepatitis C und 19 Patienten waren an einer äthyltoxisch-bedingten Leberzirrhose erkrankt. Zusätzlich wurde bei insgesamt 23 Patienten im Rahmen der histologischen Befundung ein Hepatozelluläres Karzinom (HCC) diagnostiziert. rnMikroskopisch zeigte sich in 48 von 50 Präparaten eine Gallengangsproliferation innerhalb der bindegewebigen Septen. Bei Vorliegen einer Gallengangsproliferation wurde deren Ausprägung in 4 Grade (0=keine, 1=wenig, 2=mäßig und 3=stark) eingeteilt. Ein möglicher signifikanter Unterschied, ob der Grad einer Gallengangsproliferation auf eine bestimmte Ursache der Leberzirrhose zurück zu führen ist, ließ sich mit einem p-Wert von 0,247 nicht eruieren. Ebenso wie die Gallengansproliferation wurde die Albuminexpression in Grade eingeteilt. Dabei wurde zwischen keiner (Grad 0), einer intermediären (Grad 1) und einer starken (Grad 2) Albuminexpression unterschieden. Hier waren mit einem p-Wert von 0,586 keine Unterschiede zwischen der Gradeinteilung der Albuminexpression und den 3 Gruppen zu erkennen.rnZwischen den Präparaten mit einem HCC und ohne HCC ergaben sich hinsichtlich des Grades der Gallengangsproliferation mit einem p-Wert von 0,803 keine signifikanten Unterschiede. In Bezug auf die Gradeinteilung der Albuminexpressionrnzeigte sich ebenfalls kein signifikanter Unterschied mit einem p-Wert von 0,275 zwischen Präparaten mit und ohne Nachweis eines HCCs. Ebenfalls zeigte sich kein signifikanter Unterschied zwischen der Gallengangsproliferation (p-Wert von 0,709) und Albuminexpression (p-Wert von 0,613) zwischen Patienten jünger und älter als 60 Jahre.rnDie Ergebnisse dieser Arbeit zeigen, dass mittels der in situ Hybridisierung ein Nachweis der Gallengangsproliferation in leberzirrhotischen Präparaten unterschiedlicher Ätiologien gelingt. Zudem kann diese Arbeit beweisen, dass die Gallengangsproliferate Albumin exprimieren und dass der Nachweis dieser Albuminexpression mittels in situ Hybridisierung möglich ist. Allerdings zeigte sich kein signifikanter Unterschied der Albumin-mRNA-Expression in den Gallengangsproliferaten zwischen den unterschiedlichen Ätiologien der Leberzirrhose und ebenfalls nicht im Vergleich von Leberzirrhosen unterschiedlicher Genese mit und ohne gleichzeitigem Nachweis eines HCCs. rn
Resumo:
In der vorliegenden Arbeit wurde der Nachweis des Isotops Np-237 mit Resonanzionisations-Massenspektrometrie (RIMS) entwickelt und optimiert. Bei RIMS werden Probenatome mehrstufig-resonant mit Laserstrahlung angeregt, ionisiert und anschließend massenspektrometrisch nachgewiesen. Die Bestimmung geeigneter Energiezustände für die Anregung und Ionisation von Np-237 erfolgte durch Resonanzionisationsspektroskopie (RIS), wobei über 300 bisher unbekannte Energieniveaus und autoionisierende Zustände von Np-237 identifiziert wurden. Mit in-source-RIMS wird für das Isotop eine Nachweisgrenze von 9E+5 Atome erreicht. rnrnDie Mobilität von Np in der Umwelt hängt stark von seiner Elementspeziation ab. Für Sicherheitsanalysen potentieller Endlagerstandorte werden daher Methoden benötigt, die Aussagen über die unter verschiedenen Bedingungen vorliegenden Neptuniumspezies ermöglichen. Hierzu wurde eine online-Kopplung aus Kapillarelektrophorese (CE) und ICP-MS (inductively coupled plasma mass spectrometry) genutzt, mit der die Np-Redoxspezies Np(IV) und Np(V) noch bei einer Konzentrationen von 1E-9 mol/L selektiv nachgewiesen werden können. Das Verfahren wurde eingesetzt, um die Wechselwirkung des Elements mit Opalinuston unter verschiedenen Bedingungen zu untersuchen. Dabei konnte gezeigt werden, dass bei Gegenwart von Fe(II) Np(V) zu Np(IV) reduziert wird und dieses am Tongestein sorbiert. Dies führt insgesamt zu einer deutlich erhöhten Sorption des Np am Ton.
Resumo:
Es wurde untersucht, wie sich das Substitutionsmuster organischer Peroxyradikale (RO2) auf die Ratenkonstante k1 und die Verzweigungsverhältnisse α, β und γ der Reaktionen von RO2 mit HO2 auswirkt. Die Effekte der Deuterierung von HO2 wurden ebenfalls studiert. Für zwei RO2 wurde zusätzlich das UV-Absorptionsspektrum bestimmt.rnrn αrnRO2 + HO2 → RO + OH + O2 R1arnrn βrn → RO2H + O2 R1brnrn γrn → ROH + O3 R1crnrnIn dieser Arbeit wurde ein neues Experiment aufgebaut. Für die direkte und zeitaufgelöste Messung der OH-Konzentration wurde das Verfahren der Laser-induzierten Fluoreszenz angewendet. Die Radikalerzeugung erfolgte mittels gepulster Laserphotolyse, wodurch unerwünschte Nebenreaktionen weitgehend unterdrückt werden konnten. Mittels transienter Absorptionsspektroskopie konnten die Menge der photolytisch erzeugten Radikale bestimmt und die Ozonbildung über R1c quantifiziert werden. Für die Auswertung wurden kinetische Modelle numerisch an die Messdaten angepasst. Um die experimentellen Unsicherheiten abzuschätzen, wurde ein Monte-Carlo-Ansatz gewählt.rnrnk1 und α reagieren sehr empfindlich auf Veränderungen des RO2-Substitutionsmusters. Während sich eine OH-Bildung für das unsubstituierte C2H5O2 (EtP) mit α EtP ≤ 5 % nicht nachweisen lässt, stellt R1a bei den α-Oxo-substituierten H3CC(O)O2 (AcP) und HOCH2C(O)O2 (HAP) mit α AcP = (63 ± 11) % bzw. α HAP = (69 ± 12) % den Hauptkanal dar. Wie die mit α HEP = (10 ± 4) % geringfügige OH-Bildung bei HOC2H4O2 (HEP) zeigt, nimmt die OH-Gruppe in β-Stellung weniger Einfluss auf den Wert von α als die Oxogruppe in α-Stellung. Bei der Erzeugung α-Oxo-substituierter RO2 kann ebenfalls OH entstehen (R+O2→RO2/OH). Die Druckabhängigkeit dieser OH-Quelle wurde mit einem innovativen Ansatz bestimmt. Mit γ AcP = (15+5-6) % bzw. γ HAP = (10+2-3) % lässt sich für die Reaktionen der α-Oxo-substituierten RO2 eine erhebliche Ozonbildung nachweisen. Durch die Einführung der α-Oxogruppe steigt k1 jeweils um 1,3 • 10-11 cm3s-1 an, der Effekt der β-Hydroxygruppe ist halb so groß (k1 AcP = (2,0 ± 0,4) • 10-11 cm3s-1, k1 HAP = (2,6 ± 0,4) • 10-11 cm3s-1). Das Verzweigungsverhältnis α steigt weiter, wenn das HO2 deuteriert wird (α AcP,iso = (80 ± 14) %, k1 AcP,iso = (2,1 ± 0,4) • 10-11 cm3s-1). Vergleiche mit älteren Studien zeigen, dass die OH-Bildung über R1a bislang deutlich unterschätzt worden ist. Die möglichen Ursachen für die Unterschiede zwischen den Studien werden ebenso diskutiert wie die Hintergründe der beobachteten Substituenteneffekte.
Resumo:
Die Suppression von autoreaktiven T-Zellen ist eine Funktion von CD4+CD25+ regulatorischen T-Zellen (CD4+CD25+ Tregs). CD4+CD25+ Tregs unterdrücken autoaggressive Immunantworten. Galectin-10 und Foxp3 sind wichtige Proteine, die an dem supprimierenden Mechanismus der Tregs beteiligt sind. Galectin-10 ist eines der ältesten bekannten humanen Proteine, die nicht in anderen Spezies gefunden worden sind. Foxp3 ist ein Transkriptionsfaktor, der in menschlichen CD4+CD25+ Tregs und in CD4+CD25- T-Effektor-Zellen nach Aktivierung exprimiert wird. Ein siRNA-vermittelter Knockdown dieses intrazellulären löslichen Proteins hebt die supprimierende Funktion der humanen CD4+CD25+ Tregs auf.rnDiese Arbeit beinhaltet in vitro durchgeführte Untersuchungen zur Ermöglichung eines Knockdown von Galectin-10 und/oder Foxp3 in humanisierten Mäusen. Es war möglich, ein Verfahren für die Produktion von lentiviralen Partikeln zu etablierten, die sich als effizientes Vehikel für den Gentransfer in humane Stammzellen und verschiedene Tumor- und Immunzellen erwiesen. Nach der Transduktion von AML14.3D10 Tumorzellen mit GFP-codierenden lentiviralen Partikeln konnte eine langfristige Expression von GFP erreicht werden. Außerdem war es möglich lentivirale Partikel zu erzeugen, die mit shRNA gegen Galectin-10 codiert waren. Die erzeugten Partikel erwiesen sich als funktionell, indem sie eine deutliche Herunterregulation von Galectin-10 in konstitutiv Galectin-10 exprimierenden AML14.3D10 Tumorzellen bewirkten. Unsere Studie präsentierte außerdem eine erstmalige Untersuchung zum Nachweis von Galectin-10-Protein in Eosinophilen aus humanen CD34+ hämatopoetischen Stammzellen (HSC). Diese stabile in vitro Galectin-10-Expression bietet ein alternatives Untersuchungsmodell zu CD4+CD25+ Tregs, die nicht aus CD34+ HSC differenziert werden können. Der zusätzliche Einbau des GFP-Gens in die mit shRNA gegen Galectin-10 codierende lentivirale Partikel war ein wichtiger Schritt zur Markierung von Zellen, die einen Galectin-10-Knockdown aufwiesen. Die neuen bicistronischen lentiviralen Partikel erwiesen sich sowohl in aus CD34+ HSC differenzierten Eosinophilen als auch in AML14.3D10 Zellen, die einen eosinophilen Phänotyp aufweisen, als funktionell. Schließlich konnte mit den bicistronischen lentiviralen Partikeln, die mit GFP und shRNA gegen Foxp3 codiert waren, eine Herunterregulation von Foxp3 in CD4+CD25- T-Effektor-Zellen erreicht werden, was erneut die erfolgreiche Herstellung von funktionellen lentiviralen Partikeln bewies.rn
Resumo:
Natürliche hydraulische Bruchbildung ist in allen Bereichen der Erdkruste ein wichtiger und stark verbreiteter Prozess. Sie beeinflusst die effektive Permeabilität und Fluidtransport auf mehreren Größenordnungen, indem sie hydraulische Konnektivität bewirkt. Der Prozess der Bruchbildung ist sowohl sehr dynamisch als auch hoch komplex. Die Dynamik stammt von der starken Wechselwirkung tektonischer und hydraulischer Prozesse, während sich die Komplexität aus der potentiellen Abhängigkeit der poroelastischen Eigenschaften von Fluiddruck und Bruchbildung ergibt. Die Bildung hydraulischer Brüche besteht aus drei Phasen: 1) Nukleation, 2) zeitabhängiges quasi-statisches Wachstum so lange der Fluiddruck die Zugfestigkeit des Gesteins übersteigt, und 3) in heterogenen Gesteinen der Einfluss von Lagen unterschiedlicher mechanischer oder sedimentärer Eigenschaften auf die Bruchausbreitung. Auch die mechanische Heterogenität, die durch präexistierende Brüche und Gesteinsdeformation erzeugt wird, hat großen Einfluß auf den Wachstumsverlauf. Die Richtung der Bruchausbreitung wird entweder durch die Verbindung von Diskontinuitäten mit geringer Zugfestigkeit im Bereich vor der Bruchfront bestimmt, oder die Bruchausbreitung kann enden, wenn der Bruch auf Diskontinuitäten mit hoher Festigkeit trifft. Durch diese Wechselwirkungen entsteht ein Kluftnetzwerk mit komplexer Geometrie, das die lokale Deformationsgeschichte und die Dynamik der unterliegenden physikalischen Prozesse reflektiert. rnrnNatürliche hydraulische Bruchbildung hat wesentliche Implikationen für akademische und kommerzielle Fragestellungen in verschiedenen Feldern der Geowissenschaften. Seit den 50er Jahren wird hydraulisches Fracturing eingesetzt, um die Permeabilität von Gas und Öllagerstätten zu erhöhen. Geländebeobachtungen, Isotopenstudien, Laborexperimente und numerische Analysen bestätigen die entscheidende Rolle des Fluiddruckgefälles in Verbindung mit poroelastischen Effekten für den lokalen Spannungszustand und für die Bedingungen, unter denen sich hydraulische Brüche bilden und ausbreiten. Die meisten numerischen hydromechanischen Modelle nehmen für die Kopplung zwischen Fluid und propagierenden Brüchen vordefinierte Bruchgeometrien mit konstantem Fluiddruck an, um das Problem rechnerisch eingrenzen zu können. Da natürliche Gesteine kaum so einfach strukturiert sind, sind diese Modelle generell nicht sonderlich effektiv in der Analyse dieses komplexen Prozesses. Insbesondere unterschätzen sie die Rückkopplung von poroelastischen Effekten und gekoppelte Fluid-Festgestein Prozesse, d.h. die Entwicklung des Porendrucks in Abhängigkeit vom Gesteinsversagen und umgekehrt.rnrnIn dieser Arbeit wird ein zweidimensionales gekoppeltes poro-elasto-plastisches Computer-Model für die qualitative und zum Teil auch quantitativ Analyse der Rolle lokalisierter oder homogen verteilter Fluiddrücke auf die dynamische Ausbreitung von hydraulischen Brüchen und die zeitgleiche Evolution der effektiven Permeabilität entwickelt. Das Programm ist rechnerisch effizient, indem es die Fluiddynamik mittels einer Druckdiffusions-Gleichung nach Darcy ohne redundante Komponenten beschreibt. Es berücksichtigt auch die Biot-Kompressibilität poröser Gesteine, die implementiert wurde um die Kontrollparameter in der Mechanik hydraulischer Bruchbildung in verschiedenen geologischen Szenarien mit homogenen und heterogenen Sedimentären Abfolgen zu bestimmen. Als Resultat ergibt sich, dass der Fluiddruck-Gradient in geschlossenen Systemen lokal zu Störungen des homogenen Spannungsfeldes führen. Abhängig von den Randbedingungen können sich diese Störungen eine Neuausrichtung der Bruchausbreitung zur Folge haben kann. Durch den Effekt auf den lokalen Spannungszustand können hohe Druckgradienten auch schichtparallele Bruchbildung oder Schlupf in nicht-entwässerten heterogenen Medien erzeugen. Ein Beispiel von besonderer Bedeutung ist die Evolution von Akkretionskeilen, wo die große Dynamik der tektonischen Aktivität zusammen mit extremen Porendrücken lokal starke Störungen des Spannungsfeldes erzeugt, die eine hoch-komplexe strukturelle Entwicklung inklusive vertikaler und horizontaler hydraulischer Bruch-Netzwerke bewirkt. Die Transport-Eigenschaften der Gesteine werden stark durch die Dynamik in der Entwicklung lokaler Permeabilitäten durch Dehnungsbrüche und Störungen bestimmt. Möglicherweise besteht ein enger Zusammenhang zwischen der Bildung von Grabenstrukturen und großmaßstäblicher Fluid-Migration. rnrnDie Konsistenz zwischen den Resultaten der Simulationen und vorhergehender experimenteller Untersuchungen deutet darauf hin, dass das beschriebene numerische Verfahren zur qualitativen Analyse hydraulischer Brüche gut geeignet ist. Das Schema hat auch Nachteile wenn es um die quantitative Analyse des Fluidflusses durch induzierte Bruchflächen in deformierten Gesteinen geht. Es empfiehlt sich zudem, das vorgestellte numerische Schema um die Kopplung mit thermo-chemischen Prozessen zu erweitern, um dynamische Probleme im Zusammenhang mit dem Wachstum von Kluftfüllungen in hydraulischen Brüchen zu untersuchen.
Resumo:
Übergangsmetallen wie Nickel und Cobalt kommt meist eine große Bedeutung als Cofaktor in Enzymen oder Metallkomplexen im Metabolismus von Lebewesen zu. Da eine sehr geringe Konzentration dieser Übergangsmetalle in einer Zelle für deren Funktionalität ausreicht, ist eine konstante Konzentration der Spurenelemente in einer Zelle angestrebt. Durch meist anthropogene Einflüsse sind Pflanzen und Menschen zunehmend hohen Konzentrationen von Übergangsmetallen ausgesetzt, die in Abhängigkeit von ihrer Spezies, der Konzentration und der Lokalisation unterschiedliche Toxizitäten aufweisen können. Die Speziation von Metallen wurde bisher mittels gängiger Analyseverfahren, wie der ICP-MS und ähnlicher Verfahren, anhand von bulk-Material durchgeführt. Durch die Entwicklung von optischen Sensoren für Metallionen war es möglich, diese Metalle auch in lebenden Zellen mittels Fluoreszenzmikroskopie zu lokalisieren. Ke und Kollegen (2006, 2007) nutzten einen solchen optischen Sensor - Newport Green DCF, um die Aufnahme von Nickel in humane A543 Lungenbronchialepithelzellen nach Inkubation mit dem wasserlöslichen NiCl2 (0,5 mM und 1 mM) sowie den wasserunlöslichen Verbindungen Ni3S2 (0,5 µg/cm2 und 1 µg/cm2) und NiS (2,5 µg/cm2) nachzuweisen und zu lokalisieren und konnten damit eine Akkumulation von Nickel im Zytoplasma und im Zellkern aufzeigen. Dabei war bei wasserlöslichen und wasserunlöslichen Nickelverbindungen Nickel nach 24 h im Zytoplasma und erst nach 48 h im Zellkern zu beobachten.rnrnDa Nickel und Cobalt keine detektierbare Eigenfluoreszenz unter den gegebenen Bedingungen zeigten, wurde für den optischen Nachweis von Nickel und Cobalt mit dem konfokalen Laser-Raster Mikroskop (CLSM) nach der Zugabe der verschiedenen wasserlöslichen und wasserunlöslichen Metallverbindungen NiCl2, NiSO4, Ni3S2 und CoCl2 in einzelnen lebenden humanen Gingiva-Fibroblasten, sowie in Pflanzenzellen in dieser Arbeit ebenfalls der optische Sensor Newport Green DCF genutzt. Korrespondierend zu den Ergebnissen früherer Arbeiten von Ke et al. (2006, 2007), in denen die Nickelaufnahme bei Konzentrationen von >0,5 mM NiCl2 bzw. >0,5 µg/cm2 Ni3S2 gezeigt wurde, wurde Nickel in Fibroblasten in Abhängigkeit von der Spezies mit steigender Metallkonzentration von 100 µM bis 500 µM nach 16 h im Zytoplasma und zunehmend nach 24 h bis 48 h im Zellkern detektiert. Bei der wasserunlöslichen Verbindung Ni3S2 war der Nachweis von Nickel im Zellkern bereits nach 16 h bis 24 h erfolgreich. Zusätzlich wurden weitere Strukturen wie das Endoplasmatische Retikulum, die Mitochondrien und die Nukleoli durch eine starke Fluoreszenz des optischen Sensors bei Colokalisationsexperimenten mit Organell-spezifischen Fluoreszenzfarbstoffen als target für die Nickelbindung vermutet. Die Lokalisation von Cobalt in den Fibroblasten entsprach weitgehend der Lokalisation von Nickel. Im Zellkern war die Cobaltlokalisation jedoch auf die Nukleoli beschränkt. Weiterführende Versuche an humanen Gingiva-Fibroblasten zeigten, dass die Aufnahme der Metalle in die Fibroblasten pH-Wert abhängig war. Niedrige pH-Werte im sauren pH-Bereich verringerten die Aufnahme der Metalle in die Zellen, wobei ein pH-Wert im basischen Bereich keinen bedeutenden Unterschied zum neutralen pH-Bereich aufwies. Im Vergleich zu den Fibroblasten war in Pflanzenzellen zu jedem Zeitpunkt, auch bei geringen Konzentrationen der Metallverbindungen sowie des optischen Sensors, Nickel und Cobalt in den Zellkernen detektierbar. Durch die Eigenschaft der Pflanzenzellen eine Vakuole zu besitzen, war Nickel und Cobalt hauptsächlich in den Vakuolen lokalisiert. Weitere Strukturen wie das Endoplasmatische Retikulum, die Mitochondrien oder auch die Zellwand kamen bei Pflanzenzellen als target in Frage.rnrnDie Fluoreszenz und Lokalisation der Metalle in den Fibroblasten waren unabhängig von der Spezies sehr ähnlich, sodass in den Zellen die Spezies anhand der fluoreszenzmikroskopischen Aufnahmen kaum unterschieden werden konnten. Lambda-Scans in verschiedenen regions of interest (ROI) wurden durchgeführt, um durch die Fluoreszenzspektren Hinweise auf eine charakteristische Beeinflussung der Bindungspartner von Nickel und Cobalt oder dieser Metalle selbst in den Zellen auf den optischen Sensor zu bekommen und diese dadurch identifizieren zu können. Das Ziel der parallelen Detektion bzw. Lokalisation und gleichzeitigen Speziation bestimmter Nickel- und Cobaltpezies in einzelnen lebenden Zellen konnte in dieser Arbeit durch den optischen Sensor Newport Green DCF nicht erreicht werden.
Resumo:
Die Selbstorganisation von amphiphilen Molekülen wird genutzt, um in Lösung, auf der Oberfläche, in der festen Phase und an der Flüssig/Fest-Grenzfläche nanoskopisch strukturierte Materialien zu erhalten. Ziel hierbei ist es, die Dynamik der niedermolekularen Amphiphile mit der Stabilität der hochmolekularen Amphiphile zu vereinigen, um damit die Selbstorganisation der Moleküle zu kontrollieren. Drei Konzepte zur Strukturierung von Kohlenstoff durch Selbstorganisation werden vorgestellt. Im ersten Konzept werden aus Hexaphenylbenzol-Polyethylenglykol- (HPB-PEG) und Hexa-peri-hexabenzocoronen- (HBC-PEG) Derivaten wurmähnliche bzw. faserförmige Strukturen in wässriger Lösung erhalten. Der Wassergehalt in den Hydrogelfasern aus den HPB-PEG-Derivaten kann durch das Substitutionsmuster der Amphiphile und die Länge der PEG-Ketten eingestellt werden. Die Hydrogelfasern ähneln anders als die bisherigen Verfahren, die zur Faserherstellung verwendet werden (Extrudieren, Mikrofluid-Verarbeitung oder Elektrospinning), Systemen in der Natur. Der Beweis für die Bildung von Hydrogelfasern wird mittels spezieller Methoden der polarisierten und depolarisierten dynamischen Lichtstreuung erbracht. Im zweiten Konzept werden durch Elektronenbestrahlung und Pyrolyse von 3',4',5',6'-Tetraphenyl-[1,1':2',1''-terphenyl]-4,4''-dithiol homogene Kohlenstoffmembranen mit Poren erzeugt, die Anwendung in der Filtration finden können und im dritten Konzept wird die Selbstorganisation von einem ortho-verknüpften HPB-Trimer an der Flüssig/Fest-Grenzfläche untersucht. Auf diese Weise werden hochgeordnete lamellare Strukturen erhalten. In allen drei Konzepten sind die Geometrie und die Größe der Moleküle die entscheidenden Parameter zur Erzeugung definierter Strukturen.
Resumo:
Herz-Kreislauf-Erkrankungen zählen weltweit zu den Hauptursachen, die zu frühzeitigem Tod führen. Pathophysiologisch liegt eine Gefäßwandverdickung durch Ablagerung arteriosklerotischer Plaques (Arteriosklerose) vor. Die molekulare Bildgebung mit den nuklearmedizinischen Verfahren SPECT und PET zielt darauf ab, minderperfundierte Myokardareale zu visualisieren, um den Krankheitsverlauf durch frühzeitige Therapie abschwächen zu können. Routinemäßig eingesetzt werden die SPECT-Perfusionstracer [99mTc]Sestamibi und [99mTc]Tetrofosmin. Zum Goldstandard für die Quantifizierung der Myokardperfusion werden allerdings die PET-Tracer [13N]NH3 und [15O]H2O, da eine absolute Bestimmung des Blutflusses in mL/min/g sowohl in der Ruhe als auch bei Belastung möglich ist. 2007 wurde [18F]Flurpiridaz als neuer Myokardtracer vorgestellt, dessen Bindung an den MC I sowohl in Ratten, Hasen, Primaten als auch in ersten klinischen Humanstudien eine selektive Myokardaufnahme zeigte. Um eine Verfügbarkeit des Radionuklids über einen Radionuklidgenerator gewährleisten zu können, sollten makrozyklische 68Ga-Myokard-Perfusionstracer auf Pyridaben-Basis synthetisiert und evaluiert werden. Die neue Tracer-Klasse setzte sich aus dem makrozyklischen Chelator, einem Linker und dem Insektizid Pyridaben als Targeting-Vektor zusammen. Struktur-Affinitätsbeziehungen konnten auf Grund von Variation des Linkers (Länge und Polarität), der Komplexladung (neutral und einfach positiv geladen), des Chelators (DOTA, NODAGA, DO2A) sowie durch einen Multivalenzansatz (Monomer und Dimer) aufgestellt werden. Insgesamt wurden 16 neue Verbindungen synthetisiert. Ihre 68Ga-Markierung wurde hinsichtlich pH-Wert, Temperatur, Vorläufermenge und Reaktionszeit optimiert. Die DOTA/NODAGA-Pyridaben-Derivate ließen sich mit niedrigen Substanzmengen (6 - 25 nmol) in 0,1 M HEPES-Puffer (pH 3,4) bei 95°C innerhalb 15 min mit Ausbeuten > 95 % markieren. Für die DO2A-basierenden Verbindungen bedurfte es einer mikrowellengestützen Markierung (300 W, 1 min, 150°C), um vergleichbare Ausbeuten zu erzielen. Die in vitro-Stabilitätstests aller Verbindungen erfolgten in EtOH, NaCl und humanem Serum. Es konnten keine Instabilitäten innerhalb 80 min bei 37°C festgestellt werden. Unter Verwendung der „shake flask“-Methode wurden die Lipophilien (log D = -1,90 – 1,91) anhand des Verteilungs-quotienten in Octanol/PBS-Puffer ermittelt. Die kalten Referenzsubstanzen wurden mit GaCl3 hergestellt und zur Bestimmung der IC50-Werte (34,1 µM – 1 µM) in vitro auf ihre Affinität zum MC I getestet. In vivo-Evaluierungen erfolgten mit den zwei potentesten Verbindungen [68Ga]VN160.MZ und [68Ga]VN167.MZ durch µ-PET-Aufnahmen (n=3) in gesunden Ratten über 60 min. Um die Organverteilung ermitteln zu können, wurden ex vivo-Biodistributionsstudien (n=3) vorgenommen. Sowohl die µ-PET-Untersuchungen als auch die Biodistributionsstudien zeigten, dass es bei [68Ga]VN167.MZ zwar zu einer Herzaufnahme kam, die jedoch eher perfusionsabhängig ist. Eine Retention des Tracers im Myokard konnte in geringem Umfang festgestellt werden.
Resumo:
Die Arbeit behandelt Fragen des Dreistufentests, der mit dem Inkrafttreten des 12. Rundfunkänderungsstaatsvertrages am 1.6.2009 Eingang in das deutsche Rundfunkrecht gefunden hat. Voraus ging eine Auseinandersetzung der Bundesrepublik Deutschland mit der Europäischen Kommission im Rahmen von Beschwerden über die Zulässigkeit der deutschen Rundfunkfinanzierung. Das Verfahren endete mit Auflagen, die durch den deutschen Rundfunkgesetzgeber umgesetzt wurden, nicht zuletzt, um den Vorgaben des europäischen Beihilfenrechts zu entsprechen. Anders als zu dem Verfahren des Dreistufentests zuvor erschienenen Monografien setzt die vorliegende Arbeit an dessen Abschluss an und stellt die Frage, wie eine den Dreistufentest beendende Entscheidung überprüft werden kann, inwieweit und für wen sie justiziabel ist. rnrnDer Autor untersucht zunächst die Überprüfung des Dreistufentests durch die für die Rechtsaufsicht zuständige Stelle, die der Rundfunkstaatsvertrag vorsieht, um den europarechtlich geforderten staatlichen Betrauungsakt zu garantieren. Eingehend behandelt werden Fragen zur Verfassungsmäßigkeit einer obligatorischen rechtsaufsichtlichen Prüfung programmbezogener Thematiken unter den Gesichtspunkten der Staatsferne und Subsidiarität. Der Autor kommt zu dem Ergebnis, dass die Prüfung der für die Rechtsaufsicht zuständigen Stelle keine Aufsicht im eigentlichen Sinne darstellt, sondern eine Aufgabe sui generis und dass aufgrund einer durch Beurteilungsspielräume und Defizite in den Handlungsmitteln doppelt beschränkten Prüfungskompetenz der für die Rechtsaufsicht zuständigen Stelle den verfassungsmäßigen Vorgaben genügt wird. Die für die Rechtsaufsicht zuständige Stelle entscheidet durch einen Verwaltungsakt.rnrnSodann werden die Möglichkeiten eines verwaltungsgerichtlichen Vorgehens in verschiedenen theoretischen prozessualen Situationen untersucht. Im Ergebnis stellt sich eine Verpflichtungsklage einer Rundfunkanstalt gegen die Ablehnung der Bestätigung eines Dreistufentestergebnisses als zulässig und begründbar heraus. Gleiches gilt für eine Konkurrenten-Anfechtungsklage gegen die Bestätigung eines Dreistufentestergebnisses. In beiden Fällen ist für eine gute Erfolgsaussicht ein hohes Maß an argumentativer Kraft erforderlich. Untersucht werden schließlich Organstreitverfahren innerhalb einer Rundfunkanstalt. rnrnEin gerichtliches Vorgehen gegen den Dreistufentest auf der Basis des Wettbewerbsrechts vor ordentlichen Gerichten ist möglich. Exemplarisch wird der aktuelle Rechtsstreit um die Tagesschau-App behandelt, der auf § 4 Nr. 11 UWG basiert. Der gerichtlich überprüfbare Vorwurf wird in der konkreten Ausgestaltung eines Telemedienangebots in dem Verstoß einer Regelung des Rundfunkstaatsvertrages erhoben, etwa als nicht sendungsbezogen oder presseähnlich. Ergebnis der eingehenden Bewertung dieses Falles ist die Feststellung, dass nicht der Dreistufentest selbst Gegenstand einer Überprüfung ist, sondern die praktische Umsetzung seines Ergebnisses. Diskutiert werden insbesondere die Fragestellungen, inwieweit eine zumal bestandskräftige behördliche Entscheidung überhaupt durch ordentliche Gerichte zu überprüfen ist und ob ein solches behördliches Handeln als unlauter bewertet werden kann. rnrnSchließlich stellen sich die Erfolgsaussichten gerichtlicher Maßnahmen auf der Ebene der europäischen Gerichtsbarkeit im Ergebnis als gering heraus.rn
Resumo:
Das Basisproblem von Arc-Routing Problemen mit mehreren Fahrzeugen ist das Capacitated Arc-Routing Problem (CARP). Praktische Anwendungen des CARP sind z.B. in den Bereichen Müllabfuhr und Briefzustellung zu finden. Das Ziel ist es, einen kostenminimalen Tourenplan zu berechnen, bei dem alle erforderlichen Kanten bedient werden und gleichzeitig die Fahrzeugkapazität eingehalten wird. In der vorliegenden Arbeit wird ein Cut-First Branch-and-Price Second Verfahren entwickelt. In der ersten Phase werden Schnittebenen generiert, die dem Master Problem in der zweiten Phase hinzugefügt werden. Das Subproblem ist ein kürzeste Wege Problem mit Ressourcen und wird gelöst um neue Spalten für das Master Problem zu liefern. Ganzzahlige CARP Lösungen werden durch ein neues hierarchisches Branching-Schema garantiert. Umfassende Rechenstudien zeigen die Effektivität dieses Algorithmus. Kombinierte Standort- und Arc-Routing Probleme ermöglichen eine realistischere Modellierung von Zustellvarianten bei der Briefzustellung. In dieser Arbeit werden jeweils zwei mathematische Modelle für Park and Loop und Park and Loop with Curbline vorgestellt. Die Modelle für das jeweilige Problem unterscheiden sich darin, wie zulässige Transfer Routen modelliert werden. Während der erste Modelltyp Subtour-Eliminationsbedingungen verwendet, werden bei dem zweiten Modelltyp Flussvariablen und Flusserhaltungsbedingungen eingesetzt. Die Rechenstudie zeigt, dass ein MIP-Solver den zweiten Modelltyp oft in kürzerer Rechenzeit lösen kann oder bei Erreichen des Zeitlimits bessere Zielfunktionswerte liefert.
Resumo:
Graphene nanoribbons (GNRs), which are defined as nanometer-wide strips of graphene, are attracting an increasing attention as one on the most promising materials for future nanoelectronics. Unlike zero-bandgap graphene that cannot be switched off in transistors, GNRs possess open bandgaps that critically depend on their width and edge structures. GNRs were predominantly prepared through “top-down” methods such as “cutting” of graphene and “unzipping” of carbon nanotubes, but these methods cannot precisely control the structure of the resulting GNRs. In contrast, “bottom-up” chemical synthetic approach enables fabrication of structurally defined and uniform GNRs from tailor-made polyphenylene precursors. Nevertheless, width and length of the GNRs obtainable by this method were considerably limited. In this study, lateral as well as longitudinal extensions of the GNRs were achieved while preserving the high structural definition, based on the bottom-up solution synthesis. Initially, wider (~2 nm) GNRs were synthesized by using laterally expanded monomers through AA-type Yamamoto polymerization, which proved more efficient than the conventional A2B2-type Suzuki polymerization. The wider GNRs showed broad absorption profile extending to the near-infrared region with a low optical bandgap of 1.12 eV, which indicated a potential of such GNRs for the application in photovoltaic cells. Next, high longitudinal extension of narrow (~1 nm) GNRs over 600 nm was accomplished based on AB-type Diels–Alder polymerization, which provided corresponding polyphenylene precursors with the weight-average molecular weight of larger than 600,000 g/mol. Bulky alkyl chains densely installed on the peripheral positions of these GNRs enhanced their liquid-phase processability, which allowed their formation of highly ordered self-assembled monolayers. Furthermore, non-contact time-resolved terahertz spectroscopy measurements demonstrated high charge-carrier mobility within individual GNRs. Remarkably, lateral extension of the AB-type monomer enabled the fabrication of wider (~2 nm) and long (>100 nm) GNRs through the Diels–Alder polymerization. Such longitudinally extended and structurally well-defined GNRs are expected to allow the fabrication of single-ribbon transistors for the fundamental studies on the electronic properties of the GNRs as well as contribute to the development of future electronic devices.
Resumo:
Die Materialverfolgung gewinnt in der Metallindustrie immer mehr an Bedeutung:rnEs ist notwendig, dass ein Metallband im Fertigungsprozess ein festgelegtes Programm durchläuft - erst dann ist die Qualität des Endprodukts garantiert. Die bisherige Praxis besteht darin, jedem Metallband eine Nummer zuzuordnen, mit der dieses Band beschriftet wird. Bei einer tagelangen Lagerung der Bänder zwischen zwei Produktionsschritten erweist sich diese Methode als fehleranfällig: Die Beschriftungen können z.B. verloren gehen, verwechselt, falsch ausgelesen oder unleserlich werden. 2007 meldete die iba AG das Patent zur Identifikation der Metallbänder anhand ihres Dickenprofils an (Anhaus [3]) - damit kann die Identität des Metallbandes zweifelsfrei nachgewiesen werden, eine zuverlässige Materialverfolgung wurde möglich.Es stellte sich jedoch heraus, dass die messfehlerbehafteten Dickenprofile, die als lange Zeitreihen aufgefasst werden können, mit Hilfe von bisherigen Verfahren (z.B. L2-Abstandsminimierung oder Dynamic Time Warping) nicht erfolgreich verglichen werden können.Diese Arbeit stellt einen effizienten feature-basierten Algorithmus zum Vergleichrnzweier Zeitreihen vor. Er ist sowohl robust gegenüber Rauschen und Messausfällen als auch invariant gegenüber solchen Koordinatentransformationen der Zeitreihen wie Skalierung und Translation. Des Weiteren sind auch Vergleiche mit Teilzeitreihen möglich. Unser Framework zeichnet sich sowohl durch seine hohe Genauigkeit als auch durch seine hohe Geschwindigkeit aus: Mehr als 99.5% der Anfragen an unsere aus realen Profilen bestehende Testdatenbank werden richtig beantwortet. Mit mehreren hundert Zeitreihen-Vergleichen pro Sekunde ist es etwa um den Faktor 10 schneller als die auf dem Gebiet der Zeitreihenanalyse etablierten Verfahren, die jedoch nicht im Stande sind, mehr als 90% der Anfragen korrekt zu verarbeiten. Der Algorithmus hat sich als industrietauglich erwiesen. Die iba AG setzt ihn in einem weltweit einzigartigen dickenprofilbasierten Überwachungssystemrnzur Materialverfolgung ein, das in ersten Stahl- und Aluminiumwalzwerkenrnbereits erfolgreich zum Einsatz kommt.
Resumo:
Biobanken sind Sammlungen von Körpersubstanzen, die mit umfangreichen gesundheits- und lebensstilbezogenen sowie geneologischen Daten ihrer Spender verknüpft sind. Sie dienen der Erforschung weit verbreiteter Krankheiten. Diese sog. Volkskrankheiten sind multifaktoriell bedingte Krankheiten. Dies bedeutet, dass diese Krankheiten das Ergebnis eines komplizierten Zusammenspiels von umwelt- und verhaltensrelevanten Faktoren mit individuellen genetischen Prädispositionen sind. Forschungen im Bereich von Pharmakogenomik und Pharmakogenetik untersuchen den Einfluss von Genen und Genexpressionen auf die individuelle Wirksamkeit von Medikamenten sowie auf die Entstehung ungewollter Nebenwirkungen und könnten so den Weg zu einer individualisierten Medizin ebnen. Menschliches Material ist ein wichtiger Bestandteil dieser Forschungen und die Nachfrage nach Sammlungen, die Proben mit Daten verknüpfen, steigt. Einerseits sehen Mediziner in Biobanken eine Chance für die Weiterentwicklung der medizinischen Forschung und des Gesundheitswesens. Andererseits lösen Biobanken auch Ängste und Misstrauen aus. Insbesondere wird befürchtet, dass Proben und Daten unkontrolliert verwendet werden und sensible Bereiche des Persönlichkeitsrechts und der persönlichen Identität betroffen sind. Diese Gefahren und Befürchtungen sind nicht neu, sondern bestanden schon in der Vergangenheit bei jeglicher Form der Spende von Körpersubstanzen. Neu ist aber der Umfang an Informationen, der durch die Genanalyse entsteht und den Spender in ganz besonderer Weise betreffen kann. Bei der Speicherung und Nutzung der medizinischen und genetischen Daten ergibt sich somit ein Spannungsfeld insbesondere zwischen dem Recht der betroffenen Datenspender auf informationelle Selbstbestimmung und den Forschungsinteressen der Datennutzer. Im Kern dreht sich die ethisch-rechtliche Bewertung der Biobanken um die Frage, ob diese Forschung zusätzliche Regeln braucht, und falls ja, wie umfassend diese sein müssten. Im Zentrum dieser Diskussion stehen dabei v.a. ethische Fragen im Zusammenhang mit der informierten Einwilligung, dem Datenschutz, der Wiederverwendung von Proben und Daten, der Information der Spender über Forschungsergebnisse und der Nutzungsrechte an den Daten. Ziel dieser Arbeit ist es, vor dem Hintergrund des Verfassungsrechts, insbesondere dem Recht auf informationelle Selbstbestimmung, das Datenschutzrecht im Hinblick auf die Risiken zu untersuchen, die sich aus der Speicherung, Verarbeitung und Kommunikation von persönlichen genetischen Informationen beim Aufbau von Biobanken ergeben. Daraus ergibt sich die weitere Untersuchung, ob und unter welchen Voraussetzungen die sich entgegenstehenden Interessen und Rechte aus verfassungsrechtlichem Blickwinkel in Einklang zu bringen sind. Eine wesentliche Frage lautet, ob die bisherigen rechtlichen Rahmenbedingungen ausreichen, um den Schutz der gespeicherten höchstpersönlichen Daten und zugleich ihre angemessene Nutzung zu gewährleisten. Das Thema ist interdisziplinär im Schnittfeld von Datenschutz, Verfassungsrecht sowie Rechts- und Medizinethik angelegt. Aus dem Inhalt: Naturwissenschaftliche und empirische Grundlagen von Biobanken – Überblick über Biobankprojekte in Europa und im außereuropäischen Ausland – Rechtsgrundlagen für Biobanken - Recht auf informationelle Selbstbestimmung - Recht auf Nichtwissen - Forschungsfreiheit - Qualitätssicherung und Verfahren – informierte Einwilligung – globale Einwilligung - Datenschutzkonzepte - Forschungsgeheimnis –– Biobankgeheimnis - Biobankgesetz
Resumo:
This dissertation describes the synthesis of surface attached hydrogel biomaterials, characterization of their properties, evaluation of structuring concepts and the investigation of these materials in the isolation of DNA from human whole blood. Photosensitive hydrogel precursor materials on the basis of hydroxyethylmethacrylate (HEMA) were synthesized by free radical polymerization. In order to obtain surface bound hydrogel films, the precursors were deposited on a suitable substrate and subsequently irradatiated with UV - light to accomplish the formation of crosslinks in the film and create surface attachment. The composition of the polymerization precursor materials was determined by comprehensive NMR and GPC studies, revealing the copolymerizationrnbehaviour of the used monomers - HEMA derivatives and the photocrosslinkerrnMABP - and their respective distribution in the hydrogel precursors. The degree of crosslinking of the hydrogels was characterized with UV/vis spectroscopy. Stress-strain measurements were conducted in order to investigate the mechanical properties of the biomaterials. Moreover, the swelling process and biomolecule adsorption properties of the hydrogels were investigated with SPR/OW spectroscopy. For this, the deposition and binding of the hydrogels on gold or SiO2 surfaces was facilitated with photocrosslinkable adhesion promotors. The produced hydrogels were mechanically rigid and stablernunder the conditions of PCR and blood lysis. Furthermore, strategies towards the increase of hydrogel surface structure and porosity with porosigens, 2D laser interference lithography and photocleavable blockcopolymers were investigated. At last, a combinatorial strategy was used for the determination of the usefulness of hydrogels for the isolation from DNA from blood. A series of functionalized hydrogel precursors were synthesized, transferred to the surface inside a PCR tube and subsequently screened in regard to DNA adsorption properties with Taqman quantitative PCR. This approach yielded a promising candidate for a functional PCR tube coating that would allow the entire DNA isolation procedure being carried out in a single reaction container.rnThereforce, the practical application of such macromolecular architectures can be envisioned to improve industrial DNA diagnostic processes.