237 resultados para generative Verfahren
Resumo:
In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.
Resumo:
In der Dissertation konnte gezeigt werden, dass von einem pp65(495-503)-spezifischen Doppelketten-TZR (2-Plasmide-retrovirales Vektorsystem) ein Potential der Fremdinteraktion mit spezifitätsfremden humanen gp100(280-288)- und AML(14-22)- sowie murinen MDM2(81-88)- und p53(264-272)-Tumorantigen-spezifischen TZRa und -b Ketten besteht. Folglich zeichneten sich essentielle Optimierungsverfahren ab. Für die Generierung von bi-spezifischen T-Zellenrnwurden zwei Strategien etabliert. Das erste Verfahren hatte zur Voraussetzung, dass der Donor und Rezipient einen HCMV-seropositiven Status aufweisen würden. Es ließen sich pp65(495-503)-spezifische T-Zellen aus HCMV-seropositiven Blutproben expandieren, die eine effiziente pp65(495-503)-Spezifität charakterisierte. In der zweiten Strategie wurde die Situation behandelt, dass der Donor HCMV-seronegativ und der Rezipient HCMV-seropositiv wären.rnHierbei wurde das Verfahren der simultanen Kotransfektion mit einem pp65(495-503)- und p53(264-272)-spezifischen TZR etabliert. Bei der Verwendung beider Strategien konnten effizient p53(264-272)-Tumorantigen und pp65(495-503)-bi-spezifische T-Zellen generiert werden.rnHinzukommend konnte der Einfluss einer möglichen Kompetition um CD3 undrnFehlinteraktion mit den endogenen TZRa und -b Ketten dargelegt werden. Des Weiteren erfolgten Interaktionsanalysen mit einem p53(264-272)-Tumorantigen-spezifischen Einzelketten-TZR. Die Analysen erfolgten sowohl unter nicht-kompetitiven Bedingungen in der humanen Jurkat-76 Zelllinie, welche den genomischen Verlust von endogenen TZRa und -b Ketten kennzeichnete, als auch unter kompetitiven Bedingungen in den humanen T-Zellen, die endogene TZRa und -b Ketten besitzen. In dem 2-Plasmide-retroviralen Vektorsystem konnte gezeigt werden, dass unter nicht-kompetitiven Bedingungen der p53(264-272)- Tumorantigen-spezifische Einzelketten-TZR in erhöhtem Maße mit der murinen MDM2(81-88)-sowie homologen p53(264-272)- als auch mit den humanen TZRa Ketten der Spezifitäten AML(14-22), gp100(280-288) und pp65(495-503) (Vb3-Analyse) interagieren konnte. Interessanterweise zeigte sich im 1-Plasmid-retroviralen Vektorsystem ein geringeres Interaktionsverhalten mit murinen und vor allem humanen TZRa Ketten. Das Interaktionspotential schien TZR Subfamilien-abhängig zu sein. Essentiell war es, dass der p53(264-272)-Tumorantigenspezifische Einzelketten-TZR eines 1-Plasmid-retroviralen Vektorsystems, trotz minimaler Beeinflussungen, stets an der Zelloberfläche exprimiert werden konnte und sich kein vollständiger Verlust der p53(264-272)-Spezifität verzeichnen ließ. Aufgrund der Verdrängung der Va-Domäne des p53(264-272)-Tumorantigen-spezifischen Einzelketten-TZR durch eine Volllängen-TZRa-Kette, erfolgte die Optimierung der Va/Vb-Interaktion des Einzelketten-TZR (1-Plasmid-retrovirales Vektorsystem). Es konnte ein neuartiger p53(264-272)-Tumorantigenspezifischer Einzelketten-TZR mit einer zusätzlichen künstlichen Disulfidbrücke zwischen Va(Q51C) und dem C-terminalen Ende des SL7-Linkers (G16C) generiert werden. Dieser Einzelketten-TZR zeigte im Vergleich zum Ausgangskonstrukt eine stärkere Va/Vb-Bindung, ausgelesen an einer effizienten Reduktion der residuellen Kettenfehlinteraktion, sowie eine effiziente TZR-Expression und Funktionalität, als auch eine vergleichbare TZR-MHC:Peptid-Affinität. Zusammenfassend konnten pp65(465-503)- und p53(264-272)-Tumorantigen-bi-spezifische T-Zellen generiert werden, die eine effiziente duale Spezifität aufwiesen. Auch konnte detailliert das Interaktionsverhalten eines p53(264-272)-Tumorantigen-spezifischen Einzelketten-TZR mit spezifitätsfremden TZRa Ketten dargelegt sowie eine Optimierung eines p53(264-272)-Tumorantigen-spezifischen Einzelketten-TZR (1-Plasmid-retrovirales Vektorsystem) erzielt werden.
Resumo:
Die Arbeit befasst sich mit der Frage, ob Art. 33 II GG die Verwaltung verpflichtet, bei Per-sonalauswahlverfahren nach dem State of the Art der Personaldiagnostik vorzugehen.rnIn Kapitel 1 wird zunächst dieser State of the Art ermittelt. Zu diesem Zweck werden die verschieden personaldiagnostischen Instrumente (Interview, Assessment Center, Intelligenztest usw.) vorgestellt. Danach wird erarbeitet, wie diese Instrumente mit Hilfe der Testanalyse bewertet werden können, also wie sich ein geeignetes personaldiagnostisches Instrument von einem weniger geeigneten unterscheidet. Dazu werden die Qualitätskriterien Validität (Gültigkeit), Objektivität, Reliabilität (Zuverlässigkeit) und Effizienz betrachtet. Schließlich werden die vorgestellten personaldiagnostischen Instrumente an Hand dieser Kriterien beurteilt. Dabei stellt sich unter anderem die hohe Eignung von Intelligenztests für die Personalauswahl heraus.rnIn Kapitel 2 wird der Regelungsgehalt des Art. 33 II GG dargelegt, also zunächst die Ge-schichte seiner Vorgängernormen und die seiner Aufnahme in das Grundgesetz. Anschließend werden seine systematische Stellung, sein Tatbestand und sein Regelungsgehalt näher unter-sucht. Dabei werden auch ergänzende Normen, etwa aus dem Europarecht in den Blick ge-nommen. rnIn Kapitel 3 wird erkundet, durch welche rechtlichen Argumente die Verwaltung verpflichtet sein könnte, den State of the Art der Eignungsdiagnostik bei der Personalauswahl zu beach-ten. Dabei wird vorrangig die Rechtsfigur des Grundrechtsschutzes durch Verfahren in den Blick genommen. In diesem Zusammenhang wird deutlich gemacht, dass Art. 33 II GG ohne ein seiner Verwirklichung dienendes Auswahlverfahren bedeutungslos bleiben muss. Aber auch mit dem Art. 19 IV GG wird argumentiert, weil ein die Erkenntnisse der Eignungsdiag-nostik berücksichtigendes Personalauswahlverfahren vor Gericht besser überprüft werden kann als ein freies Personalauswahlverfahren.rnIn Kapitel 4 werden die Konsequenzen der vorhergehenden Erkenntnisse für die konkrete Gestaltung von Personalauswahlverfahren dargelegt, insbesondere die Verpflichtung für die Verwaltung, einige besonders geeignete Instrumente anzuwenden und einige nicht geeignete Instrumente nicht anzuwenden und bei der Anwendung bestimmte Standards einzuhalten. Schließlich wird auch empfohlen, dass der Gesetzgeber die Personalauswahlverfahren regelt, weil das Auswahlverfahren für das Grundrecht aus Art. 33 II GG von entscheidender Bedeu-tung ist. rn
Resumo:
In order to reduce the costs of crystalline silicon solar cells, low-cost silicon materials like upgraded metallurgical grade (UMG) silicon are investigated for the application in the photovoltaic (PV) industry. Conventional high-purity silicon is made by cost-intensive methods, based on the so-called Siemens process, which uses the reaction to form chlorosilanes and subsequent several distillation steps before the deposition of high-purity silicon on slim high-purity silicon rods. UMG silicon in contrast is gained from metallurgical silicon by a rather inexpensive physicochemical purification (e.g., acid leaching and/or segregation). However, this type of silicon usually contains much higher concentrations of impurities, especially 3d transition metals like Ti, Fe, and Cu. These metals are extremely detrimental in the electrically active part of silicon solar cells, as they form recombination centers for charge carriers in the silicon band gap. This is why simple purification techniques like gettering, which can be applied between or during solar cell process steps, will play an important role for such low-cost silicon materials. Gettering in general describes a process, whereby impurities are moved to a place or turned into a state, where they are less detrimental to the solar cell. Hydrogen chloride (HCl) gas gettering in particular is a promising simple and cheap gettering technique, which is based on the reaction of HCl gas with transition metals to form volatile metal chloride species at high temperatures.rnThe aim of this thesis was to find the optimum process parameters for HCl gas gettering of 3d transition metals in low-cost silicon to improve the cell efficiency of solar cells for two different cell concepts, the standard wafer cell concept and the epitaxial wafer equivalent (EpiWE) cell concept. Whereas the former is based on a wafer which is the electrically active part of the solar cell, the latter uses an electrically inactive low-cost silicon substrate with an active layer of epitaxially grown silicon on top. Low-cost silicon materials with different impurity grades were used for HCl gas gettering experiments with the variation of process parameters like the temperature, the gettering time, and the HCl gas concentration. Subsequently, the multicrystalline silicon neighboring wafers with and without gettering were compared by element analysis techniques like neutron activation analysis (NAA). It was demonstrated that HCl gas gettering is an effective purification technique for silicon wafers, which is able to reduce some 3d transition metal concentrations by over 90%. Solar cells were processed for both concepts which could demonstrate a significant increase of the solar cell efficiency by HCl gas gettering. The efficiency of EpiWE cells could be increased by HCl gas gettering by approximately 25% relative to cells without gettering. First process simulations were performed based on a simple model for HCl gas gettering processes, which could be used to make qualitative predictions.
Resumo:
When designing metaheuristic optimization methods, there is a trade-off between application range and effectiveness. For large real-world instances of combinatorial optimization problems out-of-the-box metaheuristics often fail, and optimization methods need to be adapted to the problem at hand. Knowledge about the structure of high-quality solutions can be exploited by introducing a so called bias into one of the components of the metaheuristic used. These problem-specific adaptations allow to increase search performance. This thesis analyzes the characteristics of high-quality solutions for three constrained spanning tree problems: the optimal communication spanning tree problem, the quadratic minimum spanning tree problem and the bounded diameter minimum spanning tree problem. Several relevant tree properties, that should be explored when analyzing a constrained spanning tree problem, are identified. Based on the gained insights on the structure of high-quality solutions, efficient and robust solution approaches are designed for each of the three problems. Experimental studies analyze the performance of the developed approaches compared to the current state-of-the-art.
Resumo:
Gegenstand der Arbeit: Die distale Radiusfraktur ist der häufigste Bruch des Menschen. Neben etablierten Verfahren wie der dorsalen und palmaren Plattenosteosynthese gibt es seit Kurzem neuartige minimalinvasive Osteosynthesesysteme. Gegenstand der vorliegenden Arbeit ist die Untersuchung der biomechanischen Stabilität von zwei neuartigen Implantaten für die distale extraartikuläre Radiusfraktur. rnMethodik: Es handelt sich einerseits um das System XSCREW (Zimmer, Freiburg i. Br., Deutschland), eine kanülierte Schraube, die über den Processus styloideus eingeführt wird und mit bis zu neun Bohrdrähten im Knochen fixiert werden kann. Das Vergleichsimplantat DorsalNailPlate (HandInnovations, Miami, Florida, USA) ist ein Hybrid aus einer dorsalen Platte und einem Marknagel. Beide Systeme wurden an 8 paarigen frischen unfixierten Leichenradii unter Axialbelastung bis 100 N und Torsionsbelastung bis 1,5 Nm getestet. Die A3-Fraktur wurde durch eine standardisierte Keilosteotomie simuliert. Das Biomaterial wurde prä- und postinterventionell sowie nach einem Dauerbelastungstest unter 1000 Zyklen in Rotation mit 0,5 Hz untersucht. Ein Versagenstest mit steigendem Drehmoment beendete das Experiment. rnErgebnisse: Die XSCREW erreichte eine Axialsteifigkeit von 136 N/mm und eine Torsionssteifigkeit von 0,16 Nm/°. Die DNP erzielte hingegen axial 70 N/mm und torsional 0,06 Nm/°. Der Unterschied zwischen beiden Verfahren war nur für die Torsion eindeutig statistisch auffällig (p=0,012), jedoch nicht für die Axialsteifigkeit (p=0,054). Die ursprüngliche Axial- und Torsionssteifigkeit wurde durch die XSCREW signifikant besser wiederhergestellt als durch die DNP (p=0,012). Beide Verfahren erzielten nach der Intervention signifikant niedrigere Steifigkeiten als die intakten Knochen (p=0,012). Ein Präparat der DNP-Gruppe und vier Präparate der XSCREW-Gruppe überstanden den Dauerbelastungstest. Das Drehmoment bei Versagen war mit der XSCREW höher als mit der DNP, der Unterschied zwischen den Verfahren war signifikant (p=0,043). Die Schwachstellen beider Systeme lagen vorwiegend in der proximalen Verankerung im Knochen. Kirschner-Drähte bzw. Verriegelungsschrauben führten unter andauernder Belastung zu einer Spaltung der Kortikalis im Schaftbereich. Bedingt durch die Ausrichtung der distalen Verriegelungen können mit beiden Implantaten Schäden an der radiocarpalen bzw. radioulnaren Gelenkfläche entstehen. rnZusammenfassung: Die XSCREW ermöglicht insgesamt eine höhere mechanische Stabilität als die DNP. Beide Verfahren sind jedoch einer winkelstabilen palmaren Plattenosteosynthese insbesondere unter rotatorischer Dauerbelastung unterlegen und erreichen nicht die Stabilität eines anderen neuartigen minimalinvasiven Systems.
Resumo:
Methane plays an important role as a radiatively and chemically active gas in our atmosphere. Until recently, sources of atmospheric methane in the biosphere have been attributed to strictly anaerobic microbial processes during degradation of organic matter. However, some potentially abiotic sources from the biosphere have been discovered in the past few years, starting with methane emissions from plants and plant litter up to the recent discovery of methane production in saprotrophic fungi.rnAlso methane fluxes from aerobic soils have been observed for decades but no alternative source to methanogenesis has been identified so far.rnThis work aims to provide evidence for non-microbial methane formation in soils under oxic conditions. It was found that soils release methane upon heating and other environmental factors like ultraviolet irradiation, and drying-rewetting cycles. The chemical formation of methane during degradation of soil organic matter represents an additional source in soil that helps to understand the methane cycle in aerobic soils. Although the emission fluxes are relatively low when compared to those from aerobic soil sources like wetlands, they may still be important in warm and wet regions subjected to ultraviolet radiation. Therefore this methane source might be highly sensitive to global climate change.rn
Resumo:
In dieser Arbeit wurden Simulation von Flüssigkeiten auf molekularer Ebene durchgeführt, wobei unterschiedliche Multi-Skalen Techniken verwendet wurden. Diese erlauben eine effektive Beschreibung der Flüssigkeit, die weniger Rechenzeit im Computer benötigt und somit Phänomene auf längeren Zeit- und Längenskalen beschreiben kann.rnrnEin wesentlicher Aspekt ist dabei ein vereinfachtes (“coarse-grained”) Modell, welches in einem systematischen Verfahren aus Simulationen des detaillierten Modells gewonnen wird. Dabei werden ausgewählte Eigenschaften des detaillierten Modells (z.B. Paar-Korrelationsfunktion, Druck, etc) reproduziert.rnrnEs wurden Algorithmen untersucht, die eine gleichzeitige Kopplung von detaillierten und vereinfachten Modell erlauben (“Adaptive Resolution Scheme”, AdResS). Dabei wird das detaillierte Modell in einem vordefinierten Teilvolumen der Flüssigkeit (z.B. nahe einer Oberfläche) verwendet, während der Rest mithilfe des vereinfachten Modells beschrieben wird.rnrnHierzu wurde eine Methode (“Thermodynamische Kraft”) entwickelt um die Kopplung auch dann zu ermöglichen, wenn die Modelle in verschiedenen thermodynamischen Zuständen befinden. Zudem wurde ein neuartiger Algorithmus der Kopplung beschrieben (H-AdResS) der die Kopplung mittels einer Hamilton-Funktion beschreibt. In diesem Algorithmus ist eine zur Thermodynamischen Kraft analoge Korrektur mit weniger Rechenaufwand möglich.rnrnAls Anwendung dieser grundlegenden Techniken wurden Pfadintegral Molekulardynamik (MD) Simulationen von Wasser untersucht. Mithilfe dieser Methode ist es möglich, quantenmechanische Effekte der Kerne (Delokalisation, Nullpunktsenergie) in die Simulation einzubeziehen. Hierbei wurde zuerst eine Multi-Skalen Technik (“Force-matching”) verwendet um eine effektive Wechselwirkung aus einer detaillierten Simulation auf Basis der Dichtefunktionaltheorie zu extrahieren. Die Pfadintegral MD Simulation verbessert die Beschreibung der intra-molekularen Struktur im Vergleich mit experimentellen Daten. Das Modell eignet sich auch zur gleichzeitigen Kopplung in einer Simulation, wobei ein Wassermolekül (beschrieben durch 48 Punktteilchen im Pfadintegral-MD Modell) mit einem vereinfachten Modell (ein Punktteilchen) gekoppelt wird. Auf diese Weise konnte eine Wasser-Vakuum Grenzfläche simuliert werden, wobei nur die Oberfläche im Pfadintegral Modell und der Rest im vereinfachten Modell beschrieben wird.
Resumo:
Der light harvesting complex II (LHCII) ist ein pflanzliches Membranprotein, das in seiner trimeren Form über 40 Chlorophylle bindet. In der Pflanze kann er besonders effizient Licht sammeln und die Anregungsenergie anschließend fast verlustfrei über andere chlorophyll-bindende Proteine an die Reaktionszentren weiterleiten. Aufgrund dieser besonderen Eigenschaften war es ein Ziel dieser Arbeit, rekombinanten LHCII mit synthetischen Komponenten zu kombinieren, die zur Ladungstrennung befähigt sind. Zu diesem Zweck wurden unter anderem Halbleiternanokristalle (Quantum Dots, QDs) ausgewählt, die je nach Zusammensetzung sowohl als Energieakzeptoren als auch als Energiedonoren in Frage kamen. Durch Optimierung des Puffers gelang es, die Fluoreszenzquantenausbeute der QDs in wässriger Lösung zu erhöhen und zu stabilisieren, so dass die Grundvoraussetzungen für die spektroskopische Untersuchung verschiedener LHCII-QD-Hybridkomplexe erfüllt waren.rnUnter Verwendung bereits etablierter Affinitätssequenzen zur Bindung des LHCII an die QDs konnte gezeigt werden, dass die in dieser Arbeit verwendeten Typ-I QDs aus CdSe und ZnS sich kaum als Energie-Donoren für den LHCII eignen. Ein Hauptgrund lag im vergleichsweise kleinen Försterradius R0 von 4,1 nm. Im Gegensatz dazu wurde ein R0 von 6,4 nm für den LHCII als Donor und Typ-II QDs aus CdTe, CdSe und ZnS als Akzeptor errechnet, wodurch in diesem System eine höhere Effizienz des Energietransfers zu erwarten war. Fluoreszenzspektroskopische Untersuchungen von Hybridkomplexen aus LHCII und Typ-II QDs ergaben eine hohe Plausibilität für einen Fluoreszenz Resonanz Energietransfer (FRET) vom Lichtsammler auf die QDs. Weitere QD-Affinitätssequenzen für den LHCII wurden identifiziert und deren Bindekonstanten ermittelt. Versuche mit dem Elektronenakzeptor Methylviologen lieferten gute Hinweise auf eine LHCII-sensibilisierte Ladungstrennung der Typ-II QDs, auch wenn dies noch anhand alternativer Messmethoden wie z.B. durch transiente Absorptionsspektroskopie bestätigt werden muss. rnEin weiteres Ziel war die Verwendung von LHCII als Lichtsammler in dye-sensitized solar cells (DSSC). Geeignete dotierte TiO2-Platten wurden ermittelt, das Verfahren zur Belegung der Platten optimiert und daher mit wenig Aufwand eine hohe LHCII-Belegungsdichte erzielt. Erste Messungen von Aktionsspektren mit LHCII und einem zur Ladungstrennung fähigen Rylenfarbstoff zeigen eine, wenn auch geringe, LHCII sensibilisierte Ladungstrennung. rnDie Verwendung von Lanthanide-Binding-Tags (LBTs) ist ein potentielles Verfahren zur in vivo-Markierung von Proteinen mit Lanthanoiden wie Europium und Terbium. Diese Metalle besitzen eine überdurchschnittlich lange Lumineszenzlebensdauer, so dass sie leicht von anderen fluoreszierenden Molekülen unterschieden werden können. Im Rahmen der vorliegenden Arbeit gelang es, eine LBT in rekombinanten LHCII einzubauen und einen Lumineszenz Resonanz Energietransfer (LRET) vom Europium auf den LHCII nachzuweisen.rn
Resumo:
Die Förderung der Zelladhäsion durch sogenannte biomimetische Oberflächen wird in der Medizin als vielversprechender Ansatz gesehen, um Komplikationen wie z. B. Fremdkörperreaktionen nach der Implantation entgegenzuwirken. Neben der Immobilisierung einzelner Biomoleküle wie z. B. dem RGD-Peptid, Proteinen und Wachstumsfaktoren auf verschiedenen Materialien, konzentriert man sich derzeit in der Forschung auf die Co-Immobilisierung zweier Moleküle gleichzeitig. Hierbei werden die funktionellen Gruppen z. B. von Kollagen unter Verwendung von nur einer Kopplungschemie verwendet, wodurch die Kopplungseffizienz der einzelnen Komponenten nur begrenzt kontrollierbar ist. Das Ziel der vorliegenden Arbeit war die Entwicklung eines Immobilisierungsverfahrens, welches die unabhängige Kopplung zweier Faktoren kontrolliert ermöglicht. Dabei sollten exemplarisch das adhäsionsfördernde RGD-Peptid (Arginin-Glycin-Asparaginsäure) zusammen mit dem Wachstumsfaktor VEGF (Vascular Endothelial Growth Factor) auf Titan gebunden werden. In weiteren Experimenten sollten dann die pro-adhäsiven Faktoren Fibronektin, Kollagen, Laminin und Osteopontin immobilisiert und untersucht werden. rnDie Aminofunktionalisierung von Titan durch plasma polymerisierte Allylaminschichten wurde als Grundlage für die Entwicklung des nasschemischen Co-immobilisierungsverfahren verwendet. Für eine unabhängige und getrennte Anbindung der verschiedenen Biomoleküle stand in diesem Zusammenhang die Entwicklung eines geeigneten Crosslinker Systems im Vordergrund. Die Oberflächencharakterisierung der entwickelten Oberflächen erfolgte mittels Infrarot Spektroskopie, Surface Plasmon Resonance Spektroskopie (SPR), Kontaktwinkelmessungen, Step Profiling und X-Ray Photoelectron Spektroskopie (XPS). Zur Analyse der Anbindungsprozesse in Echtzeit wurden SPR-Kinetik Messungen durchgeführt. Die biologische Funktionalität der modifizierten Oberflächen wurde in vitro an Endothelzellen (HUVECs) und Osteoblasten (HOBs) und in vivo in einem Tiermodell-System an der Tibia von Kaninchen untersucht.rnDie Ergebnisse zeigen, dass alle genannten Biomoleküle sowohl einzeln auf Titan kovalent gekoppelt als auch am Bespiel von RGD und VEGF in einem getrennten Zwei-Schritt-Verfahren co-immobilisiert werden können. Des Weiteren wurde die biologische Funktionalität der gebundenen Faktoren nachgewiesen. Im Falle der RGD modifizierten Oberflächen wurde nach 7 Tagen eine geförderte Zelladhäsion von HUVECs mit einer signifikant erhöhten Zellbesiedlungsdichte von 28,5 % (p<0,05) gezeigt, wohingegen auf reinem Titan Werte von nur 13 % beobachtet wurden. Sowohl VEGF als auch RGD/VEGF modifizierte Proben wiesen im Vergleich zu Titan schon nach 24 Stunden eine geförderte Zelladhäsion und eine signifikant erhöhte Zellbesiedlungsdichte auf. Bei einer Besiedlung von 7,4 % auf Titan, zeigten VEGF modifizierte Proben mit 32,3 % (p<0,001) eine deutlichere Wirkung auf HUVECs als RGD/VEGF modifizierte Proben mit 13,2 % (p<0,01). Die pro-adhäsiven Faktoren zeigten eine deutliche Stimulation der Zelladhäsion von HUVECs und HOBs im Vergleich zu reinem Titan. Die deutlich höchsten Besiedlungsdichten von HUVECs konnten auf Fibronektin mit 44,6 % (p<0,001) und Kollagen mit 39,9 % (p<0,001) nach 24 Stunden beobachtet werden. Laminin zeigte keine und Osteopontin nur eine sehr geringe Wirkung auf HUVECs. Bei Osteoblasten konnten signifikant erhöhte Besiedlungsdichten im Falle aller pro-adhäsiven Faktoren beobachtet werden, jedoch wurden die höchsten Werte nach 7 Tagen auf Kollagen mit 90,6 % (p<0,001) und Laminin mit 86,5 % (p<0,001) im Vergleich zu Titan mit 32,3 % beobachtet. Die Auswertung der Tierexperimente ergab, dass die VEGF modifizierten Osteosyntheseplatten, im Vergleich zu den reinen Titankontrollen, eine gesteigerte Knochenneubildung auslösten. Eine solche Wirkung konnte für RGD/VEGF modifizierte Implantate nicht beobachtet werden. rnInsgesamt konnte gezeigt werden, dass mittels plasmapolymerisierten Allylamin Schichten die genannten Biomoleküle sowohl einzeln gebunden als auch getrennt und kontrolliert co-immobilisiert werden können. Des Weiteren konnte eine biologische Funktionalität für alle Faktoren nach erfolgter Kopplung in vitro gezeigt werden. Wider Erwarten konnte jedoch kein zusätzlicher biologischer Effekt durch die Co-immobilisierung von RGD und VEGF im Vergleich zu den einzeln immobilisierten Faktoren gezeigt werden. Um zu einer klinischen Anwendung zu gelangen, ist es nun notwendig, das entwickelte Verfahren in Bezug auf die immobilisierten Mengen der verschiedenen Faktoren hin zu optimieren. rn
Resumo:
Rupture forces of ligand-receptor interactions, such as proteins-proteins, proteins-cells, and cells-tissues, have been successfully measured by atomic force spectroscopy (AFS). For these measurements, the ligands and receptors were chemically modified so that they can be immobilized on the tip and on a substrate, respectively. The ligand interact the receptor when the tip approaches the substrate. This interaction can be studied by measuring rupture force upon retraction. However, this technique is not feasible for measurements involving small molecules, since they form only few H-bonds with their corresponding receptors. Modifying small molecules for immobilization on surfaces may block or change binding sites. Thus, recorded rupture forces might not reflect the full scope of the involved small ligand-receptor interactions.rnIn my thesis, a novel concept that allows measuring the rupture force of small involved ligand-receptor interactions and does not require molecular modification for immobilization was introduced. The rupture force of small ligand-receptor interaction is not directly measured but it can be determined from measurements in the presence and in the absence of the ligand. As a model system, the adenosine mono phosphate (AMP) and the aptamer that binds AMP were selected. The aptamer (receptor) is a single stranded DNA that can partially self-hybridize and form binding pockets for AMP molecules (ligands). The bonds between AMP and aptamer are provided by several H-bonds and pair stacking.rnIn the novel concept, the aptamer was split into two parts (oligo a and oligo b). One part was immobilized on the tip and the other one on the substrate. Approaching the tip to the substrate, oligo a and oligo b partially hybridized and the binding pockets were formed. After adding AMP into the buffer solution, the AMP bound in the pockets and additional H-bonds were formed. Upon retraction of the tip, the rupture force of the AMP-split aptamer complex was measured. In the presence of excess AMP, the rupture force increased by about 10 pN. rnThe dissociation constant of the AMP-split aptamer complex was measured on a single molecular level (~ 4 µM) by varying the AMP concentrations and measuring the rupture force at each concentration. Furthermore, the rupture force was amplified when more pockets were added to the split aptamer. rnIn the absence of AMP, the thermal off-rate was slightly reduced compared to that in the presence of AMP, indicating that the AMP stabilized the aptamer. The rupture forces at different loading rates did not follow the logarithmic fit which was usually used to describe the dependence of rupture forces at different loading rates of oligonucleotides. Two distinguished regimes at low and high loading rates were obtained. The two regimes were explained by a model in which the oligos located at the pockets were stretched at high loading rates. rnThe contribution of a single H-bond formed between the AMP molecule and the split aptamer was measured by reducing the binding groups of the AMP. The rupture forces reduce corresponding to the reduction of the binding groups. The phosphate group played the most important role in the formation of H-bond network between the AMP molecule and the split aptamer. rn
Resumo:
The biosphere emits copiously volatile organic compounds (VOCs) into the atmosphere, which are removed again depending on the oxidative capacity of the atmosphere and physical processes such as mixing, transport and deposition. Biogenic VOCs react with the primary oxidant of the atmosphere, the hydroxyl radical (OH), and potentially lead to the formation tropospheric ozone and aerosol, which impact regional climate and air quality. The rate of OH decay in the atmosphere, the total OH reactivity is a function of the atmospheric, reactive compound's concentration and reaction velocity with OH. One way to measure the total OH reactivity, the total OH sink, is with the Comparative Reactivity Method - CRM. Basically, the reaction of OH with a reagent (here pyrrole) in clean air and in the presence of atmospheric, reactive molecules is compared. This thesis presents measurements of the total OH reactivity at the biosphere-atmosphere interface to analyze various influences and driving forces. For measurements in natural environment the instrument was automated and a direct, undisturbed sampling method developed. Additionally, an alternative detection system was tested and compared to the originally used detector (Proton Transfer Reaction-Mass Spectrometer, PTR-MS). The GC-PID (Gas Chromatographic Photo-Ionization Detector) was found as a smaller, less expensive, and robust alternative for total OH reactivity measurements. The HUMPPA-COPEC 2010 measurement campaign in the Finish forest was impacted by normal boreal forest emissions as well as prolonged heat and biomass burning emissions. The measurement of total OH reactivity was compared with a comprehensive set of monitored individual species ambient concentration levels. A significant discrepancy between those individually measured OH sinks and the total OH reactivity was observed, which was characterized in detail by the comparison of within and above the forest canopy detected OH reactivity. Direct impact of biogenic emissions on total OH reactivity was examined on Kleiner Feldberg, Germany, 2011. Trans-seasonal measurements of an enclosed Norway spruce branch were conducted via PTR-MS, for individual compound's emission rates, and CRM, for total OH reactivity emission fluxes. Especially during summertime, the individually monitored OH sink terms could not account for the measured total OH reactivity. A controlled oxidation experiment in a low NOx environment was conducted in the EUPHORE reaction chamber (CHEERS, Spain 2011). The concentration levels of the reactant isoprene and its major products were monitored and compared to total OH reactivity measurements as well as to the results of two models. The individually measured compounds could account for the total OH reactivity during this experiment as well as the traditional model-degradation scheme for isoprene (MCM 3.2). Due to previous observations of high OH levels in the isoprene-rich environment of the tropics, a novel isoprene mechanism was recently suggested. In this mechanism (MIME v4) additional OH is generated during isoprene oxidation, which could not be verified in the conditions of the CHEERS experiment.
Resumo:
In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.
Resumo:
Die Leber besitzt das Potential nach verursachter Zellschädigung durch chemische, toxische, traumatische oder virale Einwirkung (55, 73, 79, 95) sich selbst zu regenerieren. Dies geschieht entweder durch Hyperplasie der Hepatozyten, d.h. einer Volumenzunahme durch vermehrte Zellteilung und Erhöhung der Zellzahl (73, 79). Bei massiver und chronischer Leberzellschädigung, wie z.B. alkohol-verursachter Leberzirrhose oder durch chronisch virale Hepatitis (55, 74, 81) können die Hepatozyten den entstandenen Defekt nicht kompensieren und die oval cells, Bezeichnung im Rahmen der Nagetiermodelle, werden aktiviert (98, 105). Das humane Equivalent zu den oval cells bei Nagetieren stellen die hepatischen Progenitorzellen dar (79), diese sind in den Hering-Kanälchen lokalisiert (1, 42, 49). Aufgrund ihrer bipotenten Differenzierungsfähigkeit, können aus den hepatischen Progenitorzellen sowohl Hepatozyten als auch Cholangiozyten hervorgehen (18, 45). rnFür die Untersuchungen einer positiven Albumin-mRNA-Expression in Gallengangsproliferaten bei menschlichen zirrhotischen Leberpräparaten, die im Rahmen der Leberregeneration aus hepatischen Progenitorzellen entstehen, bietet sich das bereits etablierte Verfahren der Albumin mRNA in situ Hybridisierung an. Zur Durchführung der Methode wurde ein bereits etabliertes Protokoll zur in situ Hybridiserung von mRNAs peroxisomaler Proteine verwendet (86, 87).rnDas Patientenkollektiv bestand aus insgesamt 50 Patienten (9 weiblichen und 41 männlichen), im Alter von 40 bis 69 Jahren (Median=53, 25 %-Perzentile=49, 75%-Perzentile=60). Sieben Patienten zeigten eine Leberzirrhose auf dem Boden einer Hepatitis B, 24 Patienten eine Leberzirrhose auf dem Boden einer Hepatitis C und 19 Patienten waren an einer äthyltoxisch-bedingten Leberzirrhose erkrankt. Zusätzlich wurde bei insgesamt 23 Patienten im Rahmen der histologischen Befundung ein Hepatozelluläres Karzinom (HCC) diagnostiziert. rnMikroskopisch zeigte sich in 48 von 50 Präparaten eine Gallengangsproliferation innerhalb der bindegewebigen Septen. Bei Vorliegen einer Gallengangsproliferation wurde deren Ausprägung in 4 Grade (0=keine, 1=wenig, 2=mäßig und 3=stark) eingeteilt. Ein möglicher signifikanter Unterschied, ob der Grad einer Gallengangsproliferation auf eine bestimmte Ursache der Leberzirrhose zurück zu führen ist, ließ sich mit einem p-Wert von 0,247 nicht eruieren. Ebenso wie die Gallengansproliferation wurde die Albuminexpression in Grade eingeteilt. Dabei wurde zwischen keiner (Grad 0), einer intermediären (Grad 1) und einer starken (Grad 2) Albuminexpression unterschieden. Hier waren mit einem p-Wert von 0,586 keine Unterschiede zwischen der Gradeinteilung der Albuminexpression und den 3 Gruppen zu erkennen.rnZwischen den Präparaten mit einem HCC und ohne HCC ergaben sich hinsichtlich des Grades der Gallengangsproliferation mit einem p-Wert von 0,803 keine signifikanten Unterschiede. In Bezug auf die Gradeinteilung der Albuminexpressionrnzeigte sich ebenfalls kein signifikanter Unterschied mit einem p-Wert von 0,275 zwischen Präparaten mit und ohne Nachweis eines HCCs. Ebenfalls zeigte sich kein signifikanter Unterschied zwischen der Gallengangsproliferation (p-Wert von 0,709) und Albuminexpression (p-Wert von 0,613) zwischen Patienten jünger und älter als 60 Jahre.rnDie Ergebnisse dieser Arbeit zeigen, dass mittels der in situ Hybridisierung ein Nachweis der Gallengangsproliferation in leberzirrhotischen Präparaten unterschiedlicher Ätiologien gelingt. Zudem kann diese Arbeit beweisen, dass die Gallengangsproliferate Albumin exprimieren und dass der Nachweis dieser Albuminexpression mittels in situ Hybridisierung möglich ist. Allerdings zeigte sich kein signifikanter Unterschied der Albumin-mRNA-Expression in den Gallengangsproliferaten zwischen den unterschiedlichen Ätiologien der Leberzirrhose und ebenfalls nicht im Vergleich von Leberzirrhosen unterschiedlicher Genese mit und ohne gleichzeitigem Nachweis eines HCCs. rn
Resumo:
In der vorliegenden Arbeit wurde der Nachweis des Isotops Np-237 mit Resonanzionisations-Massenspektrometrie (RIMS) entwickelt und optimiert. Bei RIMS werden Probenatome mehrstufig-resonant mit Laserstrahlung angeregt, ionisiert und anschließend massenspektrometrisch nachgewiesen. Die Bestimmung geeigneter Energiezustände für die Anregung und Ionisation von Np-237 erfolgte durch Resonanzionisationsspektroskopie (RIS), wobei über 300 bisher unbekannte Energieniveaus und autoionisierende Zustände von Np-237 identifiziert wurden. Mit in-source-RIMS wird für das Isotop eine Nachweisgrenze von 9E+5 Atome erreicht. rnrnDie Mobilität von Np in der Umwelt hängt stark von seiner Elementspeziation ab. Für Sicherheitsanalysen potentieller Endlagerstandorte werden daher Methoden benötigt, die Aussagen über die unter verschiedenen Bedingungen vorliegenden Neptuniumspezies ermöglichen. Hierzu wurde eine online-Kopplung aus Kapillarelektrophorese (CE) und ICP-MS (inductively coupled plasma mass spectrometry) genutzt, mit der die Np-Redoxspezies Np(IV) und Np(V) noch bei einer Konzentrationen von 1E-9 mol/L selektiv nachgewiesen werden können. Das Verfahren wurde eingesetzt, um die Wechselwirkung des Elements mit Opalinuston unter verschiedenen Bedingungen zu untersuchen. Dabei konnte gezeigt werden, dass bei Gegenwart von Fe(II) Np(V) zu Np(IV) reduziert wird und dieses am Tongestein sorbiert. Dies führt insgesamt zu einer deutlich erhöhten Sorption des Np am Ton.