999 resultados para praktische Anwendung
Resumo:
The use of linear programming in various areas has increased with the significant improvement of specialized solvers. Linear programs are used as such to model practical problems, or as subroutines in algorithms such as formal proofs or branch-and-cut frameworks. In many situations a certified answer is needed, for example the guarantee that the linear program is feasible or infeasible, or a provably safe bound on its objective value. Most of the available solvers work with floating-point arithmetic and are thus subject to its shortcomings such as rounding errors or underflow, therefore they can deliver incorrect answers. While adequate for some applications, this is unacceptable for critical applications like flight controlling or nuclear plant management due to the potential catastrophic consequences. We propose a method that gives a certified answer whether a linear program is feasible or infeasible, or returns unknown'. The advantage of our method is that it is reasonably fast and rarely answers unknown'. It works by computing a safe solution that is in some way the best possible in the relative interior of the feasible set. To certify the relative interior, we employ exact arithmetic, whose use is nevertheless limited in general to critical places, allowing us to rnremain computationally efficient. Moreover, when certain conditions are fulfilled, our method is able to deliver a provable bound on the objective value of the linear program. We test our algorithm on typical benchmark sets and obtain higher rates of success compared to previous approaches for this problem, while keeping the running times acceptably small. The computed objective value bounds are in most of the cases very close to the known exact objective values. We prove the usability of the method we developed by additionally employing a variant of it in a different scenario, namely to improve the results of a Satisfiability Modulo Theories solver. Our method is used as a black box in the nodes of a branch-and-bound tree to implement conflict learning based on the certificate of infeasibility for linear programs consisting of subsets of linear constraints. The generated conflict clauses are in general small and give good rnprospects for reducing the search space. Compared to other methods we obtain significant improvements in the running time, especially on the large instances.
Resumo:
In this thesis, anodic aluminum oxide (AAO) membranes, which provide well-aligned uniform mesoscopic pores with adjustable pore parameters, were fabricated and successfully utilized as templates for the fabrication of functional organic nanowires, nanorods and the respective well-ordered arrays. The template-assisted patterning technique was successfully applied for the realization of different objectives:rnHigh-density and well-ordered arrays of hole-conducting nanorods composed of cross-linked triphenylamine (TPA) and tetraphenylbenzidine (TPD) derivatives on conductive substrates like ITO/glass have been successfully fabricated. By applying a freeze-drying technique to remove the aqueous medium after the wet-chemical etching of the template, aggregation and collapsing of the rods was prevented and macroscopic areas of perfectly freestanding nanorods were feasible. Based on the hole-conducting nanorod arrays and their subsequent embedding into an electron-conducting polymer matrix via spin-coating, a novel routine concept for the fabrication of well-ordered all-organic bulk heterojunction for organic photovoltaic applications was successfully demonstrated. The increased donor/acceptor interface of the fabricated devices resulted in a remarkable increase of the photoluminescence quenching compared to a planar bilayer morphology. Further, the fundamental working principle of the templating approach for the solution-based all-organic photovoltaic device was demonstrated for the first time.rnFurthermore, in order to broaden the applicability of patterned surfaces, which are feasible via the template-based patterning of functional materials, AAO with hierarchically branched pores were fabricated and utilized as templates. By pursuing the common templating process hierarchically polymeric replicas, which show remarkable similarities with interesting biostructures, like the surface of the lotus leaf and the feet of a gecko, were successfully prepared.rnIn contrast to the direct infiltration of organic functional materials, a novel route for the fabrication of functional nanowires via post-modification of reactive nanowires was established. Therefore, reactive nanowires based on cross-linked pentafluorophenylesters were fabricated by utilizing AAO templates. The post-modification with fluorescent dyes was demonstrated. Furthermore, reactive wires were converted into well-dispersed poly(N-isopropylacrylamide) (PNIPAM) hydrogels, which exhibit a thermal-responsive reversible phase transition. The reversible thermal-responsible swelling of the PNIPAM nanowires exhibited a more than 50 % extended length than in the collapsed PNIPAM state. rnLast but not least, the shape-anisotropic pores of AAO were utilized to uniformly align the mesogens of a nematic liquid crystalline elastomer. Liquid crystalline nanowires with a narrow size distribution and uniform orientation of the liquid crystalline material were fabricated. It was shown that during the transition from the nematic to the isotropic phase the rod’s length shortened by roughly 40 percent. As such these liquid crystalline elastomeric nanowires may find application, as wire-shaped nanoactuators in various fields of research, like lab-on-chip systems, micro fluidics and biomimetics.rn
Resumo:
Synthetic Routes toward Functional Block Copolymers and Bioconjugates via RAFT PolymerizationrnSynthesewege für funktionelle Blockcopolymere und Biohybride über RAFT PolymerisationrnDissertation von Dipl.-Chem. Kerstin T. WissrnIm Rahmen dieser Arbeit wurden effiziente Methoden für die Funktionalisierung beider Polymerkettenenden für Polymer- und Bioanbindung von Polymeren entwickelt, die mittels „Reversible Addition-Fragmentation Chain Transfer“ (RAFT) Polymerisation hergestellt wurden. Zu diesem Zweck wurde ein Dithioester-basiertes Kettentransferagens (CTA) mit einer Aktivestereinheit in der R-Gruppe (Pentafluorphenyl-4-phenylthiocarbonylthio-4-cyanovaleriansäureester, kurz PFP-CTA) synthetisiert und seine Anwendung als universelles Werkzeug für die Funktionalisierung der -Endgruppe demonstriert. Zum Einen wurde gezeigt, wie dieser PFP-CTA als Vorläufer für die Synthese anderer funktioneller CTAs durch einfache Aminolyse des Aktivesters genutzt werden kann und somit den synthetischen Aufwand, der üblicherweise mit der Entwicklung neuer CTAs verbunden ist, reduzieren kann. Zum Anderen konnte der PFP-CTA für die Synthese verschiedener Poly(methacrylate) mit enger Molekulargewichtsverteilung und wohl definierter reaktiver -Endgruppe verwendet werden. Dieses Kettenende konnte dann erfolgreich mit verschiedenen primären Aminen wie Propargylamin, 1-Azido-3-aminopropan und Ethylendiamin oder direkt mit den Amin-Endgruppen verschiedener Peptide umgesetzt werden.rnAus der Reaktion des PFP-CTAs mit Propargylamin wurde ein Alkin-CTA erhalten, der sich als effizientes Werkzeug für die RAFT Polymerisation verschiedener Methacrylate erwiesen hat. Der Einbau der Alkin-Funktion am -Kettenende wurde mittels 1H und 13C NMR Spektroskopie sowie MALDI TOF Massenspektroskopie bestätigt. Als Modelreaktion wurde die Kopplung eines solchen alkin-terminierten Poly(di(ethylenglykol)methylethermethacrylates) (PDEGMEMA) mit azid-terminiertem Poly(tert-butylmethacrylat), das mittels Umsetzung einer Aktivester-Endgruppe erhalten wurde, als kupferkatalysierte Azid-Alkin-Cycloaddition (CuAAC) durchgeführt. Die Aufarbeitung des resultierenden Diblockcopolymers durch Fällen ermöglichte die vollständige Abtrennung des Polymerblocks 1, der im Überschuss eingesetzt wurde. Darüber hinaus blieb nur ein sehr kleiner Anteil (< 2 Gew.-%) nicht umgesetzten Polymerblocks 2, was eine erfolgreiche Polymeranbindung und die Effizienz der Endgruppen-Funktionalisierung ausgehend von der Aktivester--Endgruppe belegt.rnDie direkte Reaktion von stimuli-responsiven Polymeren mit Pentafluorphenyl(PFP)ester-Endgruppen, namentlich PDEGMEMA und Poly(oligo(ethylenglykol)methylethermethacrylat), mit kollagen-ähnlichen Peptiden ergab wohl definierte Polymer-Peptid-Diblockcopolymere und Polymer-Peptid-Polymer-Triblockcopolymer unter nahezu quantitativer Umsetzung der Endgruppen. Alle Produkte konnten vollständig von nicht umgesetztem Überschuss des Homopolymers befreit werden. In Analogie zu natürlichem Kollagen und dem nicht funktionalisierten kollagen-ähnlichen Peptid bilden die PDEGMEMA-basierten, entschützten Hybridcopolymere Trimere mit kollagen-ähnlichen Triple-Helices in kalter wässriger Lösung, was mittels Zirkular-Dichroismus-Spektroskopie (CD) nachgewiesen werden konnte. Temperaturabhängige CD-Spektroskopie, Trübungsmessungen und dynamische Lichtstreuung deuteten darauf hin, dass sie bei höheren Temperaturen doppelt stimuli-responsive Überstrukturen bilden, die mindestens zwei konformative Übergänge beim Aufheizen durchlaufen. Einer dieser Übergänge wird durch den hydrophoben Kollaps des Polymerblocks induziert, der andere durch Entfalten der kollagen-ähnlichen Triple-Helices.rnAls Ausweitung dieser synthetischen Strategie wurde homotelecheles PDEGMEMA mit zwei PFP-Esterendgruppen dargestellt, wozu der PFP-CTA für die Funktionalisierung der -Endgruppe und die radikalische Substitution des Dithioesters durch Behandlung mit einem Überschuss eines funktionellen AIBN-Derivates für die Funktionalisierung der -Endgruppe ausgenutzt wurde. Die Umsetzung der beiden reaktiven Kettenenden mit dem N-Terminus eines Peptidblocks ergab ein Peptid-Polymer-Peptid Triblockcopolymer.rnSchließlich konnten die anorganisch-organischen Hybridmaterialien PMSSQ-Poly(2,2-diethoxyethylacrylat) (PMSSQ-PDEEA) und PMSSQ-Poly(1,3-dioxolan-2-ylmethylacrylat) (PMSSQ-PDMA) für die Herstellung robuster, peptid-reaktiver Oberflächen durch Spin Coaten und thermisch induziertes Vernetzen angewendet werden. Nach saurem Entschützen der Acetalgruppen in diesen Filmen konnten die resultierenden Aldehydgruppen durch einfaches Eintauchen in eine Lösung mit einer Auswahl von Aminen und Hydroxylaminen umgesetzt werden, wodurch die Oberflächenhydrophilie modifiziert werden konnte. Darüber hinaus konnten auf Basis der unterschiedlichen Stabilität der zwei hier verglichenen Acetalgruppen Entschützungsprotokolle für die exklusive Entschützung der Diethylacetale in PMSSQ-PDEEA und deren Umsetzung ohne Entschützung der zyklischen Ethylenacetale in PMSSQ-PDMA entwickelt werden, die die Herstellung multifunktioneller Oberflächenbeschichtungen z.B. für die Proteinimmobilisierung ermöglichen.
Resumo:
Ein wesentlicher Anteil an organischem Kohlenstoff, der in der Atmosphäre vorhanden ist, wird als leichtflüchtige organische Verbindungen gefunden. Diese werden überwiegend durch die Biosphäre freigesetzt. Solche biogenen Emissionen haben einen großen Einfluss auf die chemischen und physikalischen Eigenschaften der Atmosphäre, indem sie zur Bildung von bodennahem Ozon und sekundären organischen Aerosolen beitragen. Um die Bildung von bodennahem Ozon und von sekundären organischen Aerosolen besser zu verstehen, ist die technische Fähigkeit zur genauen Messung der Summe dieser flüchtigen organischen Substanzen notwendig. Häufig verwendete Methoden sind nur auf den Nachweis von spezifischen Nicht-Methan-Kohlenwasserstoffverbindungen fokussiert. Die Summe dieser Einzelverbindungen könnte gegebenenfalls aber nur eine Untergrenze an atmosphärischen organischen Kohlenstoffkonzentrationen darstellen, da die verfügbaren Methoden nicht in der Lage sind, alle organischen Verbindungen in der Atmosphäre zu analysieren. Einige Studien sind bekannt, die sich mit der Gesamtkohlenstoffbestimmung von Nicht-Methan-Kohlenwasserstoffverbindung in Luft beschäftigt haben, aber Messungen des gesamten organischen Nicht-Methan-Verbindungsaustauschs zwischen Vegetation und Atmosphäre fehlen. Daher untersuchten wir die Gesamtkohlenstoffbestimmung organische Nicht-Methan-Verbindungen aus biogenen Quellen. Die Bestimmung des organischen Gesamtkohlenstoffs wurde durch Sammeln und Anreichern dieser Verbindungen auf einem festen Adsorptionsmaterial realisiert. Dieser erste Schritt war notwendig, um die stabilen Gase CO, CO2 und CH4 von der organischen Kohlenstofffraktion zu trennen. Die organischen Verbindungen wurden thermisch desorbiert und zu CO2 oxidiert. Das aus der Oxidation entstandene CO2 wurde auf einer weiteren Anreicherungseinheit gesammelt und durch thermische Desorption und anschließende Detektion mit einem Infrarot-Gasanalysator analysiert. Als große Schwierigkeiten identifizierten wir (i) die Abtrennung von CO2 aus der Umgebungsluft von der organischen Kohlenstoffverbindungsfaktion während der Anreicherung sowie (ii) die Widerfindungsraten der verschiedenen Nicht-Methan-Kohlenwasserstoff-verbindungen vom Adsorptionsmaterial, (iii) die Wahl des Katalysators sowie (iiii) auftretende Interferenzen am Detektor des Gesamtkohlenstoffanalysators. Die Wahl eines Pt-Rd Drahts als Katalysator führte zu einem bedeutenden Fortschritt in Bezug auf die korrekte Ermittlung des CO2-Hintergrund-Signals. Dies war notwendig, da CO2 auch in geringen Mengen auf der Adsorptionseinheit während der Anreicherung der leichtflüchtigen organischen Substanzen gesammelt wurde. Katalytische Materialien mit hohen Oberflächen stellten sich als unbrauchbar für diese Anwendung heraus, weil trotz hoher Temperaturen eine CO2-Aufnahme und eine spätere Abgabe durch das Katalysatormaterial beobachtet werden konnte. Die Methode wurde mit verschiedenen leichtflüchtigen organischen Einzelsubstanzen sowie in zwei Pflanzenkammer-Experimenten mit einer Auswahl an VOC-Spezies getestet, die von unterschiedlichen Pflanzen emittiert wurden. Die Pflanzenkammer-messungen wurden durch GC-MS und PTR-MS Messungen begleitet. Außerdem wurden Kalibrationstests mit verschiedenen Einzelsubstanzen aus Permeations-/Diffusionsquellen durchgeführt. Der Gesamtkohlenstoffanalysator konnte den tageszeitlichen Verlauf der Pflanzenemissionen bestätigen. Allerdings konnten Abweichungen für die Mischungsverhältnisse des organischen Gesamtkohlenstoffs von bis zu 50% im Vergleich zu den begleitenden Standardmethoden beobachtet werden.
Resumo:
In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.
Resumo:
Lattice Quantum Chromodynamics (LQCD) is the preferred tool for obtaining non-perturbative results from QCD in the low-energy regime. It has by nowrnentered the era in which high precision calculations for a number of phenomenologically relevant observables at the physical point, with dynamical quark degrees of freedom and controlled systematics, become feasible. Despite these successes there are still quantities where control of systematic effects is insufficient. The subject of this thesis is the exploration of the potential of todays state-of-the-art simulation algorithms for non-perturbativelyrn$\mathcal{O}(a)$-improved Wilson fermions to produce reliable results in thernchiral regime and at the physical point both for zero and non-zero temperature. Important in this context is the control over the chiral extrapolation. Thisrnthesis is concerned with two particular topics, namely the computation of hadronic form factors at zero temperature, and the properties of the phaserntransition in the chiral limit of two-flavour QCD.rnrnThe electromagnetic iso-vector form factor of the pion provides a platform to study systematic effects and the chiral extrapolation for observables connected to the structure of mesons (and baryons). Mesonic form factors are computationally simpler than their baryonic counterparts but share most of the systematic effects. This thesis contains a comprehensive study of the form factor in the regime of low momentum transfer $q^2$, where the form factor is connected to the charge radius of the pion. A particular emphasis is on the region very close to $q^2=0$ which has not been explored so far, neither in experiment nor in LQCD. The results for the form factor close the gap between the smallest spacelike $q^2$-value available so far and $q^2=0$, and reach an unprecedented accuracy at full control over the main systematic effects. This enables the model-independent extraction of the pion charge radius. The results for the form factor and the charge radius are used to test chiral perturbation theory ($\chi$PT) and are thereby extrapolated to the physical point and the continuum. The final result in units of the hadronic radius $r_0$ is rn$$ \left\langle r_\pi^2 \right\rangle^{\rm phys}/r_0^2 = 1.87 \: \left(^{+12}_{-10}\right)\left(^{+\:4}_{-15}\right) \quad \textnormal{or} \quad \left\langle r_\pi^2 \right\rangle^{\rm phys} = 0.473 \: \left(^{+30}_{-26}\right)\left(^{+10}_{-38}\right)(10) \: \textnormal{fm} \;, $$rn which agrees well with the results from other measurements in LQCD and experiment. Note, that this is the first continuum extrapolated result for the charge radius from LQCD which has been extracted from measurements of the form factor in the region of small $q^2$.rnrnThe order of the phase transition in the chiral limit of two-flavour QCD and the associated transition temperature are the last unkown features of the phase diagram at zero chemical potential. The two possible scenarios are a second order transition in the $O(4)$-universality class or a first order transition. Since direct simulations in the chiral limit are not possible the transition can only be investigated by simulating at non-zero quark mass with a subsequent chiral extrapolation, guided by the universal scaling in the vicinity of the critical point. The thesis presents the setup and first results from a study on this topic. The study provides the ideal platform to test the potential and limits of todays simulation algorithms at finite temperature. The results from a first scan at a constant zero-temperature pion mass of about 290~MeV are promising, and it appears that simulations down to physical quark masses are feasible. Of particular relevance for the order of the chiral transition is the strength of the anomalous breaking of the $U_A(1)$ symmetry at the transition point. It can be studied by looking at the degeneracies of the correlation functions in scalar and pseudoscalar channels. For the temperature scan reported in this thesis the breaking is still pronounced in the transition region and the symmetry becomes effectively restored only above $1.16\:T_C$. The thesis also provides an extensive outline of research perspectives and includes a generalisation of the standard multi-histogram method to explicitly $\beta$-dependent fermion actions.
Resumo:
The asymptotic safety scenario allows to define a consistent theory of quantized gravity within the framework of quantum field theory. The central conjecture of this scenario is the existence of a non-Gaussian fixed point of the theory's renormalization group flow, that allows to formulate renormalization conditions that render the theory fully predictive. Investigations of this possibility use an exact functional renormalization group equation as a primary non-perturbative tool. This equation implements Wilsonian renormalization group transformations, and is demonstrated to represent a reformulation of the functional integral approach to quantum field theory.rnAs its main result, this thesis develops an algebraic algorithm which allows to systematically construct the renormalization group flow of gauge theories as well as gravity in arbitrary expansion schemes. In particular, it uses off-diagonal heat kernel techniques to efficiently handle the non-minimal differential operators which appear due to gauge symmetries. The central virtue of the algorithm is that no additional simplifications need to be employed, opening the possibility for more systematic investigations of the emergence of non-perturbative phenomena. As a by-product several novel results on the heat kernel expansion of the Laplace operator acting on general gauge bundles are obtained.rnThe constructed algorithm is used to re-derive the renormalization group flow of gravity in the Einstein-Hilbert truncation, showing the manifest background independence of the results. The well-studied Einstein-Hilbert case is further advanced by taking the effect of a running ghost field renormalization on the gravitational coupling constants into account. A detailed numerical analysis reveals a further stabilization of the found non-Gaussian fixed point.rnFinally, the proposed algorithm is applied to the case of higher derivative gravity including all curvature squared interactions. This establishes an improvement of existing computations, taking the independent running of the Euler topological term into account. Known perturbative results are reproduced in this case from the renormalization group equation, identifying however a unique non-Gaussian fixed point.rn
Resumo:
Die Forschungsarbeit siedelt sich im Dreieck der Erziehungswissenschaften, der Informatik und der Schulpraxis an und besitzt somit einen starken interdisziplinären Charakter. Aus Sicht der Erziehungswissenschaften handelt es sich um ein Forschungsprojekt aus den Bereichen E-Learning und Multimedia Learning und der Fragestellung nach geeigneten Informatiksystemen für die Herstellung und den Austausch von digitalen, multimedialen und interaktiven Lernbausteinen. Dazu wurden zunächst methodisch-didaktische Vorteile digitaler Lerninhalte gegenüber klassischen Medien wie Buch und Papier zusammengetragen und mögliche Potentiale im Zusammenhang mit neuen Web2.0-Technologien aufgezeigt. Darauf aufbauend wurde für existierende Autorenwerkzeuge zur Herstellung digitaler Lernbausteine und bestehende Austauschplattformen analysiert, inwieweit diese bereits Web 2.0-Technologien unterstützen und nutzen. Aus Sicht der Informatik ergab sich aus der Analyse bestehender Systeme ein Anforderungsprofil für ein neues Autorenwerkzeug und eine neue Austauschplattform für digitale Lernbausteine. Das neue System wurde nach dem Ansatz des Design Science Research in einem iterativen Entwicklungsprozess in Form der Webapplikation LearningApps.org realisiert und stetig mit Lehrpersonen aus der Schulpraxis evaluiert. Bei der Entwicklung kamen aktuelle Web-Technologien zur Anwendung. Das Ergebnis der Forschungsarbeit ist ein produktives Informatiksystem, welches bereits von tausenden Nutzern in verschiedenen Ländern sowohl in Schulen als auch in der Wirtschaft eingesetzt wird. In einer empirischen Studie konnte das mit der Systementwicklung angestrebte Ziel, die Herstellung und den Austausch von digitalen Lernbausteinen zu vereinfachen, bestätigt werden. Aus Sicht der Schulpraxis liefert LearningApps.org einen Beitrag zur Methodenvielfalt und zur Nutzung von ICT im Unterricht. Die Ausrichtung des Werkzeugs auf mobile Endgeräte und 1:1-Computing entspricht dem allgemeinen Trend im Bildungswesen. Durch die Verknüpfung des Werkzeugs mit aktuellen Software Entwicklungen zur Herstellung von digitalen Schulbüchern werden auch Lehrmittelverlage als Zielgruppe angesprochen.
Resumo:
The most important property controlling the physicochemical behaviour of polyelectrolytes and their applicability in different fields is the charge density on the macromolecular chain. A polyelectrolyte molecule in solution may have an effective charge density which is smaller than the actual charge density determined from its chemical structure. In the present work an attempt has been made to quantitatively determine this effective charge density of a model polyelectrolyte by using light scattering techniques. Flexible linear polyelectrolytes with a Poly(2-Vinylpyridine) (2-PVP) backbone are used in the present study. The polyelectrolytes are synthesized by quaternizing the pyridine groups of 2-PVP by ethyl bromide to different quaternization degrees. The effect of the molar mass, degree of quaternization and solvent polarity on the effective charge is studied. The results show that the effective charge does not vary much with the polymer molar mass or the degree of quaternization. But a significant increase in the effective charge is observed when the solvent polarity is increased. The results do not obey the counterion condensation theory proposed by Manning. Based on the very low effective charges determined in this study, a new mechanism for the counterion condensation phenomena from a specific polyelectrolyte-counterion interaction is proposed
Resumo:
Amphiphile Peptide, Pro-Glu-(Phe-Glu)n-Pro, Pro-Asp-(Phe-Asp)n-Pro, und Phe-Glu-(Phe-Glu)n-Phe, können so aus n alternierenden Sequenzen von hydrophoben und hydrophilen Aminosäuren konstruiert werden, dass sie sich in Monolagen an der Luft-Wasser Grenzfläche anordnen. In biologischen Systemen können Strukturen an der organisch-wässrigen Grenzfläche als Matrix für die Kristallisation von Hydroxyapatit dienen, ein Vorgang der für die Behandlung von Osteoporose verwendet werden kann. In der vorliegenden Arbeit wurden Computersimulationenrneingesetzt, um die Strukturen und die zugrunde liegenden Wechselwirkungen welche die Aggregation der Peptide auf mikroskopischer Ebene steuern, zu untersuchen. Atomistische Molekulardynamik-Simulationen von einzelnen Peptidsträngen zeigen, dass sie sich leicht an der Luft-Wasser Grenzfläche anordnen und die Fähigkeit haben, sich in β-Schleifen zu falten, selbst für relativ kurze Peptidlängen (n = 2). Seltene Ereignisse wie diese (i.e. Konformationsänderungen) erfordern den Einsatz fortgeschrittener Sampling-Techniken. Hier wurde “Replica Exchange” Molekulardynamik verwendet um den Einfluss der Peptidsequenzen zu untersuchen. Die Simulationsergebnisse zeigten, dass Peptide mit kürzeren azidischen Seitenketten (Asp vs. Glu) gestrecktere Konformationen aufwiesen als die mit längeren Seitenketten, die in der Lage waren die Prolin-Termini zu erreichen. Darüber hinaus zeigte sich, dass die Prolin-Termini (Pro vs. Phe) notwendig sind, um eine 2D-Ordnung innerhalb derrnAggregate zu erhalten. Das Peptid Pro-Asp-(Phe-Asp)n-Pro, das beide dieser Eigenschaften enthält, zeigt das geordnetste Verhalten, eine geringe Verdrehung der Hauptkette, und ist in der Lage die gebildeten Aggregate durch Wasserstoffbrücken zwischen den sauren Seitenketten zu stabilisieren. Somit ist dieses Peptid am besten zur Aggregation geeignet. Dies wurde auch durch die Beurteilung der Stabilität von experimentnah-aufgesetzten Peptidaggregaten, sowie der Neigung einzelner Peptide zur Selbstorganisation von anfänglich ungeordneten Konfigurationen unterstützt. Da atomistische Simulationen nur auf kleine Systemgrößen und relativ kurze Zeitskalen begrenzt sind, wird ein vergröbertes Modell entwickelt damit die Selbstorganisation auf einem größeren Maßstab studiert werden kann. Da die Selbstorganisation an der Grenzfläche vonrnInteresse ist, wurden existierenden Vergröberungsmethoden erweitert, um nicht-gebundene Potentiale für inhomogene Systeme zu bestimmen. Die entwickelte Methode ist analog zur iterativen Boltzmann Inversion, bildet aber das Update für das Interaktionspotential basierend auf der radialen Verteilungsfunktion in einer Slab-Geometrie und den Breiten des Slabs und der Grenzfläche. Somit kann ein Kompromiss zwischen der lokalen Flüssigketsstruktur und den thermodynamischen Eigenschaften der Grenzfläche erreicht werden. Die neue Methode wurde für einen Wasser- und einen Methanol-Slab im Vakuum demonstriert, sowie für ein einzelnes Benzolmolekül an der Vakuum-Wasser Grenzfläche, eine Anwendung die von besonderer Bedeutung in der Biologie ist, in der oft das thermodynamische/Grenzflächenpolymerisations-Verhalten zusätzlich der strukturellen Eigenschaften des Systems erhalten werden müssen. Daraufrnbasierend wurde ein vergröbertes Modell über einen Fragment-Ansatz parametrisiert und die Affinität des Peptids zur Vakuum-Wasser Grenzfläche getestet. Obwohl die einzelnen Fragmente sowohl die Struktur als auch die Wahrscheinlichkeitsverteilungen an der Grenzfläche reproduzierten, diffundierte das Peptid als Ganzes von der Grenzfläche weg. Jedoch führte eine Reparametrisierung der nicht-gebundenen Wechselwirkungen für eines der Fragmente der Hauptkette in einem Trimer dazu, dass das Peptid an der Grenzfläche blieb. Dies deutet darauf hin, dass die Kettenkonnektivität eine wichtige Rolle im Verhalten des Petpids an der Grenzfläche spielt.
Resumo:
Die Arbeit befasst sich mit der Frage, ob Art. 33 II GG die Verwaltung verpflichtet, bei Per-sonalauswahlverfahren nach dem State of the Art der Personaldiagnostik vorzugehen.rnIn Kapitel 1 wird zunächst dieser State of the Art ermittelt. Zu diesem Zweck werden die verschieden personaldiagnostischen Instrumente (Interview, Assessment Center, Intelligenztest usw.) vorgestellt. Danach wird erarbeitet, wie diese Instrumente mit Hilfe der Testanalyse bewertet werden können, also wie sich ein geeignetes personaldiagnostisches Instrument von einem weniger geeigneten unterscheidet. Dazu werden die Qualitätskriterien Validität (Gültigkeit), Objektivität, Reliabilität (Zuverlässigkeit) und Effizienz betrachtet. Schließlich werden die vorgestellten personaldiagnostischen Instrumente an Hand dieser Kriterien beurteilt. Dabei stellt sich unter anderem die hohe Eignung von Intelligenztests für die Personalauswahl heraus.rnIn Kapitel 2 wird der Regelungsgehalt des Art. 33 II GG dargelegt, also zunächst die Ge-schichte seiner Vorgängernormen und die seiner Aufnahme in das Grundgesetz. Anschließend werden seine systematische Stellung, sein Tatbestand und sein Regelungsgehalt näher unter-sucht. Dabei werden auch ergänzende Normen, etwa aus dem Europarecht in den Blick ge-nommen. rnIn Kapitel 3 wird erkundet, durch welche rechtlichen Argumente die Verwaltung verpflichtet sein könnte, den State of the Art der Eignungsdiagnostik bei der Personalauswahl zu beach-ten. Dabei wird vorrangig die Rechtsfigur des Grundrechtsschutzes durch Verfahren in den Blick genommen. In diesem Zusammenhang wird deutlich gemacht, dass Art. 33 II GG ohne ein seiner Verwirklichung dienendes Auswahlverfahren bedeutungslos bleiben muss. Aber auch mit dem Art. 19 IV GG wird argumentiert, weil ein die Erkenntnisse der Eignungsdiag-nostik berücksichtigendes Personalauswahlverfahren vor Gericht besser überprüft werden kann als ein freies Personalauswahlverfahren.rnIn Kapitel 4 werden die Konsequenzen der vorhergehenden Erkenntnisse für die konkrete Gestaltung von Personalauswahlverfahren dargelegt, insbesondere die Verpflichtung für die Verwaltung, einige besonders geeignete Instrumente anzuwenden und einige nicht geeignete Instrumente nicht anzuwenden und bei der Anwendung bestimmte Standards einzuhalten. Schließlich wird auch empfohlen, dass der Gesetzgeber die Personalauswahlverfahren regelt, weil das Auswahlverfahren für das Grundrecht aus Art. 33 II GG von entscheidender Bedeu-tung ist. rn
Resumo:
In dieser Arbeit wurden Simulation von Flüssigkeiten auf molekularer Ebene durchgeführt, wobei unterschiedliche Multi-Skalen Techniken verwendet wurden. Diese erlauben eine effektive Beschreibung der Flüssigkeit, die weniger Rechenzeit im Computer benötigt und somit Phänomene auf längeren Zeit- und Längenskalen beschreiben kann.rnrnEin wesentlicher Aspekt ist dabei ein vereinfachtes (“coarse-grained”) Modell, welches in einem systematischen Verfahren aus Simulationen des detaillierten Modells gewonnen wird. Dabei werden ausgewählte Eigenschaften des detaillierten Modells (z.B. Paar-Korrelationsfunktion, Druck, etc) reproduziert.rnrnEs wurden Algorithmen untersucht, die eine gleichzeitige Kopplung von detaillierten und vereinfachten Modell erlauben (“Adaptive Resolution Scheme”, AdResS). Dabei wird das detaillierte Modell in einem vordefinierten Teilvolumen der Flüssigkeit (z.B. nahe einer Oberfläche) verwendet, während der Rest mithilfe des vereinfachten Modells beschrieben wird.rnrnHierzu wurde eine Methode (“Thermodynamische Kraft”) entwickelt um die Kopplung auch dann zu ermöglichen, wenn die Modelle in verschiedenen thermodynamischen Zuständen befinden. Zudem wurde ein neuartiger Algorithmus der Kopplung beschrieben (H-AdResS) der die Kopplung mittels einer Hamilton-Funktion beschreibt. In diesem Algorithmus ist eine zur Thermodynamischen Kraft analoge Korrektur mit weniger Rechenaufwand möglich.rnrnAls Anwendung dieser grundlegenden Techniken wurden Pfadintegral Molekulardynamik (MD) Simulationen von Wasser untersucht. Mithilfe dieser Methode ist es möglich, quantenmechanische Effekte der Kerne (Delokalisation, Nullpunktsenergie) in die Simulation einzubeziehen. Hierbei wurde zuerst eine Multi-Skalen Technik (“Force-matching”) verwendet um eine effektive Wechselwirkung aus einer detaillierten Simulation auf Basis der Dichtefunktionaltheorie zu extrahieren. Die Pfadintegral MD Simulation verbessert die Beschreibung der intra-molekularen Struktur im Vergleich mit experimentellen Daten. Das Modell eignet sich auch zur gleichzeitigen Kopplung in einer Simulation, wobei ein Wassermolekül (beschrieben durch 48 Punktteilchen im Pfadintegral-MD Modell) mit einem vereinfachten Modell (ein Punktteilchen) gekoppelt wird. Auf diese Weise konnte eine Wasser-Vakuum Grenzfläche simuliert werden, wobei nur die Oberfläche im Pfadintegral Modell und der Rest im vereinfachten Modell beschrieben wird.
Resumo:
The main research theme of this dissertation is the synthesis of g- and b-carbolines using a metal-catalyzed [2+2+2] cycloaddition strategy of tethered alkynyl-ynamides (diynes) with nitriles. g- and b-carbolines form the core of a large group of natural product and represent important targets for organic chemists. Many of these carbolines showed pharmacological effects ranging from anti-tumor to anxiolytic and anti-HIV activity. A model study with N-Ethynyl-N-tosyl-2-(2-phenylethynyl)aniline and methyl cyanoformate showed that rhodium-based catalysts promote efficiently the reaction. A further optimization showed that the regioselectivity of the reaction can be tuned by the choice of the solvent or by the catalytic system. Application to a larger scope of diynes showed that the regioselectivity strongly depends on the type of substitution of the alkynyl moieties, giving regioselectivities in the range g:b = 1/0 to g:b = 0/1. This [2+2+2] cycloaddition approach for the synthesis of the g- and b-carboline cores was successfully applied to the first total synthesis of Isoperlolyrine and the total synthesis of Perlolyrine. Extension of this strategy to heterocumulenes as cycloaddition partners allowed the synthesis of a g-carbolinone, a thiopyrano[3,4-b]indol-3-imine and thiopyranothiones.
Resumo:
Die Förderung der Zelladhäsion durch sogenannte biomimetische Oberflächen wird in der Medizin als vielversprechender Ansatz gesehen, um Komplikationen wie z. B. Fremdkörperreaktionen nach der Implantation entgegenzuwirken. Neben der Immobilisierung einzelner Biomoleküle wie z. B. dem RGD-Peptid, Proteinen und Wachstumsfaktoren auf verschiedenen Materialien, konzentriert man sich derzeit in der Forschung auf die Co-Immobilisierung zweier Moleküle gleichzeitig. Hierbei werden die funktionellen Gruppen z. B. von Kollagen unter Verwendung von nur einer Kopplungschemie verwendet, wodurch die Kopplungseffizienz der einzelnen Komponenten nur begrenzt kontrollierbar ist. Das Ziel der vorliegenden Arbeit war die Entwicklung eines Immobilisierungsverfahrens, welches die unabhängige Kopplung zweier Faktoren kontrolliert ermöglicht. Dabei sollten exemplarisch das adhäsionsfördernde RGD-Peptid (Arginin-Glycin-Asparaginsäure) zusammen mit dem Wachstumsfaktor VEGF (Vascular Endothelial Growth Factor) auf Titan gebunden werden. In weiteren Experimenten sollten dann die pro-adhäsiven Faktoren Fibronektin, Kollagen, Laminin und Osteopontin immobilisiert und untersucht werden. rnDie Aminofunktionalisierung von Titan durch plasma polymerisierte Allylaminschichten wurde als Grundlage für die Entwicklung des nasschemischen Co-immobilisierungsverfahren verwendet. Für eine unabhängige und getrennte Anbindung der verschiedenen Biomoleküle stand in diesem Zusammenhang die Entwicklung eines geeigneten Crosslinker Systems im Vordergrund. Die Oberflächencharakterisierung der entwickelten Oberflächen erfolgte mittels Infrarot Spektroskopie, Surface Plasmon Resonance Spektroskopie (SPR), Kontaktwinkelmessungen, Step Profiling und X-Ray Photoelectron Spektroskopie (XPS). Zur Analyse der Anbindungsprozesse in Echtzeit wurden SPR-Kinetik Messungen durchgeführt. Die biologische Funktionalität der modifizierten Oberflächen wurde in vitro an Endothelzellen (HUVECs) und Osteoblasten (HOBs) und in vivo in einem Tiermodell-System an der Tibia von Kaninchen untersucht.rnDie Ergebnisse zeigen, dass alle genannten Biomoleküle sowohl einzeln auf Titan kovalent gekoppelt als auch am Bespiel von RGD und VEGF in einem getrennten Zwei-Schritt-Verfahren co-immobilisiert werden können. Des Weiteren wurde die biologische Funktionalität der gebundenen Faktoren nachgewiesen. Im Falle der RGD modifizierten Oberflächen wurde nach 7 Tagen eine geförderte Zelladhäsion von HUVECs mit einer signifikant erhöhten Zellbesiedlungsdichte von 28,5 % (p<0,05) gezeigt, wohingegen auf reinem Titan Werte von nur 13 % beobachtet wurden. Sowohl VEGF als auch RGD/VEGF modifizierte Proben wiesen im Vergleich zu Titan schon nach 24 Stunden eine geförderte Zelladhäsion und eine signifikant erhöhte Zellbesiedlungsdichte auf. Bei einer Besiedlung von 7,4 % auf Titan, zeigten VEGF modifizierte Proben mit 32,3 % (p<0,001) eine deutlichere Wirkung auf HUVECs als RGD/VEGF modifizierte Proben mit 13,2 % (p<0,01). Die pro-adhäsiven Faktoren zeigten eine deutliche Stimulation der Zelladhäsion von HUVECs und HOBs im Vergleich zu reinem Titan. Die deutlich höchsten Besiedlungsdichten von HUVECs konnten auf Fibronektin mit 44,6 % (p<0,001) und Kollagen mit 39,9 % (p<0,001) nach 24 Stunden beobachtet werden. Laminin zeigte keine und Osteopontin nur eine sehr geringe Wirkung auf HUVECs. Bei Osteoblasten konnten signifikant erhöhte Besiedlungsdichten im Falle aller pro-adhäsiven Faktoren beobachtet werden, jedoch wurden die höchsten Werte nach 7 Tagen auf Kollagen mit 90,6 % (p<0,001) und Laminin mit 86,5 % (p<0,001) im Vergleich zu Titan mit 32,3 % beobachtet. Die Auswertung der Tierexperimente ergab, dass die VEGF modifizierten Osteosyntheseplatten, im Vergleich zu den reinen Titankontrollen, eine gesteigerte Knochenneubildung auslösten. Eine solche Wirkung konnte für RGD/VEGF modifizierte Implantate nicht beobachtet werden. rnInsgesamt konnte gezeigt werden, dass mittels plasmapolymerisierten Allylamin Schichten die genannten Biomoleküle sowohl einzeln gebunden als auch getrennt und kontrolliert co-immobilisiert werden können. Des Weiteren konnte eine biologische Funktionalität für alle Faktoren nach erfolgter Kopplung in vitro gezeigt werden. Wider Erwarten konnte jedoch kein zusätzlicher biologischer Effekt durch die Co-immobilisierung von RGD und VEGF im Vergleich zu den einzeln immobilisierten Faktoren gezeigt werden. Um zu einer klinischen Anwendung zu gelangen, ist es nun notwendig, das entwickelte Verfahren in Bezug auf die immobilisierten Mengen der verschiedenen Faktoren hin zu optimieren. rn
Resumo:
In den Briefen 4, 6, 11 und 12 der Heroides hat Ovid direkt oder indirekt Figuren des Mythos zum Gegenstand seiner Dichtung gemacht, die den zeitgenössischen wie auch den heutigen Rezipienten insbesondere durch Tragödien des Euripides bekannt sind. Die zu Beginn dieser Arbeit dazu durchgeführte historische Analyse der grundsätzlichen Bedingungen der Rezeption der Tragödien des Euripides in der Zeit Ovids zeigt, dass der römische Dichter für ein intertextuelles Dichten in den Heroides die Werke des griechischen Tragikers als Prätexte nutzen konnte, da die Rezipienten über die theoretische und praktische Kompetenz verfügten, entsprechende Verweisungen zu identifizieren, diese in einem Prozess der intertextuellen Lektüre zu dekodieren und den Text auf diese Weise zu interpretieren. Eine Beschreibung dieses antiken literarischen Kommunikationsprozesses zwischen Ovid und seinen Rezipienten erfolgt dabei mit den Mitteln einer für die Euripidesrezeption Ovids konkretisierten Intertextualitätstheorie (Kapitel A.I und II). Die ausführlichen Interpretationen zu den Heroides-Briefen 12, 6, 4 und 11 sowie zur Rezeption des Medea-Prologs in verschiedenen Gedichten Ovids (Kapitel B.I bis V) zeigen, dass der römische Dichter verschiedene Formen intertextueller Verweisungen nutzt, um in den bekannten Geschichten von Medea, Hypsipyle, Phaedra und Canace bislang ungenutztes narratives Potential zu entdecken und auf dieser Grundlage eine alte Geschichte neu zu erzählen. Das in der Forschung bereits vielfach beschriebene Prinzip Ovids des idem aliter referre ist in den untersuchten Texten konkret darauf ausgerichtet, die aus den Tragödien bekannten Heroinen in einer bestimmten Phase ihrer Geschichte zu Figuren einer elegischen Welt werden zu lassen. Diese neu geschaffene elegische Dimension einer ursprünglich tragischen Geschichte dient dabei nicht einer umwertenden Neuinterpretation der bekannten tragischen Figur. Vielmehr lässt Ovid seine Briefe zu einem Teil des Mythos werden, zu einem elegischen Vorspiel der Tragödie, die einen durch Euripides vorgegebenen Rahmen des Mythos erweitern und damit zugleich zentrale Motive der tragischen Prätexte vorbereiten. Ovid gestaltet aus, was in dem von Euripides initiierten Mythos angelegt ist, und nutzt das elegische Potential der tragischen Erzählung, um das Geschehen und vor allem die Heroine selbst in seinem Brief zur Tragödie hinzuführen. Damit bereitet Ovid in den Heroides die weitere Entwicklung der äußeren tragischen Handlung vor, indem er vor allem eine innere Entwicklung der von ihm geschaffenen Briefschreiberin aufzeigt und auf diese Weise jeweils aus einer von ihm geschaffenen elegischen Frau jene tragische Heldin werden lässt, die den Rezipienten aus der jeweiligen Tragödie des Euripides bekannt ist. Die sich daraus notwendigerweise ergebenden Spannungen und Interferenzen zwischen den Erwartungen der Rezipienten und der Realität der von Ovid neu gestalteten Figur in ihrem elegischen Kontext werden von dem römischen Dichter produktiv genutzt und durch die im Text initiierte Entwicklung aufgehoben. So scheinen dann letztlich aus den Elegien Ovids die Tragödien des Euripides hervorzugehen.