960 resultados para rules-in-form
Resumo:
The use of linear programming in various areas has increased with the significant improvement of specialized solvers. Linear programs are used as such to model practical problems, or as subroutines in algorithms such as formal proofs or branch-and-cut frameworks. In many situations a certified answer is needed, for example the guarantee that the linear program is feasible or infeasible, or a provably safe bound on its objective value. Most of the available solvers work with floating-point arithmetic and are thus subject to its shortcomings such as rounding errors or underflow, therefore they can deliver incorrect answers. While adequate for some applications, this is unacceptable for critical applications like flight controlling or nuclear plant management due to the potential catastrophic consequences. We propose a method that gives a certified answer whether a linear program is feasible or infeasible, or returns unknown'. The advantage of our method is that it is reasonably fast and rarely answers unknown'. It works by computing a safe solution that is in some way the best possible in the relative interior of the feasible set. To certify the relative interior, we employ exact arithmetic, whose use is nevertheless limited in general to critical places, allowing us to rnremain computationally efficient. Moreover, when certain conditions are fulfilled, our method is able to deliver a provable bound on the objective value of the linear program. We test our algorithm on typical benchmark sets and obtain higher rates of success compared to previous approaches for this problem, while keeping the running times acceptably small. The computed objective value bounds are in most of the cases very close to the known exact objective values. We prove the usability of the method we developed by additionally employing a variant of it in a different scenario, namely to improve the results of a Satisfiability Modulo Theories solver. Our method is used as a black box in the nodes of a branch-and-bound tree to implement conflict learning based on the certificate of infeasibility for linear programs consisting of subsets of linear constraints. The generated conflict clauses are in general small and give good rnprospects for reducing the search space. Compared to other methods we obtain significant improvements in the running time, especially on the large instances.
Resumo:
In dieser Arbeit wurde eine neue Methode zur asymmetrischen Substitution der K-Regionen von Pyren entwickelt, auf welcher das Design und die Synthese von neuartigen, Pyren-basierten funktionalen Materialien beruht. Eine Vielzahl von Substitutionsmustern konnte erfolgreich realisiert werden um die Eigenschaften entsprechend dem Verwendungszweck anzupassen. Der polyzyklische aromatische Kohlenwasserstoff (PAK) Pyren setzt sich aus vier Benzolringen in Form einer planaren Raute mit zwei gegenüberliegenden K-Regionen zusammen. Der synthetische Schlüsselschritt dieser Arbeit ist die chemische Transformation der einen K-Region zu einem α-Diketon und der darauffolgenden selektiven Bromierung der zweiten K-Region. Dieser asymmetrisch funktionalisierte Baustein zeichnet sich durch zwei funktionelle Gruppen mit orthogonaler Reaktivität aus und erweitert dadurch das Arsenal der etablierten Pyren Chemie um eine vielseitig einsetzbare Methode. Aufbauend auf diesem synthetischen Zugang wurden fünf wesentliche Konzepte auf dem Weg zu neuen, von Pyren abgeleiteten Materialen verfolgt: (i) Asymmterische Substitution mit elektronenziehenden versus -schiebenden Gruppen. (ii) Darstellung von Pyrenocyaninen durch Anbindung von Pyren mit einer der K-Regionen an das Phthalocyanin Gerüst zur Ausdehnung des π-Systems. (iii) Einführung von Thiophen an die K-Region um halbleitende Eigenschaften zu erhalten. (iv) Symmetrische Annullierung von PAKs wie Benzodithiophen und Phenanthren an beide K Regionen für cove-reiche und dadurch nicht-planare Strukturen. (v) Verwendung des K-Region-funktionalisierten Pyrens als Synthesebaustein für das Peri-Pentacen. Neben der Synthese wurde die Selbstorganisation in der Festphase und an der flüssig/fest Grenzfläche mittels zweidimensionaler Weitwinkel-Röntgenstreuung (2D WAXS) bzw. Rastertunnelmikroskopie (STM) untersucht. Die halbleitenden Eigenschaften wurden in organischen Feld-Effekt Transistoren (OFETs) charakterisiert.
Resumo:
Bei Menschen mit unreifem oder geschwächtem Immunsystem kann eine Infektion mit dem Humanen Cytomegalovirus (HCMV) zu schweren Erkrankungen führen. Hingegen kontrolliert das Immunsystem bei Gesunden die HCMV-Infektion fast vollständig. Wichtige Effektoren hierbei sind CD8-positive zytotoxische T-Zellen (CTLs). Um dieser Kontrolle entgegenzuwirken, exprimiert HCMV die als Immunevasine bekannten Proteine gpUS2, gpUS3, gpUS6 und gpUS11. Sie greifen an unterschiedlichen Stellen in die MHC-Klasse-I (MHC-I)-vermittelte Antigenpräsentation ein und schützen so infizierte Zellen vor der Erkennung durch CTLs. Zusätzlich waren auch den Tegumentproteinen pp65 und pp71 immunevasive Funktionen zugeschrieben worden, wobei jedoch über diese Funktionen bisher nur wenig bekannt war. Daher sollte im ersten Teil der vorliegenden Arbeit die Beteiligung von pp71 an der MHC-I-Immunevasion von HCMV-infizierten humanen Fibroblasten untersucht werden. Zu diesem Zweck wurden HCMV-Mutanten eingesetzt, die pp71 verstärkt exprimierten. Entgegen der postulierten immunevasiven Rolle von pp71 konnte zu keinem Zeitpunkt der Infektion ein inhibierender Effekt von pp71 auf die Antigenpräsentation infizierter Fibroblasten festgestellt werden. Sehr früh nach Infektion war sogar eine pp71-vermittelte Steigerung der Präsentation des HCMV-Proteins IE1 zu beobachten. Um zu prüfen, ob es auch während einer natürlichen Infektion zu einer Erhöhung der pp71-Expression und den damit verbundenen Effekten kommen kann, wurde untersucht, ob die Expression von pp71 durch Zellstress induzierbar ist. Dies erschien möglich, da der Leserahmen für pp71 von einer bizistronischen mRNA kodiert wird. Über die Erzeugung von Zellstress durch Serumentzug konnte zum ersten Mal gezeigt werden, dass die Expression des wichtigen viralen Transaktivators pp71 abhängig vom physiologischen Zustand der infizierten Zellen reguliert wird. Im zweiten Teil der vorliegenden Arbeit sollte die Rolle des Immunevasins gpUS3 näher beleuchtet werden. Sein Wirkmechanismus war, wie die Mechanismen der drei anderen Immunevasine gpUS2, gpUS6 und gpUS11, bereits ausführlicher untersucht worden. Der individuelle Beitrag von gpUS3 zur MHC-I-Immunevasion in infizierten Zellen sowie ein mögliches Zusammenspiel mit den anderen Immunevasinen waren hingegen noch zu erforschen. Hierzu wurden HCMV-Mutanten eingesetzt, die keines oder nur eines der Immunevasine exprimierten. Mit ihrer Hilfe konnte gezeigt werden, dass gpUS3 sehr früh nach Infektion überraschenderweise die Immunevasion in infizierten Fibroblasten behindert. Zu späteren Infektionszeitpunkten war dagegen ein immunevasiver Effekt von gpUS3 in Form einer Kooperation mit jeweils einem der drei anderen Immunevasine festzustellen. Aus diesen Ergebnissen ergibt sich die neue Hypothese, dass die Hauptaufgabe von gpUS3 im Rahmen der HCMV-Immunevasion in der Regulation der Funktionen der übrigen Immunevasine liegt.
Resumo:
In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.
Resumo:
The asymptotic safety scenario allows to define a consistent theory of quantized gravity within the framework of quantum field theory. The central conjecture of this scenario is the existence of a non-Gaussian fixed point of the theory's renormalization group flow, that allows to formulate renormalization conditions that render the theory fully predictive. Investigations of this possibility use an exact functional renormalization group equation as a primary non-perturbative tool. This equation implements Wilsonian renormalization group transformations, and is demonstrated to represent a reformulation of the functional integral approach to quantum field theory.rnAs its main result, this thesis develops an algebraic algorithm which allows to systematically construct the renormalization group flow of gauge theories as well as gravity in arbitrary expansion schemes. In particular, it uses off-diagonal heat kernel techniques to efficiently handle the non-minimal differential operators which appear due to gauge symmetries. The central virtue of the algorithm is that no additional simplifications need to be employed, opening the possibility for more systematic investigations of the emergence of non-perturbative phenomena. As a by-product several novel results on the heat kernel expansion of the Laplace operator acting on general gauge bundles are obtained.rnThe constructed algorithm is used to re-derive the renormalization group flow of gravity in the Einstein-Hilbert truncation, showing the manifest background independence of the results. The well-studied Einstein-Hilbert case is further advanced by taking the effect of a running ghost field renormalization on the gravitational coupling constants into account. A detailed numerical analysis reveals a further stabilization of the found non-Gaussian fixed point.rnFinally, the proposed algorithm is applied to the case of higher derivative gravity including all curvature squared interactions. This establishes an improvement of existing computations, taking the independent running of the Euler topological term into account. Known perturbative results are reproduced in this case from the renormalization group equation, identifying however a unique non-Gaussian fixed point.rn
Resumo:
Die Forschungsarbeit siedelt sich im Dreieck der Erziehungswissenschaften, der Informatik und der Schulpraxis an und besitzt somit einen starken interdisziplinären Charakter. Aus Sicht der Erziehungswissenschaften handelt es sich um ein Forschungsprojekt aus den Bereichen E-Learning und Multimedia Learning und der Fragestellung nach geeigneten Informatiksystemen für die Herstellung und den Austausch von digitalen, multimedialen und interaktiven Lernbausteinen. Dazu wurden zunächst methodisch-didaktische Vorteile digitaler Lerninhalte gegenüber klassischen Medien wie Buch und Papier zusammengetragen und mögliche Potentiale im Zusammenhang mit neuen Web2.0-Technologien aufgezeigt. Darauf aufbauend wurde für existierende Autorenwerkzeuge zur Herstellung digitaler Lernbausteine und bestehende Austauschplattformen analysiert, inwieweit diese bereits Web 2.0-Technologien unterstützen und nutzen. Aus Sicht der Informatik ergab sich aus der Analyse bestehender Systeme ein Anforderungsprofil für ein neues Autorenwerkzeug und eine neue Austauschplattform für digitale Lernbausteine. Das neue System wurde nach dem Ansatz des Design Science Research in einem iterativen Entwicklungsprozess in Form der Webapplikation LearningApps.org realisiert und stetig mit Lehrpersonen aus der Schulpraxis evaluiert. Bei der Entwicklung kamen aktuelle Web-Technologien zur Anwendung. Das Ergebnis der Forschungsarbeit ist ein produktives Informatiksystem, welches bereits von tausenden Nutzern in verschiedenen Ländern sowohl in Schulen als auch in der Wirtschaft eingesetzt wird. In einer empirischen Studie konnte das mit der Systementwicklung angestrebte Ziel, die Herstellung und den Austausch von digitalen Lernbausteinen zu vereinfachen, bestätigt werden. Aus Sicht der Schulpraxis liefert LearningApps.org einen Beitrag zur Methodenvielfalt und zur Nutzung von ICT im Unterricht. Die Ausrichtung des Werkzeugs auf mobile Endgeräte und 1:1-Computing entspricht dem allgemeinen Trend im Bildungswesen. Durch die Verknüpfung des Werkzeugs mit aktuellen Software Entwicklungen zur Herstellung von digitalen Schulbüchern werden auch Lehrmittelverlage als Zielgruppe angesprochen.
Resumo:
In Deutschland wird zur oralen Vitamin-K-Antagonistentherapie überwiegend der Wirkstoff Phenprocoumon (PPC) eingesetzt und die meisten Patienten werden durch ihren Hausarzt betreut. In einer deskriptiven, nicht-interventionellen Studie wurde die Ist-Situation der Versorgung von PPC-Patienten im ambulanten Sektor untersucht. Ziel war es, die Qualität und Effektivität der bisherigen Standardtherapie zu evaluieren. In Anbetracht der Einführung der neuen oralen Antikoagulantien (NOAC) ist die Untersuchung der PPC-Therapie von besonderem Interesse. Dem „Throughput-Modell“ folgend sollten „Input“- und „Outcome“-Parameter analysiert werden. rnIn einer klinischen Studie wurden 50 ambulant behandelte Patienten mit PPC-Therapie jeweils über einen Zeitraum von 3 Jahren retrospektiv beobachtet. In 5 niedergelassenen Arztpraxen in Rheinland-Pfalz wurden dazu 10 Patienten pro Praxis rekrutiert. Anhand der Patientenakte wurde eine Dokumentenanalyse durchgeführt. Die Selbstmedikation wurde mit einem eigens erstellten Fragebogen erfasst. rnIm Studienkollektiv wurden im Median 3 Comorbiditäten ermittelt. Die mediane Wochendosis betrug 4,0 Tabletten à 3 mg PPC. Die Patienten wurden im Median mit weiteren 15 verschiedenen Wirkstoffen therapiert, einer davon wurde in Selbstmedikation eingenommen. Im gesamten Beobachtungszeitraum fanden pro Patient im Median 57 Arztbesuche statt, die durch die Phenprocoumon-Therapie bedingt waren. INR (International normalized ratio)-Messungen (Median 47) waren der häufigste Grund für die Arztbesuche, so dass ein 3-Wochen-Rhythmus vom Gesamtkollektiv zu 97% erreicht wurde. Die „stabile“ INR-Einstellung wurde im Median nach 94 Tagen erreicht. Die prozentuale Rate (INR (%)) für die Einhaltung des INR-Zielbereiches (ZSB) erreichte internationale Benchmark-Werte, was auf eine gute Versorgungsqualität hindeutete. Die genauere Analyse ergab jedoch große interindividuelle Schwankungen. Während der „stabilen“ INR-Einstellung wurden bessere Ergebnisse als im Gesamtbeobachtungszeitraum erzielt. Drei Patienten (6%) erreichten die „stabile“ INR-Einstellung innerhalb von 3 Jahren nie. Die Auswertung für den erweiterten ZSB (ZSB ± 0,2) ergab bessere INR (%)-Ergebnisse als für den ZSB. Die Zeit im INR-ZSB (TTR (%)) erreichte mit 75% höhere Werte als INR (%) im ZSB mit 70%. Tendenziell war das Patientenkollektiv eher unter- als übertherapiert (Median „Under-INR“ 18% bzw. „Over-INR“ 8%). Erkrankungen und Impfungen stellten die wichtigsten der zahlreichen Einflussfaktoren für INR-Shifts hin zu Werten außerhalb des ZSB dar. Patienten, die Comedikation mit hohem Interaktionspotential einnahmen, erreichten in den INR-Qualitätsindikatoren schlechtere Ergebnisse als Patienten ohne potentiell interagierende Comedikation (Mann-Whitney-U-Test; p-Wert=0,003 für TTR (%), p=0,008 für INR (%)). In Zeitintervallen der „stabilen“ INR-Einstellung war der Unterschied nur für TTR (%) auffällig (Mann-Whitney-U-Test; p=0,015). Für den erweiterten ZSB waren die Unterschiede bezüglich beider INR-Qualitätsindikatoren nicht auffällig. Insgesamt wurden 41 unerwünschte Ereignisse (UAW) beobachtet, davon 24 (59%) in der Phase der „stabilen“ INR-Einstellung (21 leichte Blutungen, 1 schwere Blutung, 2 thromboembolische Ereignisse (TE)). Je 4 leichte Blutungen (19%) wurden in einen möglichen bzw. sicheren kausalen Zusammenhang mit der VKA-Therapie gebracht, wenn ein Zeitintervall von 3 Tagen zwischen der INR-Messung und Auftreten der UAW geprüft wurde. Ein TE wurde als sicher kausal gewertet. Von insgesamt 5 Krankenhausaufenthalten waren 3 bzw. 2 durch Blutungen bzw. TE veranlasst. Des Weiteren wurde im 3-Tage-Zeitintervall für 4 INR-Shifts hin zu Werten außerhalb des ZSB eine Interaktion mit verordneter CM als in sicherem oder möglichem kausalen Zusammenhang bewertet. Bei 49% der beobachteten Grippeimpfungen wurde ein INR-Shift festgestellt, der in ca. 60% der Fälle zu einem subtherapeutischen INR-Wert führte. Insgesamt war das klinische Ergebnis nicht optimal. rnDas „Outcome“ in Form der gesundheitsbezogenen Lebensqualität (LQ) wurde retrospektiv-prospektiv mittels SF-36-Fragebogen ermittelt. Die Patienten zeigten gegenüber der Normalbevölkerung einen Verlust an LQ auf körperlicher Ebene bzw. einen Gewinn auf psychischer Ebene. Das humanistische Ergebnis erfüllte bzw. übertraf damit die Erwartungen. rnInsgesamt wiesen die Ergebnisse darauf hin, dass Qualität und Effektivität der Antikoagulationstherapie mit PPC im ambulanten Sektor weiterer Optimierung bedürfen. Mit intensivierten Betreuungsmodellen lässt sich ein besseres Outcome erzielen. rn
Resumo:
Information is nowadays a key resource: machine learning and data mining techniques have been developed to extract high-level information from great amounts of data. As most data comes in form of unstructured text in natural languages, research on text mining is currently very active and dealing with practical problems. Among these, text categorization deals with the automatic organization of large quantities of documents in priorly defined taxonomies of topic categories, possibly arranged in large hierarchies. In commonly proposed machine learning approaches, classifiers are automatically trained from pre-labeled documents: they can perform very accurate classification, but often require a consistent training set and notable computational effort. Methods for cross-domain text categorization have been proposed, allowing to leverage a set of labeled documents of one domain to classify those of another one. Most methods use advanced statistical techniques, usually involving tuning of parameters. A first contribution presented here is a method based on nearest centroid classification, where profiles of categories are generated from the known domain and then iteratively adapted to the unknown one. Despite being conceptually simple and having easily tuned parameters, this method achieves state-of-the-art accuracy in most benchmark datasets with fast running times. A second, deeper contribution involves the design of a domain-independent model to distinguish the degree and type of relatedness between arbitrary documents and topics, inferred from the different types of semantic relationships between respective representative words, identified by specific search algorithms. The application of this model is tested on both flat and hierarchical text categorization, where it potentially allows the efficient addition of new categories during classification. Results show that classification accuracy still requires improvements, but models generated from one domain are shown to be effectively able to be reused in a different one.
Resumo:
Die Herstellung von Polymer-Solarzellen aus wässriger Phase stellt eine attraktive Alternative zu der konventionellen lösemittelbasierten Formulierung dar. Die Vorteile der aus wässriger Lösung hergestellten Solarzellen liegen besonders in dem umweltschonenden Herstellungsprozess und in der Möglichkeit, druckbare optoelektronische Bauteile zu generieren. Die Prozessierbarkeit von hydrophoben Halbleitern im wässrigen Milieu wird durch die Dispergierung der Materialien, in Form von Nanopartikeln, erreicht. Der Transfer der Halbleiter in eine Dispersion erfolgt über die Lösemittelverdampfungsmethode. Die Idee der Verwendung von partikelbasierte Solarzellen wurde bereits umgesetzt, allerdings blieben eine genaue Charakterisierung der Partikel sowie ein umfassendes Verständnis des gesamten Fabrikationsvorgangs aus. Deshalb besteht das Ziel dieser Arbeit darin, einen detaillierten Einblick in den Herstellungsprozess von partikelbasierten Solarzellen zu erlangen, mögliche Schwächen aufzudecken, diese zu beseitigen, um so zukünftige Anwendungen zu verbessern. Zur Herstellung von Solarzellen aus wässrigen Dispersionen wurde Poly(3-hexylthiophen-2,5-diyl)/[6,6]-Phenyl-C61-Buttersäure-Methylester (P3HT/PCBM) als Donor/Akzeptor-System verwendet. Die Kernpunkte der Untersuchungen richteten sich zum einen die auf Partikelmorphologie und zum anderen auf die Generierung einer geeigneten Partikelschicht. Beide Parameter haben Auswirkungen auf die Solarzelleneffizienz. Die Morphologie wurde sowohl spektroskopisch über Photolumineszenz-Messungen, als auch visuell mittels Elektronenmikroskopie ermittelt. Auf diese Weise konnte die Partikelmorphologie vollständig aufgeklärt werden, wobei Parallelen zu der Struktur von lösemittelbasierten Solarzellen gefunden wurden. Zudem wurde eine Abhängigkeit der Morphologie von der Präparationstemperatur beobachtet, was eine einfache Steuerung der Partikelstruktur ermöglicht. Im Zuge der Partikelschichtausbildung wurden direkte sowie grenzflächenvermittelnde Beschichtungsmethoden herangezogen. Von diesen Techniken hatte sich aber nur die Rotationsbeschichtung als brauchbare Methode erwiesen, Partikel aus der Dispersion in einen homogenen Film zu überführen. Des Weiteren stand die Aufarbeitung der Partikelschicht durch Ethanol-Waschung und thermische Behandlung im Fokus dieser Arbeit. Beide Maßnahmen wirkten sich positiv auf die Effizienz der Solarzellen aus und trugen entscheidend zu einer Verbesserung der Zellen bei. Insgesamt liefern die gewonnen Erkenntnisse einen detaillierten Überblick über die Herausforderungen, welche bei dem Einsatz von wasserbasierten Dispersionen auftreten. Die Anforderungen partikelbasierter Solarzellen konnten offengelegt werden, dadurch gelang die Herstellung einer Solarzelle mit einer Effizienz von 0.53%. Dieses Ergebnis stellt jedoch noch nicht das Optimum dar und lässt noch Möglichkeiten für Verbesserungen offen.
Resumo:
This thesis deals with three different physical models, where each model involves a random component which is linked to a cubic lattice. First, a model is studied, which is used in numerical calculations of Quantum Chromodynamics.In these calculations random gauge-fields are distributed on the bonds of the lattice. The formulation of the model is fitted into the mathematical framework of ergodic operator families. We prove, that for small coupling constants, the ergodicity of the underlying probability measure is indeed ensured and that the integrated density of states of the Wilson-Dirac operator exists. The physical situations treated in the next two chapters are more similar to one another. In both cases the principle idea is to study a fermion system in a cubic crystal with impurities, that are modeled by a random potential located at the lattice sites. In the second model we apply the Hartree-Fock approximation to such a system. For the case of reduced Hartree-Fock theory at positive temperatures and a fixed chemical potential we consider the limit of an infinite system. In that case we show the existence and uniqueness of minimizers of the Hartree-Fock functional. In the third model we formulate the fermion system algebraically via C*-algebras. The question imposed here is to calculate the heat production of the system under the influence of an outer electromagnetic field. We show that the heat production corresponds exactly to what is empirically predicted by Joule's law in the regime of linear response.
Resumo:
Die im Süden der Türkei gelegen, antiken Städte Aspendos und Patara, waren in der Römerzeit zwei bedeutende Handelszentren mit hoher Bevölkerungsdichte. Aquädukte versorgten beide Städte mit carbonathaltigem Wasser, wobei sich Kalksinter (Calciumcarbonat) in der Kanalrinne ablagerte. Dabei lagern sich im Wechsel eine hellere und dunklere Kalksinterlage ab, die als Sinterpaar bezeichnet wird. Um die Entstehung dieser Sinterpaare besser zu verstehen, und die beteiligten Prozesse mit saisonalen Veränderungen der Umwelt zu korrelieren, werden in der vorliegenden Arbeit laminierten Sinterablagerungen mit geochemischen und petrographischen Methoden untersucht.rnEntlang der Kanalrinne beider Aquädukte wurden an mehreren Stellen Proben entnommen. Es wurde untersucht in wieweit sich die Sinterstruktur aufgrund von Änderungen in der Neigung des Wasserkanals oder des Kanaltyps ändert. Um die Kristallform und die kristallografische Orientierung der Kristalle innerhalb der verschiedenen Sinterpaare zu untersuchen, wurden die entnommenen laminierten Kalksinterablagerungen mit Hilfe optischer Mikroskopie und EBSD (Electron Backscatter Diffraction) analysiert. Der Electron Probe Micro-Analyzer (EPMA) wurde verwendet, um saisonale Schwankungen der Hauptelementverteilung und den Anteil der stabilen Isotope im Wasser zu bestimmen. Die LA-ICP-MS (Laser Ablation-induktiv gekoppeltem Plasma-Massenspektrometrie) Spurenelementanalyse wurde durchgeführt, um kleinste Schwankungen der Spurenelemente zu finden. Basierend auf diesen Analysen wurde festgestellt, dass laminierten Kalksinterablagerungen laterale Änderungen in der Aquäduktstruktur und -neigung, jahreszeitliche Änderungen der Wasserchemie, der Temperatur sowie der Entgasungsrate während eines Jahres widerspiegeln. Die Kalksinterablagerungen zeigen eine deutliche Laminierung in Form von feinkörnig-porösen und grobkörnig-dichten Schichten, die trockene und nasse Jahreszeiten anzeigen. Feinkörnige Schichten zeigen eine hohe Epifluoreszenz aufgrund reichhaltiger organischer Inhalte, die vermutlich eine Folge der bakteriellen Aktivität während der warmen und trockenen Jahreszeit sind. Stabile Sauerstoff und Kohlenstoff-Isotop-Kurven entsprechen auch den jahreszeitlichen Schwankungen der verschiedenen Schichtenpaare. Vor allem δ 18O spiegelt jährliche Veränderungen in der Temperatur und jahreszeitliche Veränderungen des Abflusses wieder. Das wichtigste Ergebnis ist, dass die Periodizität von δ 18O durch Erwärmen des Wassers im Wasserkanal und nicht durch die Verdunstung oder der Brunnenwasser-Charakteristik verursacht wird. Die Periodizität von δ 13C ist komplexer Natur, vor allem zeigen δ 18O und δ 13C eine Antikorrelation entlang der Lamellenpaare. Dies wird wohl vor allem durch Entgasungsprozesse im Aquädukt verursacht. Die Ergebnisse der Spurenelemente sind meist inkonsistent und zeigen keine signifikanten Veränderungen in den verschiedenen Lamellenpaaren. Die Isotope Mg, Sr und Ba zeigen hingegen bei einigen Proben eine positive Korrelation und erreichen Höchstwerte innerhalb feinkörnig-poröser Schichten. Auch sind die Hauptelementwerte von Fe, K, Si und anderer detritischer Elemente innerhalb der feinkörnige-porösen Schichten maximal. Eine genaue Datierung der Kalksinterablagerungen ist wünschenswert, da der Zeitraum, in dem die Aquädukte aktiv waren, bereits archäologisch auf 200-300 Jahre festgelegt wurde. Paläomagnetische und 14C-Datierung geben keine brauchbare Ergebnisse. Die U/Th Isotopie wird durch eine hohe Anfangskonzentration von Th in den Proben behindert. Trotz dieser Schwierigkeiten war eine U/Th Datierung an einem Testbeispiel des Béziers Aquädukt erfolgreich. Mit Hilfe von analogen Untersuchungen an aktiven Wasserkanälen der heutigen Zeit, werden die Ablagerungsmechanismen und die geochemische Entwicklung der laminierten Sinterschichten besser verstanden. Ein weiteres laufendes Projekt dieser Doktorarbeit ist die Überwachung von Sinterabscheidungen und der saisonale Zusammensetzung des Wassers an einigen heute noch aktiven Aquädukten. Das Ziel ist die Untersuchung der jetzigen Calciumcarbonatabscheidungen in Aquäduktkanälen unter den heutigen Umgebungsbedingungen. Erste Ergebnisse zeigen, dass kleine regelmäßige jahreszeitliche Veränderungen in der Isotopenzusammensetzung des Wassers vorliegen, und dass die beobachtete Periodizität der stabilen Isotope aufgrund von Änderungen im eigentlichen Kanal entstanden ist. Die Untersuchung von Kalksinterablagerungen in römischen Aquädukten liefern vielversprechende Ergebnisse, für die Untersuchung des Paläöklimas, der Archaeoseismologie und anderer Umweltbedingungen in der Römerzeit. Diese Studie beschränkt sich auf zwei Aquädukte. Die Untersuchungen weiterer Aquädukte und einer Überwachung, der noch in Betrieb stehenden Aquädukte werden genauere Ergebnisse liefern.
Resumo:
Die Reaktion von Kupfertris(trimathylsilyl)silan (= Hypersilylkupfer, CuHyp) mit Iodoorganylverbindungen sollte analog zum Ullmann-Protokoll zum Halogen-Nukleophil-Austausch führen. Tatsächlich beobachteten wir zumeist die Bildung von Cuprio-Organylen, isolierbar in Form von mehrkernigen Neutralkomplexen aus dem Produkt und weiteren Äquivalenten von Hypersilylkupfer. Nach Zugabe von (weichen) Basen wie Trimethylphosphan kam es zur Auflösung dieser Komplexe und zur Bildung der erwarteten Silylorganyle. Von der systematischen Variation der eingesetzten Arene, Alkene und Alkine sowie ihrer Liganden versprachen wir uns tiefere Einsicht in die mechanistischen Zusammenhänge. Neben dem üblichen Halogen-Kupfer-Autausch konnten wir bei orthosubstituierten, bzw. zusätzlich tetramethylsubstituierten Diiodarenen einen einfachen Iod-Siyl-Autausch beobachten (vermutlich über Arinzwischenstufen), für Alkinedukte sogar eine doppelte Silylierung. Tatsächlich zeigen quantenchemische Berechnungen für CuHyp-Iodoorganyl-Systeme eine klare Präferenz von ullmannartigen Verläufen; andererseits führte Basenzugabe erst nachträglich zur Bildung von Ullmann-Produkten über die Auflösung der primären Komplexe. Innerhalb der üblicherweise gebildeten mehrkernigen Komplexe kommen Bindungen durch die Wechselwirkung unbesetzter σ*-Molekülorbitalee am Kupferzentrum von CuHyp und elektronenreichen bindenden Orbitalen in den Kupferorganyleinheiten zustande. Freie Elektronenpaare am Phosphor bei PMe3 könnten analog die Auflösung der Neutralkomplexe und die Bildung von vierkernigen Kupfer(III)-Intermediaten zwischen den Kupferorganyleinheiten und Iodsilan in der Lösung bewirken, die aufgrund ihrer strukturellen und energetischen Besonderheiten zu den erwarteten Ullmann-Produkten weiterreagieren würden. Die beobachteten Primärreaktionen verliefen dann offensichtlich über vergleichbare, aber unterschiedlich strukturierte Intermediate, vermutlich aufgrund der Tatsache, dass das eingesetzte CuHyp als Trimer vorliegt. Diese Annahme wird durch die direkte Silylierung von Iodalkinen gestützt, deren Dreifachbindungen möglicherweise als interne Base die trimeren in monomere CuHyp-Einheiten überführen. In eine ähnliche Richtung wäre die jüngst berichtete direkte Silylierung von Allylen bei Anwesenheit von elektronenreichen CN-Gruppen zu deuten.
Resumo:
In dieser Arbeit wird das Konzept eines aktiven Pulverinhalators entwickelt. Im Gegensatz zu einem passiven Pulverinhalator ist bei solch einem Gerät die Abgabe und Dispergierung der Arzneistoffformulierung nicht von einem Inhalationsmanöver abhängig, welches von Patient zu Patient variiert. Solch ein System würde folglich die Zuverlässigkeit und Effizienz der inhalativen Therapie verbessern. Mögliche Anwendungen für einen aktiven Pulverinhalator wären vor allem Indikationen, die die Abgabe hoher Dosen erfordern, wie z.B. in der Therapie mit Antibiotika.rnIn einem Designprozess, der alle aus Kundenwünschen ermittelten Konstruktionsanforderungen sammelt und verschiedene Lösungsansätze vergleicht, wird ein mit Treibgas betriebener atemzugsausgelöster, Mehrfach-Dosis Pulverinhalator als aussichtsreichstes Konzept ermittelt. Dieses Konzept wird in Form von eigens konstruierten Labor-Test-Rigs entwickelt und vor allem hinsichtlich Höhe der Dosierung, Dosiergenauigkeit, und Flussratenabhängigkeit evaluiert. In der Spitze können über 16 mg lungengängiger Dosis erreicht werden, bei im Vergleich zu dem eingesetzten passiven Inhalator mindestens nur halb so großer Streuung. Bei niedrigen Flussraten können immer noch bis zu 80 % der erzielten inhalierbaren Dosis von hohen Flussraten erreicht werden und damit die Ergebnisse des passiven Inhalators deutlich übertreffen.rnTeil der Aufgabe war es, dieses treibgasbetriebene Labor-Test-Rig so zu entwickeln, dass es implementierbar in einen atemzugsausgelösten Mehrfachdosis-Pulverinhalator ist. Dieser treibgasbetriebene, atemzugsausgelöste Mehrfachdosis-Pulverinhalator würde die Kundenwünsche und Konstruktionsanforderungen in sehr hohen Maße erfüllen, so dass hier die Möglichkeit besteht einen Inhalator mit sehr hohem Grad an Patienten-Compliance zu verwirklichen. Durch die Verwendung und Neukombination bereits etablierter Technologien und einen akzeptablen Stückkostenpreis besteht die Möglichkeit den Inhalator tatsächlich zu realisieren und zu vermarkten.
Resumo:
Die Frage wie großmotorische Bewegungen gelernt werden beschäftigt nicht nur Sportler, Trainer und Sportlehrer sondern auch Ärzte und Physiotherapeuten. Die sportwissenschaftlichen Teildisziplinen Bewegungs- und Trainingswissenschaft versuchen diese Frage sowohl im Sinne der Grundlagenforschung (Wie funktioniert Bewegungslernen?) als auch hinsichtlich der praktischen Konsequenzen (Wie lehrt man Bewegungen?) zu beantworten. Innerhalb dieser Themenfelder existieren Modelle, die Bewegungslernen als gezielte und extern unterstützte Ausbildung zentralnervöser Bewegungsprogramme verstehen und solche, die Lernen als Selbstorganisationsprozess interpretieren. Letzteren ist das Differenzielle Lernen und Lehren (Schöllhorn, 1999) zuzuordnen, das die Notwendigkeit betont, Bewegungen durch die Steigerung der Variationen während der Aneignungsphase zu lernen und zu lehren. Durch eine Vielzahl an Variationen, so die Modellannahme, findet der Lernende ohne externe Vorgaben selbstorganisiert ein individuelles situatives Optimum. Die vorliegende Arbeit untersucht, welchen Einfluss Variationen verschiedener Art und Größe auf die Lern- und Aneignungsleistung großmotorischer Bewegungen haben und in wie fern personenübergreifende Optima existieren. In zwei Experimenten wird der Einfluss von räumlichen (Bewegungsausführung, Bewegungsergebnis) und zeitlichen Variationen (zeitliche Verteilung der Trainingsreize) auf die Aneignungs- und Lernleistung großmotorischer sportlicher Bewegungen am Beispiel zweier technischer Grundfertigkeiten des Hallenhockeys untersucht. Die Ergebnisse der Experimente stützen die bisherige Befundlage zum Differenziellen Lernen und Lehren, wonach eine Zunahme an Variation in der Aneignungsphase zu größeren Aneignungs- und Lernleistungen führt. Zusätzlich wird die Annahme bestätigt, dass ein Zusammenhang von Variationsbereich und Lernrate in Form eines Optimaltrends vorliegt. Neu sind die Hinweise auf die Dynamik von motorischen Lernprozessen (Experiment 1). Hier scheinen individuelle Faktoren (z. B. die Lernbiografie) als auch die Phase im Lernprozess (Aneignung, Lernen) Einfluss zu haben auf den Umfang und die Struktur eines für die optimale Adaptation notwendigen Variationsbereichs. Darüber hinaus weisen die Befunde auf verschiedene Aneignungs- und Lerneffekte aufgrund alleiniger Variation der zeitlichen Verteilung bei ansonsten gleichen Trainingsreizen hin (Experiment 2). Für zukünftige Forschungsarbeiten zum Erlernen großmotorischer Bewegungen und für die sportliche Praxis dürfte es daher erkenntnisreich sein, die Historie der intrinsischen Dynamik der lernenden Systeme stärker zu berücksichtigen. Neben Fragestellungen für die Grundlagenforschung zum (Bewegungs-)Lernen ließen sich hieraus unmittelbar praxisrelevante Erkenntnisse darüber ableiten, wie Bewegungslernprozesse mittels verschiedener Variationsbereiche strukturiert und gesteuert werden könnten.
Resumo:
Das Institut für Kernphysik der Universität Mainz betreibt seit 1990 eine weltweit einzigartige Beschleunigeranlage für kern- und teilchenphysikalische Experimente – das Mainzer Mikrotron (MAMI-B). Diese Beschleunigerkaskade besteht aus drei Rennbahn-Mikrotrons (RTMs) mit Hochfrequenzlinearbeschleunigern bei 2.45 GHz, mit denen ein quasi kontinuierlicher Elektronenstrahl von bis zu 100 μA auf 855MeV beschleunigt werden kann.rnrnIm Jahr 1999 wurde die Umsetzung der letzten Ausbaustufe – ein Harmonisches Doppelseitiges Mikrotron (HDSM, MAMI-C) – mit einer Endenergie von 1.5 GeV begonnen. Die Planung erforderte einige mutige Schritte, z.B. Umlenkmagnete mit Feldgradient und ihren daraus resultierenden strahloptischen Eigenschaften, die einen großen Einfluss auf die Longitudinaldynamik des Beschleunigers haben. Dies erforderte die Einführung der „harmonischen“ Betriebsweise mit zwei Frequenzen der zwei Linearbeschleuniger.rnrnViele Maschinenparameter (wie z.B. HF-Amplituden oder -Phasen) wirken direkt auf den Beschleunigungsprozess ein, ihre physikalischen Größen sind indes nicht immer auf einfache Weise messtechnisch zugänglich. Bei einem RTM mit einer verhältnismäßig einfachen und wohldefinierten Strahldynamik ist das im Routinebetrieb unproblematisch, beim HDSM hingegen ist schon allein wegen der größeren Zahl an Parametern die Kenntnis der physikalischen Größen von deutlich größerer Bedeutung. Es gelang im Rahmen dieser Arbeit, geeignete Methoden der Strahldiagnose zu entwickeln, mit denen diese Maschinenparameter überprüft und mit den Planungsvorgaben verglichen werden können.rnrnDa die Anpassung des Maschinenmodells an eine einzelne Phasenmessung aufgrund der unvermeidlichen Messfehler nicht immer eindeutige Ergebnisse liefert, wird eine Form der Tomographie verwendet. Der longitudinale Phasenraum wird dann in Form einer Akzeptanzmessung untersucht. Anschließend kann ein erweitertes Modell an die gewonnene Datenvielfalt angepasst werden, wodurch eine größere Signifikanz der Modellparameter erreicht wird.rnrnDie Ergebnisse dieser Untersuchungen zeigen, dass sich der Beschleuniger als Gesamtsystem im Wesentlichen wie vorhergesagt verhält und eine große Zahl unterschiedlicher Konfigurationen zum Strahlbetrieb möglich sind – im Routinebetrieb wird dies jedoch vermieden und eine bewährte Konfiguration für die meisten Situationen eingesetzt. Das führt zu einer guten Reproduzierbarkeit z.B. der Endenergie oder des Spinpolarisationswinkels an den Experimentierplätzen.rnrnDie Erkenntnisse aus diesen Untersuchungen wurden teilweise automatisiert, so dass nun den Operateuren zusätzliche und hilfreiche Diagnose zur Verfügung steht, mit denen der Maschinenbetrieb noch zuverlässiger durchgeführt werden kann.