90 resultados para Werkzeug
Resumo:
The lattice formulation of Quantum ChromoDynamics (QCD) has become a reliable tool providing an ab initio calculation of low-energy quantities. Despite numerous successes, systematic uncertainties, such as discretisation effects, finite-size effects, and contaminations from excited states, are inherent in any lattice calculation. Simulations with controlled systematic uncertainties and close to the physical pion mass have become state-of-the-art. We present such a calculation for various hadronic matrix elements using non-perturbatively O(a)-improved Wilson fermions with two dynamical light quark flavours. The main topics covered in this thesis are the axial charge of the nucleon, the electro-magnetic form factors of the nucleon, and the leading hadronic contributions to the anomalous magnetic moment of the muon. Lattice simulations typically tend to underestimate the axial charge of the nucleon by 5 − 10%. We show that including excited state contaminations using the summed operator insertion method leads to agreement with the experimentally determined value. Further studies of systematic uncertainties reveal only small discretisation effects. For the electro-magnetic form factors of the nucleon, we see a similar contamination from excited states as for the axial charge. The electro-magnetic radii, extracted from a dipole fit to the momentum dependence of the form factors, show no indication of finite-size or cutoff effects. If we include excited states using the summed operator insertion method, we achieve better agreement with the radii from phenomenology. The anomalous magnetic moment of the muon can be measured and predicted to very high precision. The theoretical prediction of the anomalous magnetic moment receives contribution from strong, weak, and electro-magnetic interactions, where the hadronic contributions dominate the uncertainties. A persistent 3σ tension between the experimental determination and the theoretical calculation is found, which is considered to be an indication for physics beyond the Standard Model. We present a calculation of the connected part of the hadronic vacuum polarisation using lattice QCD. Partially twisted boundary conditions lead to a significant improvement of the vacuum polarisation in the region of small momentum transfer, which is crucial in the extraction of the hadronic vacuum polarisation.
Resumo:
Oceans are key sources and sinks in the global budgets of significant atmospheric trace gases, termed Volatile Organic Compounds (VOCs). Despite their low concentrations, these species have an important role in the atmosphere, influencing ozone photochemistry and aerosol physics. Surprisingly, little work has been done on assessing their emissions or transport mechanisms and rates between ocean and atmosphere, all of which are important when modelling the atmosphere accurately.rnA new Needle Trap Device (NTD) - GC-MS method was developed for the effective sampling and analysis of VOCs in seawater. Good repeatability (RSDs <16 %), linearity (R2 = 0.96 - 0.99) and limits of detection in the range of pM were obtained for DMS, isoprene, benzene, toluene, p-xylene, (+)-α-pinene and (-)-α-pinene. Laboratory evaluation and subsequent field application indicated that the proposed method can be used successfully in place of the more usually applied extraction techniques (P&T, SPME) to extend the suite of species typically measured in the ocean and improve detection limits. rnDuring a mesocosm CO2 enrichment study, DMS, isoprene and α-pinene were identified and quantified in seawater samples, using the above mentioned method. Based on correlations with available biological datasets, the effects of ocean acidification as well as possible ocean biological sources were investigated for all examined compounds. Future ocean's acidity was shown to decrease oceanic DMS production, possibly impact isoprene emissions but not affect the production of α-pinene. rnIn a separate activity, ocean - atmosphere interactions were simulated in a large scale wind-wave canal facility, in order to investigate the gas exchange process and its controlling mechanisms. Air-water exchange rates of 14 chemical species (of which 11 VOCs) spanning a wide range of solubility (dimensionless solubility, α = 0:4 to 5470) and diffusivity (Schmidt number in water, Scw = 594 to 1194) were obtained under various turbulent (wind speed at ten meters height, u10 = 0:8 to 15ms-1) and surfactant modulated (two different sized Triton X-100 layers) surface conditions. Reliable and reproducible total gas transfer velocities were obtained and the derived values and trends were comparable to previous investigations. Through this study, a much better and more comprehensive understanding of the gas exchange process was accomplished. The role of friction velocity, uw* and mean square slope, σs2 in defining phenomena such as waves and wave breaking, near surface turbulence, bubbles and surface films was recognized as very significant. uw* was determined as the ideal turbulent parameter while σs2 described best the related surface conditions. A combination of both uw* and σs2 variables, was found to reproduce faithfully the air-water gas exchange process. rnA Total Transfer Velocity (TTV) model provided by a compilation of 14 tracers and a combination of both uw* and σs2 parameters, is proposed for the first time. Through the proposed TTV parameterization, a new physical perspective is presented which provides an accurate TTV for any tracer within the examined solubility range. rnThe development of such a comprehensive air-sea gas exchange parameterization represents a highly useful tool for regional and global models, providing accurate total transfer velocity estimations for any tracer and any sea-surface status, simplifying the calculation process and eliminating inevitable calculation uncertainty connected with the selection or combination of different parameterizations.rnrn
Resumo:
Iron deficiency is the most common deficiency disease worldwide with many patients who require intravenous iron. Within the last years new kind of parenteral iron complexes as well as generic preparations entered the market. There is a high demand for methods clarifying benefit to risk profiles of old and new iron complexes. It is also necessary to disclose interchangeability between originator and intended copies to avoid severe anaphylactic and anaphylactoid side reaction and assure equivalence of therapeutic effect.rnrnThe investigations presented in this work include physicochemical characterization of nine different parenteral iron containing non-biological complex drugs. rnWe developed an in-vitro assay, which allows the quantification of labile iron in the different complexes and thus it is a useful tool to estimate the pharmaclogical safety regarding iron related adverse drug events. This assay additionally allowed the estimation of complex stability by evaluation of degradation kinetics at the applied conditions.rnrnAn in-ovo study was performed to additionally compare different complexes in respect to body distribution. This in combination with complex stability information allowed the risk estimation of potential local acute and chronic reactions to iron overload.rnrnInformation obtained by the combination of the methods within this work are helpful to estimate the safety and efficacy profile of different iron containing non-biological complex drugs. rnrnPhysicochemical differences between the complexes were demonstrated in respect to size of the inorganic fraction, size and size distribution of the complete particles, structure of the inorganic iron fraction, morphology of the complexes and charge of the complexes. And furthermore significant differences in the biological behavior of different complexes were demonstrated. rnrnThe combination of complex stability and biodistribution as well as the combination of structure, size and stability represent helpful tools for the physicochemical characterization of iron containing non-biological complex drugs and for the estimation of pharmacological safety. This work thus represents an up to date summary of some relevant methods for the characterization of intravenous iron complex drugs in respect to pharmaceutical quality, pharmacological safety and aspects of efficacy. rnrnProspectively, it is worthwhile that the methods within this work will contribute to the development and/or characterization of iron containing nanoparticular formulations with beneficial efficacy and safety profiles.rn
Resumo:
Dendritische Zellen (DC) spielen als professionelle antigenpräsentierende Zellen (APC) eine zentrale Rolle in der Aktivierung und Regulierung antigenspezifischer Immunantworten. Aus diesem Grund wird der therapeutische Einsatz von DC zur Behandlung von Autoimmunerkrankungen und Allergien sowie zur Tumorbekämpfung erforscht. Im ersten Teil der vorliegenden Arbeit untersuchten wir das Potenzial einer biolistischen DNA-Vakzinierung zur Induktion tolerogener DC in vivo. Im Tiermodell der Myelin-Oligodendrozyten-Glykoprotein Peptid 35-55 (MOGp35-55) induzierten experimentellen autoimmunen Enzephalomyelitis (EAE) sollte mittels präventiver biolistischer Kovakzinierung von Plasmid-DNA kodierend für MOG und die immunregulatorischen Zytokine TGFβ oder IL-10 eine protektive Immunität induziert werden. Die MOG-Expression stand dabei entweder unter der Kontrolle des ubiquitär aktiven CMV-Promotors oder des murinen Fascin-Promotors, um eine ektopische MOG-Expression spezifisch in dermalen DC und Langerhanszellen zu erreichen. Dass MOGp35-55-präsentierende DC nach biolistischer DNA-Vakzinierung von der Haut in die drainierenden Lymphknoten migrieren und dort T-Zellen aktivieren, konnte im Vorfeld anhand einer substanziellen Proliferation von MOGp35-55-reaktiven 2D2 T-Zellen nachgewiesen werden. Im präventiven Ansatz der MOGp35-55-induzierten EAE zeigten Mäuse, die mit MOG-kodierenden Plasmiden biolistisch transfiziert wurden, eine leicht reduzierte EAE-Symptomatik. Die Kotransfektion von MOG und TGFβ führte zu einer Verstärkung der EAE-Suppression – unabhängig davon, ob die MOG-Expression unter der Kontrolle des CMV- oder des Fascin-Promotors stand. Interessanterweise resultierte die Koapplikation von MOG- und IL-10-kodierender Plasmid-DNA nur bei DC-fokussierter MOG-Expression zu reduzierter EAE-Symptomatik. Für biolistische DNA-Vakzinierungen stellt somit der Fascin-Promotor eine potente Alternative zu viralen Promotoren dar. Entsprechend der milderen EAE-Symptome beobachteten wir bei behandelten EAE-Mäusen einen geringeren Grad an Demyelinisierung sowie eine reduzierte Infiltration des ZNS mit IFNγ-produzierenden CD4+ Th1- und IL-17-produzierenden CD4+ Th17-Zellen. Desweiteren zeigten Milzzellen ex vivo nach MOGp35-55-Restimulation eine inhibierte Proliferation und eine signifikant reduzierte IFNγ- und IL-17-Zytokinproduktion. Überraschenderweise ging die antigenspezifische Immunsuppression nicht mit der Expansion von Foxp3+ regulatorischen T-Zellen einher. Da die Milzen aber erhöhte Mengen an CD8+IFNγ+ T-Zellen aufweisen, könnte ein zytotoxisch-suppressiver Mechanismus für die Inhibition der Th1- und Th17-Immunantwort verantwortlich sein. Nachfolgende Untersuchungen sind notwendig, um die induzierten immunologischen Mechansimen mittels biolistischer DNA-Vakzinierung aufzuklären. Der zweite Teil der Arbeit befasst sich mit der Generierung von tolerogenen DC in vitro. Dafür wurden murine Knochenmarkszellen unter DC-differenzierenden Bedingungen in Gegenwart des synthetischen Glucocorticoids Dexamethason (DEX) kultiviert. Die DEX-Zugabe führte zur Differenzierung von APC mit geringer CD11c-Expression. DEX-APC waren in vitro weitestgehend gegen LPS stimulierungsresistent und zeigten eine reduzierte Expression von MHC-II und den kostimulatorischen Molekülen CD80, CD86 und CD40. Ihrem tolerogenen Phänotyp entsprechend besaßen DEX-APC ein geringeres syngenes T-Zellstimulierungspotenzial als unbehandelte BM-DC. Anhand der erhöhten Oberflächenexpression von CD11b, GR1 und F4/80 besteht eine phänotypische Ähnlichkeit zu myeloiden Suppressorzellen. Die Fähigkeit von DEX-APC in vivo antigenspezifische Toleranz zu induzieren, wurde durch einen therapeutischen Ansatz im murinen Krankheitsmodell der Kontaktallergie überprüft. Die therapeutische Applikation von DEX-APC führte hierbei im Vergleich zur Applikation von PBS oder unbehandelten BM-DC zu einer signifikant reduzierten Ohrschwellungsreaktion. Zusammenfassend demonstrieren die Ergebnisse dieser Arbeit, dass potente tolerogene DC sowohl in vivo als auch in vitro induziert werden können. Dass diese Zellpopulation effektiv antigenspezifische Immunreaktionen supprimieren kann, macht sie zu einem vielversprechenden Werkzeug in der Behandlung von Autoimmunerkrankungen und Allergien.rn
Resumo:
RNAi ist ein bedeutendes Werkzeug zur Funktionsanalyse von Genen und hat großes Potential für den Einsatz in der Therapie. Obwohl effiziente Knockdowns in der Zellkultur erzielt werden, erweist sich eine in vivo Anwendung als schwierig. Die großen Hürden sind dabei der Transport der siRNA ins Zielgewebe und deren voranschreitende Degradierung.rnMarkierte siRNA kann sowohl zur eigenen Integritätsmessung als auch zur Lokalisierung verwendet werden. Zwei Farbstoffe an den jeweiligen 3’- bzw. -5’-Enden des Sense- bzw. Antisense-Stranges erzeugen ein robustes FRET-System (Hirsch et al. 2012). Das Verhältnis von FRET- zu Donor-Signal, das R/G-Ratio, dient zur sensitiven Klassifizierung des Integritätslevels einer siRNA Probe (Järve et al. 2007; Hirsch et al. 2011; Kim et al. 2010). Mit diesem System kann eine Degradierung von weniger als 5 % in der Küvette und in Zellen nachgewiesen werden.rnDie vorliegende Arbeit beschäftigt sich mit der Evaluierung von potentiellen FRET Farbstoffpaaren hinsichtlich deren Eignung für in vitro und in vivo Anwendung. Verschiedenste FRET-Paare, die das gesamte sichtbare Spektrum abdecken, wurden evaluiert und ermöglichen nun die Auswahl eines geeigneten Paares für die jeweilige Anwendung oder Kombination mit anderen Farbstoffen.rnMit Hilfe von Alexa555/Atto647N siRNA wurde ein erfolgreicher Einschluss von siRNA in Liposomen beobachtet. Eine anschließende Evaluierung der RNase-Protektion ergab für Liposomen, Nanohydrogele und kationische Peptide hervorragende protektive Eigenschaften. Basierend auf den Ergebnisse können diese und andere Transportsysteme nun für eine zelluläre Aufnahme optimiert werden.rnAtto488/Atto590 zeigte die besten Eigenschaften für Echtzeit-Integritätsmessungen in der Lebendzellmikroskopie. Verringerte Bleicheigenschaften und minimaler spektraler “Cross-Talk” ermöglichten es, transfizierte Zellen über einen Zeitraum von bis zu 8 Stunden zu beobachten. Mittels Atto488/Atto590 siRNA wurde die Einschleusung und Freisetzung in Zellen in Echtzeit untersucht. Dabei konnten Freisetzung und Verteilung in einzelnen Zellen beobachtet und analysiert werden. rnAuf eine anfängliche Phase mit hoher Freisetzungsrate folgte eine Phase mit geringerer Rate für den restlichen Beobachtungszeitraum. Die durchschnittliche Verweildauer im Zytosol betrug 24 und 58 Minuten, wobei zwischen lang- und kurzanhaltenden Ereignissen unterschieden werden konnte. Obwohl ein Import von siRNA in den Zellkern beobachtet wurde, konnte kein Schema bzw. genauer Zeitpunkt, in Bezug auf den Transfektionszeitraum für diese Ereignisse bestimmt werden. Die beobachteten Freisetzungsprozesse fanden sporadisch statt und Änderungen in der zellulären Verteilung geschahen innerhalb von wenigen Minuten. Einmal freigesetzte siRNA verschwand mit der Zeit wieder aus dem Zytosol und es blieben nur kleine Aggregate von siRNA mit immer noch geringer Integrität zurück.rn
Resumo:
Solid oral dosage form disintegration in the human stomach is a highly complex process dependent on physicochemical properties of the stomach contents as well as on physical variables such as hydrodynamics and mechanical stress. Understanding the role of hydrodynamics and forces in disintegration of oral solid dosage forms can help to improve in vitro disintegration testing and the predictive power of the in vitro test. The aim of this work was to obtain a deep understanding of the influence of changing hydrodynamic conditions on solid oral dosage form performance. Therefore, the hydrodynamic conditions and forces present in the compendial PhEur/USP disintegration test device were characterized using a computational fluid dynamics (CFD) approach. Furthermore, a modified device was developed and the hydrodynamic conditions present were simulated using CFD. This modified device was applied in two case studies comprising immediate release (IR) tablets and gastroretentive drug delivery systems (GRDDS). Due to the description of movement provided in the PhEur, the movement velocity of the basket-rack assembly follows a sinusoidal profile. Therefore, hydrodynamic conditions are changing continually throughout the movement cycle. CFD simulations revealed that the dosage form is exposed to a wide range of fluid velocities and shear forces during the test. The hydrodynamic conditions in the compendial device are highly variable and cannot be controlled. A new, modified disintegration test device based on computerized numerical control (CNC) technique was developed. The modified device can be moved in all three dimensions and radial movement is also possible. Simple and complex moving profiles can be developed and the influence of the hydrodynamic conditions on oral solid dosage form performance can be evaluated. Furthermore, a modified basket was designed that allows two-sided fluid flow. CFD simulations of the hydrodynamics and forces in the modified device revealed significant differences in the fluid flow field and forces when compared to the compendial device. Due to the CNC technique moving velocity and direction are arbitrary and hydrodynamics become controllable. The modified disintegration test device was utilized to examine the influence of moving velocity on disintegration times of IR tablets. Insights into the influence of moving speed, medium viscosity and basket design on disintegration times were obtained. An exponential relationship between moving velocity of the modified basket and disintegration times was established in simulated gastric fluid. The same relationship was found between the disintegration times and the CFD predicted average shear stress on the tablet surface. Furthermore, a GRDDS was developed based on the approach of an in situ polyelectrolyte complex (PEC). Different complexes composed of different grades of chitosan and carrageenan and different ratios of those were investigated for their swelling behavior, mechanical stability, and in vitro drug release. With an optimized formulation the influence of changing hydrodynamic conditions on the swelling behavior and the drug release profile was demonstrated using the modified disintegration test device. Both, swelling behavior and drug release, were largely dependent on the hydrodynamic conditions. Concluding, it has been shown within this thesis that the application of the modified disintegration test device allows for detailed insights into the influence of hydrodynamic conditions on solid oral dosage form disintegration and dissolution. By the application of appropriate test conditions, the predictive power of in vitro disintegration testing can be improved using the modified disintegration test device. Furthermore, CFD has proven a powerful tool to examine the hydrodynamics and forces in the compendial as well as in the modified disintegration test device. rn
Resumo:
Im Rahmen der vorliegenden Arbeit wurde ein schnelles, piezobasiertes Frequenztuningsystem für aktuelle sowie zukünftige supraleitende (sl) CH-Kavitäten entwickelt. Die Grundlage des hierbei verwendeten Tuningkonzepts unterscheidet sich von bisherigen, konventionellen Tuningmethoden supraleitender Kavitäten grundlegend. Zum Ausgleichen von unerwünschten Frequenzverstimmungen während des Beschleunigerbetriebes werden sogenannte bewegliche Balgtuner in das Innere der Resonatorgeometrie geschweißt. Aufgrund ihrer variablen Länge können diese die Kapazität der Kavität und somit die Resonanzfrequenz gezielt beeinflussen. Die Antriebsmechanik, die für die Auslenkung bzw. Stauchung der Balgtuner sorgt, besteht aus einer langsamen, schrittmotorbetriebenen und einer schnellen, piezobasierten Tuningeinheit, welche auf der Außenseite des Heliummantels der jeweiligen CH-Kavität installiert wird. Zur Überprüfung dieses neuartigen Tuningkonzepts wurde in der Werkstatt des Instituts für Angewandte Physik (IAP) der Goethe Universität Frankfurt ein Prototyp der gesamten Tuningeinheit aus Edelstahl gefertigt. Die Funktionsweise der langsamen sowie schnellen Tuningeinheit konnten hierbei in ersten Messungen bei Raumtemperatur erfolgreich getestet werden. Somit stellt die in dieser Arbeit entwickelte Tuningeinheit eine vielversprechende Möglichkeit des dynamischen Frequenztunings supraleitender CH-Strukturen dar. rnDes Weiteren wurden im Rahmen der Arbeit mit Hilfe der Simulationsprogramme ANSYS Workbench sowie CST MicroWave Studio gekoppelte strukturmechanische und elektromagnetische Simulationen der sl 217 MHz CH sowie der sl 325 MHz CH-Kavität durchgeführt. Hierbei konnte zum einen der Frequenzbereich und somit der notwendige mechanische Hub der jeweiligen Tuningeinheit durch Bestimmung der Frequenzverstimmungen signifikant reduziert werden. Zum anderen war es möglich, die mechanische Stabilität der beiden Kavitäten zu untersuchen und somit plastische Deformationen von vornherein auszuschließen. Zur Überprüfung der Genauigkeit sämtlicher getätigter Simulationsrechnungen wurde das strukturmechanische Verhalten in Abhängigkeit äußerer Einflüsse und die daraus resultierenden Frequenzverstimmungen der CH-Kavitäten sowohl bei Raumtemperatur als auch bei kryogenen Temperaturen von 4.2 K gemessen. Hierbei zeigten sich zum Teil hervorragende Übereinstimmungen zwischen den simulierten und gemessenen Werten mit Diskrepanzen von unter 10%. Mit Hilfe dieser Ergebnisse konnte gezeigt werden, dass die gekoppelte Simulation ein essentielles Werkzeug während der Entwicklungsphase einer supraleitenden Beschleunigungsstruktur darstellt, so dass die für den Betrieb erforderliche mechanische Stabilität einer supraleitenden Kavität erreicht werden kann. rn
Resumo:
Our growing understanding of human mind and cognition and the development of neurotechnology has triggered debate around cognitive enhancement in neuroethics. The dissertation examines the normative issues of memory enhancement, and focuses on two issues: (1) the distinction between memory treatment and enhancement; and (2) how the issue of authenticity concerns memory interventions, including memory treatments and enhancements. rnThe first part consists of a conceptual analysis of the concepts required for normative considerations. First, the representational nature and the function of memory are discussed. Memory is regarded as a special form of self-representation resulting from a constructive processes. Next, the concepts of selfhood, personhood, and identity are examined and a conceptual tool—the autobiographical self-model (ASM)—is introduced. An ASM is a collection of mental representations of the system’s relations with its past and potential future states. Third, the debate between objectivist and constructivist views of health are considered. I argue for a phenomenological account of health, which is based on the primacy of illness and negative utilitarianism.rnThe second part presents a synthesis of the relevant normative issues based on the conceptual tools developed. I argue that memory enhancement can be distinguished from memory treatment using a demarcation regarding the existence of memory-related suffering. That is, memory enhancements are, under standard circumstances and without any unwilling suffering or potential suffering resulting from the alteration of memory functions, interventions that aim to manipulate memory function based on the self-interests of the individual. I then consider the issue of authenticity, namely whether memory intervention or enhancement endangers “one’s true self”. By analyzing two conceptions of authenticity—authenticity as self-discovery and authenticity as self-creation, I propose that authenticity should be understood in terms of the satisfaction of the functional constraints of an ASM—synchronic coherence, diachronic coherence, and global veridicality. This framework provides clearer criteria for considering the relevant concerns and allows us to examine the moral values of authenticity. rn
Resumo:
Die Arbeit beschäftigt sich mit der Kontrolle von Selbstorganisation und Mikrostruktur von organischen Halbleitern und deren Einsatz in OFETs. In Kapiteln 3, 4 und 5 eine neue Lösungsmittel-basierte Verabeitungsmethode, genannt als Lösungsmitteldampfdiffusion, ist konzipiert, um die Selbstorganisation von Halbleitermolekülen auf der Oberfläche zu steuern. Diese Methode als wirkungsvolles Werkzeug erlaubt eine genaue Kontrolle über die Mikrostruktur, wie in Kapitel 3 am Beispiel einer D-A Dyad bestehend aus Hexa-peri-hexabenzocoronene (HBC) als Donor und Perylene Diimide (PDI) als Akzeptor beweisen. Die Kombination aus Oberflächenmodifikation und Lösungsmitteldampf kann die Entnetzungseffekte ausgleichen, so dass die gewüschte Mikrostruktur und molekulare Organisation auf der Oberfläche erreicht werden kann. In Kapiteln 4 und 5 wurde diese Methode eingesetzt, um die Selbstorganisation von Dithieno[2, 3-d;2’, 3’-d’] benzo[1,2-b;4,5-b’]dithiophene (DTBDT) und Cyclopentadithiophene -benzothiadiazole copolymer (CDT-BTZ) Copolymer zu steuern. Die Ergebnisse könnten weitere Studien stimulieren und werfen Licht aus andere leistungsfaähige konjugierte Polymere. rnIn Kapiteln 6 und 7 Monolagen und deren anschlieβende Mikrostruktur von zwei konjugierten Polymeren, Poly (2,5-bis(3-alkylthiophen-2-yl)thieno[3,2-b]thiophene) PBTTT und Poly{[N,N ′-bis(2-octyldodecyl)-naphthalene-1,4,5,8-bis (dicarboximide)-2,6-diyl]-alt-5,5′- (2,2′-bithiophene)}, P(NDI2OD-T2)) wurden auf steife Oberflächen mittels Tauchbeschichtung aufgebracht. Da sist das erste Mal, dass es gelungen ist, Polymer Monolagen aus der Lösung aufzubringen. Dieser Ansatz kann weiter auf eine breite Reihe von anderen konjugierten Polymeren ausgeweitet werden.rnIn Kapitel 8 wurden PDI-CN2 Filme erfolgreich von Monolagen zu Bi- und Tri-Schichten auf Oberflächen aufgebracht, die unterschiedliche Rauigkeiten besitzen. Für das erste Mal, wurde der Einfluss der Rauigkeit auf Lösungsmittel-verarbeitete dünne Schichten klar beschrieben.rn
Resumo:
Moderne ESI-LC-MS/MS-Techniken erlauben in Verbindung mit Bottom-up-Ansätzen eine qualitative und quantitative Charakterisierung mehrerer tausend Proteine in einem einzigen Experiment. Für die labelfreie Proteinquantifizierung eignen sich besonders datenunabhängige Akquisitionsmethoden wie MSE und die IMS-Varianten HDMSE und UDMSE. Durch ihre hohe Komplexität stellen die so erfassten Daten besondere Anforderungen an die Analysesoftware. Eine quantitative Analyse der MSE/HDMSE/UDMSE-Daten blieb bislang wenigen kommerziellen Lösungen vorbehalten. rn| In der vorliegenden Arbeit wurden eine Strategie und eine Reihe neuer Methoden zur messungsübergreifenden, quantitativen Analyse labelfreier MSE/HDMSE/UDMSE-Daten entwickelt und als Software ISOQuant implementiert. Für die ersten Schritte der Datenanalyse (Featuredetektion, Peptid- und Proteinidentifikation) wird die kommerzielle Software PLGS verwendet. Anschließend werden die unabhängigen PLGS-Ergebnisse aller Messungen eines Experiments in einer relationalen Datenbank zusammengeführt und mit Hilfe der dedizierten Algorithmen (Retentionszeitalignment, Feature-Clustering, multidimensionale Normalisierung der Intensitäten, mehrstufige Datenfilterung, Proteininferenz, Umverteilung der Intensitäten geteilter Peptide, Proteinquantifizierung) überarbeitet. Durch diese Nachbearbeitung wird die Reproduzierbarkeit der qualitativen und quantitativen Ergebnisse signifikant gesteigert.rn| Um die Performance der quantitativen Datenanalyse zu evaluieren und mit anderen Lösungen zu vergleichen, wurde ein Satz von exakt definierten Hybridproteom-Proben entwickelt. Die Proben wurden mit den Methoden MSE und UDMSE erfasst, mit Progenesis QIP, synapter und ISOQuant analysiert und verglichen. Im Gegensatz zu synapter und Progenesis QIP konnte ISOQuant sowohl eine hohe Reproduzierbarkeit der Proteinidentifikation als auch eine hohe Präzision und Richtigkeit der Proteinquantifizierung erreichen.rn| Schlussfolgernd ermöglichen die vorgestellten Algorithmen und der Analyseworkflow zuverlässige und reproduzierbare quantitative Datenanalysen. Mit der Software ISOQuant wurde ein einfaches und effizientes Werkzeug für routinemäßige Hochdurchsatzanalysen labelfreier MSE/HDMSE/UDMSE-Daten entwickelt. Mit den Hybridproteom-Proben und den Bewertungsmetriken wurde ein umfassendes System zur Evaluierung quantitativer Akquisitions- und Datenanalysesysteme vorgestellt.
Resumo:
Die vorliegende Arbeit hat das von 1969 – 1972 ergrabene Inventar der Magdalenahöhle bei Gerolstein unter kritischer Berücksichtigung der Originaldokumentation sowie der stratigraphischen und sedimentologischen Beschreibungen erneut untersucht und v.a. hinsichtlich zweier Arbeitshypothesen überprüft. Daneben fanden jedoch auch die Schmuckobjekte und in kursorischer Weise die Tierknochen Betrachtung. Die Elfenbeinobjekte setzen sich aus elf Fragmenten zusammen, die bereits in zerbrochenem Zustand in die Höhle gelangt sein müssen. Sie sind mit mehreren Linienbündeln verziert, die teilweise aus v- oder zickzack-förmigen Motiven bestehen. Auch gestanzte Punktreihen treten auf. In ihrer Größe und Form sind die Elfenbeinobjekte einzigartig. Lediglich aus der Csákvár-Höhle in Ungarn gibt es vergleichbare Stücke, deren genaue Altersstellung jedoch unklar ist. Daneben kommen in der Magdalenahöhle zwei vollständige durchlochte Hirschgrandeln sowie die Fragmente einer durchlochten Grandel sowie eines durchlochten Wolfzahns vor. Diese tragen teilweise Spuren einer Aufhängung bzw. Befestigung. Der Grund für ihre Niederlegung vor Ort ist indes nicht endgültig zu klären. Die überlieferten Tierknochen besitzen verschiedene Grade von Verfärbung und Erhaltung, lassen sich dadurch jedoch nicht verschiedenen Schichten zuordnen. Neben Modifikationen von Carnivoren, darunter v.a. durch Verdauungsprozesse, sind auch an einigen Exemplaren Schnittspuren festgestellt worden. Eine Bärenphalange aus der Fundschicht b1 eröffnet so die Perspektive, die menschliche Belegung erneut mit der Radiokohlenstoffmethode direkt zu datieren. Der Untere paläolithische Fundhorizont besteht aus relativ unspezifischen Quarzartefakten, die von einer opportunistischen Abschlags- und Werkzeugsgewinnung aus lokalen Schottern zeugen. Für den Oberen paläolithischen Fundhorizont zeigt die Steinartefaktanalyse, dass die Abschläge als Herstellungsreste dünner bifazieller Geräte angesprochen werden können. Während dieser Befund alleine auch im Zusammenhang mit den spätmittelpaläolithischen Blattspitzengruppen gesehen werden kann, sprechen die bereits erwähnten vergesellschafteten Schmuckobjekte, der Nachweis eines Klingenabbaus sowie die fast ausschließliche Verwendung exogenen Rohmaterials für einen jungpaläolithischen Kontext, d.h. für eine Affinität zum Solutréen. Die Steinartefakte der Magdalenahöhle zeugen gleichzeitig von einer sehr mobilen Lebensweise, da lediglich eine Phase des Herstellungsprozesses des bifaziellen Geräts vor Ort stattgefunden hat. Gleichzeitig wurden früher an anderem Ort gewonnene Abschläge mitgebracht und als Werkzeug verwendet. Ebenso wie der Kern selbst wurden Abschläge auch wieder abtransportiert. Insgesamt kann daher eine Rohmaterial konservierende Strategie rekonstruiert werden, in der neben dem Kern als Gerät selbst auch die Abschläge Verwendung finden. Da die Magdalenahöhle als östlicher Niederschlag des Solutréen und als Beleg für das maximale Verbreitungsgebiet dieses Technokomplexes gewertet werden muss, reiht sie sich in eine Reihe von Fundstellen und Argumenten ein, wonach das zentrale Mitteleuropa während des LGM s.l. nicht menschenleer war, sondern in sporadischen Exkursionen begangen wurde. Obwohl sich daran noch keine dauerhafte Wiederbesiedlung anschloss, muss vom Bild einer absoluten Siedlungsleere Abstand genommen werden. Weitere Fundstellen und absolutchronologische Datierungen, u.a. der Magdalenahöhle, könnten in Zukunft zu einem noch besseren Verständnis der menschlichen Anpassungsstragien an kaltzeitliche Umwelten beitragen.
Resumo:
Zur administrativen Unterstützung von Lehr- und Lernprozessen werden E-Learning-Plattformen eingesetzt, die auf der Grundlage des Internet Funktionen zur Distribution von Lehr- und Lernmaterialien und zur Kommunikation zwischen Lehrenden und Lernenden anbieten. Zahlreiche wissenschaftliche Beiträge und Marktstudien beschäftigen sich mit der multikriteriellen Evaluation dieser Softwareprodukte zur informatorischen Fundierung strategischer Investitionsentscheidungen. Demgegenüber werden Instrumente zum kostenorientierten Controlling von E-Learning-Plattformen allenfalls marginal thematisiert. Dieser Beitrag greift daher das Konzept der Total Cost of Ownership (TCO) auf, das einen methodischen Ansatzpunkt zur Schaffung von Kostentransparenz von E-Learning-Plattformen bildet. Aufbauend auf den konzeptionellen Grundlagen werden Problembereiche und Anwendungspotenziale für das kostenorientierte Controlling von LMS identifiziert. Zur softwaregestützten Konstruktion und Analyse von TCO-Modellen wird das Open Source-Werkzeug TCO-Tool eingeführt und seine Anwendung anhand eines synthetischen Fallbeispiels erörtert. Abschließend erfolgt die Identifikation weiterführender Entwicklungsperspektiven des TCO-Konzepts im Kontext des E-Learning. Die dargestellte Thematik ist nicht nur von theoretischem Interesse, sondern adressiert auch den steigenden Bedarf von Akteuren aus der Bildungspraxis nach Instrumenten zur informatorischen Fundierung von Investitions- und Desinvestitionsentscheidungen im Umfeld des E-Learning.
Resumo:
Die derzeitige Marktentwicklung hin zu individualisierten Produkten führt auch im Werkzeug- und Formenbau zu reduzierten Stückzahlen. Die Wirtschaftlichkeit des Spritz- oder Druckgießens ist eingeschränkt durch hohe Werkzeugkosten, die teilweise nur auf eine geringe Anzahl von Bauteilen umgelegt werden können. Lösungsmöglichkeiten durch Modularisierung bzw. Standardisierung von Werkzeugsegmenten bieten nur eine eingeschränkte Wiederverwendbarkeit der Werkzeuge. Aus dieser Situation heraus werden am iwb (Institut für Werkzeugmaschinen und Betriebswissenschaften) Anwenderzentrum Augsburg der Technischen Universität München (TUM) formflexible Werkzeuge für den Spritzguss entwickelt, die dem Anspruch genügen, verschiedene Geometrien mit dem gleichen Werkzeug abzuformen. Bei dem im Folgenden beschriebenen Ansatz wird die Formflexibilität durch ein einstellbares Nadelpaket realisiert, das beliebig oft justiert werden kann. Die so gewonnene Wiederverwendbarkeit des Werkzeugkonzepts garantiert den wirtschaftlichen Einsatz des Spritzgießens bei kleinen Losgrößen und stellt eine neue Möglichkeit des Prototypenwerkzeugbaus im Anwendungsgebiet Spritzgießen dar.
Resumo:
Die Verkürzung der Zeit von der Produktidee bis zur Markteinführung wird für Unternehmen in nahezu allen Branchen zunehmend zum Wettbewerbsfaktor. Fertigungsverfahren, bei denen kein Material abgetragen sondern aufgebaut wird, können in diesem Zusammenhang ein Alternative zur konventionellen Fertigung darstellen. Ein generatives Verfahren, welches besonders zur schnellen Fertigung von Prototypwerkzeugen mit Kantenlängen größer 300 mm geeignet ist, ist das Metal Laminated Tooling (MELATO®). Bei diesem Verfahren werden komplex geformte Werkzeuge aus Stahlblechzuschnitten zusammengesetzt und in Abhängigkeit vom Anwendungsgebiet kraft- oder stoffschlüssig verbunden. Das Fraunhofer-Institut für Werkstoff- und Strahltechnik (IWS) in Dresden arbeitet gemeinsam mit industriellen Partnern aus den Gebieten Werkzeug- und Anlagenbau sowie Softwareentwicklung und Sensorik an einer Automatisierungslösung für das Schneiden, Paketieren und Fügen von Blechzuschnitten. Damit soll die Fertigungszeit großer Werkzeuge von derzeit etwa 12 Wochen auf eine Woche verkürzt werden. Neben der Anwendung im Bereich der Präge- oder Tiefziehwerkzeuge ist das Verfahren prädestiniert für die Herstellung von Spritzgusswerkzeugen mit konturfolgenden Kühlkanälen. Die Darstellung der Prozesskette, möglicher Verbindungstechnologien und realisierte Anwendungen sind Gegenstand des vorliegenden Beitrages.
Resumo:
In vielen Bereichen der Industrie und des Handels mit hohem Güterumschlag werden moderne und hochautomatisierte förder- und lagertechnische Geräte eingesetzt. Am Punkt der Übergabe an den außerbetrieblichen Transport hört aber in vielen Fällen die Automatisierung auf. Die Verladung von Stückgütern bei Lkw geschieht trotz geeigneter automatisierter Umschlagsysteme überwiegend manuell mit Gabelhubwagen oder Staplern. Der Lehrstuhl für Fördertechnik Materialfluss Logistik (fml) entwickelte ein rechnergestütztes Hilfsmittel, um die Möglichkeiten der hierin verborgenen Rationalisierungspotenziale aufzuzeigen, aber auch Risiken und Gefahren einer Automatisierung des Umschlagbereichs abzuschätzen. Dieses Werkzeug wurde nun im harten planungsbegleitenden Einsatz in mehreren Pilotprojekten getestet.