186 resultados para Wagner-Nagy, Beáta Boglárka: Die Wortbildung im Nganasanischen


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In condensed matter systems, the interfacial tension plays a central role for a multitude of phenomena. It is the driving force for nucleation processes, determines the shape and structure of crystalline structures and is important for industrial applications. Despite its importance, the interfacial tension is hard to determine in experiments and also in computer simulations. While for liquid-vapor interfacial tensions there exist sophisticated simulation methods to compute the interfacial tension, current methods for solid-liquid interfaces produce unsatisfactory results.rnrnAs a first approach to this topic, the influence of the interfacial tension on nuclei is studied within the three-dimensional Ising model. This model is well suited because despite its simplicity, one can learn much about nucleation of crystalline nuclei. Below the so-called roughening temperature, nuclei in the Ising model are not spherical anymore but become cubic because of the anisotropy of the interfacial tension. This is similar to crystalline nuclei, which are in general not spherical but more like a convex polyhedron with flat facets on the surface. In this context, the problem of distinguishing between the two bulk phases in the vicinity of the diffuse droplet surface is addressed. A new definition is found which correctly determines the volume of a droplet in a given configuration if compared to the volume predicted by simple macroscopic assumptions.rnrnTo compute the interfacial tension of solid-liquid interfaces, a new Monte Carlo method called ensemble switch method'' is presented which allows to compute the interfacial tension of liquid-vapor interfaces as well as solid-liquid interfaces with great accuracy. In the past, the dependence of the interfacial tension on the finite size and shape of the simulation box has often been neglected although there is a nontrivial dependence on the box dimensions. As a consequence, one needs to systematically increase the box size and extrapolate to infinite volume in order to accurately predict the interfacial tension. Therefore, a thorough finite-size scaling analysis is established in this thesis. Logarithmic corrections to the finite-size scaling are motivated and identified, which are of leading order and therefore must not be neglected. The astounding feature of these logarithmic corrections is that they do not depend at all on the model under consideration. Using the ensemble switch method, the validity of a finite-size scaling ansatz containing the aforementioned logarithmic corrections is carefully tested and confirmed. Combining the finite-size scaling theory with the ensemble switch method, the interfacial tension of several model systems, ranging from the Ising model to colloidal systems, is computed with great accuracy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis is on loop-induced processes in theories with warped extra dimensions where the fermions and gauge bosons are allowed to propagate in the bulk, while the Higgs sector is localized on or near the infra-red brane. These so-called Randall-Sundrum (RS) models have the potential to simultaneously explain the hierarchy problem and address the question of what causes the large hierarchies in the fermion sector of the Standard Model (SM). The Kaluza-Klein (KK) excitations of the bulk fields can significantly affect the loop-level processes considered in this thesis and, hence, could indirectly indicate the existence of warped extra dimensions. The analytical part of this thesis deals with the detailed calculation of three loop-induced processes in the RS models in question: the Higgs production process via gluon fusion, the Higgs decay into two photons, and the flavor-changing neutral current b → sγ. A comprehensive, five-dimensional (5D) analysis will show that the amplitudes of the Higgs processes can be expressed in terms of integrals over 5D propagators with the Higgs-boson profile along the extra dimension, which can be used for arbitrary models with a compact extra dimension. To this end, both the boson and fermion propagators in a warped 5D background are derived. It will be shown that the seemingly contradictory results for the gluon fusion amplitude in the literature can be traced back to two distinguishable, not smoothly-connected incarnations of the RS model. The investigation of the b → sγ transition is performed in the KK decomposed theory. It will be argued that summing up the entire KK tower leads to a finite result, which can be well approximated by a closed, analytical expression.rnIn the phenomenological part of this thesis, the analytic results of all relevant Higgs couplings in the RS models in question are compared with current and in particular future sensitivities of the Large Hadron Collider (LHC) and the planned International Linear Collider. The latest LHC Higgs data is then used to exclude significant portions of the parameter space of each RS scenario. The analysis will demonstrate that especially the loop-induced Higgs couplings are sensitive to KK particles of the custodial RS model with masses in the multi tera-electronvolt range. Finally, the effect of the RS model on three flavor observables associated with the b → sγ transition are examined. In particular, we study the branching ratio of the inclusive decay B → X_s γ

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Wein ist eine komplexe Lösung bestehend aus verschiedensten Komponenten wie Alkohol, Polyphenolen, Polysacchariden, Sulfiten und auch Proteinen. Auch wenn Proteine nur in geringen Mengen im Wein enthalten sind, beeinflussen sie die Qualität maßgeblich. Hier ist zum einen deren potentielle Unverträglichkeit bis hin zur Allergie zu nennen, und zum anderen der Einfluss der Weinproteine auf die Trübung. Im Rahmen einer epidemiologischen Studie der Arbeitsgruppe Fronk/Decker wurde festgestellt, dass es in der Weinregion Mainz ein starkes Interesse gibt die Ursache einer Weinunverträglichkeit zu untersuchen. Für weiterführende Untersuchungen wurde im Rahmen meiner Arbeit das Lipid Transfer Protein (LTP), welches als einziges Allergen der Traube bekannt ist, aus Trauben und Wein in hohem Reinheitsgrad isoliert. Es konnte gezeigt werden, dass dessen Struktur bei der Weinherstellung nicht maßgeblich verändert wurde. In einer klinischen Studie mit 29 Probanden wurde die potentielle Allergenität von Weinproteinen, im Besonderen des LTPs untersucht. Allerdings konnte bei den untersuchten Probanden keine echte IgE-Antikörper-vermittelte Allergie auf das LTP nachgewiesen werden. Daher wird die Ursache der beschriebenen Unverträglichkeiten bei anderen Weininhaltsstoffen oder auch auf pollenassoziierten Kreuzreaktionen vermutet. Bei der Entstehung einer Weintrübung sind zahlreiche Inhaltstoffe beteiligt. Die Rolle der Proteine ist in diesem Zusammenhang noch nicht abschließend geklärt. In dieser Arbeit wurde die Komplexität der Proteinzusammensetzung in Abhängigkeit von Lage, Jahrgang, Rebsorte sowie Behandlungsmaßnahmen gezeigt. Hinsichtlich der Stabilisierung und Trübungsrelevanz der Weinproteine konnte mittels biochemischer, bioinformatischer und biophysikalischer Methoden gezeigt werden, dass nur ein Teil der im Wein enthaltenen Thaumatin-ähnlichen Proteine und Chitinasen an der Trubbildung beteiligt sind. Die Invertase hingegen denaturiert erst ab einer Temperatur von ca. 83 °C und aggregiert in der Trübung. Somit führt dieses Protein bei Wärmetests zu Bentonitbedarfsermittlung in diesem Temperaturbereich zu einer Überschätzung. Die Versuche zur temperaturabhängigen Aggregation von Proteinen zeigen, wie wichtig die Berücksichtigung der Umgebungsfaktoren bei der Trubbildung ist. So konnten unterschiedliche Wechselwirkungen im Puffer- und realen Weinsystem von potentiell trübungsstabilisierenden Polysacchariden mit den Weinproteinen detektiert werden. Für das Arabinogalactan beispielsweise wurde in den Versuchen im Weinsystem eine destabilisierende Wirkung gefunden, während es bei den Versuchen im Puffersystem eine positive Wirkung auf die Stabilisierung der Probe zeigte. Es zeigte sich, dass die verschiedenen Weininhaltsstoffe in einer komplexen Wechselwirkung zueinander stehen und somit eine molekulare Interpretation erschweren.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Due to multiple immune evasion mechanisms of cancer cells, novel therapy approaches are required to overcome the limitations of existing immunotherapies. Bispecific antibodies are potent anti-cancer drugs, which redirect effector T cells for specific tumor cell lysis, thus enabling the patient’s immune system to fight cancer cells. The antibody format used in this proof of concept study–bispecific ideal monoclonal antibodies termed BiMAB–is a tailor-made recombinant protein, which consists of two fused scFv antibodies recognizing different antigens. Both are arranged in tandem on a single peptide chain and the individual variable binding domains are separated by special non-immunogenic linkers. The format is comprised of a scFv targeting CLDN18.2–a gastric cancer tumor associated antigen (TAA) –while the second specificity binds the CD3 epsilon (CD3ε) subunit of the T cell receptor (TCR) on T cells. For the first time, we compared in our IMAB362-based BiMAB setting, four different anti-CD3-scFvs, respectively derived from the mAbs TR66, CLB-T3, as well as the humanized and the murine variant of UCHT1. In addition, we investigated the impact of an N- versus a C-terminal location of the IMAB362-derived scFv and the anti-CD3-scFvs. Thus, nine CLDN18.2 specific BiMAB proteins were generated, of which all showed a remarkably high cytotoxicity towards CLDN18.2-positive tumor cells. Because of its promising effectiveness, 1BiMAB emerged as the BiMAB prototype. The selectivity of 1BiMAB for its TAA and CD3ε, with affinities in the nanomolar range, has been confirmed by in vitro assays. Its dual binding depends on the design of an N-terminally positioned IMAB362 scFv and the consecutive C-terminally positioned TR66 scFv. 1BiMAB provoked a concentration and target cell dependent T cell activation, proliferation, and upregulation of the cytolytic protein Granzyme B, as well as the consequent elimination of target cells. Our results demonstrate that 1BiMAB is able to activate T cells independent of elements that are usually involved in the T cell recognition program, like antigen presentation, MHC restriction, and co-stimulatory effector molecules. In the first in vivo studies using a subcutaneous xenogeneic tumor mouse model in immune incompetent NSG mice, we could prove a significant therapeutic effect of 1BiMAB with partial or complete tumor elimination. The initial in vitro RIBOMAB experiments correspondingly showed encouraging results. The electroporation of 1BiMAB IVT-RNA into target or effector cells was feasible, while the functionality of translated 1BiMAB was proven by induced T cell activation and target cell lysis. Accordingly, we could show that the in vitro RIBOMAB approach was applicable for all nine BiMABs, which proves the RIBOMAB concept. Thus, the CLDN18.2-BiMAB strategy offers great potential for the treatment of cancer. In the future, administered either as protein or as IVT-RNA, the BiMAB format will contribute towards finding solutions to raise and sustain tumor-specific cellular responses elicited by engaged and activated endogenous T cells. This will potentially enable us to overcome immune evasion mechanisms of tumor cells, consequently supporting current solid gastric cancer therapies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Poly(ethylenglykol) (PEG) ist eines der wichtigsten Polymere für pharmazeutische und biomedizinische Zwecke. Dies lässt sich vor allen Dingen auf seine ausgezeichnete Biokompatibilität, seine hohe chemische Stabilität sowie seine sehr gute Wasserlöslichkeit zurückführen. Neben seiner Anwendung in Produkten wie Lebensmitteln und Kosmetika ist PEG vor allem im pharmazeutischen Bereich unersetzlich geworden. Hier dient PEG als Grundlage für Salben, es kommt aber auch in der sogenannten „PEGylierung“ zum Einsatz. Unter PEGylierung versteht man die kovalente Verknüpfung von PEG mit Wirkstoffmolekülen, beispielsweise Proteinen oder niedermolekularen Medikamenten. In der akademischen Forschung sind aber auch PEGylierte Nanopartikel oder durch PEG stablisierte Liposomen für die Applikation im Bereich der Medizin von hohem Interesse. Trotz seiner breiten Verwendung hat PEG zwei entscheidende Nachteile: Zum einen benötigt man gerade im Hinblick auf PEGylierungen viele funktionelle Gruppe, jedoch trägt PEG maximal zwei Hydroxyl-Gruppen (die Endgruppen), die für kovalente Verknüpfungen genutzt werden können. Zum anderen ist PEG nicht in physiologischer Umgebung abbaubar und kann daher in vivo oberhalb eines Molekulargewichts von 40 000 g/mol nicht eingesetzt werden, da sonst eine Ausscheidung über die Niere nicht möglich ist und eine ungewollte Anreicherung im Körper stattfindet.rnDie durch die geringe Anzahl an Endgruppen limitierte Beladungsdichte kann durch das Design neuer Epoxid-Derivate und deren statistischen Einbau in das PEG Rückgrat deutlich verbessert werden. Im ersten Teil dieser Arbeit werden drei neuartige funktionelle Oxirane vorgestellt, die systematisch mit Ethylenoxid copolymerisiert wurden, was die selektive Einführung verschiedener funktioneller Gruppen am Polymerrückgrat ermöglicht. Im Vordergrund der Betrachtungen standen die Eigenschaften der neuartigen multifunktionellen (mf)-PEG Copolymere im Hinblick auf ihr thermisches Verhalten sowie die Verteilung der funktionellen Gruppen (Mikrostruktur) innerhalb des PEG-Rückgrats. Die gezielte Adressierbarkeit der funktionellen Gruppen konnte durch verschiedene Modellreaktionen bestätigt werden. Darüber hinaus konnte gezeigt werden, dass sich mit der vorgestellten Synthesestrategie komplexe Hybridmaterialien, beispielsweise metallhaltige Polyether, darstellen lassen. Mit Hinblick auf die biomedizinischen Anwendungen und die Konkurrenz zu etablierten PEG-Hompolymeren, standen die Wasserlöslichkeit und die Toxizität der synthetisierten Materialien im Zentrum weiterer Untersuchungen. Alle dargestellten Polymere zeigten einen Trübungspunkt in Wasser, der sich in Abhängigkeit der Zusammensetzung und Hydrophobizität der Comonomere über ein weites Temperaturspektrum variieren und somit systematisch einstellen ließ. Die Toxizität der statistischen mf-PEGs lag im Bereich von PEG, was die mf-PEGs interessant für biomedizinische Anwendung macht.rnIm zweiten Teil der Arbeit wurden Copolymerisationen verwendet, um über erstmals hergestellte Epoxid-Inimere sauer spaltbare Einheiten in das Polyetherrückgrat einzuführen. Die neuen, verzweigten Strukturen wurden auf die Zersetzung in physiologisch relevantem Milieu untersucht. Die erzielte pH-abhängige Spaltbarkeit, kann für potenzielle Anwendungen beispielsweise in der Krebstherapie, von Vorteil sein.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Kompetenzorientierung der Lehrerbildung bezieht sich nicht nur auf die universitären Ausbildungsabschnitte des Lehramtsstudiums, sondern auch auf die praktischen Phasen. Daher ist es von Interesse, diese praktischen Phasen genauer zu untersuchen. Bisherige Forschungsarbeiten konzentrierten sich dabei vor allem auf die Kompetenzentwicklung (Bach, 2013; Gröschner & Schmitt, 2012; Schubarth et al., 2012) und auf die Betreuung im Schulpraktikum (Bach, 2013; Hascher, 2012; Schubarth et al., 2011). Die Untersuchung dieser Arbeit stellt die Praktikumsdokumentation in den Fokus, da diese ebenfalls zur Kompetenzförderung im Schulpraktikum beitragen kann. Dazu werden zwei Formen von Praktikumsdokumentationen gegenübergestellt. Dies sind einerseits die Praktikumsaufgaben, die als offene Reflexionsaufgaben formuliert werden und andererseits ein strukturiertes Arbeitsheft mit dem Ziel, die Beobachtungskompetenz der Studierenden anzuleiten und die Dokumentation der Beobachtungen zu strukturieren. Diese beiden Formen der Praktikumsdokumentation werden hinsichtlich der Akzeptanz, der Entwicklung der Kompetenzen, der Selbstwirksamkeitserwartung und des pädagogisch-psychologischen Wissens miteinander verglichen. Die Angaben von n = 66 Studierenden, die das Arbeitsheft im Orientierenden Praktikum nutzten, wurden in einem prä-post-follow-up-Design untersucht und zwei Referenzgruppen gegenübergestellt. Die erste Referenzgruppe (n = 64) hatte das Orientierende Schulpraktikum noch nicht absolviert. Die zweite Referenzgruppe (n = 105) hatte dieses beendet und mit den Praktikumsaufgaben gearbeitet. Mit Hilfe von Online-Fragebögen wurden Daten zu Rahmenbedingungen des Schulpraktikums, die selbsteingeschätzte Kompetenz der Studierenden, die Relevanz und Anwendungshäufigkeit der Kompetenzen (adaptierte Skala nach Gröschner, 2009), die allgemeine Selbstwirksamkeitserwartung (Jerusalem & Schwarzer, 1999), das pädagogisch-psychologische Wissen sowie die Akzeptanz erfasst. Die Ergebnisse zeigen keine Unterschiede in der Kompetenz- und Relevanzeinschätzung sowie bei der Selbstwirksamkeitserwartung und dem Wissen zwischen den Gruppen. Signifikant besser schätzten die Studierenden mit dem Arbeitsheft die Anwendungshäufigkeit der Kompetenzen und die Akzeptanz der Praktikumsdokumentation ein. Das neu entwickelte Arbeitsheft und die Praktikumsaufgaben fördern die Kompetenzentwicklung wahrscheinlich in vergleichbarem Maß. Die Studierenden akzeptieren das Arbeitsheft jedoch mehr, was eine wichtige Implementationsbedingung ist. Das Design der Studie sowie die Selbstselektion der Gruppen schränken die Aussagekraft der Studie ein. Zu betonen ist jedoch, dass im Rahmen dieser Studie erstmalig versucht wurde, eine längsschnittliche Interventionsstudie mit Praktikumsdokumentationen umzusetzen sowie die Gelingensbedingungen von Schulpraktika und Kompetenzentwicklung im Lehramtsstudium zu untersuchen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Das Hydroxyl Radikal ist, auf globalem Maßstab, das bedeutendste Oxidant in der Atmosphäre. Es initiiert den Abbauprozess vieler, teilweise schädlicher, Spurengase und insbesondere den von flüchtigen Kohlenwasserstoffen (VOC). Die OH Konzentration ist somit ein gutes Maß für die augenblickliche Selbstreinigungskapazität der Atmosphäre. Messungen zu nächtlicher Zeit mit LIF-FAGE-Instrumenten (engl.: laser-induced fluorescence - fluorescence assay by gas expansion) haben Konzentrationen des Hydroxylradikals (OH) ergeben, die signifikant höher waren, als sich mit der bekannten Chemie erklären ließ. Um herauszufinden, ob ein solches Signal wirklich atmosphärisches OH ist oder von einer störenden Spezies stammt, die im Messinstrument OH produziert, wurde das LIF-FAGE-Instrument des Max-Planck-Instituts für Chemie (MPIC) im Rahmen dieser Doktorarbeit modifiziert und getestet. Dazu wurde ein so genannter Inlet Pre-Injector (IPI) entwickelt, mit dem in regelmäßigen Abständen ein OH-Fänger in die Umgebungsluft abgegeben werden kann, bevor das OH vom Instrument erfasst wird. Mit dieser Technik ist es möglich, ein Hintergrund-OH (OHbg), d. h. ein im Instrument erzeugtes OH-Signal, vom gemessenen OH-Gesamtsignal (OHtot) zu trennen. Die Differenz zwischen OHtot und OHbg ist die atmosphärische OH-Konzentration (OHatm). Vergleichsmessungen mit der hier entwickelten Technik, dem IPI, in zwei verschiedenen Umgebungen mit Instrumenten basierend auf Massenspektrometrie mit chemischer Ionisation (CIMS, engl.: chemical ionization mass spectrometry) als alternativer Methode des OH-Nachweises, zeigten eine weitgehende Übereinstimmung. Eine umfassende Beschreibung des Systems zur Ermittlung der Ursache des OHbg hat ergeben, dass es weder von einem Artefakt des Instruments noch von hinlänglich bekannten und beschriebenen LIF-FAGE-Interferenzen stammt. Zur Bestimmung der Spezies, die das OHbg-Signal verursacht, wurden verschiedene Laborstudien durchgeführt. Die Arbeit im Rahmen dieser Doktorarbeit hat ergeben, dass das LIF-FAGE-Instrument leicht auf OH reagiert, das beim monomolekularen Zerfall stabilisierter Criegee-Intermediate (SCI) im Niederdruckbereich des Instruments gebildet wird. Criegee-Intermediate oder Carbonyloxide entstehen bei der Ozonolyse ungesättigter flüchtiger Kohlenwasserstoffverbindungen (VOC, engl.: volatile organic compounds) und können daher in der Umgebungsluft vorkommen. Anhand von Tests mit verschiedenen Verweilzeiten der SCI im Niederdruckbereich des Instruments in Verbindung mit einem detaillierten Modell mit der neuesten SCI-Chemie wurde die monomolekulare Zerfallsgeschwindigkeit von 20  10 s-1 für den syn-Acetaldehyd-Oxykonformer bestimmt. Der in Feldkampagnen gemessene OHbg-Wert wurde dahingehend untersucht, ob SCI die Quelle des beobachteten Hintergrund-OH im Feld sein könnten. Das Budget für die SCI-Konzentration, das für die Kampagnen HUMPPA-COPEC 2010 und HOPE 2012 berechnet wurde, ergab eine SCI-Konzentration zwischen ca. 103 und 106 Molekülen pro cm3. In der Kampagne HUMPPA-COPEC 2010 ergab die Schwefelsäurekonzentration, dass die OH-Oxidation von SO2 allein die gemessene H2SO4-Konzentration nicht erklären konnte. In dieser Arbeit konnte gezeigt werden, dass das Hintergrund-OH mit dieser ungeklärten Produktionsrate von H2SO4 korreliert und somit die Oxidation von SO2 durch SCI als mögliche Erklärung in Frage kommt. Ferner korreliert das Hintergrund-OH in der Kampagne HOPE 2012 mit dem Produkt aus Ozon und VOC und konnte mit SO2 als SCI Fänger entfernt werden. Qualitativ zeigen wir somit, dass das in der Umgebungsluft gemessene Hintergrund-OH wahrscheinlich durch den monomolekularen Zerfall von SCI verursacht wird, doch sind weitere Studien notwendig, um die quantitativen Beziehung für diese Spezies und dem Hintergrund-OH in unserem Instrument zu bestimmen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Für das Vermögen der Atmosphäre sich selbst zu reinigen spielen Stickstoffmonoxid (NO) und Stickstoffdioxid (NO2) eine bedeutende Rolle. Diese Spurengase bestimmen die photochemische Produktion von Ozon (O3) und beeinflussen das Vorkommen von Hydroxyl- (OH) und Nitrat-Radikalen (NO3). Wenn tagsüber ausreichend Solarstrahlung und Ozon vorherrschen, stehen NO und NO2 in einem schnellen photochemischen Gleichgewicht, dem „Photostationären Gleichgewichtszustand“ (engl.: photostationary state). Die Summe von NO und NO2 wird deshalb als NOx zusammengefasst. Vorhergehende Studien zum photostationären Gleichgewichtszustand von NOx umfassen Messungen an unterschiedlichsten Orten, angefangen bei Städten (geprägt von starken Luftverschmutzungen), bis hin zu abgeschiedenen Regionen (geprägt von geringeren Luftverschmutzungen). Während der photochemische Kreislauf von NO und NO2 unter Bedingungen erhöhter NOx-Konzentrationen grundlegend verstanden ist, gibt es in ländlicheren und entlegenen Regionen, welche geprägt sind von niedrigeren NOx-Konzetrationen, signifikante Lücken im Verständnis der zugrundeliegenden Zyklierungsprozesse. Diese Lücken könnten durch messtechnische NO2-Interferenzen bedingt sein - insbesondere bei indirekten Nachweismethoden, welche von Artefakten beeinflusst sein können. Bei sehr niedrigen NOx-Konzentrationen und wenn messtechnische NO2-Interferenzen ausgeschlossen werden können, wird häufig geschlussfolgert, dass diese Verständnislücken mit der Existenz eines „unbekannten Oxidationsmittels“ (engl.: unknown oxidant) verknüpft ist. Im Rahmen dieser Arbeit wird der photostationäre Gleichgewichtszustand von NOx analysiert, mit dem Ziel die potenzielle Existenz bislang unbekannter Prozesse zu untersuchen. Ein Gasanalysator für die direkte Messung von atmosphärischem NO¬2 mittels laserinduzierter Fluoreszenzmesstechnik (engl. LIF – laser induced fluorescence), GANDALF, wurde neu entwickelt und während der Messkampagne PARADE 2011 erstmals für Feldmessungen eingesetzt. Die Messungen im Rahmen von PARADE wurden im Sommer 2011 in einem ländlich geprägten Gebiet in Deutschland durchgeführt. Umfangreiche NO2-Messungen unter Verwendung unterschiedlicher Messtechniken (DOAS, CLD und CRD) ermöglichten einen ausführlichen und erfolgreichen Vergleich von GANDALF mit den übrigen NO2-Messtechniken. Weitere relevante Spurengase und meteorologische Parameter wurden gemessen, um den photostationären Zustand von NOx, basierend auf den NO2-Messungen mit GANDALF in dieser Umgebung zu untersuchen. Während PARADE wurden moderate NOx Mischungsverhältnisse an der Messstelle beobachtet (10^2 - 10^4 pptv). Mischungsverhältnisse biogener flüchtige Kohlenwasserstoffverbindungen (BVOC, engl.: biogenic volatile organic compounds) aus dem umgebenden Wald (hauptsächlich Nadelwald) lagen in der Größenordnung 10^2 pptv vor. Die Charakteristiken des photostationären Gleichgewichtszustandes von NOx bei niedrigen NOx-Mischungsverhältnissen (10 - 10^3 pptv) wurde für eine weitere Messstelle in einem borealen Waldgebiet während der Messkampagne HUMPPA-COPEC 2010 untersucht. HUMPPA–COPEC–2010 wurde im Sommer 2010 in der SMEARII-Station in Hyytiälä, Süd-Finnland, durchgeführt. Die charakteristischen Eigenschaften des photostationären Gleichgewichtszustandes von NOx in den beiden Waldgebieten werden in dieser Arbeit verglichen. Des Weiteren ermöglicht der umfangreiche Datensatz - dieser beinhaltet Messungen von relevanten Spurengasen für die Radikalchemie (OH, HO2), sowie der totalen OH-Reaktivität – das aktuelle Verständnis bezüglich der NOx-Photochemie unter Verwendung von einem Boxmodell, in welches die gemessenen Daten als Randbedingungen eingehen, zu überprüfen und zu verbessern. Während NOx-Konzentrationen in HUMPPA-COPEC 2010 niedriger sind, im Vergleich zu PARADE 2011 und BVOC-Konzentrationen höher, sind die Zyklierungsprozesse von NO und NO2 in beiden Fällen grundlegend verstanden. Die Analyse des photostationären Gleichgewichtszustandes von NOx für die beiden stark unterschiedlichen Messstandorte zeigt auf, dass potenziell unbekannte Prozesse in keinem der beiden Fälle vorhanden sind. Die aktuelle Darstellung der NOx-Chemie wurde für HUMPPA-COPEC 2010 unter Verwendung des chemischen Mechanismus MIM3* simuliert. Die Ergebnisse der Simulation sind konsistent mit den Berechnungen basierend auf dem photostationären Gleichgewichtszustand von NOx.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Gesundheitseffekte von Aerosolpartikeln werden stark von ihren chemischen und physikalischen Eigenschaften und somit den jeweiligen Bildungsprozessen und Quellencharakteristika beeinflusst. Während die Hauptquellen der anthropogenen Partikelemissionen gut untersucht sind, stellen die spezifischen Emissionsmuster zahlreicher kleiner Aerosolquellen, welche lokal und temporär zu einer signifikanten Verschlechterung der Luftqualität beitragen können, ein Forschungsdesiderat dar.rnIn der vorliegenden Arbeit werden in kombinierten Labor- und Feldmessungen durch ein integratives Analysekonzept mittels online (HR-ToF-AMS ) und filterbasierter offline (ATR-FTIR-Spektroskopie ) Messverfahren die weitgehend unbekannten physikalischen und chemischen Eigenschaften der Emissionen besonderer anthropogener Aerosolquellen untersucht. Neben einem Fußballstadion als komplexe Mischung verschiedener Aerosolquellen wie Frittieren und Grillen, Zigarettenrauchen und Pyrotechnik werden die Emissionen durch Feuerwerkskörper, landwirtschaftliche Intensivtierhaltung (Legehennen), Tief- und Straßenbauarbeiten sowie abwasserbürtige Aerosolpartikel in die Studie mit eingebunden. Die primären Partikelemissionen der untersuchten Quellen sind vorrangig durch kleine Partikelgrößen (dp < 1 µm) und somit eine hohe Lungengängigkeit gekennzeichnet. Dagegen zeigen die Aerosolpartikel im Stall der landwirtschaftlichen Intensivtierhaltung sowie die Emissionen durch die Tiefbauarbeiten einen hohen Masseanteil von Partikeln dp > 1 µm. Der Fokus der Untersuchung liegt auf der chemischen Charakterisierung der organischen Partikelbestandteile, welche für viele Quellen die NR-PM1-Emissionen dominieren. Dabei zeigen sich wichtige quellenspezifische Unterschiede in der Zusammensetzung der organischen Aerosolfraktion. Die beim Abbrand von pyrotechnischen Gegenständen freigesetzten sowie die abwasserbürtigen Aerosolpartikel enthalten dagegen hohe relative Gehalte anorganischer Substanzen. Auch können in einigen spezifischen Emissionen Metallverbindungen in den AMS-Massenspektren nachgewiesen werden. Über die Charakterisierung der Emissionsmuster und -dynamiken hinaus werden für einige verschiedenfarbige Rauchpatronen sowie die Emissionen im Stall der Intensivtierhaltung Emissionsfaktoren bestimmt, die zur quantitativen Bilanzierung herangezogen werden können. In einem weiteren Schritt werden anhand der empirischen Daten die analytischen Limitierungen der Aerosolmassenspektrometrie wie die Interferenz organischer Fragmentionen durch (Hydrogen-)Carbonate und mögliche Auswertestrategien zur Überwindung dieser Grenzen vorgestellt und diskutiert.rnEine umfangreiche Methodenentwicklung zur Verbesserung der analytischen Aussagekraft von organischen AMS-Massenspektren zeigt, dass für bestimmte Partikeltypen einzelne Fragmentionen in den AMS-Massenspektren signifikant mit ausgewählten funktionellen Molekülgruppen der FTIR-Absorptionsspektren korrelieren. Bedingt durch ihre fehlende Spezifität ist eine allgemeingültige Interpretation von AMS-Fragmentionen als Marker für verschiedene funktionelle Gruppen nicht zulässig und häufig nur durch die Ergebnisse der komplementären FTIR-Spektroskopie möglich. Des Weiteren wurde die Verdampfung und Ionisation ausgewählter Metallverbindungen im AMS analysiert. Die Arbeit verdeutlicht, dass eine qualitative und quantitative Auswertung dieser Substanzen nicht ohne Weiteres möglich ist. Die Gründe hierfür liegen in einer fehlenden Reproduzierbarkeit des Verdampfungs- und Ionisationsprozesses aufgrund von Matrixeffekten sowie der in Abhängigkeit vorangegangener Analysen (Verdampferhistorie) in der Ionisationskammer und auf dem Verdampfer statt-findenden chemischen Reaktionen.rnDie Erkenntnisse der Arbeit erlauben eine Priorisierung der untersuchten anthropogenen Quellen nach bestimmten Messparametern und stellen für deren Partikelemissionen den Ausgangpunkt einer Risikobewertung von atmosphärischen Folgeprozessen sowie potentiell negativen Auswirkungen auf die menschliche Gesundheit dar. rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Wir betrachten Systeme von endlich vielen Partikeln, wobei die Partikel sich unabhängig voneinander gemäß eindimensionaler Diffusionen [dX_t = b(X_t),dt + sigma(X_t),dW_t] bewegen. Die Partikel sterben mit positionsabhängigen Raten und hinterlassen eine zufällige Anzahl an Nachkommen, die sich gemäß eines Übergangskerns im Raum verteilen. Zudem immigrieren neue Partikel mit einer konstanten Rate. Ein Prozess mit diesen Eigenschaften wird Verzweigungsprozess mit Immigration genannt. Beobachten wir einen solchen Prozess zu diskreten Zeitpunkten, so ist zunächst nicht offensichtlich, welche diskret beobachteten Punkte zu welchem Pfad gehören. Daher entwickeln wir einen Algorithmus, um den zugrundeliegenden Pfad zu rekonstruieren. Mit Hilfe dieses Algorithmus konstruieren wir einen nichtparametrischen Schätzer für den quadrierten Diffusionskoeffizienten $sigma^2(cdot),$ wobei die Konstruktion im Wesentlichen auf dem Auffüllen eines klassischen Regressionsschemas beruht. Wir beweisen Konsistenz und einen zentralen Grenzwertsatz.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit wurde der vielfältige Nutzen von Kohlenhydraten in Nanokapsel Systemen untersucht. Drei verschiedene Nanokapsel-Typen wurden durch Reaktion an der Grenzfläche von inversen Miniemulsionen hergestellt. Es wurde gezeigt, dass die Kohlenhydrate nach Modifizierung als Monomer an der Kapselbildung teilnehmen können, oder zur Erhöhung der Sensitivität eines verkapselten Kontrastmittels beitragen können. Im Folgenden werden die Ergebnisse der einzelnen Projekte zusammengefasst. Eine neuartige Grenzflächen-Synthese zur Herstellung von Nanokapseln wurde entwickelt und untersucht. Bei der Reaktion handelt es sich um eine Ruthenium katalysierte Olefin-Kreuzmetathese, welche für die Reaktion an der Grenzfläche angepasst wurde. Als wasserlösliches Macromonomer wurde Dextranacrylat synthetisiert. Der Reaktionspartner war ein öl-löslichen Phosphoester (Phenyldi(undec-10-en-1-yl)phosphat). Anhand von NMR-Spektren wurde gezeigt, dass die Kapselbildung auf Olefin Kreuzmetathese beruht. Im Vergleich zu konventionellen Estern haben Phosphorester eine weitere Möglichkeit zur chemischen Funktionalisierung. Dies wurde exemplarisch durch die Verwendung von fluoreszenzmarkierten Phosphoestern gezeigt. Die Markierung wurde verwendet, um die pH-induzierte Abbaubarkeit der Nanokapseln mittels Fluoreszenz-Korrelations-Spektroskopie zu beobachten. Ziel des zweiten Projekts war es, Nanostrukturen zu entwickeln, um Infektionen mit Antibiotika-resistenten Bakterien lokal zu behandeln. Dazu wurden mit Dextranmethacrylat vernetzte Poly(acrylamid) basierte Nanogele synthetisiert und Zinknitrat zugesetzt. Die Synthese der Nanogele wurde erweitert, um durch Vernetzung freier Alkoholgruppen mit Toluoldiisocyanat eine Kapselschale zu erhalten. Die Schalenbildung spiegelte sich in einer geringeren Quellbarkeit der Gel- Schale-Hybride wieder. Die erhaltenen Gel-Schale-Hybride waren in der Lage das Wachstum von zwei Methicillin-resistenten Bakterienstämmen (S. aureus) zu unterdrücken und verzögern. Die synthetisierten Hybridstrukturen könnten in der Beschichtung von Wundauflagen Verwendung finden, um bakterielle Infektionen lokal und direkt nach Ausbruch zu behandeln. Ziel des dritten Projektes war es, die wichtigen Parameter in der Herstellung von Nanokapseln mit hoher Kontrastmittel Sensitivität zu identifizieren. Relaxivität/Signalsensitivität des Kontrastmittels ist von großer Bedeutung für die Bildgebung mittels MRI, dies kann durch die Begrenzung der Mobilität des Kontrastmittels erreicht werden. Aufgrund seiner hohen Komplexstabilität und seiner klinischen Bedeutung wurde das Kontrastmittel Gadobutrol für die Verkapselung verwendet. Das Kontrastmittel wurde in Polyharnstoff-Kapseln eingeschlossen, die durch einen inversen Miniemulsion-Prozess hergestellt wurden. Um die Viskosität im Inneren der Nanokapsel zu erhöhen, wurden zusätzlich Saccharose, Dextran und Polyacrylsäure verkapselt. In Gegenwart von Saccharose konnte die Relaxivität verdoppelt werden. Dies gründet sich vermutlich auf einem Second-sphere Effekt der Saccharose, einer auf Wasserstoffbrückenbindungen beruhende Interaktion von Kontrastmittel und Saccharose.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analysen zur molekularen Charakterisierung von Proteinen des humanen Usher-Syndroms und Evaluation genbasierter Therapiestrategien rnDas humane Usher Syndrom (USH) ist die häufigste Form vererbter Taub-Blindheit. In der vorliegenden Dissertation wurde diese komplexe Erkrankung auf verschiedenen Ebenen analysiert: in Arbeiten zur Expression und Lokalisation von USH-Proteinen, der Analyse der USH-Proteinnetzwerke und deren Funktionen sowie darauf aufbauend die Entwicklung von Therapiestrategien für USH.rnIm Rahmen der Arbeit wurde die Expression und (sub)-zelluläre Lokalisation des USH1D-Genproduktes CDH23 in der Retina und Cochlea analysiert. CDH23-Isoformen werden in der Maus zeitlich und räumlich differentiell exprimiert. In den Retinae von Mäusen, nicht humanen Primaten und Menschen zeigten Analysen eine unterschiedliche Expression und Lokalisation des Zell-Zelladhäsionsmoleküls CDH23, was auf Funktions-unterschiede der einzelnen Isoformen in den analysierten Spezies hindeutet.rnAnalysen zur Aufklärung der USH-Proteinnetzwerke ergaben eine potentielle Interaktion des USH1G-Gerüstproteins SANS mit dem Golgi- und Centrosom-assoziierten Protein Myomegalin. Die direkte Interaktion der Proteine konnte durch unabhängige Experimente verifiziert werden. Beide Interaktionspartner sind in den Retinae verschiedener Spezies partiell ko-lokalisiert und partizipieren im periciliären USH-Proteinnetzwerk. Die Assoziation von SANS und Myomegalin mit dem Mikrotubuli-Cytoskelett weist auf eine Funktion des Proteinkomplexes in gerichteten Transportprozessen innerhalb der Photorezeptoren hin und bekräftigt die Hypothese einer Rolle von SANS und assoziierten Netzwerken mit Transportprozessen.rnDas hier gewonnene erweiterte Verständnis der molekularen Grundlagen sowie die Aufklärung der zellulären Funktion der Proteinnetzwerke ermöglichen die Entwicklung therapeutischer Strategien für USH. Ein Fokus der vorliegenden Arbeit lag auf der Entwicklung genbasierter Therapiestrategien und deren Evaluation, wobei der Schwerpunkt auf der Therapiestrategie der Genreparatur lag. Die mit Hilfe von Zinkfinger-Nukleasen (ZFN) induzierte Homologe Rekombination für die Genkorrektur wurde exemplarisch an der 91C>T/p.R31X-Mutation im USH1C-Gen gezeigt. Effiziente ZFN wurden identifiziert, generiert und erfolgreich im Zellkulturmodellsystem eingesetzt. Die Analysen demonstrierten eine Reparatur der Mutation durch Homologe Rekombination auf genomischer Ebene und die Expression des wiederhergestellten Proteins. Durch die Genkorrektur im endogenen Lokus sind Größe des Gens, Isoformen oder die Art der Mutation keine limitierenden Faktoren für die Therapie. Die in der vorliegenden Arbeit durchgeführten Experimente unterstreichen das enorme Potential ZFN-basierter Therapiestrategien hin zu personalisierten Therapieformen nicht nur für USH sondern auch für andere erbliche Erkrankungen, deren genetische Grundlagen bekannt sind.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Funktionsweise der Laserionenquellenfalle LIST, sowie deren Implementierung bei der Forschungseinrichtung ISOLDE am CERN als neue Standard-Ionenquelle und die ermittelten Spezifikationen Effizienz und Selektivität werden vorgestellt.rnrnDurch die Implementierung der LIST bei ISOLDE konnte on-line mit Hilfe von Radionukliden ein Minimalwert zur Unterdrückung von Kontaminationen durch die LIST bestimmt werden. Die erfolgreiche Unterdrückung von Francium-Kontamination ermöglichte es, neue Messdaten für den mittleren Ladungsradius und die Hyperfeinstruktur für Po-217 zu erzeugen.rnrnUm die Funktionalität der LIST bei ISOLDE hinsichtlich der Ionisationseffizienz gegenüber anderen Ionenquellen einzuordnen, wurden in Mainz am RISIKO-Massenseparator mit der bereits existierenden Standard-Ionenquelle RILIS und der LIST die Effizienzen bestimmt und miteinander verglichen. Es konnte gezeigt werden, dass die LIST im Modus hoher Ionisationseffizienz eine vergleichbare Effizienz aufweist wie die RILIS. Im Modus zur Produktion eines hochreinen Ionenstrahls ist die Ionisationseffizienz gegenüber der RILIS reduziert.rnrnDa die Bestimmung der Selektivität im On-line-Betrieb aufwendig und zeitintensiv ist, wurde die Reinheit des Ionenstrahls am RISIKO-Massenseparator mittels Laufzeitmessungen der Ionen off-line bestimmt und analysiert. Die Zeitstrukturen der RILIS ermöglichen einerseits Rückschlüsse auf die Reinheit des Ionenstrahls zu ziehen, andererseits konnte auch die Ionisation außerhalb des Atomisators, in dem überwiegend die resonante Ionisation stattfindet, nachgewiesen werden. Durch diesen Nachweis kann der Effizienzverlust während der Produktion eines hochreinen Ionenstrahls erklärt werden. Zudem bietet er einen Ansatz für weitere Entwicklungsarbeiten der LIST zur Steigerung der Effizienz.rnrnEine Übertragung der Messergebnisse zur Zeitstruktur der RILIS auf die LIST eröffnet neue Möglichkeiten zur Steigerung deren Selektivität im massenselektiven Mode. Dieser wurde anhand von Simulationen überprüft und mit Messungen an Kalium experimentell quantifiziert.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Dissertation befasst sich mit den umsatzsteuerrechtlichen Fragen, die sich mit Immobiliengeschäften verbinden. Zunächst werden die allgemeinen Voraussetzungen der Steuerbarkeit von Immobiliengeschäften untersucht. Hierbei wird zwischen den zivilrechtlichen Grundlagen und den steuerrechtlichen Folgen für die Fälle der Grundstücksübertragung, des Vorbehalts von Rechten (insbesondere des Nießbrauchsvorbehalts) und anderer Gestaltung, wie der ausschließlichen Einräumung eines Nießbrauchs oder eines Erbbaurechts unterschieden. Darüber hinaus wird die Unternehmereigenschaft insbesondere unter dem Gesichtspunkt der Drei-Objekt-Grenze untersucht. rnrnFerner wird das Zusammenspiel zwischen der Umsatzsteuerbefreiung und der parallelen Grunderwerbsteuerbarkeit insbesondere bei kombinierten Verträgen beleuchtet, bei denen sich jeweils die Frage stellt, ob und inwieweit sie oder ihre einzelnen Elemente der Grunderwerbsteuer und der Umsatzsteuer unterliegen. Bauträgerverträge und Bauherrenmodelle werden zivilrechtlich eingeordnet und in ihren steuerlichen Folgen beurteilt. rnrnHinsichtlich der steuerbefreiten sonstigen Leistung steht im Grundstücksbereich § 4 Nr. 12 UStG im Mittelpunkt, welcher die Umsatzsteuerbefreiung für Vermietungen bestimmt. In diesem Zusammenhang werden auch die ambivalenten Folgen einer Umsatzsteuerbefreiung untersucht, da mit der Befreiung auch die Möglichkeit zum Vorsteuerabzug verloren geht, was die rechtliche Möglichkeit der Option zur Steuerpflicht erklärt.rnrnDas im Zusammenhang mit Grundstückgeschäften immer zu beachtende Rechtsinstitut der Geschäftsveräußerung im Ganzen, deren Vorliegen schon die Umsatzsteuerbarkeit entfallen lässt, wird umfassend dargestellt. rnrnEin wesentlicher Teil der Ausarbeitung betrifft die Problematik der gemischt genutzten Grundstücke. Es wird die Entwicklung der Behandlung der gemischt genutzten Grundstücke von der Seeling-Entscheidung des europäischen Gerichtshofes bis zur Einführung des § 15 Abs. 1 b UStG mit Wirkung zum 01.01.2011 dargestellt. Während nach der Seeling-Rechtsprechung der Unternehmer noch die Wahl hatte, ein gemischt, also sowohl unternehmerisch wie auch privat genutztes Grundstück, vollständig in die unternehmerische Sphäre einzubeziehen und sogleich im vollen Umfang Vorsteuer geltend zu machen, kann der Unternehmer seit der Gesetzesänderung die Vorsteuer nur noch in dem Umfang geltend machen, indem das Grundstück tatsächlich für unternehmerische Zwecke genutzt wird. Das sogenannte Seeling-Modell, dessen Folgen mitunter als Staatsdarlehen charakterisiert worden sind, fand damit zu einem Ende. In diesem Zusammenhang wird auch das Ausscheiden der Immobilie aus dem unternehmerischen Bereich vor und nach Ablauf des Berichtigungszeitraums nach § 15 a UStG untersucht.rnrnSchließlich werden die Grundstücksgeschäfte im Zusammenhang mit Gesellschaften unterschiedlicher Rechtsform dargestellt. Hierbei wird zwischen den Fällen der Einbringung eines Grundstücks bei Gründung der Gesellschaft, der Einbringung nach Entstehung der Gesellschaft und der Grundstücksgeschäfte anlässlich des Ausscheidens aus einer Gesellschaft unterschieden. Es werden sowohl die zivilrechtlichen Grundlagen als auch die umsatzsteuerrechtlichen Folgen für Personengesellschaften, die GmbH und die AG dargestellt. rn