176 resultados para Interne Modelle
Resumo:
Natürliche hydraulische Bruchbildung ist in allen Bereichen der Erdkruste ein wichtiger und stark verbreiteter Prozess. Sie beeinflusst die effektive Permeabilität und Fluidtransport auf mehreren Größenordnungen, indem sie hydraulische Konnektivität bewirkt. Der Prozess der Bruchbildung ist sowohl sehr dynamisch als auch hoch komplex. Die Dynamik stammt von der starken Wechselwirkung tektonischer und hydraulischer Prozesse, während sich die Komplexität aus der potentiellen Abhängigkeit der poroelastischen Eigenschaften von Fluiddruck und Bruchbildung ergibt. Die Bildung hydraulischer Brüche besteht aus drei Phasen: 1) Nukleation, 2) zeitabhängiges quasi-statisches Wachstum so lange der Fluiddruck die Zugfestigkeit des Gesteins übersteigt, und 3) in heterogenen Gesteinen der Einfluss von Lagen unterschiedlicher mechanischer oder sedimentärer Eigenschaften auf die Bruchausbreitung. Auch die mechanische Heterogenität, die durch präexistierende Brüche und Gesteinsdeformation erzeugt wird, hat großen Einfluß auf den Wachstumsverlauf. Die Richtung der Bruchausbreitung wird entweder durch die Verbindung von Diskontinuitäten mit geringer Zugfestigkeit im Bereich vor der Bruchfront bestimmt, oder die Bruchausbreitung kann enden, wenn der Bruch auf Diskontinuitäten mit hoher Festigkeit trifft. Durch diese Wechselwirkungen entsteht ein Kluftnetzwerk mit komplexer Geometrie, das die lokale Deformationsgeschichte und die Dynamik der unterliegenden physikalischen Prozesse reflektiert. rnrnNatürliche hydraulische Bruchbildung hat wesentliche Implikationen für akademische und kommerzielle Fragestellungen in verschiedenen Feldern der Geowissenschaften. Seit den 50er Jahren wird hydraulisches Fracturing eingesetzt, um die Permeabilität von Gas und Öllagerstätten zu erhöhen. Geländebeobachtungen, Isotopenstudien, Laborexperimente und numerische Analysen bestätigen die entscheidende Rolle des Fluiddruckgefälles in Verbindung mit poroelastischen Effekten für den lokalen Spannungszustand und für die Bedingungen, unter denen sich hydraulische Brüche bilden und ausbreiten. Die meisten numerischen hydromechanischen Modelle nehmen für die Kopplung zwischen Fluid und propagierenden Brüchen vordefinierte Bruchgeometrien mit konstantem Fluiddruck an, um das Problem rechnerisch eingrenzen zu können. Da natürliche Gesteine kaum so einfach strukturiert sind, sind diese Modelle generell nicht sonderlich effektiv in der Analyse dieses komplexen Prozesses. Insbesondere unterschätzen sie die Rückkopplung von poroelastischen Effekten und gekoppelte Fluid-Festgestein Prozesse, d.h. die Entwicklung des Porendrucks in Abhängigkeit vom Gesteinsversagen und umgekehrt.rnrnIn dieser Arbeit wird ein zweidimensionales gekoppeltes poro-elasto-plastisches Computer-Model für die qualitative und zum Teil auch quantitativ Analyse der Rolle lokalisierter oder homogen verteilter Fluiddrücke auf die dynamische Ausbreitung von hydraulischen Brüchen und die zeitgleiche Evolution der effektiven Permeabilität entwickelt. Das Programm ist rechnerisch effizient, indem es die Fluiddynamik mittels einer Druckdiffusions-Gleichung nach Darcy ohne redundante Komponenten beschreibt. Es berücksichtigt auch die Biot-Kompressibilität poröser Gesteine, die implementiert wurde um die Kontrollparameter in der Mechanik hydraulischer Bruchbildung in verschiedenen geologischen Szenarien mit homogenen und heterogenen Sedimentären Abfolgen zu bestimmen. Als Resultat ergibt sich, dass der Fluiddruck-Gradient in geschlossenen Systemen lokal zu Störungen des homogenen Spannungsfeldes führen. Abhängig von den Randbedingungen können sich diese Störungen eine Neuausrichtung der Bruchausbreitung zur Folge haben kann. Durch den Effekt auf den lokalen Spannungszustand können hohe Druckgradienten auch schichtparallele Bruchbildung oder Schlupf in nicht-entwässerten heterogenen Medien erzeugen. Ein Beispiel von besonderer Bedeutung ist die Evolution von Akkretionskeilen, wo die große Dynamik der tektonischen Aktivität zusammen mit extremen Porendrücken lokal starke Störungen des Spannungsfeldes erzeugt, die eine hoch-komplexe strukturelle Entwicklung inklusive vertikaler und horizontaler hydraulischer Bruch-Netzwerke bewirkt. Die Transport-Eigenschaften der Gesteine werden stark durch die Dynamik in der Entwicklung lokaler Permeabilitäten durch Dehnungsbrüche und Störungen bestimmt. Möglicherweise besteht ein enger Zusammenhang zwischen der Bildung von Grabenstrukturen und großmaßstäblicher Fluid-Migration. rnrnDie Konsistenz zwischen den Resultaten der Simulationen und vorhergehender experimenteller Untersuchungen deutet darauf hin, dass das beschriebene numerische Verfahren zur qualitativen Analyse hydraulischer Brüche gut geeignet ist. Das Schema hat auch Nachteile wenn es um die quantitative Analyse des Fluidflusses durch induzierte Bruchflächen in deformierten Gesteinen geht. Es empfiehlt sich zudem, das vorgestellte numerische Schema um die Kopplung mit thermo-chemischen Prozessen zu erweitern, um dynamische Probleme im Zusammenhang mit dem Wachstum von Kluftfüllungen in hydraulischen Brüchen zu untersuchen.
Resumo:
Die Frage wie großmotorische Bewegungen gelernt werden beschäftigt nicht nur Sportler, Trainer und Sportlehrer sondern auch Ärzte und Physiotherapeuten. Die sportwissenschaftlichen Teildisziplinen Bewegungs- und Trainingswissenschaft versuchen diese Frage sowohl im Sinne der Grundlagenforschung (Wie funktioniert Bewegungslernen?) als auch hinsichtlich der praktischen Konsequenzen (Wie lehrt man Bewegungen?) zu beantworten. Innerhalb dieser Themenfelder existieren Modelle, die Bewegungslernen als gezielte und extern unterstützte Ausbildung zentralnervöser Bewegungsprogramme verstehen und solche, die Lernen als Selbstorganisationsprozess interpretieren. Letzteren ist das Differenzielle Lernen und Lehren (Schöllhorn, 1999) zuzuordnen, das die Notwendigkeit betont, Bewegungen durch die Steigerung der Variationen während der Aneignungsphase zu lernen und zu lehren. Durch eine Vielzahl an Variationen, so die Modellannahme, findet der Lernende ohne externe Vorgaben selbstorganisiert ein individuelles situatives Optimum. Die vorliegende Arbeit untersucht, welchen Einfluss Variationen verschiedener Art und Größe auf die Lern- und Aneignungsleistung großmotorischer Bewegungen haben und in wie fern personenübergreifende Optima existieren. In zwei Experimenten wird der Einfluss von räumlichen (Bewegungsausführung, Bewegungsergebnis) und zeitlichen Variationen (zeitliche Verteilung der Trainingsreize) auf die Aneignungs- und Lernleistung großmotorischer sportlicher Bewegungen am Beispiel zweier technischer Grundfertigkeiten des Hallenhockeys untersucht. Die Ergebnisse der Experimente stützen die bisherige Befundlage zum Differenziellen Lernen und Lehren, wonach eine Zunahme an Variation in der Aneignungsphase zu größeren Aneignungs- und Lernleistungen führt. Zusätzlich wird die Annahme bestätigt, dass ein Zusammenhang von Variationsbereich und Lernrate in Form eines Optimaltrends vorliegt. Neu sind die Hinweise auf die Dynamik von motorischen Lernprozessen (Experiment 1). Hier scheinen individuelle Faktoren (z. B. die Lernbiografie) als auch die Phase im Lernprozess (Aneignung, Lernen) Einfluss zu haben auf den Umfang und die Struktur eines für die optimale Adaptation notwendigen Variationsbereichs. Darüber hinaus weisen die Befunde auf verschiedene Aneignungs- und Lerneffekte aufgrund alleiniger Variation der zeitlichen Verteilung bei ansonsten gleichen Trainingsreizen hin (Experiment 2). Für zukünftige Forschungsarbeiten zum Erlernen großmotorischer Bewegungen und für die sportliche Praxis dürfte es daher erkenntnisreich sein, die Historie der intrinsischen Dynamik der lernenden Systeme stärker zu berücksichtigen. Neben Fragestellungen für die Grundlagenforschung zum (Bewegungs-)Lernen ließen sich hieraus unmittelbar praxisrelevante Erkenntnisse darüber ableiten, wie Bewegungslernprozesse mittels verschiedener Variationsbereiche strukturiert und gesteuert werden könnten.
Resumo:
Kalorimetrische Tieftemperatur-Detektoren (Calorimetric Low Temperature Detectors, CLTDs) wurden erstmals in Messungen zur Bestimmung des spezifischen Energieverlustes (dE/dx) niederenergetischer Schwerionen beim Durchgang durch Materie eingesetzt. Die Messungen wurden im Energiebereich unterhalb des Bragg-Peaks, mit 0.1 - 1.4 MeV/u 238U-Ionen in Kohlenstoff und Gold sowie mit 0.05 - 1.0 MeV/u 131Xe-Ionen in Kohlenstoff, Nickel und Gold, durchgeführt. Die Kombination der CLTDs mit einem Flugzeitdetektor ermöglichte dabei, kontinuierliche dE/dx-Kurven über größere Energiebereiche hinweg simultan zu bestimmen. Im Vergleich zu herkömmlichen Meßsystemen, die Ionisationsdetektoren zur Energiemessung verwenden, erlaubten die höhere Energieauflösung und -linearität der CLTDs eine Verringerung der Kalibrierungsfehler sowie eine Erweiterung des zugänglichen Energiebereiches der dE/dx-Messungen in Richtung niedriger Energien. Die gewonnen Daten können zur Anpassung theoretischer und semi-empirischer Modelle und somit zu einer Erhöhung der Präzision bei der Vorhersage spezifischer Energieverluste schwerer Ionen beitragen. Neben der experimentellen Bestimmung neuer Daten wurden das alternative Detektionsprinzip der CLTDs, die Vorteile dieser Detektoren bezüglich Energieauflösung und -linearität sowie der modulare Aufbau des CLTD-Arrays aus mehreren Einzeldetektoren genutzt, um diese Art von Messung auf potentielle systematische Unsicherheiten zu untersuchen. Unter anderem wurden hierbei unerwartete Channeling-Effekte beim Durchgang der Ionen durch dünne polykristalline Absorberfolien beobachtet. Die koinzidenten Energie- und Flugzeitmessungen (E-ToF) wurden weiterhin genutzt, um das Auflösungsvermögen des Detektor-Systems bei der direkten in-flight Massenbestimmung langsamer und sehr schwerer Ionen zu bestimmen. Durch die exzellente Energieauflösung der CLTDs konnten hierbei Massenauflösungen von Delta-m(FWHM) = 1.3 - 2.5 u für 0.1 - 0.6 MeV/u 238U-Ionen erreicht werden. In einer E-ToF-Messung mit Ionisationsdetektoren sind solche Werte in diesem Energie- und Massenbereich aufgrund der Limitierung der Energieauflösung durch statistische Schwankungen von Verlustprozessen beim Teilchennachweis nicht erreichbar.
Resumo:
Die Multiple Sklerose (MS) ist eine Autoimmunkrankheit des zentralen Nervensystems, bei der sich autoreaktive T-Effektorzellen der Kontrolle durch regulatorische T-Zellen (Treg) entziehen. Innerhalb dieser Arbeit wurde gezeigt, dass T-Effektorzellen von MS-Patienten insensitiv gegenüber der Suppression durch Treg sind. Hervorgerufen wird diese Treg-Resistenz durch Interleukin-6 (IL-6). Die Inhibition des IL-6-Signalweges stellt die Treg-vermittelte Suppression der T-Effektorzellen wieder her. Es zeigte sich, dass die Bildung von IL-6 und die Expression des IL-6-Rezeptors in MS-Patienten in einer positiven Rückkopplungsschleife von IL-6 selbst induziert werden.rnZur Analyse humaner Immunantworten in vivo und deren Modulation durch humanspezifische Therapeutika wurden humanisierte Mausmodelle etabliert. Der adoptive Transfer humaner Immunzellen in immundefiziente Mäuse erlaubte die Untersuchung von T-Lymphozyten, die aus dem Blut von MS-Patienten isoliert wurden. Es zeigte sich, dass Treg-resistente T-Effektorzellen aus den MS-Patienten in den Tieren eine letale Graft-versus-Host-Erkrankung auslösten, die nicht durch aktivierte Treg therapiert werden konnte. Erst eine Behandlung mit dem humanspezifischen anti-IL-6-Antikörper Tocilizumab in vivo konnte die Erkrankung der Tiere deutlich abmildern.rnIm zweiten Modell wurden immundefiziente Mäuse mit humanen CD34+ Blutstammzellen immunologisch rekonstituiert. Diese Tiere entwickelten ein nahezu vollständig humanes Immunsystem. Die Immunisierung mit dem murinen Myelin-Oligodenrozyten-Glykoprotein löste in den humanisierten Mäusen eine MS-ähnliche Autoimmunität aus. Die Neuroinflammation wurde durch humane T- und B-Zellen vermittelt, korrelierte mit erhöhter IL-17-Produktion und führte zu einer IL-6-abhängigen Treg-Resistenz der T-Effektorzellen. Somit eignen sich die etablierten Modelle, um zukünftig die Wirksamkeit neuer Therapeutika zur Behandlung der MS präklinisch zu testen.rn
Resumo:
One of the main goals of the ATLAS experiment at the Large Hadron Collider (LHC) at CERN in Geneva is the search for new physics beyond the Standard Model. In 2011, proton-proton collisions were performed at the LHC at a center of mass energy of 7 TeV and an integrated luminosity of 4.7 fb^{-1} was recorded. This dataset can be tested for one of the most promising theories beyond limits achieved thus far: supersymmetry. Final states in supersymmetry events at the LHC contain highly energetic jets and sizeable missing transverse energy. The additional requirement of events with highly energetic leptons simplifies the control of the backgrounds. This work presents results of a search for supersymmetry in the inclusive dilepton channel. Special emphasis is put on the search within the Gauge-Mediated Symmetry Breaking (GMSB) scenario in which the supersymmetry breaking is mediated via gauge fields. Statistically independent Control Regionsrnfor the dominant Standard Model backgrounds as well as Signal Regions for a discovery of a possible supersymmetry signal are defined and optimized. A simultaneous fit of the background normalizations in the Control Regions via the profile likelihood method allows for a precise prediction of the backgrounds in the Signal Regions and thus increases the sensitivity to several supersymmetry models. Systematic uncertainties on the background prediction are constrained via the jet multiplicity distribution in the Control Regions driven by data. The observed data are consistent with the Standard Model expectation. New limits within the GMSB and the minimal Supergravity (mSUGRA) scenario as well as for several simplified supersymmetry models are set or extended.
Resumo:
We consider stochastic individual-based models for social behaviour of groups of animals. In these models the trajectory of each animal is given by a stochastic differential equation with interaction. The social interaction is contained in the drift term of the SDE. We consider a global aggregation force and a short-range repulsion force. The repulsion range and strength gets rescaled with the number of animals N. We show that for N tending to infinity stochastic fluctuations disappear and a smoothed version of the empirical process converges uniformly towards the solution of a nonlinear, nonlocal partial differential equation of advection-reaction-diffusion type. The rescaling of the repulsion in the individual-based model implies that the corresponding term in the limit equation is local while the aggregation term is non-local. Moreover, we discuss the effect of a predator on the system and derive an analogous convergence result. The predator acts as an repulsive force. Different laws of motion for the predator are considered.
Resumo:
Clusterin (CLU), auch bekannt unter dem Namen Apolipoprotein J (ApoJ), wird von Zellen als hetreodimeres Glykoprotein exprimiert und in den extrazellulären Raum sezerniert. Es wird daher auch als sezerniertes CLU (sCLU) bezeichnet. Neben sCLU sind auch nicht-sezernierte Isoformen von CLU bekannt, die in der vorliegenden Arbeit erforscht wurden. Ziel dabei war es, die Expression, die Biogenese, sowie die Funktion dieser Proteine zu ergründen. Nicht-sezernierte CLU-Formen werden ausschließlich von Zellen exprimiert, die zuvor einer Stresssituation ausgesetzt wurden. Dies konnte insbesondere durch Kultur verschiedener Zelllinien bei erhöhter Temperatur oder durch Behandlung mit dem Proteasominhibitor MG 132 demonstriert werden, worauf neben sCLU auch 50 kDa bzw. 45 kDa große, nicht-sezernierte CLU-Proteine in geringen Mengen exprimiert wurden. Bezüglich der Biogenese dieser Proteine wurden mehrere Hypothesen bzw. Mechanismen diskutiert und in dieser Arbeit untersucht: alternative Translationsstartpunkte auf verschiedenen mRNAs, alternatives Splicing einzelner mRNAs sowie Retrotranslokation oder Mistranslokation von sCLU-Vorläuferproteinen. Um die Hypothesen eruieren zu können, musste zuerst eine Expressionsanalyse der bekannten CLU-mRNAs durchgeführt werden. Über 5’-RACE, semi-quantitative und quantitative PCRs wurde die Expression von vier CLU-mRNAs sowie deren Induktion auf Zellstress hin festgestellt. Variante 1 (BP211675) ist die dominante CLU-mRNA und macht über 99,5 % an CLU-mRNA in unbehandelten sowie in gestressten Zellen aus. Des Weiteren sind geringste Mengen der mRNA-Varianten 2 und 3 (NR_038335.1 und NR_045494.1) detektiert worden, deren Sequenzen sich lediglich in ihrem alternativen Exon 1 von Variante 1 unterscheiden. Schließlich konnte die Expression von Variante 1 [Δex2] festgestellt werden, welcher durch alternatives Splicing, i.e. Exon-skipping, das Exon 2 mit der ER-Signalsequenz-codierenden Region (SSCR) fehlt. HEK 293-Zellen, die transient mit je einer der rekombinanten CLU-mRNAs in Form rekombinanter cDNA transfiziert wurden, exprimierten neben großen Mengen sCLU auch geringe Mengen an den nicht-sezernierten CLU-Isoformen. Die anschließend durchgeführten in vitro Mutagenesen belegen, dass alle Isoformen ausgehend von distinkten Translationsstartpunkten aus synthetisiert werden. CLU1-449 (50 kDa) wird als prä-Proprotein von sCLU ausgehend von einem Startcodon auf Exon 2 unmittelbar vor der SSCR translatiert. Unter Zellstress-Bedingungen kann es zu einer Mistranslokation während der co-translationalen Translokation kommen, sodass Teile von CLU1-449 im Cytosol akkumulieren. CLU21-449 (50 kDa) wird ausgehend von einem CUG-Startcodon downstream der SSCR über interne Translationsinitiation gebildet. Analoges gilt für CLU34-449 (45 kDa), welches von einem AUG-Startcodon auf Exon 3 translatiert wird. CLU34-449 ist außerdem die einzige CLU-Form die von Variante 1 [Δex2] codiert wird. Somit konnten drei der in der Literatur postulierten Mechanismen zur Ent-stehung nicht-sezernierter CLU-Isoformen in gestressten Zellen verifiziert werden. Die Mistranslokation von sCLU-Vorläuferproteinen, welche entscheidend zum Auftreten der nicht-sezernierten CLU-Formen beiträgt, die Alternative Translationsinitiation an distinkten Startcodons sowie das alternative Splicing von CLU-mRNA-Variante 1. Weiterführende Experimente bestätigten, dass alle nicht-sezernierten CLU-Isoformen im Cytosol der Zellen lokalisiert sind und keine Glykosylierungen tragen. Somit konnte ein weiterer, in der Literatur kontrovers diskutierter Punkt bezüglich dieser Proteine geklärt werden. Abschließend wurde die physiologische Funktion der einzelnen CLU-Isoformen analysiert. Dabei zeigte sich, dass ausschließlich sCLU eine Chaperonaktivität zukommt, die es ermöglicht, durch Hitze denaturierte Zielproteine in Lösung zu halten. Diese Funktion konnte nicht für die cytosolischen Iso¬formen bestätigt werden. Weiterhin konnte keine Auswirkung einzelner CLU-Formen auf die intrinsische Apoptose oder auf den NF κB-vermittelten Signaltransduktionsweg festgestellt werden, obgleich entsprechende Einflüsse von anderen Arbeitsgruppen postuliert wurden. Die hier gemachten Beobachtungen werfen daher die Frage auf, ob den nicht-sezernierten, cytosolischen CLU-Isoformen überhaupt eine physiologische Funktion zukommt und stellen aktuelle Hypothesen bezüglich der Rolle von CLU bei pathophysiologischen Prozessen infrage.
Resumo:
Das Basisproblem von Arc-Routing Problemen mit mehreren Fahrzeugen ist das Capacitated Arc-Routing Problem (CARP). Praktische Anwendungen des CARP sind z.B. in den Bereichen Müllabfuhr und Briefzustellung zu finden. Das Ziel ist es, einen kostenminimalen Tourenplan zu berechnen, bei dem alle erforderlichen Kanten bedient werden und gleichzeitig die Fahrzeugkapazität eingehalten wird. In der vorliegenden Arbeit wird ein Cut-First Branch-and-Price Second Verfahren entwickelt. In der ersten Phase werden Schnittebenen generiert, die dem Master Problem in der zweiten Phase hinzugefügt werden. Das Subproblem ist ein kürzeste Wege Problem mit Ressourcen und wird gelöst um neue Spalten für das Master Problem zu liefern. Ganzzahlige CARP Lösungen werden durch ein neues hierarchisches Branching-Schema garantiert. Umfassende Rechenstudien zeigen die Effektivität dieses Algorithmus. Kombinierte Standort- und Arc-Routing Probleme ermöglichen eine realistischere Modellierung von Zustellvarianten bei der Briefzustellung. In dieser Arbeit werden jeweils zwei mathematische Modelle für Park and Loop und Park and Loop with Curbline vorgestellt. Die Modelle für das jeweilige Problem unterscheiden sich darin, wie zulässige Transfer Routen modelliert werden. Während der erste Modelltyp Subtour-Eliminationsbedingungen verwendet, werden bei dem zweiten Modelltyp Flussvariablen und Flusserhaltungsbedingungen eingesetzt. Die Rechenstudie zeigt, dass ein MIP-Solver den zweiten Modelltyp oft in kürzerer Rechenzeit lösen kann oder bei Erreichen des Zeitlimits bessere Zielfunktionswerte liefert.
Resumo:
Die vorliegende Dissertation dient dazu, das Verständnis des Exzitonentransports in organischen Halbleitern, wie sie in Leuchtdioden oder Solarzellen eingesetzt werden, zu vertiefen. Mithilfe von Computersimulationen wurde der Transport von Exzitonen in amorphen und kristallinen organischen Materialien beschrieben, angefangen auf mikroskopischer Ebene, auf der quantenmechanische Prozesse ablaufen, bis hin zur makroskopischen Ebene, auf welcher physikalisch bestimmbare Größen wie der Diffusionskoeffizient extrahierbar werden. Die Modellbildung basiert auf dem inkohärenten elektronischen Energietransfer. In diesem Rahmen wird der Transport des Exzitons als Hüpfprozess aufgefasst, welcher mit kinetischen Monte-Carlo Methoden simuliert wurde. Die notwendigen quantenmechanischen Übergangsraten zwischen den Molekülen wurden anhand der molekularen Struktur fester Phasen berechnet. Die Übergangsraten lassen sich in ein elektronisches Kopplungselement und die Franck-Condon-gewichtete Zustandsdichte aufteilen. Der Fokus dieser Arbeit lag einerseits darauf die Methoden zu evaluieren, die zur Berechnung der Übergangsraten in Frage kommen und andererseits den Hüpftransport zu simulieren und eine atomistische Interpretation der makroskopischen Transporteigenschaften der Exzitonen zu liefern. rnrnVon den drei untersuchten organischen Systemen, diente Aluminium-tris-(8-hydroxychinolin) der umfassenden Prüfung des Verfahrens. Es wurde gezeigt, dass stark vereinfachte Modelle wie die Marcus-Theorie die Übergangsraten und damit das Transportverhalten der Exzitonen oftmals qualitativ korrekt wiedergeben. Die meist deutlich größeren Diffusionskonstanten von Singulett- im Vergleich zu Triplett-Exzitonen haben ihren Ursprung in der längeren Reichweite der Kopplungselemente der Singulett-Exzitonen, wodurch ein stärker verzweigtes Netzwerk gebildet wird. Der Verlauf des zeitabhängigen Diffusionskoeffizienten zeigt subdiffusives Verhalten für kurze Beobachtungszeiten. Für Singulett-Exzitonen wechselt dieses Verhalten meist innerhalb der Lebensdauer des Exzitons in ein normales Diffusionsregime, während Triplett-Exzitonen das normale Regime deutlich langsamer erreichen. Das stärker anomale Verhalten der Triplett-Exzitonen wird auf eine ungleichmäßige Verteilung der Übergangsraten zurückgeführt. Beim Vergleich mit experimentell bestimmten Diffusionskonstanten muss das anomale Verhalten der Exzitonen berücksichtigt werden. Insgesamt stimmten simulierte und experimentelle Diffusionskonstanten für das Testsystem gut überein. Das Modellierungsverfahren sollte sich somit zur Charakterisierung des Exzitonentransports in neuen organischen Halbleitermaterialien eignen.
Resumo:
Diese Arbeit beschäftigt sich mit der Suche nach dem Higgs-Boson.rn Dazu wurden die Daten des D0-Experimentes am Fermi National rn Accelerator Laboratory analysiert. Diese stammen ausrn Proton-Antiproton-Kollisionen, welche vom Tevatron-Beschleuniger beirn einer Schwerpunktsenergie von sqrt(s)=1.96 TeV erzeugtrn wurden. Der Datensatz umfasst mit einer integrierten Luminosität vonrn 9.7 fb^-1 den vollen RunII, welcher von April 2002 bisrn September 2011 aufgezeichnet wurde. Die Suche wurde für dreirn unterschiedliche Modelle durchgeführt: Das Standardmodell, einrn fermiophobes Higgs-Modell und ein Modell mit einer viertenrn Fermiongeneration. Zusätzlich wurde der Wirkungsquerschnitt derrn nicht resonanten WW-Produktion gemessen.rnrn Dazu wurden Daten mit einem Elektron, einem Myon und fehlenderrn Transversalenergie im Endzustand untersucht. Dieser Endzustand wirdrn beim Zerfall eines Higgs-Bosons in zwei W-Bosonen mit anschließendemrn Zerfall in ein Elektron, ein Myon und zwei Neutrinos erwartet undrn weist die größte Sensitivität für die Suche am Tevatron auf.rnrn Weder für das Standardmodell noch für die erweiterten Modelle konntern ein Hinweis auf ein Higgs-Signal gefunden werden. Deshalb wurdenrn obere Grenzen auf den Produktionswirkungsquerschnitt für diern einzelnen Modelle bestimmt. Die oberen Grenzen für Higgs-Bosonen imrn Rahmen des Standardmodells reichen von 28*sigma_SM für einrn Higgs-Boson mit einer Masse von 100 GeV bis zu einemrn Ausschluss des Standardmodell-Higgs-Bosons im Bereich zwischen 160rn und 167 GeV mit 95% Vertrauensniveau. Damit ist der inrn dieser Arbeit beschriebene Kanal der einzige Kanal amrn D0-Experiment, welcher eine ausreichend hohe Sensitivität erreicht,rn um allein ein Higgs-Boson im hohen Massenbereich auszuschließen. Fürrn ein Higgs-Boson mit 125 GeV Masse sind die Ergebnisse sowohlrn mit der Signal+Untergrund- als auch mit der Untergrund-Hypothesern kompatibel. rn Im Rahmen des fermiophoben Higgs-Modells wurden oberen Grenzenrn zwischen 2*sigma_FHM und 4*sigma_FHM imrn Massenbereich zwischen 100 und 170 GeV bestimmt. Für diern betrachteten Modelle mit einer vierten Fermiongeneration konnte einrn Higgs-Boson in einem weiten Massenbereich zwischen 135 undrn 220 GeV mit 95% Vertrauensniveau ausgeschlossen werden.rnrn Die Messung des Wirkungsquerschnitts der nicht-resonantenrn WW-Produktion ist die genaueste Messung fürrn sqrt(s)=1.96 TeV. Der gemessene Wirkungsquerschnitt beträgtrn sigma_ppbar->WW^em=11.1 +- 0.6 (stat.) +- 0.6 (syst.) pbrn und bestätigt damit die theoretische NLO-Vorhersage im Rahmen ihrerrn Unsicherheiten.rn
Resumo:
Die Regulierung und Steuerung von Hochschulen unterliegt spätestens seit der Liberalisierung des Hochschulrahmengesetzes im Jahr 1998 einer erheblichen Reformdynamik. Hochschulautonomie, New Public Management, Profilbildung, Exzellenz und Wettbewerb sind zentrale Stichworte im Rahmen der durchgeführten politischen Reformen und Programme.rnDer politisch intendierte Ausbau einer organisationalen Selbststeuerung von Universitäten stellt die Hochschulen vor beachtliche Herausforderungen und kann als Paradigmenwechsel im Bereich der Hochschul-Governance betrachtet werden. In der Fachdiskussion wird der entsprechende Wandel auch als Stärkung der „managerial governance“ (bspw. de Boer et al. 2007) oder als Wandel von Universitäten hin zu „more complete organizations“ (Brunsson/ Sahlin-Andersson 2000) bzw. „organisational actors“ (Krücken/Meier 2006) beschrieben. rnGleichzeitig liegt bislang eher fragmentarisches Wissen darüber vor, wie der veränderte Re-gulierungskontext von den Steuerungsakteuren in deutschen Hochschulen aufgegriffen wird, d.h. ob auf Organisationsebene tatsächlich ein Ausbau der organisationalen Selbststeuerung stattfindet, welche Steuerungsinitiativen und -instrumente sich bewähren und warum dies der Fall ist. Die vorliegende Arbeit geht diesen Fragen im Rahmen einer vergleichenden Fallstudie an sechs Universitäten nach. rnIm Zentrum der empirischen Erhebung stehen 60 qualitative sozialwissenschaftliche Interviews mit Leitungsakteuren auf Hochschul- und Fachbereichsebene. Diese Daten werden ergänzt durch umfangreiche Dokumentenanalysen, insbesondere von Jahresberichten, Grundordnungen, Strategie- und Planungsdokumenten sowie durch Daten der amtlichen Hochschul-statistik. Das Untersuchungsdesign erlaubt überdies eine Gegenüberstellung von großen und kleinen Universitäten sowie von Hochschulen mit einer technisch-naturwissenschaftlichen Ausrichtung gegenüber solchen mit einem kultur- und sozialwissenschaftlichen Schwerpunkt. Die Untersuchung zeigt, dass an fünf der sechs untersuchten Hochschulen ein zum Teil deutlicher Ausbau der organisationalen Selbststeuerung festzustellen ist, wenngleich der spezifische organisationale Charakter von Universitäten, d.h. eine weitgehend lose Kopplung mit autonomen Professionals, im Wesentlichen erhalten bleibt. Die Zusammenschau der Veränderungen ergibt ein idealtypisches Modell des Wandels von Strategie, Struktur und Kultur der Hochschulen. Auf Basis der empirischen Ergebnisse werden weiterhin zentrale externe und interne Einflussfaktoren auf den spezifischen organisationalen Wandel analysiert. Schließlich werden Kosten und Nutzen sowie Risiken und Chancen der Governance-Reformen im Hoch-schulbereich gegenübergestellt.
Resumo:
Oceans are key sources and sinks in the global budgets of significant atmospheric trace gases, termed Volatile Organic Compounds (VOCs). Despite their low concentrations, these species have an important role in the atmosphere, influencing ozone photochemistry and aerosol physics. Surprisingly, little work has been done on assessing their emissions or transport mechanisms and rates between ocean and atmosphere, all of which are important when modelling the atmosphere accurately.rnA new Needle Trap Device (NTD) - GC-MS method was developed for the effective sampling and analysis of VOCs in seawater. Good repeatability (RSDs <16 %), linearity (R2 = 0.96 - 0.99) and limits of detection in the range of pM were obtained for DMS, isoprene, benzene, toluene, p-xylene, (+)-α-pinene and (-)-α-pinene. Laboratory evaluation and subsequent field application indicated that the proposed method can be used successfully in place of the more usually applied extraction techniques (P&T, SPME) to extend the suite of species typically measured in the ocean and improve detection limits. rnDuring a mesocosm CO2 enrichment study, DMS, isoprene and α-pinene were identified and quantified in seawater samples, using the above mentioned method. Based on correlations with available biological datasets, the effects of ocean acidification as well as possible ocean biological sources were investigated for all examined compounds. Future ocean's acidity was shown to decrease oceanic DMS production, possibly impact isoprene emissions but not affect the production of α-pinene. rnIn a separate activity, ocean - atmosphere interactions were simulated in a large scale wind-wave canal facility, in order to investigate the gas exchange process and its controlling mechanisms. Air-water exchange rates of 14 chemical species (of which 11 VOCs) spanning a wide range of solubility (dimensionless solubility, α = 0:4 to 5470) and diffusivity (Schmidt number in water, Scw = 594 to 1194) were obtained under various turbulent (wind speed at ten meters height, u10 = 0:8 to 15ms-1) and surfactant modulated (two different sized Triton X-100 layers) surface conditions. Reliable and reproducible total gas transfer velocities were obtained and the derived values and trends were comparable to previous investigations. Through this study, a much better and more comprehensive understanding of the gas exchange process was accomplished. The role of friction velocity, uw* and mean square slope, σs2 in defining phenomena such as waves and wave breaking, near surface turbulence, bubbles and surface films was recognized as very significant. uw* was determined as the ideal turbulent parameter while σs2 described best the related surface conditions. A combination of both uw* and σs2 variables, was found to reproduce faithfully the air-water gas exchange process. rnA Total Transfer Velocity (TTV) model provided by a compilation of 14 tracers and a combination of both uw* and σs2 parameters, is proposed for the first time. Through the proposed TTV parameterization, a new physical perspective is presented which provides an accurate TTV for any tracer within the examined solubility range. rnThe development of such a comprehensive air-sea gas exchange parameterization represents a highly useful tool for regional and global models, providing accurate total transfer velocity estimations for any tracer and any sea-surface status, simplifying the calculation process and eliminating inevitable calculation uncertainty connected with the selection or combination of different parameterizations.rnrn
Resumo:
Der Ginkgo biloba-Extrakt EGb 761 besteht aus einer Reihe pharmakologisch wirksamer Substanzen, welche gut beschriebene Wirkungen auf verschiedene potentiell zytoprotektive Signalwege ausüben und u.a. antioxidative Wirksamkeit haben. Folglich wurde EGb 761 bisher als eine natürliche Behandlung bei neurodegenerativen Erkrankungen mit zellulärem oxidativen Stress angewendet, einschließlich der Alzheimer-Krankheit (AD). Aufgrund von vielen gemeinsamen Merkmalen zwischen der AD und der Huntington-Krankheit (HD) wurde vermutet, dass EGb 761 eventuell auch positive Wirksamkeit bei der HD aufweisen könnte. rnDie Neuropathologie der HD wird durch pathologische Verlängerung an Glutamin-Wiederholungen im Huntingtin-Protein (polyQ-Protein) verursacht, wodurch es zu Fehlfaltungen im Protein kommt und hierdurch der proteasomale Abbau aberranter Proteine erschwert wird. Somit sollten in der vorliegenden Arbeit die EGb 761-Wirkungen auf die Proteasom-Aktivität und die Proteinaggregation in zellulären Modellen der HD untersucht werden. rnWie die ersten Untersuchungen in nativen HEK293-Zellen ergaben, bewirkte die Behandlung der Zellen mit EGb 761 eine Steigerung der basalen Proteasom-Aktivität sowie des proteasomalen Proteinabbaus und erhöhte die Transkription proteasomaler Gene. Hieraus ergaben sich Untersuchungen in Zellen mit Expressionen pathologischer Varianten von polyQ-Proteinen als zelluläre Modelle der HD. Hierbei konnte festgestellt werden, dass die Expression aberranter polyQ-Proteine eine verminderte zelluläre Proteasom-Aktivität bewirkte. Interessanterweise verursachte EGb 761 eine Abmilderung der pathologisch-induzierten verminderten Proteasom-Aktivität, in dem die EGb 761-Behandlung der Zellen zu einer erhöhten Proteasom-Aktivität, einem verbesserten proteasomalen Proteinabbau, sowie zu einer erhöhten Transkription proteasomaler Gene führte. Da diese EGb 761-Effekte unabhängig von der Expression aberranter polyQ-Proteine waren, demonstrierten diese Ergebnisse eine allgemeine EGb 761-Wirkungen auf die Proteasom-Aktivität. Anhand dieser Ergebnisse sollten anschließend weitere Untersuchungen mit zellulären Modellen der HD die genau Wirkung von EGb 761 auf die Degradation von abnormal verlängerten polyQ-Proteinen sowie auf die Bildung von polyQ-Aggregaten klären. rnHier konnte gezeigt werden, dass die Expression aberranter polyQ-Proteinen zu einer Akkumulation von SDS-resistenten bzw. SDS-unlöslichen, aggregierten polyQ-Proteinen führte, sowie die Bildung von sichtbaren polyQ-Aggregaten in Zellen bewirkte. Hierbei verursachte eine EGb 761-Behandlung der Zellen eine signifikante Verminderung im Gehalt an SDS-resistenten polyQ-Proteinen sowie eine Reduzierung von Aggregat-tragenden Zellen. Zudem konnte gezeigt werden, dass eine pharmakologische Inhibition des Proteasoms in EGb 761-behandelten Zellen, den Gehalt an SDS-unlöslichen polyQ-Proteinaggregate wieder erhöhte und somit den Effekt von EGb 761 aufhob. Folglich zeigten diese Ergebnisse, dass die EGb 761-induzierte Reduzierung der polyQ-Proteinaggregate durch einen effizienteren proteasomalen Abbau von fehlgefalteten, aberranten polyQ-Proteinen bewirkte wurde. rnAufbauend auf diesen Ergebnissen wurde eine experimentell-therapeutische Anwendung von EGb 761 in Modellen der HD in vitro und in vivo überprüft und hierzu primäre humane Fibroblasten sowie transgene C. elegans Würmer mit Expressionen aberranter polyQ-Proteine untersucht. Interessanterweise konnte in vitro und in vivo gezeigt werden, dass die EGb 761-Behandlung auch hier eine Reduzierung von SDS-unlöslichen polyQ-Proteinen bewirkte und zudem eine Reduzierung des pathologisch erhöhten Gehalts an Polyubiquitin-Proteinen bewirkte. Folglich wurde auch hier vermutet, dass EGb 761 einen verbesserten proteasomalen Abbau von polyQ-Proteinen induzierte und dies eine Verminderung der polyQ-Proteinaggregate verursachte. Darüber hinaus führte die EGb 761-Behandlung von seneszenten Fibroblasten zur Reduzierung von altersabhängig erhöhten Mengen von polyQ-Aggregaten, wodurch ein therapeutischer Effekt auf den proteasomalen Abbau der polyQ-Proteine verdeutlicht wurde. Zusätzlich konnte in polyQ-transgenen C. elegans demonstriert werden, dass eine EGb 761-Behandlung die Abmilderung eines typischen pathologischen Phänotyps bewirkte, indem eine polyQ-induzierte verminderte Motilität der Nematoden verbessert wurde und hierdurch eine positive EGb 761-Wirkung auf die Pathologie der HD in vivo dargestellt wurde. rnZusammenfassend konnten in dieser Arbeit neue Wirkungen von EGb 761 in der HD demonstriert werden. Hierbei wurde gezeigt, dass EGb 761 die Aggregation von pathogenen aberranten polyQ-Proteinen in vitro und in vivo reduziert, indem eine effizientere Degradation von polyQ-Proteinen erfolgt. Somit könnte diese Wirkungen von EGb 761 eine potentiell therapeutische Anwendung in der HD und ähnliche neurodegenerativen Erkrankungen darstellen.
Resumo:
In der Erdöl– und Gasindustrie sind bildgebende Verfahren und Simulationen auf der Porenskala im Begriff Routineanwendungen zu werden. Ihr weiteres Potential lässt sich im Umweltbereich anwenden, wie z.B. für den Transport und Verbleib von Schadstoffen im Untergrund, die Speicherung von Kohlendioxid und dem natürlichen Abbau von Schadstoffen in Böden. Mit der Röntgen-Computertomografie (XCT) steht ein zerstörungsfreies 3D bildgebendes Verfahren zur Verfügung, das auch häufig für die Untersuchung der internen Struktur geologischer Proben herangezogen wird. Das erste Ziel dieser Dissertation war die Implementierung einer Bildverarbeitungstechnik, die die Strahlenaufhärtung der Röntgen-Computertomografie beseitigt und den Segmentierungsprozess dessen Daten vereinfacht. Das zweite Ziel dieser Arbeit untersuchte die kombinierten Effekte von Porenraumcharakteristika, Porentortuosität, sowie die Strömungssimulation und Transportmodellierung in Porenräumen mit der Gitter-Boltzmann-Methode. In einer zylindrischen geologischen Probe war die Position jeder Phase auf Grundlage der Beobachtung durch das Vorhandensein der Strahlenaufhärtung in den rekonstruierten Bildern, das eine radiale Funktion vom Probenrand zum Zentrum darstellt, extrahierbar und die unterschiedlichen Phasen ließen sich automatisch segmentieren. Weiterhin wurden Strahlungsaufhärtungeffekte von beliebig geformten Objekten durch einen Oberflächenanpassungsalgorithmus korrigiert. Die Methode der „least square support vector machine” (LSSVM) ist durch einen modularen Aufbau charakterisiert und ist sehr gut für die Erkennung und Klassifizierung von Mustern geeignet. Aus diesem Grund wurde die Methode der LSSVM als pixelbasierte Klassifikationsmethode implementiert. Dieser Algorithmus ist in der Lage komplexe geologische Proben korrekt zu klassifizieren, benötigt für den Fall aber längere Rechenzeiten, so dass mehrdimensionale Trainingsdatensätze verwendet werden müssen. Die Dynamik von den unmischbaren Phasen Luft und Wasser wird durch eine Kombination von Porenmorphologie und Gitter Boltzmann Methode für Drainage und Imbibition Prozessen in 3D Datensätzen von Böden, die durch synchrotron-basierte XCT gewonnen wurden, untersucht. Obwohl die Porenmorphologie eine einfache Methode ist Kugeln in den verfügbaren Porenraum einzupassen, kann sie dennoch die komplexe kapillare Hysterese als eine Funktion der Wassersättigung erklären. Eine Hysterese ist für den Kapillardruck und die hydraulische Leitfähigkeit beobachtet worden, welche durch die hauptsächlich verbundenen Porennetzwerke und der verfügbaren Porenraumgrößenverteilung verursacht sind. Die hydraulische Konduktivität ist eine Funktion des Wassersättigungslevels und wird mit einer makroskopischen Berechnung empirischer Modelle verglichen. Die Daten stimmen vor allem für hohe Wassersättigungen gut überein. Um die Gegenwart von Krankheitserregern im Grundwasser und Abwässern vorhersagen zu können, wurde in einem Bodenaggregat der Einfluss von Korngröße, Porengeometrie und Fluidflussgeschwindigkeit z.B. mit dem Mikroorganismus Escherichia coli studiert. Die asymmetrischen und langschweifigen Durchbruchskurven, besonders bei höheren Wassersättigungen, wurden durch dispersiven Transport aufgrund des verbundenen Porennetzwerks und durch die Heterogenität des Strömungsfeldes verursacht. Es wurde beobachtet, dass die biokolloidale Verweilzeit eine Funktion des Druckgradienten als auch der Kolloidgröße ist. Unsere Modellierungsergebnisse stimmen sehr gut mit den bereits veröffentlichten Daten überein.
Resumo:
In der vorliegenden Arbeit wird analysiert, ob die neue italienische Partei MoVimento 5 Stelle (M5S) eine rechtspopulistische Partei ist. Darüber hinaus wird mithilfe eines Vergleichs mit Berlusconis Partei Popolo della libertà (PDL) erörtert, ob das M5S den italienischen Rechtspopulismus fortführt. Das M5S wurde im Jahre 2009 von dem italienischen Komiker Beppe Grillo gegründet und zog nach seiner ersten Teilnahme an nationalen Wahlen im Jahre 2013 als zweitstärkste Partei in das italienische Parlament ein. Mit seiner Anti-Establishment-Programmatik und der Ablehnung der etablierten Parteien ähnelt das M5S nicht nur Berlusconis Partei PDL, sondern auch den rechtspopulistischen Parteien, die seit den 1980er Jahren in Westeuropa beständig an Relevanz gewonnen haben. Diese Parteien polemisieren gegen Politiker und Parteien, stellen die Legitimität von Minderheitenrechten und die Prinzipien der repräsentativen Demokratie in Frage. Organisatorisch gruppieren sie sich um einen charismatischen Anführer, dessen Anspruch es ist, die ‚Stimme des Volkes‘ zu repräsentieren. Diese und andere zentrale Charakteristika sind Gegenstand des theoretischen Teils dieser Arbeit. Die Analysedimension sind ‚Programmatik‘ und ‚Organisation‘. Die letztgenannte Kategorie wird in ‚interne Organisationsstruktur‘ und ‚Kommunikation‘ unterteilt. Die Basis der Analyse bilden Parteidokumente (Wahl- und Parteiprogramme, Parteistatuten, Blogeinträge), Experteneinschätzungen und die Forschungsliteratur. Die Untersuchung kommt zu dem Ergebnis, dass es sich beim M5S nicht um eine rechtspopulistische, sondern um eine populistische Partei mit linken Elementen handelt. Den italienischen Rechtspopulismus, wie ihn Berlusconis Partei pflegt, führt sie folglich nicht fort. Sie zeigt in der Organisation starke Parallelen, da beide Parteien von ihren Anführern dominiert werden. Aber das M5S hat eine stark web-basierte Organisationsform und vertritt Umweltthemen, was keine typischen Merkmale rechtspopulistischer Parteien sind. Darüber hinaus vertritt es keine nationalistischen Position, was hingegen konstitutiv für Rechtspopulismus ist.