15 resultados para Expectation
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Spin-Restricted Coupled-Cluster-Theorie fuer offenschaligeZustaende Die Berechnung von Energien und Eigenschaften offenschaligerAtome undMolekuele mit Hilfe der hochgenauenCoupled-Cluster-(CC)-Theoriewar bisher mit einem - im Vergleich zur BerechnunggeschlossenschaligerZustaende - erhoehten Rechenaufwand und der sogenannten'Spinkontamination' behaftet. Um diesen Problemenentgegenzuwirken,stellten P.G.Szalay und J.Gauss die 'Spin-RestrictedCoupled-Cluster-Theorie' vor. Im Rahmen dieser Arbeit wird die urspruenglich aufDublett-Zustaendebeschraenkte Theorie so verallgemeinert, dass jederbeliebige Spinzustandmit einem einheitlichen Satz von Gleichungen beschriebenwerden kann. Dadie Moller-Plesset-(MP)-Stoerungstheorie bei der BerechnungoffenschaligerZustaende mit aehnlichen Problemen behaftet ist, wirddarueberhinaus dieSpin-Restricted-(SR)-MP-Stoerungstheorie zweiter und dritterOrdnungeingefuehrt. Um Molekueleigenschaften berechnen zu koennen,werdenanalytische Ableitungen der Energie sowohl fuer den SR-CC-als auch denSR-MP-Ansatz hergeleitet. Bei den folgenden Testrechnungenstellt sichheraus, dass sowohl SR-CC- als auch SR-MP-Ansaetze diegleiche Genauigkeitbieten wie konventionelle CC- und MP-Ansaetze. Dabei sinddieSpinerwartungswerte der SR-CC-Wellenfunktionen identisch mitdem exaktenWert. Im Rahmen der Testrechnungen stellt sich heraus, dassder SR-CC-Ansatz nicht 'size-konsistent', der numerische Fehler abervernachlaessigbar klein ist. Abschliessend werden dieHintergruende derfehlenden 'Size-Konsistenz' diskutiert.
Resumo:
Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.
Resumo:
Sei $\pi:X\rightarrow S$ eine \"uber $\Z$ definierte Familie von Calabi-Yau Varietaten der Dimension drei. Es existiere ein unter dem Gauss-Manin Zusammenhang invarianter Untermodul $M\subset H^3_{DR}(X/S)$ von Rang vier, sodass der Picard-Fuchs Operator $P$ auf $M$ ein sogenannter {\em Calabi-Yau } Operator von Ordnung vier ist. Sei $k$ ein endlicher K\"orper der Charaktetristik $p$, und sei $\pi_0:X_0\rightarrow S_0$ die Reduktion von $\pi$ \uber $k$. F\ur die gew\ohnlichen (ordinary) Fasern $X_{t_0}$ der Familie leiten wir eine explizite Formel zur Berechnung des charakteristischen Polynoms des Frobeniusendomorphismus, des {\em Frobeniuspolynoms}, auf dem korrespondierenden Untermodul $M_{cris}\subset H^3_{cris}(X_{t_0})$ her. Sei nun $f_0(z)$ die Potenzreihenl\osung der Differentialgleichung $Pf=0$ in einer Umgebung der Null. Da eine reziproke Nullstelle des Frobeniuspolynoms in einem Teichm\uller-Punkt $t$ durch $f_0(z)/f_0(z^p)|_{z=t}$ gegeben ist, ist ein entscheidender Schritt in der Berechnung des Frobeniuspolynoms die Konstruktion einer $p-$adischen analytischen Fortsetzung des Quotienten $f_0(z)/f_0(z^p)$ auf den Rand des $p-$adischen Einheitskreises. Kann man die Koeffizienten von $f_0$ mithilfe der konstanten Terme in den Potenzen eines Laurent-Polynoms, dessen Newton-Polyeder den Ursprung als einzigen inneren Gitterpunkt enth\alt, ausdr\ucken,so beweisen wir gewisse Kongruenz-Eigenschaften unter den Koeffizienten von $f_0$. Diese sind entscheidend bei der Konstruktion der analytischen Fortsetzung. Enth\alt die Faser $X_{t_0}$ einen gew\ohnlichen Doppelpunkt, so erwarten wir im Grenz\ubergang, dass das Frobeniuspolynom in zwei Faktoren von Grad eins und einen Faktor von Grad zwei zerf\allt. Der Faktor von Grad zwei ist dabei durch einen Koeffizienten $a_p$ eindeutig bestimmt. Durchl\auft nun $p$ die Menge aller Primzahlen, so erwarten wir aufgrund des Modularit\atssatzes, dass es eine Modulform von Gewicht vier gibt, deren Koeffizienten durch die Koeffizienten $a_p$ gegeben sind. Diese Erwartung hat sich durch unsere umfangreichen Rechnungen best\atigt. Dar\uberhinaus leiten wir weitere Formeln zur Bestimmung des Frobeniuspolynoms her, in welchen auch die nicht-holomorphen L\osungen der Gleichung $Pf=0$ in einer Umgebung der Null eine Rolle spielen.
Resumo:
Wir analysieren die Rolle von "Hintergrundunabhängigkeit" im Zugang der effektiven Mittelwertwirkung zur Quantengravitation. Wenn der nicht-störungstheoretische Renormierungsgruppen-(RG)-Fluß "hintergrundunabhängig" ist, muß die Vergröberung durch eine nicht spezifizierte, variable Metrik definiert werden. Die Forderung nach "Hintergrundunabhängigkeit" in der Quantengravitation führt dazu, daß die funktionale RG-Gleichung von zusätzlichen Feldern abhängt; dadurch unterscheidet sich der RG-Fluß in der Quantengravitation deutlich von dem RG-Fluß einer gewöhnlichen Quantentheorie, deren Moden-Cutoff von einer starren Metrik abhängt. Beispielsweise kann in der "hintergrundunabhängigen" Theorie ein Nicht-Gauß'scher Fixpunkt existieren, obwohl die entsprechende gewöhnliche Quantentheorie keinen solchen entwickelt. Wir untersuchen die Bedeutung dieses universellen, rein kinematischen Effektes, indem wir den RG-Fluß der Quanten-Einstein-Gravitation (QEG) in einem "konform-reduzierten" Zusammenhang untersuchen, in dem wir nur den konformen Faktor der Metrik quantisieren. Alle anderen Freiheitsgrade der Metrik werden vernachlässigt. Die konforme Reduktion der Einstein-Hilbert-Trunkierung zeigt exakt dieselben qualitativen Eigenschaften wie in der vollen Einstein-Hilbert-Trunkierung. Insbesondere besitzt sie einen Nicht-Gauß'schen Fixpunkt, der notwendig ist, damit die Gravitation asymptotisch sicher ist. Ohne diese zusätzlichen Feldabhängigkeiten ist der RG-Fluß dieser Trunkierung der einer gewöhnlichen $phi^4$-Theorie. Die lokale Potentialnäherung für den konformen Faktor verallgemeinert den RG-Fluß in der Quantengravitation auf einen unendlich-dimensionalen Theorienraum. Auch hier finden wir sowohl einen Gauß'schen als auch einen Nicht-Gauß'schen Fixpunkt, was weitere Hinweise dafür liefert, daß die Quantengravitation asymptotisch sicher ist. Das Analogon der Metrik-Invarianten, die proportional zur dritten Potenz der Krümmung ist und die die störungstheoretische Renormierbarkeit zerstört, ist unproblematisch für die asymptotische Sicherheit der konform-reduzierten Theorie. Wir berechnen die Skalenfelder und -imensionen der beiden Fixpunkte explizit und diskutieren mögliche Einflüsse auf die Vorhersagekraft der Theorie. Da der RG-Fluß von der Topologie der zugrundeliegenden Raumzeit abhängt, diskutieren wir sowohl den flachen Raum als auch die Sphäre. Wir lösen die Flußgleichung für das Potential numerisch und erhalten Beispiele für RG-Trajektorien, die innerhalb der Ultraviolett-kritischen Mannigfaltigkeit des Nicht-Gauß'schen Fixpunktes liegen. Die Quantentheorien, die durch einige solcher Trajektorien definiert sind, zeigen einen Phasenübergang von der bekannten (Niederenergie-) Phase der Gravitation mit spontan gebrochener Diffeomorphismus-Invarianz zu einer neuen Phase von ungebrochener Diffeomorphismus-Invarianz. Diese Hochenergie-Phase ist durch einen verschwindenden Metrik-Erwartungswert charakterisiert.
Resumo:
Krebs ist eine der häufigsten Krankheiten und stellt eine der wichtigsten medizinischen Herausforderungen des 21. Jahrhunderts dar. Eine frühzeitige Diagnose ist dabei essentiell für eine individuell angepasste Therapie zur Verbesserung der Lebensqualität und -erwartung der Patienten. Hierbei kommen der 68Ge/68Ga-Generator und das daraus resultierende PET-Nuklid 68Ga immer stärker in den Fokus von Wissenschaft und Medizin. rnrnFür eine erfolgreiche Therapie stellt die Chemoresistenz (Multi-Drug-Resistance) zahlreicher Tumore eine schwerwiegende Komplikation dar. Für das Therapieversagen ist die Aktivierung des Transportproteins p-Glykoprotein (pGP) maßgeblich mit verantwortlich. Mit Hilfe der Schiff’schen Base [68Ga]MFL6.MZ konnte die Aktivitätsänderung von pGP unter verschiedener Beeinflussung erstmals in vivo beobachtet werden. So zeigte sich, dass sich unter azidotischen Bedingungen in Tumoren die Aktivität des pGP erhöht und somit vermehrt auch Zytostatika, die pGP-Substrate sind, aus den Tumoren transportiert werden. Durch Aufklärung der Abhängigkeit der pGP-Aktivität von dessen Signalkaskade konnte gezeigt werden, dass durch eine Blockade der MAP-Kinase p38 eine Erniedrigung der pGP-Aktivität zu verzeichnen ist. Die ebenfalls in der Signalkaskade eingebundene MAP-Kinase ERK1/2 hingegen spielt hier nur eine untergeordnete Rolle.rnrnNeben dem Versagen der Chemotherapie stellt auch die Metastasierung eines Malignoms massive Einschnitte in die Lebensqualität von Erkrankten dar. Befallen die Metastasen das Skelett eines Menschen, wird dies zumeist erst spät registriert. 68Ga-markierte Bisphosphonate bieten nun die Möglichkeit, Patienten quantitativ auf Knochenmetastasen hin untersuchen zu können. So konnten zu Beginn einfache Phosphonate wie EDTMP und DOTP nicht die nötige in vivo Stabilität bzw. hohe radiochemische Ausbeuten liefern und sind damit für die Anwendung am Menschen uninteressant. Jedoch die DOTA-basierten Bisphosphonate allen voran der Ligand BPAMD zeigen ein großes Potential. In vivo-Versuche an Ratten mit Knochenmetastasen zeigten, dass sich [68Ga]BPAMD an den Metastasen anreichert und einen sehr guten Kontrast zum gesunden Knochen darstellt. Der Tracer konnte erstmals am Menschen angewendet werden und zeigte in ausgewählten Regionen eine höhere Anreicherung als eine zuvor durchgeführte PET-Aufnahme mit [18F]Fluorid. Der Ligand BPAMD bietet außerdem den Vorteil, neben 68Ga auch andere dreiwertige Radionuklide wie das therapeutische 177Lu komplexieren zu können. Durch Studien zur Komplexbildung und Stabilität konnte auch [177Lu]BPAMD in der klinischen Anwendung erprobt werden und zeigte eine Anreicherung an den Knochenmetastasen. So ist es nun möglich, Knochenmetastasen mittels 68Ga-PET zu diagnostizieren, eine entsprechende Dosisberechnung anzustellen und anschließend mit dem gleichen Liganden eine Therapie mit [177Lu]BPAMD durchzuführen.
Resumo:
Die kollineare Laserspektroskopie hat sich in den vergangenen drei Jahrzehnten zur Bestimmung der Kernladungsradien mittelschwerer und schwerer kurzlebiger Atomkerne in ausgezeichneter Weise bewährt. Auf die Isotope sehr leichter Elemente konnte sie allerdings erst kürzlich erweitert werden. Dieser Bereich der Nuklidkarte ist von besonderem Interesse, denn die ersten ab-initio Modelle der Kernphysik, die den Aufbau eines Atomkerns basierend auf individuellen Nukleonen und realistischenWechselwirkungspotentialen beschreiben, sind gegenwärtig nur für die leichtesten Elemente anwendbar. Außerdem existiertrnin dieser Region eine besonders exotische Form von Atomkernen, die sogenanntenrnHalokerne. Die Isotopenkette der Berylliumisotope zeichnet sich durch das Auftreten des Ein-Neutronen Halokerns 11Be und des Zwei- oder Vier-Neutronen-Halos 14Be aus. Dem Isotop 12Be kommt durch seine Position zwischen diesen beiden Exoten und den im Schalenmodell erwarteten magischen Schalenabschluss N = 8 eine besondere Bedeutung zu.rnIm Rahmen dieser Arbeit wurden mehrere frequenzstabilisierte Lasersysteme für die kollineare Laserspektroskopie aufgebaut. An TRIGA-SPEC stehen nun unter anderem ein frequenzverdoppeltes Diodenlasersystem mit Trapezverstärker und frequenzkammstabilisierter Titan-Saphirlaser mit Frequenzverdopplungsstufe für die Spektroskopie an refraktären Elementen oberhalb von Molybdän zur Verfügung, die für erste Testexperimente eingesetzt wurden. Außerdem wurde die effiziente Frequenzvervierfachung eines Titan-Saphirlasers demonstriert. An ISOLDE/CERN wurde ein frequenzkammstabilisierter und ein jodstabilisierter Farbstofflaser installiert und für die Laserspektroskopie an 9,10,11,12Be eingesetzt. Durch das verbesserte Lasersystem und den Einsatz eines verzögerten Koinzidenznachweises für Photonen und Ionen gelang es die Empfindlichkeitrnder Berylliumspektroskopie um mehr als zwei Größenordnungen zu steigern und damit die früheren Messungen an 7−11Be erstmals auf das Isotop 12Be auszuweiten. Außerdem wurde die Genauigkeit der absoluten Übergangsfrequenzen und der Isotopieverschiebungen der Isotope 9,10,11Be signifikant verbessert.rnDurch den Vergleich mit Ergebnissen des Fermionic Molecular Dynamics Modells kann der Trend der Ladungsradien der leichteren Isotope durch die ausgeprägte Clusterstruktur der Berylliumkerne erklärt werden. Für 12Be wird ersichtlich, dass der Grundzustand durch eine (sd)2 Konfiguration statt der vom Schalenmodell erwarteten p2 Konfiguration dominiert wird. Dies ist ein klares Indiz für das bereits zuvor beobachtete Verschwinden des N = 8 Schalenabschlusses bei 12Be.
Resumo:
Seit Jahren werden Diskussionen über Erfolgskontrolle in der kommunalen Wirtschaftsförderung geführt. Im Vordergrund steht dabei die Suche nach Indikatoren und Verfahren, die es den kommunalen Wirtschaftsförderungen ermöglichen sollen, Erfolge zu messen. rnDa die Wirtschaftsförderung zu den freiwilligen Leistungen einer Gemeinde zählt, erhöht sich der Druck der Rechtfertigung gegenüber der Öffentlichkeit oder der Politik, das gilt insbesondere in Zeiten knapper öffentlicher Haushalte. Firmenansiedlungen, eine positive wirtschaftliche Entwicklung oder eine geringe Arbeitslosenquote sind sowohl im öffentlichen Bewusstsein als auch in der Politik wesentliche Kriterien einer erfolgreichen Wirtschaftsförderung. Sich ständig ändernde Rahmenbedingungen im wirtschaftsstrukturellen Gefüge haben dazu geführt, dass diese klassischen Nachweise von Erfolg immer seltener als solche präsentiert werden können. Erfolge sollten dennoch gemessen werden, um Maßnahmen und Instrumente einer kommunalen Wirtschaftsförderung zu überprüfen und gegebenenfalls an die geänderten Bedingungen anzupassen. rnEs ist schon mehr als 30 Jahre her, als in den 1970er Jahren die Suche nach Methoden und Verfahren der Erfolgskontrolle in der öffentlichen Verwaltung begann. Erfolge von kommunaler Wirtschaftsförderung können nicht einfach und ausschließlich an den markantesten wirtschaftlichen Ziffern der Kommune gemessen werden, z. B. der Zahl der sozialversicherungspflichtigen Arbeitsplätze. Seit Jahren wird um einen Lösungsweg bei der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung gerungen, abschließend wurde jedoch noch kein vollends befriedigend praktikabler Weg gefunden. Zu hinterfragen ist vor dem Hintergrund, inwiefern die vier Elemente einer Erfolgskontrolle, nämlich die Zielerreichungs-, Vollzugs-, Bedingungs- und Wirkungskontrolle, tatsächlich und hinreichend zum Einsatz kommen können.rnDie vorliegenden empirischen Untersuchungen beleuchten nun das Thema aus Sicht der kommunalen Wirtschaftsförderer und liefern Ergebnisse, die zu einem veränderten Bewusstsein gegenüber der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung führen müssten. Unabhängig von der Organisationsform und der Größe einer kommunalen Wirtschaftsförderung lässt sich empirisch nachweisen, dass der Anspruch, den der Begriff der Erfolgskontrolle in seiner gängigen Beschreibung erhebt, nicht hinreichend von einer kommunalen Wirtschaftsförderung erfüllt werden kann. rnMit Hilfe des neu entwickelten Prozesses einer modifizierten Erfolgskontrolle wird in vorliegender Arbeit ein idealtypischer Ablauf für eine kommunale Wirtschaftsförderung dargestellt. Der neue Ansatz einer modifizierten Erfolgskontrolle ist eine konsequente Reduzierung der Anforderungen auf das Praktikable und führt dazu, dass Erfolge der kommunalen Wirtschaftsförderung dargestellt werden können, ohne dass das Verfahren mehr Fragen offen lässt, als es beantwortet. Durch die modifizierte Erfolgskontrolle können die spezifischen Erfolge einer kommunalen Wirtschaftsförderung dargestellt und dokumentiert werden. rnEine modifizierte Erfolgskontrolle kann zweierlei: Sie ist eine Hilfestellung für die politisch Verantwortlichen bei der Erkenntnis, dass eine Notwendigkeit nach konkreten und der Ist-Situation sowie den Randbedingungen angepassten Zielformulierungen besteht. Sie bietet aber auch eine Möglichkeit, dass die kommunalen Wirtschaftsförderungseinrichtungen dem in der öffentlichen Diskussion formulierten Anspruch nach Erfolgskontrolle mit einem hohen Grad an Praktikabilität gerecht werden können. rnBevor also viele kommunale Wirtschaftsförderungen durch die fragwürdige Forderung an eine Erfolgskontrolle aufgrund der zu hohen Anforderungen an Methodik, Zeit und Personal aufgeben, sollte ihnen die Konzentration auf das Praktikable wieder Anreiz sein, eine modifizierte Erfolgskontrolle nach dem neuen Prozessschema in Angriff zu nehmen. rnrn
Resumo:
Die Förderung der Zelladhäsion durch sogenannte biomimetische Oberflächen wird in der Medizin als vielversprechender Ansatz gesehen, um Komplikationen wie z. B. Fremdkörperreaktionen nach der Implantation entgegenzuwirken. Neben der Immobilisierung einzelner Biomoleküle wie z. B. dem RGD-Peptid, Proteinen und Wachstumsfaktoren auf verschiedenen Materialien, konzentriert man sich derzeit in der Forschung auf die Co-Immobilisierung zweier Moleküle gleichzeitig. Hierbei werden die funktionellen Gruppen z. B. von Kollagen unter Verwendung von nur einer Kopplungschemie verwendet, wodurch die Kopplungseffizienz der einzelnen Komponenten nur begrenzt kontrollierbar ist. Das Ziel der vorliegenden Arbeit war die Entwicklung eines Immobilisierungsverfahrens, welches die unabhängige Kopplung zweier Faktoren kontrolliert ermöglicht. Dabei sollten exemplarisch das adhäsionsfördernde RGD-Peptid (Arginin-Glycin-Asparaginsäure) zusammen mit dem Wachstumsfaktor VEGF (Vascular Endothelial Growth Factor) auf Titan gebunden werden. In weiteren Experimenten sollten dann die pro-adhäsiven Faktoren Fibronektin, Kollagen, Laminin und Osteopontin immobilisiert und untersucht werden. rnDie Aminofunktionalisierung von Titan durch plasma polymerisierte Allylaminschichten wurde als Grundlage für die Entwicklung des nasschemischen Co-immobilisierungsverfahren verwendet. Für eine unabhängige und getrennte Anbindung der verschiedenen Biomoleküle stand in diesem Zusammenhang die Entwicklung eines geeigneten Crosslinker Systems im Vordergrund. Die Oberflächencharakterisierung der entwickelten Oberflächen erfolgte mittels Infrarot Spektroskopie, Surface Plasmon Resonance Spektroskopie (SPR), Kontaktwinkelmessungen, Step Profiling und X-Ray Photoelectron Spektroskopie (XPS). Zur Analyse der Anbindungsprozesse in Echtzeit wurden SPR-Kinetik Messungen durchgeführt. Die biologische Funktionalität der modifizierten Oberflächen wurde in vitro an Endothelzellen (HUVECs) und Osteoblasten (HOBs) und in vivo in einem Tiermodell-System an der Tibia von Kaninchen untersucht.rnDie Ergebnisse zeigen, dass alle genannten Biomoleküle sowohl einzeln auf Titan kovalent gekoppelt als auch am Bespiel von RGD und VEGF in einem getrennten Zwei-Schritt-Verfahren co-immobilisiert werden können. Des Weiteren wurde die biologische Funktionalität der gebundenen Faktoren nachgewiesen. Im Falle der RGD modifizierten Oberflächen wurde nach 7 Tagen eine geförderte Zelladhäsion von HUVECs mit einer signifikant erhöhten Zellbesiedlungsdichte von 28,5 % (p<0,05) gezeigt, wohingegen auf reinem Titan Werte von nur 13 % beobachtet wurden. Sowohl VEGF als auch RGD/VEGF modifizierte Proben wiesen im Vergleich zu Titan schon nach 24 Stunden eine geförderte Zelladhäsion und eine signifikant erhöhte Zellbesiedlungsdichte auf. Bei einer Besiedlung von 7,4 % auf Titan, zeigten VEGF modifizierte Proben mit 32,3 % (p<0,001) eine deutlichere Wirkung auf HUVECs als RGD/VEGF modifizierte Proben mit 13,2 % (p<0,01). Die pro-adhäsiven Faktoren zeigten eine deutliche Stimulation der Zelladhäsion von HUVECs und HOBs im Vergleich zu reinem Titan. Die deutlich höchsten Besiedlungsdichten von HUVECs konnten auf Fibronektin mit 44,6 % (p<0,001) und Kollagen mit 39,9 % (p<0,001) nach 24 Stunden beobachtet werden. Laminin zeigte keine und Osteopontin nur eine sehr geringe Wirkung auf HUVECs. Bei Osteoblasten konnten signifikant erhöhte Besiedlungsdichten im Falle aller pro-adhäsiven Faktoren beobachtet werden, jedoch wurden die höchsten Werte nach 7 Tagen auf Kollagen mit 90,6 % (p<0,001) und Laminin mit 86,5 % (p<0,001) im Vergleich zu Titan mit 32,3 % beobachtet. Die Auswertung der Tierexperimente ergab, dass die VEGF modifizierten Osteosyntheseplatten, im Vergleich zu den reinen Titankontrollen, eine gesteigerte Knochenneubildung auslösten. Eine solche Wirkung konnte für RGD/VEGF modifizierte Implantate nicht beobachtet werden. rnInsgesamt konnte gezeigt werden, dass mittels plasmapolymerisierten Allylamin Schichten die genannten Biomoleküle sowohl einzeln gebunden als auch getrennt und kontrolliert co-immobilisiert werden können. Des Weiteren konnte eine biologische Funktionalität für alle Faktoren nach erfolgter Kopplung in vitro gezeigt werden. Wider Erwarten konnte jedoch kein zusätzlicher biologischer Effekt durch die Co-immobilisierung von RGD und VEGF im Vergleich zu den einzeln immobilisierten Faktoren gezeigt werden. Um zu einer klinischen Anwendung zu gelangen, ist es nun notwendig, das entwickelte Verfahren in Bezug auf die immobilisierten Mengen der verschiedenen Faktoren hin zu optimieren. rn
Resumo:
In den Briefen 4, 6, 11 und 12 der Heroides hat Ovid direkt oder indirekt Figuren des Mythos zum Gegenstand seiner Dichtung gemacht, die den zeitgenössischen wie auch den heutigen Rezipienten insbesondere durch Tragödien des Euripides bekannt sind. Die zu Beginn dieser Arbeit dazu durchgeführte historische Analyse der grundsätzlichen Bedingungen der Rezeption der Tragödien des Euripides in der Zeit Ovids zeigt, dass der römische Dichter für ein intertextuelles Dichten in den Heroides die Werke des griechischen Tragikers als Prätexte nutzen konnte, da die Rezipienten über die theoretische und praktische Kompetenz verfügten, entsprechende Verweisungen zu identifizieren, diese in einem Prozess der intertextuellen Lektüre zu dekodieren und den Text auf diese Weise zu interpretieren. Eine Beschreibung dieses antiken literarischen Kommunikationsprozesses zwischen Ovid und seinen Rezipienten erfolgt dabei mit den Mitteln einer für die Euripidesrezeption Ovids konkretisierten Intertextualitätstheorie (Kapitel A.I und II). Die ausführlichen Interpretationen zu den Heroides-Briefen 12, 6, 4 und 11 sowie zur Rezeption des Medea-Prologs in verschiedenen Gedichten Ovids (Kapitel B.I bis V) zeigen, dass der römische Dichter verschiedene Formen intertextueller Verweisungen nutzt, um in den bekannten Geschichten von Medea, Hypsipyle, Phaedra und Canace bislang ungenutztes narratives Potential zu entdecken und auf dieser Grundlage eine alte Geschichte neu zu erzählen. Das in der Forschung bereits vielfach beschriebene Prinzip Ovids des idem aliter referre ist in den untersuchten Texten konkret darauf ausgerichtet, die aus den Tragödien bekannten Heroinen in einer bestimmten Phase ihrer Geschichte zu Figuren einer elegischen Welt werden zu lassen. Diese neu geschaffene elegische Dimension einer ursprünglich tragischen Geschichte dient dabei nicht einer umwertenden Neuinterpretation der bekannten tragischen Figur. Vielmehr lässt Ovid seine Briefe zu einem Teil des Mythos werden, zu einem elegischen Vorspiel der Tragödie, die einen durch Euripides vorgegebenen Rahmen des Mythos erweitern und damit zugleich zentrale Motive der tragischen Prätexte vorbereiten. Ovid gestaltet aus, was in dem von Euripides initiierten Mythos angelegt ist, und nutzt das elegische Potential der tragischen Erzählung, um das Geschehen und vor allem die Heroine selbst in seinem Brief zur Tragödie hinzuführen. Damit bereitet Ovid in den Heroides die weitere Entwicklung der äußeren tragischen Handlung vor, indem er vor allem eine innere Entwicklung der von ihm geschaffenen Briefschreiberin aufzeigt und auf diese Weise jeweils aus einer von ihm geschaffenen elegischen Frau jene tragische Heldin werden lässt, die den Rezipienten aus der jeweiligen Tragödie des Euripides bekannt ist. Die sich daraus notwendigerweise ergebenden Spannungen und Interferenzen zwischen den Erwartungen der Rezipienten und der Realität der von Ovid neu gestalteten Figur in ihrem elegischen Kontext werden von dem römischen Dichter produktiv genutzt und durch die im Text initiierte Entwicklung aufgehoben. So scheinen dann letztlich aus den Elegien Ovids die Tragödien des Euripides hervorzugehen.
Resumo:
The Standard Model of particle physics was developed to describe the fundamental particles, which form matter, and their interactions via the strong, electromagnetic and weak force. Although most measurements are described with high accuracy, some observations indicate that the Standard Model is incomplete. Numerous extensions were developed to solve these limitations. Several of these extensions predict heavy resonances, so-called Z' bosons, that can decay into an electron positron pair. The particle accelerator Large Hadron Collider (LHC) at CERN in Switzerland was built to collide protons at unprecedented center-of-mass energies, namely 7 TeV in 2011. With the data set recorded in 2011 by the ATLAS detector, a large multi-purpose detector located at the LHC, the electron positron pair mass spectrum was measured up to high masses in the TeV range. The properties of electrons and the probability that other particles are mis-identified as electrons were studied in detail. Using the obtained information, a sophisticated Standard Model expectation was derived with data-driven methods and Monte Carlo simulations. In the comparison of the measurement with the expectation, no significant deviations from the Standard Model expectations were observed. Therefore exclusion limits for several Standard Model extensions were calculated. For example, Sequential Standard Model (SSM) Z' bosons with masses below 2.10 TeV were excluded with 95% Confidence Level (C.L.).
Resumo:
One of the main goals of the ATLAS experiment at the Large Hadron Collider (LHC) at CERN in Geneva is the search for new physics beyond the Standard Model. In 2011, proton-proton collisions were performed at the LHC at a center of mass energy of 7 TeV and an integrated luminosity of 4.7 fb^{-1} was recorded. This dataset can be tested for one of the most promising theories beyond limits achieved thus far: supersymmetry. Final states in supersymmetry events at the LHC contain highly energetic jets and sizeable missing transverse energy. The additional requirement of events with highly energetic leptons simplifies the control of the backgrounds. This work presents results of a search for supersymmetry in the inclusive dilepton channel. Special emphasis is put on the search within the Gauge-Mediated Symmetry Breaking (GMSB) scenario in which the supersymmetry breaking is mediated via gauge fields. Statistically independent Control Regionsrnfor the dominant Standard Model backgrounds as well as Signal Regions for a discovery of a possible supersymmetry signal are defined and optimized. A simultaneous fit of the background normalizations in the Control Regions via the profile likelihood method allows for a precise prediction of the backgrounds in the Signal Regions and thus increases the sensitivity to several supersymmetry models. Systematic uncertainties on the background prediction are constrained via the jet multiplicity distribution in the Control Regions driven by data. The observed data are consistent with the Standard Model expectation. New limits within the GMSB and the minimal Supergravity (mSUGRA) scenario as well as for several simplified supersymmetry models are set or extended.
Resumo:
Die Regulierung und Steuerung von Hochschulen unterliegt spätestens seit der Liberalisierung des Hochschulrahmengesetzes im Jahr 1998 einer erheblichen Reformdynamik. Hochschulautonomie, New Public Management, Profilbildung, Exzellenz und Wettbewerb sind zentrale Stichworte im Rahmen der durchgeführten politischen Reformen und Programme.rnDer politisch intendierte Ausbau einer organisationalen Selbststeuerung von Universitäten stellt die Hochschulen vor beachtliche Herausforderungen und kann als Paradigmenwechsel im Bereich der Hochschul-Governance betrachtet werden. In der Fachdiskussion wird der entsprechende Wandel auch als Stärkung der „managerial governance“ (bspw. de Boer et al. 2007) oder als Wandel von Universitäten hin zu „more complete organizations“ (Brunsson/ Sahlin-Andersson 2000) bzw. „organisational actors“ (Krücken/Meier 2006) beschrieben. rnGleichzeitig liegt bislang eher fragmentarisches Wissen darüber vor, wie der veränderte Re-gulierungskontext von den Steuerungsakteuren in deutschen Hochschulen aufgegriffen wird, d.h. ob auf Organisationsebene tatsächlich ein Ausbau der organisationalen Selbststeuerung stattfindet, welche Steuerungsinitiativen und -instrumente sich bewähren und warum dies der Fall ist. Die vorliegende Arbeit geht diesen Fragen im Rahmen einer vergleichenden Fallstudie an sechs Universitäten nach. rnIm Zentrum der empirischen Erhebung stehen 60 qualitative sozialwissenschaftliche Interviews mit Leitungsakteuren auf Hochschul- und Fachbereichsebene. Diese Daten werden ergänzt durch umfangreiche Dokumentenanalysen, insbesondere von Jahresberichten, Grundordnungen, Strategie- und Planungsdokumenten sowie durch Daten der amtlichen Hochschul-statistik. Das Untersuchungsdesign erlaubt überdies eine Gegenüberstellung von großen und kleinen Universitäten sowie von Hochschulen mit einer technisch-naturwissenschaftlichen Ausrichtung gegenüber solchen mit einem kultur- und sozialwissenschaftlichen Schwerpunkt. Die Untersuchung zeigt, dass an fünf der sechs untersuchten Hochschulen ein zum Teil deutlicher Ausbau der organisationalen Selbststeuerung festzustellen ist, wenngleich der spezifische organisationale Charakter von Universitäten, d.h. eine weitgehend lose Kopplung mit autonomen Professionals, im Wesentlichen erhalten bleibt. Die Zusammenschau der Veränderungen ergibt ein idealtypisches Modell des Wandels von Strategie, Struktur und Kultur der Hochschulen. Auf Basis der empirischen Ergebnisse werden weiterhin zentrale externe und interne Einflussfaktoren auf den spezifischen organisationalen Wandel analysiert. Schließlich werden Kosten und Nutzen sowie Risiken und Chancen der Governance-Reformen im Hoch-schulbereich gegenübergestellt.
Resumo:
Im Jahr 2011 wurde am Large Hadron Collider mit dem ATLAS Experiment ein Datensatz von 4.7 inversen Femtobarn bei einer Schwerpunktsenergie von 7 TeV aufgezeichnet. Teil des umfangreichen Physikprogrammes des ATLAS Experiments ist die Suche nach Physik jenseits des Standardmodells. Supersymmetrie - eine neue Symmetrie zwischen Bosonen und Fermionen - wird als aussichtsreichester Kandidat für neue Physik angesehen, und zahlreiche direkte und indirekte Suchen nach Supersymmetrie wurden in den letzten Jahrzehnten bereits durchgeführt. In der folgenden Arbeit wird eine direkte Suche nach Supersymmetrie in Endzuständen mit Jets, fehlender Transversalenergie und genau einem Elektron oder Myon durchgeführt. Der analysierte Datensatz von 4.7 inversen Femtobarn umfasst die gesamte Datenmenge, welche am ATLAS Experiment bei einer Schwerpunktsenergie von 7 TeV aufgezeichnet wurde. Die Ergebnisse der Analyse werden mit verschiedenen anderen leptonischen Suchkanälen kombiniert, um die Sensitivität auf diversen supersymmetrischen Produktions- und Zerfallsmodi zu maximieren. Die gemessenen Daten sind kompatibel mit der Standardmodellerwartung, und neue Ausschlussgrenzen in verschiedenen supersymmetrischen Modellen werden berechnet.
Resumo:
Angiotensin II induziert intrazellulär die Bildung reaktiver Sauerstoffspezies, welche DNA-Schäden erzeugen können. Um die Hypothese zu prüfen, dass durch Angiotensin II induzierte DNA-Schäden für die erhöhte Krebsinzidenz hypertensiver Menschen verantwortlich sind, wurde eine vierwöchige Behandlung von Mäusen mit Angiotensin II (0,6 μg/kg/min) durchgeführt. Mit der Alkalischen Elution wurden in Zellen aus verschiedenen Organen der Mäuse die Menge an DNA-Einzelstrangbrüchen und oxidativen DNA-Modifikationen bestimmt. In der Niere wurde außerdem mit dem BigBlue® Mutations-Assay die Entstehung von Mutationen analysiert. In keinem der analysierten Organe konnte eine Erhöhung der DNA-Schäden oder eine Erhöhung der Mutationsfrequenzen durch die Angiotensin II-Behandlung nachgewiesen werden. Die durchgeführten Untersuchungen geben somit keinen Hinweis auf eine DNA-schädigende und mutagene Wirkung von Angiotensin II.rnBei der Entstehung und dem Krankheitsverlauf von Arteriosklerose spielen reaktive Sauerstoffspezies ebenfalls eine noch nicht genau geklärte Rolle. Um zu ermitteln, ob oxidative DNA-Schäden die Entstehung der Arteriosklerose begünstigen, wurde die Endothelfunktion von Wildtyp- und reparaturdefizienten Ogg1-/--Mäusen verglichen. Entgegen der Vermutung, dass oxidative DNA-Modifikationen die Endothelfunktion verschlechtern, zeigen die Untersuchungen, dass Ogg1-/--Mäuse, die höhere Spiegel an oxidativen DNA-Modifikationen in ihrem Genom haben, eine signifikant bessere Endothelfunktion besitzen als Wildtyptiere. Dieser Befund weist auf eine neuartige, von der DNA-Reparatur unabhängige Funktion von OGG1 hin.rn
Resumo:
Measurements of the self coupling between bosons are important to test the electroweak sector of the Standard Model (SM). The production of pairs of Z bosons through the s-channel is forbidden in the SM. The presence of physics, beyond the SM, could lead to a deviation of the expected production cross section of pairs of Z bosons due to the so called anomalous Triple Gauge Couplings (aTGC). Proton-proton data collisions at the Large Hadron Collider (LHC) recorded by the ATLAS detector at a center of mass energy of 8 TeV were analyzed corresponding to an integrated luminosity of 20.3 fb-1. Pairs of Z bosons decaying into two electron-positron pairs are searched for in the data sample. The effect of the inclusion of detector regions corresponding to high values of the pseudorapidity was studied to enlarge the phase space available for the measurement of the ZZ production. The number of ZZ candidates was determined and the ZZ production cross section was measured to be: rn7.3±1.0(Stat.)±0.4(Sys.)±0.2(lumi.)pb, which is consistent with the SM expectation value of 7.2±0.3pb. Limits on the aTGCs were derived using the observed yield, which are twice as stringent as previous limits obtained by ATLAS at a center of mass energy of 7 TeV.