25 resultados para schema

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung:Hintergrund/Ziel: Die Beschreibung der funktionellen Einteilung der Leber basiert auf dem Schema von Claude de Couinaud. Die Grenze zwischen der rechten und linken Leberhälfte scheint leicht durch die Lage der mittleren Lebervene lokalisierbar. Nach der gängigen Meinung wird diese Grenze nicht durch die Trias aus Pfortader, Arterie und Gallengang überschritten. Es soll untersucht werden, ob die Lage dieser gefäßarmen Zone zwischen den Pfortaderästen benachbarter Segmente von der Lage der Grenzebene durch die mittlere Lebervene abweicht.Methode: Bei 73 Patienten wurden im Rahmen der normalen präoperativen Diagnostik dreiphasige Spiral-CT Untersuchungen durchgeführt. Aus diesen Daten wurden dreidimensionale Rekonstruktionen erzeugt und ausgewertet. Ergebnisse: In der vorliegenden Untersuchung konnte gezeigt werden, dass die mittlere Sektorengrenze unterschiedliche Positionen einnimmt, je nach welchem Gefäßsystem sie bestimmt wird. Die mittlere Sektorengrenze zeigt hierbei einen Unterschied in ihrer Lage von 14,2° im Median. An der ventralen Leberoberfläche liegt die Grenzebene nach der mittleren Lebervene damit rechts lateral der gefäßarmen Zone zwischen den Pfortaderästen.Schlussfolgerung: Der Unterschied der Grenzebenen ist in dreidimensionalen Rekonstruktionen demonstrierbar und findet Anwendung bei der Segmentzuordnung von Läsionen. Diese Rekonstruktionen erleichtern die interdisziplinäre Kommunikation und erlauben eine vereinfachte und möglicherweise präzisere Operationsplanung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Dissertation wurden die Formfaktoren desNukleons in einer relativistischen Formulierung der chiralenStörungstheorie bis zur chiralen Ordnung O(q^4) berechnet. Im Einzelnen haben wir den skalaren Formfaktor, dieelektromagnetischen Formfaktoren F_1 und F_2 bzw. G_E und G_M, die beiden axialen Formfaktoren G_A und G_P und denPion-Nukleon-Formfaktor G_pi untersucht. Dabei kam ein neuesRenormierungsschema zur Anwendung, das in Zusammenarbeit mitGegelia, Japaridze und Scherer entwickelt wurde. Das Ziel der neuen Methode bestand darin, ein konsistentes chirales Zählschema für renormierte Diagramme der relativistischen Theorie zu entwickeln. Zu diesem Zweck werden über das MS-Schema hinausgehend zusätzlich reguläre Terme abgezogen und in den Niederenergiekonstanten der allgemeinsten effektiven Lagrange-Dichte absorbiert. Als Folge respektieren auch Schleifendiagramme mit inneren Nukleonlinien ähnlich wie im mesonischen Sektor ein chirales Zählschema. Die Ergebnisse wurden mit denen aus der Infrarotregularisierung von Becher und Leutwyler und bis zur Ordnung O(q^3) auch mit denen aus der chiralen Störungstheorie für schwere Baryonen (HBChPT) verglichen. Der zweite Teil der Arbeit beschäftigte sich mit der Frage, ob der axiale Formfaktor in der Pionelektroproduktion nahe der Schwelle bestimmt werden kann. Dazu haben wir ein phänomenologisches Modell benutzt, das einerseits alle Symmetrien der Lagrange-Dichte der QCD respektiert, d.h. insbesondere die chirale Symmetrie und ihre spontane Brechung, andererseits relativ einfach nachzuvollziehendeRechnungen beinhaltet. Das Modell basierte auf denLagrange-Dichten der chiralen Störungstheorie mit derEinschränkung, dass wir keine Schleifengraphen berechnet haben. Wir benutzten diese Baumgraphennäherung, da die Schleifengraphen chirale Korrekturen zu unseren Ergebnissen liefern, die im Rahmen der HBChPT von Bernard, Kaiser und Meißner berechnet wurden und unter Kontrolle sind. Als ein Test des Modells haben wir die axialen Formfaktoren des Nukleons bestimmt und eine auf die chirale Symmetrie zurückgehende Beziehung zwischen diesen und demPion-Nukleon-Formfaktor überprüft. Der Hauptbestandteil dieses Teils der Arbeit bestand aus dem Test der so genannten Adlerschen Relation, die in Form einer chiralen Ward-Identität drei Greensche Funktionen miteinander verbindet. Wir haben explizit verifiziert, dass die Abhängigkeit der Pionelektroproduktionsamplitude vomaxialen Formfaktor eine direkte Konsequenz aus der chiralenSymmetrie ist. Durch einen Vergleich mit den Ergebnissen vonHaberzettl konnten wir schießlich feststellen, dass die sogenannte Eichableitungsmethode die chirale Symmetrie nichtrespektiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die James Bond-Filme: seit über 40 Jahren sind sie ein unübersehbarer Bestandteil der Populärkultur. Anfang der 60er Jahre unter völlig anderen historischen, sozialen und nicht zuletzt filmtechnischen Voraussetzungen aus der Taufe gehoben, gelingt es ihnen auch heute noch, ein Massenpublikum für sich zu gewinnen. Inwiefern kann man bei einer so langen Laufzeit überhaupt noch von einer homogenen Serie sprechen? Und was für Gemeinsamkeiten, Unterschiede und auch Weiterentwicklungen von der ursprünglichen Machart sind hier zu beobachten? Dies sind die Grundfragen der vorliegenden Dissertation. Bei der Benennung der seriellen Eigenschaften werden sowohl inhaltliche als auch dramaturgische und filmtechnisch-formale Aspekte betrachtet. Die Figurenkonstellation von Held, Gegenspieler und der weiblichen Hauptfigur, die zwischen den beiden steht und häufig die Seiten wechselt, ist ein Schema das - kaum variiert - schon in den Romanvorlagen Ian Flemings zum Einsatz kam und auch das Rückgrat der Film-Plots bildet. Dennoch ließ dieses Gerüst den mittlerweile fünf verschiedenen Darstellern, die James Bond nacheinander verkörperten, genügend Freiraum für das Ausarbeiten eines eigenen Rollenkonzepts, das auf ihren speziellen Schauspielstil ausgerichtet war. Dadurch erhielt die James Bond-Figur jeweils eine Neuinterpretation, die sich insbesondere in ihrem sozialen Habitus bemerkbar macht, der je nach Darsteller zwischen provokantem Aufsteigertyp und aristokratischem Gentleman changierte. Zum unverwechselbaren Erkennungsmerkmal der Bond-Serie avancierte die so genannte 'gun-barrel'-Sequenz, die in den ersten Sekunden jedes Films abläuft. Auch die sich anschließende Vortitelsequenz, eine auf Spannung oder Action angelegte Szene, die einen Vorgeschmack auf den folgenden Film liefern soll, ist ein Element, das der Machart von Fernsehserien entnommen ist. Neben diesen bewusst eingesetzten Markenzeichen lässt sich auch in der Gestaltungsweise der Filme - in Kameraführung, Schnitt, Musik und Set Design - eine stilistische Kontinuität feststellen, die insbesondere dadurch bedingt ist, dass die Serie seit jeher von den Produzenten ähnlich wie ein Familienunternehmen geführt wurde und - zumindest bis Ende der 80er Jahre - auch die kreativen Köpfe der Filme konsequent im eigenen Team ausgebildet wurden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wie viele andere Sprachen Ost- und Südostasiens ist das Thai eine numerusneutrale Sprache, in der ein Nomen lediglich das Konzept benennt und keinen Hinweis auf die Anzahl der Objekte liefert. Um Nomina im Thai zählen zu können, ist der Klassifikator (Klf) nötig, der die Objekte anhand ihrer semantischen Schlüsseleigenschaft herausgreift und individualisiert. Neben der Klassifikation stellt die Individualisierung die Hauptfunktion des Klf dar. Weitere Kernfunktionen des Klf außerhalb des Zählkontextes sind die Markierung der Definitheit, des Numerus sowie des Kontrasts. Die wichtigsten neuen Ergebnisse dieser Arbeit, die sowohl die Ebenen der Grammatik und Semantik als auch die der Logik und Pragmatik integriert, sind folgende: Im Thai kann der Klf sowohl auf der Element- als auch auf der Mengenebene agieren. In der Verbindung mit einem Demonstrativ kann der Klf auch eine pluralische Interpretation hervorrufen, wenn er auf eine als pluralisch präsupponierte Gesamtmenge referiert oder die Gesamtmenge in einer Teil-Ganzes-Relation individualisiert. In einem Ausdruck, der bereits eine explizite Zahlangabe enthält, bewirkt die Klf-Demonstrativ-Konstruktion eine Kontrastierung von Mengen mit gleichen Eigenschaften. Wie auch der Individualbegriff besitzt der Klf Intension und Extension. Intension und Extension von Thai-Klf verhalten sich umgekehrt proportional, d.h. je spezifischer der Inhalt eines Klf ist, desto kleiner ist sein Umfang. Der Klf signalisiert das Schlüsselmerkmal, das mit der Intension des Nomens der Identifizierung des Objekts dient. Der Klf individualisiert das Nomen, indem er Teilmengen quantifiziert. Er kann sich auf ein Objekt, eine bestimmte Anzahl von Objekten oder auf alle Objekte beziehen. Formal logisch lassen sich diese Funktionen mithilfe des Existenz- und des Allquantors darstellen. Auch die Nullstelle (NST) läßt sich formal logisch darstellen. Auf ihren jeweiligen Informationsgehalt reduziert, ergeben sich für Klf und NST abhängig von ihrer Positionierung verschiedene Informationswerte: Die Opposition von Klf und NST bewirkt in den Fragebögen ausschließlich skalare Q-Implikaturen, die sich durch die Informationsformeln in Form einer Horn-Skala darstellen lassen. In einem sich aufbauenden Kontext transportieren sowohl Klf als auch NST in der Kontextmitte bekannte Informationen, wodurch Implikaturen des M- bzw. I-Prinzips ausgelöst werden. Durch die Verbindung der Informationswerte mit den Implikaturen des Q-, M- und I-Prinzips lässt sich anhand der Positionierung direkt erkennen, wann der Klf die Funktion der Numerus-, der Definitheits- oder der Kontrast-Markierung erfüllt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung Um photoschaltbare Gelbildner zu synthetisieren wurde auf bereits bekannte Gelbildner zurückgegriffen und eine Azobenzolgruppe, als photoschaltbare Einheit eingebaut. Die Modifizierung der Alkylsemicarbazide führte zu 7 Azosemicarbaziden (36-42), die alle gelbildende Eigenschaften haben. Die Gele des Alkylsemicarbazids 1 und der Azosemicarbazide 37 und 38 erwiesen sich als die stabilsten, weshalb an ihnen die meisten Untersuchungen durchgeführt wurden. Ihre Struktur ist in Abbildung 1 noch einmal aufgeführt. Die Alkylsemicarbazide vergelen Toluol, 1,2-Dichlorbenzol, Decalin, Tetralin und Cyclohexan. Die minimalen Gelbildnerkonzentration geht dabei von ~0,5 Gew.% für Toluol bis ~10 Gew.% für Tetralin und Cyclohexan. Die Azosemicarbazide 36-40 vergelen Toluol und Tetralin mit ~10 Gew.%, 1,2-Dichlorbenzol und Decalin mit ~4-7 Gew.Durch den Vergleich verschiedener Kristallstrukturen (von 1, 5, 19 und 43) und einer Röntgenkleinwinkelmessung eines Gels wurden zwei mögliche Kristallstrukturen für 37 vorgestellt. Die Tatsache, dass die IR-Spektren aller Semicarbazide im Bulk und als Gel sehr ähnliche Absorptionsbanden im Bereich der N-H-Schwingungen besitzen, zeigt, dass das vorgestellt Wasserstoffbrückenmotiv (Kapitel 4.1, Schema 4.1) für alle Semicarbazide nahezu gleich ist. Des Weiteren konnte ein Zusammenhang von der minimalen Gelbildner-konzentration, dem Schmelzpunkt und der Struktur des Gelnetz-werks gefunden werden. Je feiner das Netzwerk und damit je größer die Oberfläche, desto niedriger die minimale Gelbildnerkonzentration und desto niedriger der Schmelzpunkt der Gele. Gele mit Decalin fallen dabei durch eine andere Morphologie und besonders hohe Schmelzpunkte auf (Abbildung 2). Die Photoschaltbarkeit wurde im Gel mit organischen Lösungsmitteln und mit den Flüssigkristallmischungen durch UV/Vis-Messungen, Polarisationsmikroskopie, sowie durch die Bestimmung der Schaltzeiten und der Schwellspannung für LC II-Gele nachgewiesen. Erste dielektrische Messungen an einem LC II-Gel zeigen, dass die Goldstone-Mode im Gel unterdrück wird. Diese Ergebnisse sollen mit weiteren Untersuchungen untermauert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Time-of-Flight Aerosol Mass Spectrometer (ToF-AMS) der Firma Aerodyne ist eine Weiterentwicklung des Aerodyne Aerosolmassenspektrometers (Q-AMS). Dieses ist gut charakterisiert und kommt weltweit zum Einsatz. Beide Instrumente nutzen eine aerodynamische Linse, aerodynamische Partikelgrößenbestimmung, thermische Verdampfung und Elektronenstoß-Ionisation. Im Gegensatz zum Q-AMS, wo ein Quadrupolmassenspektrometer zur Analyse der Ionen verwendet wird, kommt beim ToF-AMS ein Flugzeit-Massenspektrometer zum Einsatz. In der vorliegenden Arbeit wird anhand von Laborexperimenten und Feldmesskampagnen gezeigt, dass das ToF-AMS zur quantitativen Messung der chemischen Zusammensetzung von Aerosolpartikeln mit hoher Zeit- und Größenauflösung geeignet ist. Zusätzlich wird ein vollständiges Schema zur ToF-AMS Datenanalyse vorgestellt, dass entwickelt wurde, um quantitative und sinnvolle Ergebnisse aus den aufgenommenen Rohdaten, sowohl von Messkampagnen als auch von Laborexperimenten, zu erhalten. Dieses Schema basiert auf den Charakterisierungsexperimenten, die im Rahmen dieser Arbeit durchgeführt wurden. Es beinhaltet Korrekturen, die angebracht werden müssen, und Kalibrationen, die durchgeführt werden müssen, um zuverlässige Ergebnisse aus den Rohdaten zu extrahieren. Beträchtliche Arbeit wurde außerdem in die Entwicklung eines zuverlässigen und benutzerfreundlichen Datenanalyseprogramms investiert. Dieses Programm kann zur automatischen und systematischen ToF-AMS Datenanalyse und –korrektur genutzt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit wurde durch die Erkenntnis motiviert, daß die Theorie der Intentionalität ohne eine Theorie der impliziten Intentionalität unvollständig ist. Die Anlage einer solchen Theorie gründet in der Annahme, daß die impliziten ("ergänzenden oder "mit-bewußten") Erfahrungsinhalte Inhalte intentional wirksam sind: daß sie zur "Konstitution" der intentionalen Objekte – im Sinne vom Husserl und Gurwitsch – beitragen. Die Bedingungen und Umstände dieser Wirksamkeit herauszuarbeiten, ist das Hauptziel der vorliegenden Untersuchungen. Dazu wurde (1) eine phänomenologische Theorie des impliziten Inhalts kritisch expliziert, und (2) diese anhand einiger aktueller Ansätze der analytischen Philosophie auf die Probe gestellt. Im phänomenologischen Teil der Arbeit wurden zuerst die methodologischen Voraussetzungen von Gurwitschs gestalttheoretischer Neuformulierung des Husserlschen Projekts unter Berücksichtigung der sogenannten Konstanzannahme kritisch untersucht. Weiterhin wurden Husserls Noema-Konzeption und seine Horizontlehre aus der Perspektive von Gurwitschs Feldtheorie des Bewußtseins expliziert, und in der Folge Gurwitschs dreifache Gliederung des Bewußtseinsfeldes – das Kopräsenz-Kohärenz-Relevanz-Schema – um die phänomenologischen Begriffe "Potentialität", "Typik" und "Motivation" erweitert. Die Beziehungen, die diesen Begriffen zugrunde liegen, erwiesen sich als "mehr denn bloß kontigent, aber als weniger denn logisch oder notwendig" (Mulligan). An Beispielen aus der analytischen Philosphie der Wahrnehmung (Dretske, Peacocke, Dennett, Kelly) und der Sprache (Sperber, Wilson, Searle) wurde das phänomenologische Konzept des impliziten Inhalts kritisch beurteilt und weiterentwickelt. Hierbei wurde(n) unter anderem (1) der Zusammenhang zwischen dem phänomenologischen Begriff "vorprädikativer Inhalt" und dem analytischen Begriff "nichtkonzeptueller Inhalt" aufgezeigt und (2) Kriterien für die Zuschreibung impliziter Überzeugungen in den typischen Fällen der prädikativen Intentionalität zusammengetragen und systematisiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden Quantum-Hydrodynamische (QHD) Modelle betrachtet, die ihren Einsatz besonders in der Modellierung von Halbleiterbauteilen finden. Das QHD Modell besteht aus den Erhaltungsgleichungen für die Teilchendichte, das Momentum und die Energiedichte, inklusive der Quanten-Korrekturen durch das Bohmsche Potential. Zu Beginn wird eine Übersicht über die bekannten Ergebnisse der QHD Modelle unter Vernachlässigung von Kollisionseffekten gegeben, die aus ein­em Schrödinger-System für den gemischten-Zustand oder aus der Wigner-Glei­chung hergeleitet werden können. Nach der Reformulierung der eindimensionalen QHD Gleichungen mit linearem Potential als stationäre Schrö­din­ger-Gleichung werden die semianalytischen Fassungen der QHD Gleichungen für die Gleichspannungs-Kurve betrachtet. Weiterhin werden die viskosen Stabilisierungen des QHD Modells be­rück­sich­tigt, sowie die von Gardner vorgeschlagene numerische Viskosität für das {sf upwind} Finite-Differenzen Schema berechnet. Im Weiteren wird das viskose QHD Modell aus der Wigner-Glei­chung mit Fokker-Planck Kollisions-Ope­ra­tor hergeleitet. Dieses Modell enthält die physikalische Viskosität, die durch den Kollision-Operator eingeführt wird. Die Existenz der Lösungen (mit strikt positiver Teilchendichte) für das isotherme, stationäre, eindimensionale, viskose Modell für allgemeine Daten und nichthomogene Randbedingungen wird gezeigt. Die dafür notwendigen Abschätzungen hängen von der Viskosität ab und erlauben daher den Grenzübergang zum nicht-viskosen Fall nicht. Numerische Simulationen der Resonanz-Tunneldiode modelliert mit dem nichtisothermen, stationären, eindimensionalen, viskosen QHD Modell zeigen den Einfluss der Viskosität auf die Lösung. Unter Verwendung des von Degond und Ringhofer entwickelten Quanten-Entropie-Minimierungs-Verfahren werden die allgemeinen QHD-Gleichungen aus der Wigner-Boltzmann-Gleichung mit dem BGK-Kollisions-Operator hergeleitet. Die Herleitung basiert auf der vorsichtige Entwicklung des Quanten-Max­well­ians in Potenzen der skalierten Plankschen Konstante. Das so erhaltene Modell enthält auch vertex-Terme und dispersive Terme für die Ge­schwin­dig­keit. Dadurch bleibt die Gleichspannungs-Kurve für die Re­so­nanz-Tunnel­diode unter Verwendung des allgemeinen QHD Modells in einer Dimension numerisch erhalten. Die Ergebnisse zeigen, dass der dispersive Ge­schwin­dig­keits-Term die Lösung des Systems stabilisiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coupled-cluster theory provides one of the most successful concepts in electronic-structure theory. This work covers the parallelization of coupled-cluster energies, gradients, and second derivatives and its application to selected large-scale chemical problems, beside the more practical aspects such as the publication and support of the quantum-chemistry package ACES II MAB and the design and development of a computational environment optimized for coupled-cluster calculations. The main objective of this thesis was to extend the range of applicability of coupled-cluster models to larger molecular systems and their properties and therefore to bring large-scale coupled-cluster calculations into day-to-day routine of computational chemistry. A straightforward strategy for the parallelization of CCSD and CCSD(T) energies, gradients, and second derivatives has been outlined and implemented for closed-shell and open-shell references. Starting from the highly efficient serial implementation of the ACES II MAB computer code an adaptation for affordable workstation clusters has been obtained by parallelizing the most time-consuming steps of the algorithms. Benchmark calculations for systems with up to 1300 basis functions and the presented applications show that the resulting algorithm for energies, gradients and second derivatives at the CCSD and CCSD(T) level of theory exhibits good scaling with the number of processors and substantially extends the range of applicability. Within the framework of the ’High accuracy Extrapolated Ab initio Thermochemistry’ (HEAT) protocols effects of increased basis-set size and higher excitations in the coupled- cluster expansion were investigated. The HEAT scheme was generalized for molecules containing second-row atoms in the case of vinyl chloride. This allowed the different experimental reported values to be discriminated. In the case of the benzene molecule it was shown that even for molecules of this size chemical accuracy can be achieved. Near-quantitative agreement with experiment (about 2 ppm deviation) for the prediction of fluorine-19 nuclear magnetic shielding constants can be achieved by employing the CCSD(T) model together with large basis sets at accurate equilibrium geometries if vibrational averaging and temperature corrections via second-order vibrational perturbation theory are considered. Applying a very similar level of theory for the calculation of the carbon-13 NMR chemical shifts of benzene resulted in quantitative agreement with experimental gas-phase data. The NMR chemical shift study for the bridgehead 1-adamantyl cation at the CCSD(T) level resolved earlier discrepancies of lower-level theoretical treatment. The equilibrium structure of diacetylene has been determined based on the combination of experimental rotational constants of thirteen isotopic species and zero-point vibrational corrections calculated at various quantum-chemical levels. These empirical equilibrium structures agree to within 0.1 pm irrespective of the theoretical level employed. High-level quantum-chemical calculations on the hyperfine structure parameters of the cyanopolyynes were found to be in excellent agreement with experiment. Finally, the theoretically most accurate determination of the molecular equilibrium structure of ferrocene to date is presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Dissertation wurden die Daten von Patienten ausgewertet, die im Zeitraum vom 01. April 2004 bis zum 31. Mai 2005 an der Universitätsklinik Mainz eine Koronarintervention am Hauptstamm erhielten. Insgesamt wurde in dieser Zeit bei 73 Patienten (53 Männer und 20 Frauen) eine Hauptstammintervention durchgeführt. Das sind 6 % aller in diesem Zeitraum durchgeführten Interventionen. Es wurden sowohl Akutinterventionen als auch elektive Interventionen untersucht. Das Altersspektrum der Patienten reichte von 39- 87 Jahren. Die linksventrikuläre Ejektionsfraktion betrug im Mittel 55%. Es lag bei zwei Patienten eine 1- Gefäß-, bei 16 Patienten eine 2-Gefäß- und bei 55 Patienten eine 3-Gefäßerkrankung vor. Zehn Patienten hatten einen geschützten Hauptstamm. Bei 38 Patienten (52%) lag eine Hauptstammbifurkationsstenose vor. In der Regel bekamen alle Patienten ASS und Clopidogrel zu Weiterführung der Antikoagulation nach dem Krankenhausaufenthalt verordnet. Nur bei drei Patienten wurde von diesem Schema abgewichen, da sie aufgrund von mechanischen Herzklappenprothesen Marcumar erhielten. Bei 72 von 73 behandelten Patienten konnte die LCA-Stenose mittels der Hauptstammintervention auf einen Stenosegrad unter 30% reduziert werden. Die Intervention war also in 99% der Patienten primär erfolgreich. Ein Follow-up liegt von 69 der 73 Patienten vor. Bei 52 Patienten liegt eine Kontrollangiographie vor und bei 21 Patienten liegt keine vor (zehn verstorbene Patienten, sieben Patienten mit nicht invasiver Kontrolle, vier Patienten ohne Follow-up). Im Kontrollzeitraum wurde bei 38 Patienten (52% des Gesamtkollektivs) keine erneute Intervention notwendig, sie erlitten keine Komplikationen und zeigten ein gutes Langzeitergebnis. Bei 29 der 66 Patienten, die das Krankenhaus lebend verließen, traten Spätkomplikationen auf und/oder es wurde eine Reintervention am Zielgefäß oder Nichtzielgefäß notwendig. Der durchschnittliche Restenosegrad des Zielgefäßes bei den Patienten, die eine invasive Kontrolle hatten, belief sich auf 24%. Eine Rezidivstenose, definitionsgemäß eine Restenose >50%, lag bei elf Patienten vor. Zu den frühen Komplikationen, die während der Intervention oder des Krankenhausaufenthaltes auftraten, zählten sieben Todesfälle, eine SAT und zehn Blutungsereignisse. Zu den Komplikationen, die während der Langzeitbeobachtung auftraten, gehörten fünf weitere Todesfälle (vier nicht kardial bedingt, einer kardial bedingt), ein Apoplex, eine SAT, vier Bypass-Operationen, drei NSTEMI und vier instabile AP. Insgesamt traten an Komplikationen Tod (12 Patienten), Apoplex (1 Patient), SAT (2 Patienten), Bypass-Operationen (4 Patienten), NSTEMI (3 Patienten), Blutungen (10 Patienten) und instabile Angina pectoris (4 Patienten) auf. Eine Reintervention des Zielgefäßes wurde bei 19 % und eine des Nichtzielgefäßes bei 18 % der Patienten durchgeführt. Die Ergebnisse zeigen, dass der Primärerfolg der Hauptstammstentimplantation insbesondere bei elektiven Patienten, die eine gute Intermediärprognose haben, groß ist und die Intervention mit geringen Komplikationen verbunden ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hochreichende Konvektion über Waldbränden ist eine der intensivsten Formen von atmosphärischer Konvektion. Die extreme Wolkendynamik mit hohen vertikalen Windgeschwindigkeiten (bis 20 m/s) bereits an der Wolkenbasis, hohen Wasserdampfübersättigungen (bis 1%) und die durch das Feuer hohen Anzahlkonzentration von Aerosolpartikeln (bis 100000 cm^-3) bilden einen besonderen Rahmen für Aerosol-Wolken Wechselwirkungen.Ein entscheidender Schritt in der mikrophysikalischen Entwicklung einer konvektiven Wolke ist die Aktivierung von Aerosolpartikeln zu Wolkentropfen. Dieser Aktivierungsprozess bestimmt die anfängliche Anzahl und Größe der Wolkentropfen und kann daher die Entwicklung einer konvektiven Wolke und deren Niederschlagsbildung beeinflussen. Die wichtigsten Faktoren, welche die anfängliche Anzahl und Größe der Wolkentropfen bestimmen, sind die Größe und Hygroskopizität der an der Wolkenbasis verfügbaren Aerosolpartikel sowie die vertikale Windgeschwindigkeit. Um den Einfluss dieser Faktoren unter pyro-konvektiven Bedingungen zu untersuchen, wurden numerische Simulationen mit Hilfe eines Wolkenpaketmodells mit detaillierter spektraler Beschreibung der Wolkenmikrophysik durchgeführt. Diese Ergebnisse können in drei unterschiedliche Bereiche abhängig vom Verhältnis zwischen vertikaler Windgeschwindigkeit und Aerosolanzahlkonzentration (w/NCN) eingeteilt werden: (1) ein durch die Aerosolkonzentration limitierter Bereich (hohes w/NCN), (2) ein durch die vertikale Windgeschwindigkeit limitierter Bereich (niedriges w/NCN) und (3) ein Übergangsbereich (mittleres w/NCN). Die Ergebnisse zeigen, dass die Variabilität der anfänglichen Anzahlkonzentration der Wolkentropfen in (pyro-) konvektiven Wolken hauptsächlich durch die Variabilität der vertikalen Windgeschwindigkeit und der Aerosolkonzentration bestimmt wird. rnUm die mikrophysikalischen Prozesse innerhalb der rauchigen Aufwindregion einer pyrokonvektiven Wolke mit einer detaillierten spektralen Mikrophysik zu untersuchen, wurde das Paketmodel entlang einer Trajektorie innerhalb der Aufwindregion initialisiert. Diese Trajektore wurde durch dreidimensionale Simulationen eines pyro-konvektiven Ereignisses durch das Model ATHAM berechnet. Es zeigt sich, dass die Anzahlkonzentration der Wolkentropfen mit steigender Aerosolkonzentration ansteigt. Auf der anderen Seite verringert sich die Größe der Wolkentropfen mit steigender Aerosolkonzentration. Die Reduzierung der Verbreiterung des Tropfenspektrums stimmt mit den Ergebnissen aus Messungen überein und unterstützt das Konzept der Unterdrückung von Niederschlag in stark verschmutzen Wolken.Mit Hilfe des Models ATHAM wurden die dynamischen und mikrophysikalischen Prozesse von pyro-konvektiven Wolken, aufbauend auf einer realistischen Parametrisierung der Aktivierung von Aerosolpartikeln durch die Ergebnisse der Aktivierungsstudie, mit zwei- und dreidimensionalen Simulationen untersucht. Ein modernes zweimomenten mikrophysikalisches Schema wurde in ATHAM implementiert, um den Einfluss der Anzahlkonzentration von Aerosolpartikeln auf die Entwicklung von idealisierten pyro-konvektiven Wolken in US Standardamtosphären für die mittleren Breiten und den Tropen zu untersuchen. Die Ergebnisse zeigen, dass die Anzahlkonzentration der Aerosolpartikel die Bildung von Regen beeinflusst. Für geringe Aerosolkonzentrationen findet die rasche Regenbildung hauptsächlich durch warme mikrophysikalische Prozesse statt. Für höhere Aerosolkonzentrationen ist die Eisphase wichtiger für die Bildung von Regen. Dies führt zu einem verspäteten Einsetzen von Niederschlag für verunreinigtere Atmosphären. Außerdem wird gezeigt, dass die Zusammensetzung der Eisnukleationspartikel (IN) einen starken Einfluss auf die dynamische und mikrophysikalische Struktur solcher Wolken hat. Bei sehr effizienten IN bildet sich Regen früher. Die Untersuchung zum Einfluss des atmosphärischen Hintergrundprofils zeigt eine geringe Auswirkung der Meteorologie auf die Sensitivität der pyro-konvektiven Wolken auf diernAerosolkonzentration. Zum Abschluss wird gezeigt, dass die durch das Feuer emittierte Hitze einen deutlichen Einfluss auf die Entwicklung und die Wolkenobergrenze von pyro-konvektive Wolken hat. Zusammenfassend kann gesagt werden, dass in dieser Dissertation die Mikrophysik von pyrokonvektiven Wolken mit Hilfe von idealisierten Simulation eines Wolkenpaketmodell mit detaillierte spektraler Mikrophysik und eines 3D Modells mit einem zweimomenten Schema im Detail untersucht wurde. Es wird gezeigt, dass die extremen Bedingungen im Bezug auf die vertikale Windgeschwindigkeiten und Aerosolkonzentrationen einen deutlichen Einfluss auf die Entwicklung von pyro-konvektiven Wolken haben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coupled-cluster theory in its single-reference formulation represents one of the most successful approaches in quantum chemistry for the description of atoms and molecules. To extend the applicability of single-reference coupled-cluster theory to systems with degenerate or near-degenerate electronic configurations, multireference coupled-cluster methods have been suggested. One of the most promising formulations of multireference coupled cluster theory is the state-specific variant suggested by Mukherjee and co-workers (Mk-MRCC). Unlike other multireference coupled-cluster approaches, Mk-MRCC is a size-extensive theory and results obtained so far indicate that it has the potential to develop to a standard tool for high-accuracy quantum-chemical treatments. This work deals with developments to overcome the limitations in the applicability of the Mk-MRCC method. Therefore, an efficient Mk-MRCC algorithm has been implemented in the CFOUR program package to perform energy calculations within the singles and doubles (Mk-MRCCSD) and singles, doubles, and triples (Mk-MRCCSDT) approximations. This implementation exploits the special structure of the Mk-MRCC working equations that allows to adapt existing efficient single-reference coupled-cluster codes. The algorithm has the correct computational scaling of d*N^6 for Mk-MRCCSD and d*N^8 for Mk-MRCCSDT, where N denotes the system size and d the number of reference determinants. For the determination of molecular properties as the equilibrium geometry, the theory of analytic first derivatives of the energy for the Mk-MRCC method has been developed using a Lagrange formalism. The Mk-MRCC gradients within the CCSD and CCSDT approximation have been implemented and their applicability has been demonstrated for various compounds such as 2,6-pyridyne, the 2,6-pyridyne cation, m-benzyne, ozone and cyclobutadiene. The development of analytic gradients for Mk-MRCC offers the possibility of routinely locating minima and transition states on the potential energy surface. It can be considered as a key step towards routine investigation of multireference systems and calculation of their properties. As the full inclusion of triple excitations in Mk-MRCC energy calculations is computational demanding, a parallel implementation is presented in order to circumvent limitations due to the required execution time. The proposed scheme is based on the adaption of a highly efficient serial Mk-MRCCSDT code by parallelizing the time-determining steps. A first application to 2,6-pyridyne is presented to demonstrate the efficiency of the current implementation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis work is devoted to the conceptual and technical development of the Adaptive Resolution Scheme (AdResS), a molecular dynamics method that allows the simulation of a system with different levels of resolution simultaneously. The simulation domain is divided into high and low resolution zones and a transition region that links them, through which molecules can freely diffuse.rnThe first issue of this work regards the thermodynamic consistency of the method, which is tested and verified in a model liquid of tetrahedral molecules. The results allow the introduction of the concept of the Thermodynamic Force, an external field able to correct spurious density fluctuations present in the transition region in usual AdResS simulations.rnThe AdResS is also applied to a system where two different representations with the same degree of resolution are confronted. This simple test extends the method from an Adaptive Resolution Scheme to an Adaptive Representation Scheme, providing a way of coupling different force fields based on thermodynamic consistency arguments. The Thermodynamic Force is successfully applied to the example described in this work as well.rnAn alternative approach of deducing the Thermodynamic Force from pressure consistency considerations allows the interpretation of AdResS as a first step towards a molecular dynamics simulation in the Grand Canonical ensemble. Additionally, such a definition leads to a practical way of determining the Thermodynamic Force, tested in the well studied tetrahedral liquid. The effects of AdResS and this correction on the atomistic domain are analyzed by inspecting the local distribution of velocities, radial distribution functions, pressure and particle number fluctuation. Their comparison with analogous results coming from purely atomistic simulations shows good agreement, which is greatly improved under the effect of the external field.rnA further step in the development of AdResS, necessary for several applications in biophysics and material science, consists of its application to multicomponent systems. To this aim, the high-resolution representation of a model binary mixture is confronted with its coarse-grained representation systematically parametrized. The Thermodynamic Force, whose development requires a more delicate treatment, also gives satisfactory results.rnFinally, AdResS is tested in systems including two-body bonded forces, through the simulation of a model polymer allowed to adaptively change its representation. It is shown that the distribution functions that characterize the polymer structure are in practice not affected by the change of resolution.rnThe technical details of the implementation of AdResS in the ESPResSo package conclude this thesis work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Given a reductive group G acting on an affine scheme X over C and a Hilbert function h: Irr G → N_0, we construct the moduli space M_Ө(X) of Ө-stable (G,h)-constellations on X, which is a common generalisation of the invariant Hilbert scheme after Alexeev and Brion and the moduli space of Ө-stable G-constellations for finite groups G introduced by Craw and Ishii. Our construction of a morphism M_Ө(X) → X//G makes this moduli space a candidate for a resolution of singularities of the quotient X//G. Furthermore, we determine the invariant Hilbert scheme of the zero fibre of the moment map of an action of Sl_2 on (C²)⁶ as one of the first examples of invariant Hilbert schemes with multiplicities. While doing this, we present a general procedure for the realisation of such calculations. We also consider questions of smoothness and connectedness and thereby show that our Hilbert scheme gives a resolution of singularities of the symplectic reduction of the action.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis we investigate several phenomenologically important properties of top-quark pair production at hadron colliders. We calculate double differential cross sections in two different kinematical setups, pair invariant-mass (PIM) and single-particle inclusive (1PI) kinematics. In pair invariant-mass kinematics we are able to present results for the double differential cross section with respect to the invariant mass of the top-quark pair and the top-quark scattering angle. Working in the threshold region, where the pair invariant mass M is close to the partonic center-of-mass energy sqrt{hat{s}}, we are able to factorize the partonic cross section into different energy regions. We use renormalization-group (RG) methods to resum large threshold logarithms to next-to-next-to-leading-logarithmic (NNLL) accuracy. On a technical level this is done using effective field theories, such as heavy-quark effective theory (HQET) and soft-collinear effective theory (SCET). The same techniques are applied when working in 1PI kinematics, leading to a calculation of the double differential cross section with respect to transverse-momentum pT and the rapidity of the top quark. We restrict the phase-space such that only soft emission of gluons is possible, and perform a NNLL resummation of threshold logarithms. The obtained analytical expressions enable us to precisely predict several observables, and a substantial part of this thesis is devoted to their detailed phenomenological analysis. Matching our results in the threshold regions to the exact ones at next-to-leading order (NLO) in fixed-order perturbation theory, allows us to make predictions at NLO+NNLL order in RG-improved, and at approximate next-to-next-to-leading order (NNLO) in fixed order perturbation theory. We give numerical results for the invariant mass distribution of the top-quark pair, and for the top-quark transverse-momentum and rapidity spectrum. We predict the total cross section, separately for both kinematics. Using these results, we analyze subleading contributions to the total cross section in 1PI and PIM originating from power corrections to the leading terms in the threshold expansions, and compare them to previous approaches. We later combine our PIM and 1PI results for the total cross section, this way eliminating uncertainties due to these corrections. The combined predictions for the total cross section are presented as a function of the top-quark mass in the pole, the minimal-subtraction (MS), and the 1S mass scheme. In addition, we calculate the forward-backward (FB) asymmetry at the Tevatron in the laboratory, and in the ttbar rest frames as a function of the rapidity and the invariant mass of the top-quark pair at NLO+NNLL. We also give binned results for the asymmetry as a function of the invariant mass and the rapidity difference of the ttbar pair, and compare those to recent measurements. As a last application we calculate the charge asymmetry at the LHC as a function of a lower rapidity cut-off for the top and anti-top quarks.