29 resultados para Graphen
Resumo:
Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.
Resumo:
CCBE S. XVI
Resumo:
Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.
Resumo:
Die zunehmende Vernetzung der Energie-, Stoff- und Informationsströme, z. B. innerhalb von Produktionsanlagen, begründet das Interesse an Methoden, welche eine Analyse der Systemeigenschaften von großen und verkoppelten dynamischen Systemen bereits in einem frühen Entwicklungsstadium ermöglichen. Dabei ist das Gesamtsystemverhalten von Interesse, welches sowohl auf der Dynamik der Teilsysteme als auch der Verkopplungen beruht. In der vorliegenden Arbeit wird eine neue Methode zur qualitativen Analyse von Systemen auf Inverse-Response-Verhalten vorgestellt. Der Ansatz nutzt Komplexe Netzwerke zur Modellbeschreibung, wobei diese um Kantengewichte ergänzt werden, welche das dynamische Verhalten des modellierten Systems beschreiben. Der vorgestellte Detektionsalgorithmus vergleicht die Pfade des Graphen zwischen den betrachteten Ein- und Ausgängen. Hierfür werden die aggregierten Kantengewichte der Pfade bestimmt und zur Ermittlung der qualitativen Aussage zum Inverse-Response-Verhalten herangezogen. Der Analyseansatz bietet somit eine einfach anwendbare Alternative zur Auswertung der positiven Nullstellen des Systems, welche auf die notwendige sowie hinreichende Bedingung für das Inverse-Response-Verhalten eines linearen Systems zurückgreift: eine ungerade Anzahl positiver Nullstellen. Das entwickelte Verfahren wurde erfolgreich an einer flexibel konfigurierbaren Prozessinsel der Modellfabrik μPlant des Fachgebiets Mess- und Regelungstechnik der Universität Kassel getestet.
Resumo:
Die Berechnung des 1912 von Birkhoff eingeführten chromatischen Polynoms eines Graphen stellt bekanntlich ein NP-vollständiges Problem dar. Dieses gilt somit erst recht für die Verallgemeinerung des chromatischen Polynoms zum bivariaten chromatischen Polynom nach Dohmen, Pönitz und Tittmann aus dem Jahre 2003. Eine von Averbouch, Godlin und Makowsky 2008 vorgestellte Rekursionsformel verursacht durch wiederholte Anwendung im Allgemeinen einen exponentiellen Rechenaufwand. Daher war das Ziel der vorliegenden Dissertation, Vereinfachungen zur Berechnung des bivariaten chromatischen Polynoms spezieller Graphentypen zu finden. Hierbei wurden folgende Resultate erzielt: Für Vereinigungen von Sternen, für vollständige Graphen, aus welchen die Kanten von Sternen mit paarweise voneinander verschiedenen Ecken gelöscht wurden, für spezielle Splitgraphen und für vollständig partite Graphen konnten rekursionsfreie Gleichungen zur Berechnung des bivariaten chromatischen Polynoms mit jeweils linear beschränkter Rechenzeit gefunden werden. Weiterhin werden Möglichkeiten der Reduktion allgemeiner Splitgraphen, bestimmter bipartiter Graphen sowie vollständig partiter Graphen vorgestellt. Bei letzteren erweist sich eine hierbei gefundene Rekursionsformel durch eine polynomiell beschränkte Laufzeit als effektive Methode. Ferner konnte in einem Abschnitt zu Trennern in Graphen gezeigt werden, dass der Spezialfall der trennenden Cliquen, welcher im univariaten Fall sehr einfach ist, im bivariaten Fall sehr komplexe Methoden erfordert. Ein Zusammenhang zwischen dem bivariaten chromatischen Polynom und dem Matchingpolynom wurde für vollständige Graphen, welchen die Kanten von Sternen mit paarweise voneinander verschiedenen Ecken entnommen wurden, sowie für Bicliquen hergestellt. Die vorliegende Dissertation liefert darüber hinaus auch einige Untersuchungen zum trivariaten chromatischen Polynom, welches auf White (2011) zurückgeht und eine weitere Verallgemeinerung des bivariaten chromatischen Polynoms darstellt. Hierbei konnte gezeigt werden, dass dessen Berechnung selbst für einfache Graphentypen schon recht kompliziert ist. Dieses trifft sogar dann noch zu, wenn man die einzelnen Koeffizienten als bivariate Polynome abspaltet und einzeln berechnet. Abschließend stellt die Arbeit zu vielen Resultaten Implementierungen mit dem Computeralgebrasystem Mathematica bereit, welche zahlreiche Möglichkeiten zu eigenständigen Versuchen bieten.
Resumo:
Intensive, ultrakurze Laserpulse regen Festkörper in einen Zustand an, in dem die Elektronen hohe Temperaturen erlangen, während das Gitter kalt bleibt. Die heißen Elektronen beeinflussen das sog. Laser-angeregte interatomare Potential bzw. die Potentialenergiefläche, auf der die Ionen sich bewegen. Dieses kann neben anderen ultrakurzen Prozessen zu Änderungen der Phononfrequenzen (phonon softening oder phonon hardening) führen. Viele ultrakurze strukturelle Phänomene in Festkörpern hängen bei hohen Laseranregungen von Änderungen der Phononfrequenzen bei niedrigeren Anregungen ab. Um die Laser-bedingten Änderungen des Phononenspektrums von Festkörpern beschreiben zu können, haben wir ein auf Temperatur-abhängiger Dichtefunktionaltheorie basierendes Verfahren entwickelt. Die dramatischen Änderungen nach einer Laseranregung in der Potentialenergiefläche werden durch die starke Veränderung der Zustandsdichte und der Besetzungen der Elektronen hervorgerufen. Diese Änderungen in der Zustandsdichte und den Besetzungszahlen können wir mit unserer Methode berechnen, um dann damit das Verhalten der Phononen nach einer Laseranregung zu analysieren. Auf diese Art und Weise studierten wir den Einfluss einer Anregung mit einem intensiven, ultrakurzen Laserpuls auf repräsentative Phonon Eigenmoden in Magnesium, Kupfer und Aluminium. Wir stellten dabei in manchen Gitterschwingungen entweder eine Abnahme (softening) und in anderen eine Zunahme (hardening) der Eigenfrequenz fest. Manche Moden zeigten bei Variation der Laseranregungsstärke sogar beide Verhaltensweisen. Das eine Phonon-Eigenmode ein hardening und softening zeigen kann, wird durch das Vorhandensein von van Hove Singularitäten in der elektronischen Zustandsdichte des betrachteten Materials erklärt. Für diesen Fall stellt unser Verfahren zusammen mit der Sommerfeld-Entwicklung die Eigenschaften der Festkörper Vibrationen in Verbindung mit den Laser induzierten Veränderungen in den elektronischen Besetzungen für verschiedene Phonon-eingefrorene Atomkonfigurationen. Auch die absolute Größe des softening und hardening wurde berechnet. Wir nehmen an, dass unsere Theorie Licht in die Effekte der Laseranregung von verschiedenen Materialien bringt. Außerdem studierten wir mit Hilfe von Dichtefunktionaltheorie die strukturellen Material-Eigenschaften, die durch kurze XUV Pulse induziert werden. Warme dichte Materie in Ultrakurzpuls angeregten Magnesium wurde analysiert und verglichen mit den Ergebnissen bei durch Laser Anregung bedingten Änderungen. Unter Verwendung von elektronischer-Temperatur-abhängiger Dichtefunktionaltheorie wurden die Änderungen in den Bindungseigenschaften von warmen dichten Magnesium studiert. Wir stellten dabei beide Effekte, Verstärkung und Abschwächung von Bindungen, bei jeweils verschiedenen Phonon Eigenmoden von Magnesium auf Grund von der Erzeugung von Rumpflöchern und dem Vorhandensein von heißen Elektronen fest. Die zusätzliche Erzeugung von heißen Elektronen führt zu einer Änderung der Bindungscharakteristik, die der Änderung, die durch die bereits vorhandenen Rumpflöcher hervorgerufen wurde, entgegen wirkt. Die thermischen Eigenschaften von Nanostrukturen sind teilweise sehr wichtig für elektronische Bauteile. Wir studierten hier ebenfalls den Effekt einer einzelnen Graphen Lage auf Kupfer. Dazu untersuchten wir mit Dichtefunktionaltheorie die strukturellen- und Schwingungseigenschaften von Graphen auf einem Kupfer Substrat. Wir zeigen, dass die schwache Wechselwirkung zwischen Graphen und Kupfer die Frequenz der aus der Ebene gerichteten akustischen Phonon Eigenmode anhebt und die Entartung zwischen den aus der Ebene gerichteten akustischen und optischen Phononen im K-Punkt des Graphen Spektrums aufhebt. Zusätzlich führten wir ab initio Berechnungen zur inelastischen Streuung eines Helium Atoms mit Graphen auf einem Kuper(111) Substrat durch. Wir berechneten dazu das Leistungsspektrum, das uns eine Idee über die verschiedenen Gitterschwingungen des Graphene-Kuper(111) Systems gibt, die durch die Kollision des Helium Atom angeregt werden. Wir brachten die Positionen der Peaks im Leistungsspektrum mit den Phonon Eigenfrequenzen, die wir aus den statischen Rechnungen erhalten haben, in Beziehung. Unsere Ergebnisse werden auch verglichen mit den Ergebnissen experimenteller Daten zur Helium Streuung an Graphen-Kupfer(111) Oberflächen.
Resumo:
Über viele Jahre hinweg wurden wieder und wieder Argumente angeführt, die diskreten Räumen gegenüber kontinuierlichen Räumen eine fundamentalere Rolle zusprechen. Unser Zugangzur diskreten Welt wird durch neuere Überlegungen der Nichtkommutativen Geometrie (NKG) bestimmt. Seit ca. 15Jahren gibt es Anstrengungen und auch Fortschritte, Physikmit Hilfe von Nichtkommutativer Geometrie besser zuverstehen. Nur eine von vielen Möglichkeiten ist dieReformulierung des Standardmodells derElementarteilchenphysik. Unter anderem gelingt es, auch denHiggs-Mechanismus geometrisch zu beschreiben. Das Higgs-Feld wird in der NKG in Form eines Zusammenhangs auf einer zweielementigen Menge beschrieben. In der Arbeit werden verschiedene Ziele erreicht:Quantisierung einer nulldimensionalen ,,Raum-Zeit'', konsistente Diskretisierungf'ur Modelle im nichtkommutativen Rahmen.Yang-Mills-Theorien auf einem Punkt mit deformiertemHiggs-Potenzial. Erweiterung auf eine ,,echte''Zwei-Punkte-Raum-Zeit, Abzählen von Feynman-Graphen in einer nulldimensionalen Theorie, Feynman-Regeln. Eine besondere Rolle werden Termini, die in derQuantenfeldtheorie ihren Ursprung haben, gewidmet. In diesemRahmen werden Begriffe frei von Komplikationen diskutiert,die durch etwaige Divergenzen oder Schwierigkeitentechnischer Natur verursacht werden könnten.Eichfixierungen, Geistbeiträge, Slavnov-Taylor-Identität undRenormierung. Iteratives Lösungsverfahren derDyson-Schwinger-Gleichung mit Computeralgebra-Unterstützung,die Renormierungsprozedur berücksichtigt.
Resumo:
Die chronisch obstruktive Lungenerkrankung (engl. chronic obstructive pulmonary disease, COPD) ist ein Überbegriff für Erkrankungen, die zu Husten, Auswurf und Dyspnoe (Atemnot) in Ruhe oder Belastung führen - zu diesen werden die chronische Bronchitis und das Lungenemphysem gezählt. Das Fortschreiten der COPD ist eng verknüpft mit der Zunahme des Volumens der Wände kleiner Luftwege (Bronchien). Die hochauflösende Computertomographie (CT) gilt bei der Untersuchung der Morphologie der Lunge als Goldstandard (beste und zuverlässigste Methode in der Diagnostik). Möchte man Bronchien, eine in Annäherung tubuläre Struktur, in CT-Bildern vermessen, so stellt die geringe Größe der Bronchien im Vergleich zum Auflösungsvermögen eines klinischen Computertomographen ein großes Problem dar. In dieser Arbeit wird gezeigt wie aus konventionellen Röntgenaufnahmen CT-Bilder berechnet werden, wo die mathematischen und physikalischen Fehlerquellen im Bildentstehungsprozess liegen und wie man ein CT-System mittels Interpretation als lineares verschiebungsinvariantes System (engl. linear shift invariant systems, LSI System) mathematisch greifbar macht. Basierend auf der linearen Systemtheorie werden Möglichkeiten zur Beschreibung des Auflösungsvermögens bildgebender Verfahren hergeleitet. Es wird gezeigt wie man den Tracheobronchialbaum aus einem CT-Datensatz stabil segmentiert und mittels eines topologieerhaltenden 3-dimensionalen Skelettierungsalgorithmus in eine Skelettdarstellung und anschließend in einen kreisfreien Graphen überführt. Basierend auf der linearen System Theorie wird eine neue, vielversprechende, integral-basierte Methodik (IBM) zum Vermessen kleiner Strukturen in CT-Bildern vorgestellt. Zum Validieren der IBM-Resultate wurden verschiedene Messungen an einem Phantom, bestehend aus 10 unterschiedlichen Silikon Schläuchen, durchgeführt. Mit Hilfe der Skelett- und Graphendarstellung ist ein Vermessen des kompletten segmentierten Tracheobronchialbaums im 3-dimensionalen Raum möglich. Für 8 zweifach gescannte Schweine konnte eine gute Reproduzierbarkeit der IBM-Resultate nachgewiesen werden. In einer weiteren, mit IBM durchgeführten Studie konnte gezeigt werden, dass die durchschnittliche prozentuale Bronchialwandstärke in CT-Datensätzen von 16 Rauchern signifikant höher ist, als in Datensätzen von 15 Nichtrauchern. IBM läßt sich möglicherweise auch für Wanddickenbestimmungen bei Problemstellungen aus anderen Arbeitsgebieten benutzen - kann zumindest als Ideengeber dienen. Ein Artikel mit der Beschreibung der entwickelten Methodik und der damit erzielten Studienergebnisse wurde zur Publikation im Journal IEEE Transactions on Medical Imaging angenommen.
Resumo:
Volatile organic compounds play a critical role in ozone formation and drive the chemistry of the atmosphere, together with OH radicals. The simplest volatile organic compound methane is a climatologically important greenhouse gas, and plays a key role in regulating water vapour in the stratosphere and hydroxyl radicals in the troposphere. The OH radical is the most important atmospheric oxidant and knowledge of the atmospheric OH sink, together with the OH source and ambient OH concentrations is essential for understanding the oxidative capacity of the atmosphere. Oceanic emission and / or uptake of methanol, acetone, acetaldehyde, isoprene and dimethyl sulphide (DMS) was characterized as a function of photosynthetically active radiation (PAR) and a suite of biological parameters, in a mesocosm experiment conducted in the Norwegian fjord. High frequency (ca. 1 minute-1) methane measurements were performed using a gas chromatograph - flame ionization detector (GC-FID) in the boreal forests of Finland and the tropical forests of Suriname. A new on-line method (Comparative Reactivity Method - CRM) was developed to directly measure the total OH reactivity (sink) of ambient air. It was observed that under conditions of high biological activity and a PAR of ~ 450 μmol photons m-2 s-1, the ocean acted as a net source of acetone. However, if either of these criteria was not fulfilled then the ocean acted as a net sink of acetone. This new insight into the biogeochemical cycling of acetone at the ocean-air interface has helped to resolve discrepancies from earlier works such as Jacob et al. (2002) who reported the ocean to be a net acetone source (27 Tg yr-1) and Marandino et al. (2005) who reported the ocean to be a net sink of acetone (- 48 Tg yr-1). The ocean acted as net source of isoprene, DMS and acetaldehyde but net sink of methanol. Based on these findings, it is recommended that compound specific PAR and biological dependency be used for estimating the influence of the global ocean on atmospheric VOC budgets. Methane was observed to accumulate within the nocturnal boundary layer, clearly indicating emissions from the forest ecosystems. There was a remarkable similarity in the time series of the boreal and tropical forest ecosystem. The average of the median mixing ratios during a typical diel cycle were 1.83 μmol mol-1 and 1.74 μmol mol-1 for the boreal forest ecosystem and tropical forest ecosystem respectively. A flux value of (3.62 ± 0.87) x 1011 molecules cm-2 s-1 (or 45.5 ± 11 Tg CH4 yr-1 for global boreal forest area) was derived, which highlights the importance of the boreal forest ecosystem for the global budget of methane (~ 600 Tg yr-1). The newly developed CRM technique has a dynamic range of ~ 4 s-1 to 300 s-1 and accuracy of ± 25 %. The system has been tested and calibrated with several single and mixed hydrocarbon standards showing excellent linearity and accountability with the reactivity of the standards. Field tests at an urban and forest site illustrate the promise of the new method. The results from this study have improved current understanding about VOC emissions and uptake from ocean and forest ecosystems. Moreover, a new technique for directly measuring the total OH reactivity of ambient air has been developed and validated, which will be a valuable addition to the existing suite of atmospheric measurement techniques.
Resumo:
In the present work, the formation and migration of point defects induced by electron irradiation in carbon nanostructures, including carbon onions, nanotubes and graphene layers, were investigated by in-situ TEM. The mobility of carbon atoms normal to the layers in graphitic nanoparticles, the mobility of carbon interstitials inside SWCNTs, and the migration of foreign atoms in graphene layers or in layers of carbon nanotubes were studied. The diffusion of carbon atoms in carbon onions was investigated by annealing carbon onions and observing the relaxation of the compressed clusters in the temperature range of 1200 – 2000oC. An activation energy of 5.0±0.3 eV was obtained. This rather high activation energy for atom exchange between the layers not only prevents the exchange of carbon atoms between the layers at lower temperature but also explains the high morphological and mechanical stability of graphite nanostructures. The migration of carbon atoms in SWCNTs was investigated quantitatively by cutting SWCNT bundles repeatedly with a focused electron beam at different temperatures. A migration barrier of about 0.25 eV was obtained for the diffusion of carbon atoms inside SWCNTs. This is an experimental confirmation of the high mobility of interstitial atoms inside carbon nanotubes, which corroborates previously developed theoretical models of interstitial diffusivity. Individual Au and Pt atoms in one- or two-layered graphene planes and MWCNTs were monitored in real time at high temperatures by high-resolution TEM. The direct observation of the behavior of Au and Pt atoms in graphenic structures in a temperature range of 600 – 700°C allows us to determine the sites occupied by the metal atoms in the graphene layer and the diffusivities of the metal atoms. It was found that metal atoms were located in single or multiple carbon vacancies, not in off-plane positions, and diffused by site exchange with carbon atoms. Metal atoms showed a tendency to form clusters those were stable for a few seconds. An activation energy of around 2.5 eV was obtained for the in-plane migration of both Au and Pt atoms in graphene (two-dimensional diffusion). The rather high activation energy indicates covalent bonding between metal and carbon atoms. Metal atoms were also observed to diffuse along the open edge of graphene layers (one-dimensional diffusion) with a slightly lower activation energy of about 2.3 eV. It is also found that the diffusion of metal atoms in curved graphenic layers of MWCNTs is slightly faster than in planar graphene.
Resumo:
We present new algorithms to approximate the discrete volume of a polyhedral geometry using boxes defined by the US standard SAE J1100. This problem is NP-hard and has its main application in the car design process. The algorithms produce maximum weighted independent sets on a so-called conflict graph for a discretisation of the geometry. We present a framework to eliminate a large portion of the vertices of a graph without affecting the quality of the optimal solution. Using this framework we are also able to define the conflict graph without the use of a discretisation. For the solution of the maximum weighted independent set problem we designed an enumeration scheme which uses the restrictions of the SAE J1100 standard for an efficient upper bound computation. We evaluate the packing algorithms according to the solution quality compared to manually derived results. Finally, we compare our enumeration scheme to several other exact algorithms in terms of their runtime. Grid-based packings either tend to be not tight or have intersections between boxes. We therefore present an algorithm which can compute box packings with arbitrary placements and fixed orientations. In this algorithm we make use of approximate Minkowski Sums, computed by uniting many axis-oriented equal boxes. We developed an algorithm which computes the union of equal axis-oriented boxes efficiently. This algorithm also maintains the Minkowski Sums throughout the packing process. We also extend these algorithms for packing arbitrary objects in fixed orientations.
Resumo:
It is currently widely accepted that the understanding of complex cell functions depends on an integrated network theoretical approach and not on an isolated view of the different molecular agents. Aim of this thesis was the examination of topological properties that mirror known biological aspects by depicting the human protein network with methods from graph- and network theory. The presented network is a partial human interactome of 9222 proteins and 36324 interactions, consisting of single interactions reliably extracted from peer-reviewed scientific publications. In general, one can focus on intra- or intermodular characteristics, where a functional module is defined as "a discrete entity whose function is separable from those of other modules". It is found that the presented human network is also scale-free and hierarchically organised, as shown for yeast networks before. The interactome also exhibits proteins with high betweenness and low connectivity which are biologically analyzed and interpreted here as shuttling proteins between organelles (e.g. ER to Golgi, internal ER protein translocation, peroxisomal import, nuclear pores import/export) for the first time. As an optimisation for finding proteins that connect modules, a new method is developed here based on proteins located between highly clustered regions, rather than regarding highly connected regions. As a proof of principle, the Mediator complex is found in first place, the prime example for a connector complex. Focusing on intramodular aspects, the measurement of k-clique communities discriminates overlapping modules very well. Twenty of the largest identified modules are analysed in detail and annotated to known biological structures (e.g. proteasome, the NFκB-, TGF-β complex). Additionally, two large and highly interconnected modules for signal transducer and transcription factor proteins are revealed, separated by known shuttling proteins. These proteins yield also the highest number of redundant shortcuts (by calculating the skeleton), exhibit the highest numbers of interactions and might constitute highly interconnected but spatially separated rich-clubs either for signal transduction or for transcription factors. This design principle allows manifold regulatory events for signal transduction and enables a high diversity of transcription events in the nucleus by a limited set of proteins. Altogether, biological aspects are mirrored by pure topological features, leading to a new view and to new methods that assist the annotation of proteins to biological functions, structures and subcellular localisations. As the human protein network is one of the most complex networks at all, these results will be fruitful for other fields of network theory and will help understanding complex network functions in general.
Resumo:
In the present dissertation we consider Feynman integrals in the framework of dimensional regularization. As all such integrals can be expressed in terms of scalar integrals, we focus on this latter kind of integrals in their Feynman parametric representation and study their mathematical properties, partially applying graph theory, algebraic geometry and number theory. The three main topics are the graph theoretic properties of the Symanzik polynomials, the termination of the sector decomposition algorithm of Binoth and Heinrich and the arithmetic nature of the Laurent coefficients of Feynman integrals.rnrnThe integrand of an arbitrary dimensionally regularised, scalar Feynman integral can be expressed in terms of the two well-known Symanzik polynomials. We give a detailed review on the graph theoretic properties of these polynomials. Due to the matrix-tree-theorem the first of these polynomials can be constructed from the determinant of a minor of the generic Laplacian matrix of a graph. By use of a generalization of this theorem, the all-minors-matrix-tree theorem, we derive a new relation which furthermore relates the second Symanzik polynomial to the Laplacian matrix of a graph.rnrnStarting from the Feynman parametric parameterization, the sector decomposition algorithm of Binoth and Heinrich serves for the numerical evaluation of the Laurent coefficients of an arbitrary Feynman integral in the Euclidean momentum region. This widely used algorithm contains an iterated step, consisting of an appropriate decomposition of the domain of integration and the deformation of the resulting pieces. This procedure leads to a disentanglement of the overlapping singularities of the integral. By giving a counter-example we exhibit the problem, that this iterative step of the algorithm does not terminate for every possible case. We solve this problem by presenting an appropriate extension of the algorithm, which is guaranteed to terminate. This is achieved by mapping the iterative step to an abstract combinatorial problem, known as Hironaka's polyhedra game. We present a publicly available implementation of the improved algorithm. Furthermore we explain the relationship of the sector decomposition method with the resolution of singularities of a variety, given by a sequence of blow-ups, in algebraic geometry.rnrnMotivated by the connection between Feynman integrals and topics of algebraic geometry we consider the set of periods as defined by Kontsevich and Zagier. This special set of numbers contains the set of multiple zeta values and certain values of polylogarithms, which in turn are known to be present in results for Laurent coefficients of certain dimensionally regularized Feynman integrals. By use of the extended sector decomposition algorithm we prove a theorem which implies, that the Laurent coefficients of an arbitrary Feynman integral are periods if the masses and kinematical invariants take values in the Euclidean momentum region. The statement is formulated for an even more general class of integrals, allowing for an arbitrary number of polynomials in the integrand.
Resumo:
Zusammenfassung Zur Verbesserung der Leistungsumwandlung in organischen Solarzellen sind neue Materialien von zentraler Bedeutung, die sämtliche Erfordernisse für organische Photovoltaik-Elemente erfüllen. In der vorliegenden Arbeit „Organic thin-film photovoltaics“ wurden im Hinblick auf ein besseres Verständnis der Zusammenhänge zwischen molekularer Struktur und der Leistungsfähigkeit neue Materialien in „bulk-heterojunction“ Solarzellen und in Festphasen-Farbstoffsensibilisierten Solarzellen untersucht. Durch die Anwendung selbstorganisierender Materialien, diskotischer Graphen-Derivate oder konjugierter Polymere in Verbindung mit entsprechenden Akzeptoren in den „bulk-heterojunction“ Solarzellen wurde gezeigt, dass mit einer Erhöhung der Ordnung durch thermische Behandlung eine verbesserte Leistung des Photovoltaik-Elements einhergeht. In den Festphasen-Farbstoffsensibilisierten Solarzellen wurden zwei neue Farbstoffe untersucht, und es konnte gezeigt werden, dass diese gute Leistung zeigten. Ferner ermöglicht das komplementäre Absorptionsvermögen der beiden Farbstoffe die Herstellung von Vollspektrum-Zellen.