21 resultados para zeta regularization

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

30.00% 30.00%

Publicador:

Resumo:

The main part of this thesis describes a method of calculating the massless two-loop two-point function which allows expanding the integral up to an arbitrary order in the dimensional regularization parameter epsilon by rewriting it as a double Mellin-Barnes integral. Closing the contour and collecting the residues then transforms this integral into a form that enables us to utilize S. Weinzierl's computer library nestedsums. We could show that multiple zeta values and rational numbers are sufficient for expanding the massless two-loop two-point function to all orders in epsilon. We then use the Hopf algebra of Feynman diagrams and its antipode, to investigate the appearance of Riemann's zeta function in counterterms of Feynman diagrams in massless Yukawa theory and massless QED. The class of Feynman diagrams we consider consists of graphs built from primitive one-loop diagrams and the non-planar vertex correction, where the vertex corrections only depend on one external momentum. We showed the absence of powers of pi in the counterterms of the non-planar vertex correction and diagrams built by shuffling it with the one-loop vertex correction. We also found the invariance of some coefficients of zeta functions under a change of momentum flow through these vertex corrections.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Röntgenabsorptionsspektroskopie (Extended X-ray absorption fine structure (EXAFS) spectroscopy) ist eine wichtige Methode zur Speziation von Schwermetallen in einem weiten Bereich von umweltrelevanten Systemen. Um Strukturparameter wie Koordinationszahl, Atomabstand und Debye-Waller Faktoren für die nächsten Nachbarn eines absorbierenden Atoms zu bestimmen, ist es für experimentelle EXAFS-Spektren üblich, unter Verwendung von Modellstrukturen einen „Least-Squares-Fit“ durchzuführen. Oft können verschiedene Modellstrukturen mit völlig unterschiedlicher chemischer Bedeutung die experimentellen EXAFS-Daten gleich gut beschreiben. Als gute Alternative zum konventionellen Kurven-Fit bietet sich das modifizierte Tikhonov-Regularisationsverfahren an. Ergänzend zur Tikhonov-Standardvariationsmethode enthält der in dieser Arbeit vorgestellte Algorithmus zwei weitere Schritte, nämlich die Anwendung des „Method of Separating Functionals“ und ein Iterationsverfahren mit Filtration im realen Raum. Um das modifizierte Tikhonov-Regularisationsverfahren zu testen und zu bestätigen wurden sowohl simulierte als auch experimentell gemessene EXAFS-Spektren einer kristallinen U(VI)-Verbindung mit bekannter Struktur, nämlich Soddyit (UO2)2SiO4 x 2H2O, untersucht. Die Leistungsfähigkeit dieser neuen Methode zur Auswertung von EXAFS-Spektren wird durch ihre Anwendung auf die Analyse von Proben mit unbekannter Struktur gezeigt, wie sie bei der Sorption von U(VI) bzw. von Pu(III)/Pu(IV) an Kaolinit auftreten. Ziel der Dissertation war es, die immer noch nicht voll ausgeschöpften Möglichkeiten des modifizierten Tikhonov-Regularisationsverfahrens für die Auswertung von EXAFS-Spektren aufzuzeigen. Die Ergebnisse lassen sich in zwei Kategorien einteilen. Die erste beinhaltet die Entwicklung des Tikhonov-Regularisationsverfahrens für die Analyse von EXAFS-Spektren von Mehrkomponentensystemen, insbesondere die Wahl bestimmter Regularisationsparameter und den Einfluss von Mehrfachstreuung, experimentell bedingtem Rauschen, etc. auf die Strukturparameter. Der zweite Teil beinhaltet die Speziation von sorbiertem U(VI) und Pu(III)/Pu(IV) an Kaolinit, basierend auf experimentellen EXAFS-Spektren, die mit Hilfe des modifizierten Tikhonov-Regularisationsverfahren ausgewertet und mit Hilfe konventioneller EXAFS-Analyse durch „Least-Squares-Fit“ bestätigt wurden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the present dissertation we consider Feynman integrals in the framework of dimensional regularization. As all such integrals can be expressed in terms of scalar integrals, we focus on this latter kind of integrals in their Feynman parametric representation and study their mathematical properties, partially applying graph theory, algebraic geometry and number theory. The three main topics are the graph theoretic properties of the Symanzik polynomials, the termination of the sector decomposition algorithm of Binoth and Heinrich and the arithmetic nature of the Laurent coefficients of Feynman integrals.rnrnThe integrand of an arbitrary dimensionally regularised, scalar Feynman integral can be expressed in terms of the two well-known Symanzik polynomials. We give a detailed review on the graph theoretic properties of these polynomials. Due to the matrix-tree-theorem the first of these polynomials can be constructed from the determinant of a minor of the generic Laplacian matrix of a graph. By use of a generalization of this theorem, the all-minors-matrix-tree theorem, we derive a new relation which furthermore relates the second Symanzik polynomial to the Laplacian matrix of a graph.rnrnStarting from the Feynman parametric parameterization, the sector decomposition algorithm of Binoth and Heinrich serves for the numerical evaluation of the Laurent coefficients of an arbitrary Feynman integral in the Euclidean momentum region. This widely used algorithm contains an iterated step, consisting of an appropriate decomposition of the domain of integration and the deformation of the resulting pieces. This procedure leads to a disentanglement of the overlapping singularities of the integral. By giving a counter-example we exhibit the problem, that this iterative step of the algorithm does not terminate for every possible case. We solve this problem by presenting an appropriate extension of the algorithm, which is guaranteed to terminate. This is achieved by mapping the iterative step to an abstract combinatorial problem, known as Hironaka's polyhedra game. We present a publicly available implementation of the improved algorithm. Furthermore we explain the relationship of the sector decomposition method with the resolution of singularities of a variety, given by a sequence of blow-ups, in algebraic geometry.rnrnMotivated by the connection between Feynman integrals and topics of algebraic geometry we consider the set of periods as defined by Kontsevich and Zagier. This special set of numbers contains the set of multiple zeta values and certain values of polylogarithms, which in turn are known to be present in results for Laurent coefficients of certain dimensionally regularized Feynman integrals. By use of the extended sector decomposition algorithm we prove a theorem which implies, that the Laurent coefficients of an arbitrary Feynman integral are periods if the masses and kinematical invariants take values in the Euclidean momentum region. The statement is formulated for an even more general class of integrals, allowing for an arbitrary number of polynomials in the integrand.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Elektroosmotische Fluß (EOF) ist der Motor der Kapillarelektrochromatographie. Er ist abhängig von der Oberflächenladung, von dem Teilchendurchmesser der verwendeten Packungsmaterialien, von der Pufferkonzentration, von dem pH - Wert und von dem Anteil des organischen Lösemittels im Fließmittel. In dieser Arbeit wurde der Einfluß dieser Parameter untersucht. Das Zetapotential als Maß für die Ladungsdichte an der Oberfläche eignet sich zur Charakterisierung der Packungsmaterialien und der damit gepackten Kapillaren. Es wurden in dieser Arbeit _-Potentiale mehrerer chemisch modifizierter Kieselgele mit nativen Kieselgelen verglichen. Die pH-Abhängigkeit der _-Potentiale spiegelt sich im EOF wider.Chemisch modifizierte Kieselgele mit gemischtfunktionellen Gruppen oder Ionenaustauschergruppen zeigen ein großes Zeta – Potential ohne pH-Abhängigkeit. Wie experimentell gezeigt wurde, sind Kapillaren, die mit diesen Materialien gepackt wurden, nicht reproduzierbar in Bezug auf den EOF und die Effizienz der Trennung. Deswegen wurden in dieser Arbeit Additive zu dem Fließmittelgemisch gegeben, die die Ladung des Puffers erhöhen und damit den EOF beschleunigen sollen. Durch dynamisches Benetzen der Oberfläche, durch Micellenbildung und durch Addukte mit den Analyten können diese Additive die Selektivität der Trenung beeinflussen, wie am Beispiel mehrerer Testgemische gezeigt wurde, die Geschwindigkeit des EOF bleibt davon unberührt. Kapillaren, die mit porösen und unporösen Kieselgelen gepackt wurden, verhalten sich in der CEC gleich: bei niedrigen pH-Werten und niedrigen Pufferkonzentrationen werden die kleinsten Bodenhöhen und die größten EOF – Geschwindigkeiten gemessen. Das Minimum der H vs u Kurven liegt für CEC – Kapillaren mit porösen 3 µm - Materialien (Hypersil ODS) bei dem Zwei- bis Dreifachen (H ª 2 - 3 dp), mit unporösen 3 µm - Materialien (MICRA NPS ODS) bei dem Doppelten (H ª 2 dp) und mit unporösen 1,5 µm - Materialien (MICRA NPS ODS) bei dem Eineinhalbfachen (H ª 1,5 µm) des mittleren Teilchendurchmessers, d.h es ergibt sich für kleinere Teilchendurchmesser eine höhere Effizienz. Kapillaren mit unporösen Teilchen haben ein geringeres Totvolumen als mit porösen Teilchen gefüllte, deshalb scheint der EOF besonders schnell zu sein. Trennungen auf Kapillaren, die mit unporösen Teilchen gefüllt sind, erweisen sich als besonders schnell, da der geringe Kohlenstoffgehalt eine schnelle Einstellung des Verteilungsgleichgewichts bewirkt. Fließmittel mit einem hohen Anteil an polaren organischen Lösemitteln (Acetonitril bzw. Methanol) machen diesen Vorteil zunichte, die Analyten werden nicht getrennt.Aus mehreren kommerziell erwerbbaren Komponenten wurde ein Instrument aufgebaut, das sich als Kapillar Elektrophorese, als Kapillar Elektrochromatographie, als µ-HPLC und als spannungsunterstützte µ-HPLC verwenden läßt. Dieses Gerät eignet sich besonders zur Kombination der CEC mit der µ-HPLC, die man vielleicht spannungsunterstützte µ-HPLC nennen darf. Mit diesem Gerät konnte der Einfluß des elektrischen Feldes auf den EOF gemessen werden, da mit wesentlich kürzeren gepackten Kapillaren gearbeitet werden kann. Der EOF, wie er aus der CEC bekannt ist, kann in der spannungsunterstützten µ-HPLC neben dem hydrodynamischen Fluß nachgewiesen werden. Beide Effekte arbeiten neben einander, damit lassen sich hydrodynamisch betriebene Anlagen mit elektrokinetisch betriebenen koppeln. Das scheint auf den ersten Blick ein Schritt zurück zu sein, bietet jedoch ungeahnte Möglichkeiten für die Zukunft, da die geringen Flüsse, die man zum Betreiben dieser Anlagen braucht, mit modernen Spritzenpumpen leicht handhabbar sind. Die Vorteile dieses Systems zeigen sich in dem geringen Fließmittelverbrauch, dem geringen Probenmengenbedarf, der hohen Selektivität und dem universellen Einsatz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden zwei physikalischeFließexperimente an Vliesstoffen untersucht, die dazu dienensollen, unbekannte hydraulische Parameter des Materials, wiez. B. die Diffusivitäts- oder Leitfähigkeitsfunktion, ausMeßdaten zu identifizieren. Die physikalische undmathematische Modellierung dieser Experimente führt auf einCauchy-Dirichlet-Problem mit freiem Rand für die degeneriertparabolische Richardsgleichung in derSättigungsformulierung, das sogenannte direkte Problem. Ausder Kenntnis des freien Randes dieses Problems soll dernichtlineare Diffusivitätskoeffizient derDifferentialgleichung rekonstruiert werden. Für diesesinverse Problem stellen wir einOutput-Least-Squares-Funktional auf und verwenden zu dessenMinimierung iterative Regularisierungsverfahren wie dasLevenberg-Marquardt-Verfahren und die IRGN-Methode basierendauf einer Parametrisierung des Koeffizientenraumes durchquadratische B-Splines. Für das direkte Problem beweisen wirunter anderem Existenz und Eindeutigkeit der Lösung desCauchy-Dirichlet-Problems sowie die Existenz des freienRandes. Anschließend führen wir formal die Ableitung desfreien Randes nach dem Koeffizienten, die wir für dasnumerische Rekonstruktionsverfahren benötigen, auf einlinear degeneriert parabolisches Randwertproblem zurück.Wir erläutern die numerische Umsetzung und Implementierungunseres Rekonstruktionsverfahrens und stellen abschließendRekonstruktionsergebnisse bezüglich synthetischer Daten vor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit beginnt mit dem Vergleich spezieller Regularisierungsmethoden in der Quantenfeldtheorie mit dem Verfahren zur störungstheoretischen Konstruktion der S-Matrix nach Epstein und Glaser. Da das Epstein-Glaser-Verfahren selbst als Regularisierungsverfahren verwandt werden kann und darüberhinaus ausschließlich auf physikalisch motivierten Postulaten basiert, liefert dieser Vergleich ein Kriterium für die Zulässigkeit anderer Regularisierungsmethoden. Zusätzlich zur Herausstellung dieser Zulässigkeit resultiert aus dieser Gegenüberstellung als weiteres wesentliches Resultat ein neues, in der Anwendung praktikables sowie konsistentes Regularisierungsverfahren, das modifizierte BPHZ-Verfahren. Dieses wird anhand von Ein-Schleifen-Diagrammen aus der QED (Elektronselbstenergie, Vakuumpolarisation und Vertexkorrektur) demonstriert. Im Gegensatz zur vielverwandten Dimensionalen Regularisierung ist dieses Verfahren uneingeschränkt auch für chirale Theorien anwendbar. Als Beispiel hierfür dient die Berechnung der im Rahmen einer axialen Erweiterung der QED-Lagrangedichte auftretenden U(1)-Anomalie. Auf der Stufe von Mehr-Schleifen-Diagrammen zeigt der Vergleich der Epstein-Glaser-Konstruktion mit dem bekannten BPHZ-Verfahren an mehreren Beispielen aus der Phi^4-Theorie, darunter das sog. Sunrise-Diagramm, daß zu deren Berechnung die nach der Waldformel des BPHZ-Verfahrens zur Regularisierung beitragenden Unterdiagramme auf eine kleinere Klasse eingeschränkt werden können. Dieses Resultat ist gleichfalls für die Praxis der Regularisierung bedeutsam, da es bereits auf der Stufe der zu berücksichtigenden Unterdiagramme zu einer Vereinfachung führt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present state of the theoretical predictions for the hadronic heavy hadron production is not quite satisfactory. The full next-to-leading order (NLO) ${cal O} (alpha_s^3)$ corrections to the hadroproduction of heavy quarks have raised the leading order (LO) ${cal O} (alpha_s^2)$ estimates but the NLO predictions are still slightly below the experimental numbers. Moreover, the theoretical NLO predictions suffer from the usual large uncertainty resulting from the freedom in the choice of renormalization and factorization scales of perturbative QCD.In this light there are hopes that a next-to-next-to-leading order (NNLO) ${cal O} (alpha_s^4)$ calculation will bring theoretical predictions even closer to the experimental data. Also, the dependence on the factorization and renormalization scales of the physical process is expected to be greatly reduced at NNLO. This would reduce the theoretical uncertainty and therefore make the comparison between theory and experiment much more significant. In this thesis I have concentrated on that part of NNLO corrections for hadronic heavy quark production where one-loop integrals contribute in the form of a loop-by-loop product. In the first part of the thesis I use dimensional regularization to calculate the ${cal O}(ep^2)$ expansion of scalar one-loop one-, two-, three- and four-point integrals. The Laurent series of the scalar integrals is needed as an input for the calculation of the one-loop matrix elements for the loop-by-loop contributions. Since each factor of the loop-by-loop product has negative powers of the dimensional regularization parameter $ep$ up to ${cal O}(ep^{-2})$, the Laurent series of the scalar integrals has to be calculated up to ${cal O}(ep^2)$. The negative powers of $ep$ are a consequence of ultraviolet and infrared/collinear (or mass ) divergences. Among the scalar integrals the four-point integrals are the most complicated. The ${cal O}(ep^2)$ expansion of the three- and four-point integrals contains in general classical polylogarithms up to ${rm Li}_4$ and $L$-functions related to multiple polylogarithms of maximal weight and depth four. All results for the scalar integrals are also available in electronic form. In the second part of the thesis I discuss the properties of the classical polylogarithms. I present the algorithms which allow one to reduce the number of the polylogarithms in an expression. I derive identities for the $L$-functions which have been intensively used in order to reduce the length of the final results for the scalar integrals. I also discuss the properties of multiple polylogarithms. I derive identities to express the $L$-functions in terms of multiple polylogarithms. In the third part I investigate the numerical efficiency of the results for the scalar integrals. The dependence of the evaluation time on the relative error is discussed. In the forth part of the thesis I present the larger part of the ${cal O}(ep^2)$ results on one-loop matrix elements in heavy flavor hadroproduction containing the full spin information. The ${cal O}(ep^2)$ terms arise as a combination of the ${cal O}(ep^2)$ results for the scalar integrals, the spin algebra and the Passarino-Veltman decomposition. The one-loop matrix elements will be needed as input in the determination of the loop-by-loop part of NNLO for the hadronic heavy flavor production.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We report on a strategy to prepare metal oxides including binary oxide and mixed metal oxide (MMO) in form of nanometer-sized particles using polymer as precursor. Zinc oxide nanoparticles are prepared as an example. The obtained zinc polyacrylate precursor is amorphous as confirmed by X-ray diffraction (XRD) and transmission electron microscopy (TEM). The conversion from polymer precursor to ZnO nanocrystals by thermal pyrolysis was investigated by means of XRD, thermogravimetric analysis (TGA) and electron microscopy. The as-synthesized ZnO consists of many individual particles with a diameter around 40 nm as shown by scanning electron microscopy (SEM). The photoluminescence (PL) and electron paramagnetic (EPR) properties of the material are investigated, too. Employing this method, ZnO nanocrystalline films are fabricated via pyrolysis of a zinc polyacrylate precursor film on solid substrate like silicon and quartz glass. The results of XRD, absorption spectra as well as TEM prove that both the ZnO nanopowder and film undergo same evolution process. Comparing the PL properties of films fabricated in different gas atmosphere, it is assigned that the blue emission of the ZnO films is due to crystal defect of zinc vacancy and green emission from oxygen vacancy. Two kinds of ZnO-based mixed metal oxide (Zn1-xMgxO and Zn1-xCoxO) particles with very precise stoichiometry are prepared by controlled pyrolysis of the corresponding polymer precursor at 550 oC. The MMO crystal particles are typically 20-50 nm in diameter. Doping of Mg in ZnO lattice causes shrinkage of lattice parameter c, while it remains unchanged with Co incorporation. Effects of bandgap engineering are seen in the Mg:ZnO system. The photoluminescence in the visible is enhanced by incorporation of magnesium on zinc lattice sites, while the emission is suppressed in the Co:ZnO system. Magnetic property of cobalt doped-ZnO is checked too and ferromagnetic ordering was not found in our samples. An alternative way to prepare zinc oxide nanoparticles is presented upon calcination of zinc-loaded polymer precursors, which is synthesized via inverse miniemulsion polymerization of the mixture of the acrylic acid and zinc nitrate. The as-prepared ZnO product is compared with that obtained from polymer-salt complex method. The obtained ZnO nanoparticles undergo surface modification via a phosphate modifier applying ultrasonication. The morphology of the modified particles is checked by SEM. And stability of the ZnO nanoparticles in aqueous dispersion is enhanced as indicated by the zeta-potential results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die wichtigsten Bestandteile des Cytoskeletts in pflanzlichen Zellen sind die Actinfilamente und die Mikrotubuli. Die Mikrotubuli spielen in der Organisation und der Morphogenese von pflanzlichen Zellen eine wichtige Rolle. Sie sind zusammen mit den Cellulosefibrillen an der Formgebung der Pflanzenzelle beteiligt. Sie bilden das Präprophaseband, das die Zellteilungsebene bestimmt und die Mitosespindel, die für die Trennung der Chromosomen sorgt, sowie den Phragmoplasten, der die Zellwand zwischen den Tochterzellen bildet. Weiterhin geben die Mikrotubuli durch Interaktion mit den Cellulose-Synthase-Komplexen die Richtung der Zellexpansion vor (GRANGER und CYR, 2001; LLOYD und CHAN, 2002; BASKIN, 2002). Die Mikrotubuli sind auch an der Stabilisierung der Zellform und an Transportprozessen beteiligt. Als Bestandteil der Mikrotubuli-organisierenden Zentren (MTOCs) wurde das γ-Tubulin identifiziert, das sehr wahrscheinlich an der Nukleation der Mikrotubuli beteiligt ist, indem es die Assemblierung der αβ-Tubulindimere zu Mikrotubuli einleitet. In tierischen Zellen ist durch intensive Forschung inzwischen relativ viel über die Funktion von γ-Tubulin, vor allem im Verlauf der Zellteilung bekannt, wie z. B. die Lokalisation in Centrosomen mit ihren paarweise angeordneten Centriolen, die die MTOCs darstellen. In pflanzlichen Zellen sind bisher nur wenige Funktionen des Proteins hinreichend geklärt. Die höheren Pflanzen besitzen keine Centriolen und keine Centrosomen. Über die Zellteilung hinaus gibt es kaum Anhaltspunkte über das Vorhandensein oder eventuelle Aufgaben von γ-Tubulin in expandierenden und voll expandierten Zellkulturen und Pflanzengeweben. In dieser Arbeit wurde die Expression über PCR und die Messung des Proteingehalts von cytoskelett-relevanten Proteinen in den Entwicklungsstadien der Zellsuspensionskultur (BY-2) und von Blattstadien der Tabakpflanze (SR1) von Nicotiana tabacum gemessen. Primäres Ziel war es eine Aussage zu erhalten, in welchem Ausmaß γ-Tubulin in expandierenden und voll expandierten Zellen noch exprimiert wird und ob bzw. wie eine Regulation (transkriptionell oder posttranskriptionell) des γ-Tubulins in der Pflanze stattfindet. Für den Nachweis des γ-Tubulins auf der Proteinebene wurde ein pflanzenspezifischer γ-Tubulin Antikörper zu entwickelt. Bei diesem Antikörper handelte es sich um einen polyklonalen Antikörper, der spezifisch gegen eine Sequenz in pflanzlichem γ-Tubulin gerichtet ist. Dabei zeigte der in der Arbeit entwickelte Antikörper gegen die pflanzliche JOSHI-Domäne spezifische Signale. Der erfolgte Nachweis von γ-Tubulin auf der Proteinebene und der Transkripte zeigte bis in die ältesten untersuchten Stadien der Zellsuspensionskultur (BY-2) und in Geweben der Blattstadien der Tabakpflanze (SR1) deutliche Signale für γ-Tubulin. Es war somit nicht nur in meristematisch aktiven Zellen und Geweben von Nicotiana tabacum, sondern auch in nichtmitotischen Zellen und Geweben vorhanden. Hierbei war über die Phasen der Zellteilung und der Zellformgebung hinweg auf beiden Ebenen eine parallele Entwicklung mit relativ konstanten starken Signalen zu beobachten. Nach dem Einstellen der Teilungsaktivität fiel der Gehalt an mRNA deutlich ab. Dabei nahm die Konzentration des Proteins im Vergleich zur mRNA zeitlich verzögert ab. Diese Ergebnisse bei der Zellsuspensionskultur (BY-2) und Tabakpflanze (SR1) gehen mit der möglichen Nukleationstätigkeit des Proteins konform. Es waren geringere aber doch deutlichen Signale bei Absterbenden Zellen der Zellkultur, bzw. bei expandierenden und voll expandierten und seneszenten Blättern der Tabakpflanze (SR1) nachzuweisen. Dies lässt die Folgerung zu, dass die nachgewiesene mRNA von γ-Tubulin nicht posttranskriptionell reguliert wird, sondern dass das γ-Tubulin auch eine wichtige Rolle außerhalb der Zellteilung in den postmitotischen Stadien, z. B. als organisierender Faktor bei der Umgestaltung oder Stabilisierung des Mikrotubuli-Cytoskeletts, spielt. Der γ-Tubulin-Gehalt in den Geweben der SR1-Pflanze zeigte über die Zellkultur hinaus, dass die Expression von α-Tubulin nach Einstellen der Teilungsaktivität kontinuierlich abnimmt. Dieses Ergebnis legt die Vermutung nahe, dass γ-Tubulin in älteren Blattgeweben zusätzliche Aufgaben übernehmen könnte, die nicht auf eine gleichzeitige Expression von α-Tubulin angewiesen sind. So kann beispielsweise eine Beteiligung von γ-Tubulin an der Stabilisierung der Mikrotubuli, und damit einhergehend eine Abnahme der dynamischen Instabilität dieser Filamente, eine denkbare Funktion des Proteins in expandierendem und voll expandiertem Gewebe sein. Die Aufgaben von γ-Tubulin in sehr altem Gewebe mit deutlichen Anzeichen der Seneszenz können allerdings nach dem derzeitigen Stand der Forschung nicht eindeutig beantwortet werden und bedürfen weitergehenden Untersuchungen, da dadurch ein die Komplexität und die Dynamik des pflanzlichen Cytoskeletts geklärt werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, two different systems were investigated to develop fundamental understanding of the self-assembly behavior of polyelectrolytes and small organic counterions with a certain geometry. Complexes formed were characterized by light scattering in solution, as well as UV-Vis spectroscopy, analytical ultracentrifugation, gel electrophoresis, zeta potential and IR spectroscopy. The morphologies of the aggregates were observed by AFM in dried state on surface. The charge ratio, the valence and the structure of the counterion were shown to represent key parameters in the complexation. The influence of polyelectrolyte type and molecular weights was also determined for the structure formed.rnrnOne system was mainly focused on the association of double-strand DNA with non-intercalating divalent and tetravalent organic counterions. The other model system involved linear NaPSS and oligolysines. In addition, various influences on the morphology of the charged self-assembly complexes in AFM studies were discussed. It was shown that electrostatic self-assembly of DNA and non-intercalating counterions as well as of a linear synthetic polyelectrolyte with oligolysine counterions that can build mutual hydrogen bonds can yield supramolecular aggregates of a defined size. Various morphologies (flower-like, rod-like, toroidal and spherical) of the assemblies were obtained for different combinations of polyelectrolyte and counterions. Results presented in this work are of importance for the fundamental understanding of the association behavior of various polyelectrolytes and organic counterions. The selection of biopolymers for the study may give an opportunity to transfer the basic research results into biological applications, such as gene therapy or drug delivery.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sei $\pi:X\rightarrow S$ eine \"uber $\Z$ definierte Familie von Calabi-Yau Varietaten der Dimension drei. Es existiere ein unter dem Gauss-Manin Zusammenhang invarianter Untermodul $M\subset H^3_{DR}(X/S)$ von Rang vier, sodass der Picard-Fuchs Operator $P$ auf $M$ ein sogenannter {\em Calabi-Yau } Operator von Ordnung vier ist. Sei $k$ ein endlicher K\"orper der Charaktetristik $p$, und sei $\pi_0:X_0\rightarrow S_0$ die Reduktion von $\pi$ \uber $k$. F\ur die gew\ohnlichen (ordinary) Fasern $X_{t_0}$ der Familie leiten wir eine explizite Formel zur Berechnung des charakteristischen Polynoms des Frobeniusendomorphismus, des {\em Frobeniuspolynoms}, auf dem korrespondierenden Untermodul $M_{cris}\subset H^3_{cris}(X_{t_0})$ her. Sei nun $f_0(z)$ die Potenzreihenl\osung der Differentialgleichung $Pf=0$ in einer Umgebung der Null. Da eine reziproke Nullstelle des Frobeniuspolynoms in einem Teichm\uller-Punkt $t$ durch $f_0(z)/f_0(z^p)|_{z=t}$ gegeben ist, ist ein entscheidender Schritt in der Berechnung des Frobeniuspolynoms die Konstruktion einer $p-$adischen analytischen Fortsetzung des Quotienten $f_0(z)/f_0(z^p)$ auf den Rand des $p-$adischen Einheitskreises. Kann man die Koeffizienten von $f_0$ mithilfe der konstanten Terme in den Potenzen eines Laurent-Polynoms, dessen Newton-Polyeder den Ursprung als einzigen inneren Gitterpunkt enth\alt, ausdr\ucken,so beweisen wir gewisse Kongruenz-Eigenschaften unter den Koeffizienten von $f_0$. Diese sind entscheidend bei der Konstruktion der analytischen Fortsetzung. Enth\alt die Faser $X_{t_0}$ einen gew\ohnlichen Doppelpunkt, so erwarten wir im Grenz\ubergang, dass das Frobeniuspolynom in zwei Faktoren von Grad eins und einen Faktor von Grad zwei zerf\allt. Der Faktor von Grad zwei ist dabei durch einen Koeffizienten $a_p$ eindeutig bestimmt. Durchl\auft nun $p$ die Menge aller Primzahlen, so erwarten wir aufgrund des Modularit\atssatzes, dass es eine Modulform von Gewicht vier gibt, deren Koeffizienten durch die Koeffizienten $a_p$ gegeben sind. Diese Erwartung hat sich durch unsere umfangreichen Rechnungen best\atigt. Dar\uberhinaus leiten wir weitere Formeln zur Bestimmung des Frobeniuspolynoms her, in welchen auch die nicht-holomorphen L\osungen der Gleichung $Pf=0$ in einer Umgebung der Null eine Rolle spielen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Während das Standardmodell der Elementarteilchenphysik eine konsistente, renormierbare Quantenfeldtheorie dreier der vier bekannten Wechselwirkungen darstellt, bleibt die Quantisierung der Gravitation ein bislang ungelöstes Problem. In den letzten Jahren haben sich jedoch Hinweise ergeben, nach denen metrische Gravitation asymptotisch sicher ist. Das bedeutet, daß sich auch für diese Wechselwirkung eine Quantenfeldtheorie konstruieren läßt. Diese ist dann in einem verallgemeinerten Sinne renormierbar, der nicht mehr explizit Bezug auf die Störungstheorie nimmt. Zudem sagt dieser Zugang, der auf der Wilsonschen Renormierungsgruppe beruht, die korrekte mikroskopische Wirkung der Theorie voraus. Klassisch ist metrische Gravitation auf dem Niveau der Vakuumfeldgleichungen äquivalent zur Einstein-Cartan-Theorie, die das Vielbein und den Spinzusammenhang als fundamentale Variablen verwendet. Diese Theorie besitzt allerdings mehr Freiheitsgrade, eine größere Eichgruppe, und die zugrundeliegende Wirkung ist von erster Ordnung. Alle diese Eigenschaften erschweren eine zur metrischen Gravitation analoge Behandlung.rnrnIm Rahmen dieser Arbeit wird eine dreidimensionale Trunkierung von der Art einer verallgemeinerten Hilbert-Palatini-Wirkung untersucht, die neben dem Laufen der Newton-Konstante und der kosmologischen Konstante auch die Renormierung des Immirzi-Parameters erfaßt. Trotz der angedeuteten Schwierigkeiten war es möglich, das Spektrum des freien Hilbert-Palatini-Propagators analytisch zu berechnen. Auf dessen Grundlage wird eine Flußgleichung vom Propertime-Typ konstruiert. Zudem werden geeignete Eichbedingungen gewählt und detailliert analysiert. Dabei macht die Struktur der Eichgruppe eine Kovariantisierung der Eichtransformationen erforderlich. Der resultierende Fluß wird für verschiedene Regularisierungsschemata und Eichparameter untersucht. Dies liefert auch im Einstein-Cartan-Zugang berzeugende Hinweise auf asymptotische Sicherheit und damit auf die mögliche Existenz einer mathematisch konsistenten und prädiktiven fundamentalen Quantentheorie der Gravitation. Insbesondere findet man ein Paar nicht-Gaußscher Fixpunkte, das Anti-Screening aufweist. An diesen sind die Newton-Konstante und die kosmologische Konstante jeweils relevante Kopplungen, wohingegen der Immirzi-Parameter an einem Fixpunkt irrelevant und an dem anderen relevant ist. Zudem ist die Beta-Funktion des Immirzi-Parameters von bemerkenswert einfacher Form. Die Resultate sind robust gegenüber Variationen des Regularisierungsschemas. Allerdings sollten zukünftige Untersuchungen die bestehenden Eichabhängigkeiten reduzieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

What is the intracellular fate of nanoparticles (NPs) taken up by the cells? This question has been investigated for polystyrene NPs of different sizes with a set of molecular biological and biophysical techniques.rnTwo sets of fluorescent NPs, cationic and non-ionic, were synthesized with three different polymerization techniques. Non-ionic particles (132 – 846 nm) were synthesized with dispersion polymerization in an ethanol/water solution. Cationic NPs with 120 nm were synthesized by miniemulsion polymerization Particles with 208, 267 and 603 nm were produced by seeding the 120 nm particle obtained by miniemulsion polymerization with drop-wise added monomer and polymerization of such. The colloidal characterization of all particles showed a comparable amount of the surface groups. In addition, particles were characterized with regard to their size, morphology, solid content, amount of incorporated fluorescent dye and zeta potential. The fluorescent intensities of all particles were measured by fluorescence spectroscopy for calibration in further cellular experiments. rnThe uptake of the NPs to HeLa cells after 1 – 24 h revealed a much higher uptake of cationic NPs in comparison to non-ionic NPs. If the same amount of NPs with different sizes is introduced to the cell, a different amount of particles is present in the cell medium, which complicates a comparison of the uptake. The same conclusion is valid for the particles’ overall surface area. Therefore, HeLa cells were incubated with the same concentration, amount and surface area of NPs. It was found that with the same concentration always the same polymer amount is taking up by cells. However, the amount of particles taken up decreases for the biggest. A correlation to the surface area could not be found. We conclude that particles are endocytosed by an excavator-shovel like mechanism, which does not distinguish between different sizes, but is only dependent on the volume that is taken up. For the decreased amount of large particles, an overload of this mechanism was assumed, which leads to a decrease in the uptake. rnThe participation of specific endocytotic processes has been determined by the use of pharmacological inhibitors, immunocytological staining and immunofluorescence. The uptake of NPs into the endo-lysosomal machinery is dominated by a caveolin-mediated endocytosis. Other pathways, which include macropinocytosis and a dynamin-dependent mechanism but exclude clathrin mediated endocytosis, also occur as competing processes. All particles can be found to some extent in early endosomes, but only bigger particles were proven to localize in late endosomes. No particles were found in lysosomes; at least not in lysosomes that are labeled with Lamp1 and cathepsin D. However, based on the character of the performed experiment, a localization of particles in lysosomes cannot be excluded.rnDuring their ripening process, vesicles undergo a gradual acidification from early over late endosomes to lysosomes. It is hypothesized that NPs in endo-lysosomal compartments experience the same change in pH value. To probe the environmental pH of NPs after endocytosis, the pH-sensitive dye SNARF-4F was grafted onto amino functionalized polystyrene NPs. The pH value is a ratio function of the two emission wavelengths of the protonated and deprotonated form of the dye and is hence independent of concentration changes. The particles were synthesized by the aforementioned miniemulsion polymerization with the addition of the amino functionalized copolymer AEMH. The immobilization of SNARF-4F was performed by an EDC-coupling reaction. The amount of physically adsorbed dye in comparison to covalently bonded dye was 15% as determined by precipitation of the NPs in methanol, which is a very good solvent for SNARF-4F. To determine influences of cellular proteins on the fluorescence properties, a intracellular calibration fit was established with platereader measurements and cLSM imaging by the cell-penetrable SNARF-4F AM ester. Ionophores equilibrated the extracellular and intracellular pH.rnSNARF-4F NPs were taken up well by HeLa cells and showed no toxic effects. The pH environment of SNARF-4F NPs has been qualitatively imaged as a movie over a time period up to 1 h in pseudo-colors by a self-written automated batch program. Quantification revealed an acidification process until pH value of 4.5 over 24 h, which is much slower than the transport of nutrients to lysosomes. NPs are present in early endosomes after min. 1 h, in late endosomes at approx. 8 h and end up in vesicles with a pH value typical for lysosomes after > 24 h. We therefore assume that NPs bear a unique endocytotic mechanism, at least with regards to the kinetic involvedrn