69 resultados para diffusives viskoelastisches Modell, globale schwache Lösung, Fehlerabschätzung
Resumo:
In this work we develop and analyze an adaptive numerical scheme for simulating a class of macroscopic semiconductor models. At first the numerical modelling of semiconductors is reviewed in order to classify the Energy-Transport models for semiconductors that are later simulated in 2D. In this class of models the flow of charged particles, that are negatively charged electrons and so-called holes, which are quasi-particles of positive charge, as well as their energy distributions are described by a coupled system of nonlinear partial differential equations. A considerable difficulty in simulating these convection-dominated equations is posed by the nonlinear coupling as well as due to the fact that the local phenomena such as "hot electron effects" are only partially assessable through the given data. The primary variables that are used in the simulations are the particle density and the particle energy density. The user of these simulations is mostly interested in the current flow through parts of the domain boundary - the contacts. The numerical method considered here utilizes mixed finite-elements as trial functions for the discrete solution. The continuous discretization of the normal fluxes is the most important property of this discretization from the users perspective. It will be proven that under certain assumptions on the triangulation the particle density remains positive in the iterative solution algorithm. Connected to this result an a priori error estimate for the discrete solution of linear convection-diffusion equations is derived. The local charge transport phenomena will be resolved by an adaptive algorithm, which is based on a posteriori error estimators. At that stage a comparison of different estimations is performed. Additionally a method to effectively estimate the error in local quantities derived from the solution, so-called "functional outputs", is developed by transferring the dual weighted residual method to mixed finite elements. For a model problem we present how this method can deliver promising results even when standard error estimator fail completely to reduce the error in an iterative mesh refinement process.
Resumo:
A study of maar-diatreme volcanoes has been perfomed by inversion of gravity and magnetic data. The geophysical inverse problem has been solved by means of the damped nonlinear least-squares method. To ensure stability and convergence of the solution of the inverse problem, a mathematical tool, consisting in data weighting and model scaling, has been worked out. Theoretical gravity and magnetic modeling of maar-diatreme volcanoes has been conducted in order to get information, which is used for a simple rough qualitative and/or quantitative interpretation. The information also serves as a priori information to design models for the inversion and/or to assist the interpretation of inversion results. The results of theoretical modeling have been used to roughly estimate the heights and the dip angles of the walls of eight Eifel maar-diatremes — each taken as a whole. Inversemodeling has been conducted for the Schönfeld Maar (magnetics) and the Hausten-Morswiesen Maar (gravity and magnetics). The geometrical parameters of these maars, as well as the density and magnetic properties of the rocks filling them, have been estimated. For a reliable interpretation of the inversion results, beside the knowledge from theoretical modeling, it was resorted to other tools such like field transformations and spectral analysis for complementary information. Geologic models, based on thesynthesis of the respective interpretation results, are presented for the two maars mentioned above. The results gave more insight into the genesis, physics and posteruptive development of the maar-diatreme volcanoes. A classification of the maar-diatreme volcanoes into three main types has been elaborated. Relatively high magnetic anomalies are indicative of scoria cones embeded within maar-diatremes if they are not caused by a strong remanent component of the magnetization. Smaller (weaker) secondary gravity and magnetic anomalies on the background of the main anomaly of a maar-diatreme — especially in the boundary areas — are indicative for subsidence processes, which probably occurred in the late sedimentation phase of the posteruptive development. Contrary to postulates referring to kimberlite pipes, there exists no generalized systematics between diameter and height nor between geophysical anomaly and the dimensions of the maar-diatreme volcanoes. Although both maar-diatreme volcanoes and kimberlite pipes are products of phreatomagmatism, they probably formed in different thermodynamic and hydrogeological environments. In the case of kimberlite pipes, large amounts of magma and groundwater, certainly supplied by deep and large reservoirs, interacted under high pressure and temperature conditions. This led to a long period phreatomagmatic process and hence to the formation of large structures. Concerning the maar-diatreme and tuff-ring-diatreme volcanoes, the phreatomagmatic process takes place due to an interaction between magma from small and shallow magma chambers (probably segregated magmas) and small amounts of near-surface groundwater under low pressure and temperature conditions. This leads to shorter time eruptions and consequently to structures of smaller size in comparison with kimberlite pipes. Nevertheless, the results show that the diameter to height ratio for 50% of the studied maar-diatremes is around 1, whereby the dip angle of the diatreme walls is similar to that of the kimberlite pipes and lies between 70 and 85°. Note that these numerical characteristics, especially the dip angle, hold for the maars the diatremes of which — estimated by modeling — have the shape of a truncated cone. This indicates that the diatreme can not be completely resolved by inversion.
Resumo:
The recombinant expression of 19 different substructures of KLH in the prokaryotic sys-tem E. coli has been successfully achieved: each one of the eight single FUs a to h of both isoforms, KLH1 and KLH2, two substructures consisting of two consecutive FUs (KLH1-bc and KLH1-gh) as well as a cDNA encompassing KLH1-abc. All recombinant proteins, fused to an N-terminal 6xHis tag, have successfully been detected by immuno precipitation using monoclonal α-His-antibodies and polyclonal α-KLH1- and α-KLH2-antibodies. One exception remained: SP-KLH2-a, which was not detected by the α-His-antibodies. This allows speculations as to whether the coexpressed signal peptide can lead, at one hand, to the secretion of the recombinant protein, and on the other to the simultaneous cut-off of the leader peptide, which results in the splitting off of even more N-terminal 6xHis tag, leading to failed recognition by the appropriate antibodies. The comparison of native KLH with recombinantly expressed prokaryotic (E. coli) and eukaryotic (Sf9 insect cells) KLH was done using FU-1h. The weak detection by the polyclonal α-KLH1-antibodies of both recombinantly expressed proteins showed that the native protein was the best recognized. For the prokaryotic one, both the denaturation applied for solubilisation of the bacterial inclusion bodies and the inability of bacterial cells to add N-linked glycosylation, are the reason for the poor hybridization. In contrast, KLH1-h expressed in eukaryotic insect cells is likely to be glycosylated. The incubation with the α-KLH1-antibodies resulting in the same weak detection, however, revealed that the linked carbohydrate side chains are not those expected. The establishment of SOE-PCR, together with further improvement, has enabled the generation of a clone encompassing the complete subunit KLH1-abcdefgh. The se-quence analysis compared to the original KLH1 sequence showed, however, that the resulting recombinant protein is defective in two histidines, required for the copper bind-ing sites in FU-1b and FU-1d and in three disulfide bridges (FU-1a, FU-1b and FU 1g). This is due to polymerase-related nucleotide exchanges, resulting in a changed amino acid sequence. Nevertheless, all eight potential N-glycosylation sites are present, leading to the speculation that the recombinant protein can in theory be fully glycosylated, which is the most important aspect for the clinical applicability of recombinant KLH as an im-munotherapeutic agent. The improvement of this method elaborated during the present work indicates bright prospects for the future generation of a correct cDNA sequence encoding for the complete KLH2 subunit.
Resumo:
In dieser Arbeit geht es um die Schätzung von Parametern in zeitdiskreten ergodischen Markov-Prozessen im allgemeinen und im CIR-Modell im besonderen. Beim CIR-Modell handelt es sich um eine stochastische Differentialgleichung, die von Cox, Ingersoll und Ross (1985) zur Beschreibung der Dynamik von Zinsraten vorgeschlagen wurde. Problemstellung ist die Schätzung der Parameter des Drift- und des Diffusionskoeffizienten aufgrund von äquidistanten diskreten Beobachtungen des CIR-Prozesses. Nach einer kurzen Einführung in das CIR-Modell verwenden wir die insbesondere von Bibby und Sørensen untersuchte Methode der Martingal-Schätzfunktionen und -Schätzgleichungen, um das Problem der Parameterschätzung in ergodischen Markov-Prozessen zunächst ganz allgemein zu untersuchen. Im Anschluss an Untersuchungen von Sørensen (1999) werden hinreichende Bedingungen (im Sinne von Regularitätsvoraussetzungen an die Schätzfunktion) für die Existenz, starke Konsistenz und asymptotische Normalität von Lösungen einer Martingal-Schätzgleichung angegeben. Angewandt auf den Spezialfall der Likelihood-Schätzung stellen diese Bedingungen zugleich lokal-asymptotische Normalität des Modells sicher. Ferner wird ein einfaches Kriterium für Godambe-Heyde-Optimalität von Schätzfunktionen angegeben und skizziert, wie dies in wichtigen Spezialfällen zur expliziten Konstruktion optimaler Schätzfunktionen verwendet werden kann. Die allgemeinen Resultate werden anschließend auf das diskretisierte CIR-Modell angewendet. Wir analysieren einige von Overbeck und Rydén (1997) vorgeschlagene Schätzer für den Drift- und den Diffusionskoeffizienten, welche als Lösungen quadratischer Martingal-Schätzfunktionen definiert sind, und berechnen das optimale Element in dieser Klasse. Abschließend verallgemeinern wir Ergebnisse von Overbeck und Rydén (1997), indem wir die Existenz einer stark konsistenten und asymptotisch normalen Lösung der Likelihood-Gleichung zeigen und lokal-asymptotische Normalität für das CIR-Modell ohne Einschränkungen an den Parameterraum beweisen.
Resumo:
Plutonium represents the major contribution to the radiotoxicity of spent nuclear fuel over storage times of up to several hundred thousand years. The speciation of plutonium in aquifer systems is important in order to assess the risks of high-level nuclear waste disposal and to acquire a deep knowledge of the mobilization and immobilization behavior of plutonium. In aqueous solutions, plutonium can coexist in four oxidation states and each one of them has different chemical and physical behavior. Tetravalent plutonium is the most abundant under natural conditions. Therefore, detailed speciation studies of tetravalent plutonium in contact with humic substances (HS) and kaolinite as a model clay mineral have been performed in this work. Plutonium is present in the environment at an ultratrace level. Therefore, speciation of Pu at the ultratrace level is mandatory. Capillary electrophoresis (CE) coupled to resonance ionization mass spectrometry (RIMS) was used as a new speciation method. CE-RIMS enables to improve the detection limit for plutonium species by 2 to 3 orders of magnitude compared to the previously developed CE-ICP-MS. For understanding the behavior of Pu(IV) in aqueous systems, redox reactions, complexation, and sorption behavior of plutonium were studied. The redox behavior of plutonium in contact with humic acid (HA) and fulvic acid (FA) was investigated. A relatively fast reduction of Pu(VI) in contact with HS was observed. It was mainly reduced to Pu(IV) and Pu(III) within a couple of weeks. The time dependence of the Pu(IV) complexation with Aldrich HA was investigated and a complex constant (logßLC) between 6.4 - 8.4 of Pu(IV) was determined by means of ultrafiltration taking into account the loading capacity (LC). The sorption of tetravalent plutonium onto kaolinite was investigated as a function of pH in batch experiments under aerobic and anaerobic conditions. The sorption edge was found at about pH = 1 and a maximum sorption at around pH = 8.5. In the presence of CO2 at pH > 8.5, the sorption of plutonium was decreased probably due to the formation of soluble carbonate complexes. For comparison, the sorption of Th(IV) onto kaolinite was also investigated and consistent results were found. The Pu(IV) sorption onto kaolinite was studied by XANES and EXAFS at pH 1, 4, 9 and the sorbed species on kaolinite surface was Pu(IV). Depending on the pH, only 1 - 10 % of the sorbed plutonium is desorbed from kaolinite and released into a fresh solution at the same pH value. Furthermore, the sorption of HS onto kaolinite was studied as a function of pH at varying concentrations of HS, as a prerequisite to understand the more complex ternary system. The sorption of HA onto kaolinite was found to be higher than that of FA. The investigation of the ternary systems (plutonium-kaolinite-humic substances) is performed as a function of pH, concentration of HS, and the sequences of adding the reactants. The presence of HS strongly influences the sorption of Pu(IV) onto kaolinite over the entire pH range. For comparison, the influence of HS on the sorption of Th(IV) onto kaolinite was also investigated and a good agreement with the results of Pu(IV) was obtained.
Resumo:
My work concerns two different systems of equations used in the mathematical modeling of semiconductors and plasmas: the Euler-Poisson system and the quantum drift-diffusion system. The first is given by the Euler equations for the conservation of mass and momentum, with a Poisson equation for the electrostatic potential. The second one takes into account the physical effects due to the smallness of the devices (quantum effects). It is a simple extension of the classical drift-diffusion model which consists of two continuity equations for the charge densities, with a Poisson equation for the electrostatic potential. Using an asymptotic expansion method, we study (in the steady-state case for a potential flow) the limit to zero of the three physical parameters which arise in the Euler-Poisson system: the electron mass, the relaxation time and the Debye length. For each limit, we prove the existence and uniqueness of profiles to the asymptotic expansion and some error estimates. For a vanishing electron mass or a vanishing relaxation time, this method gives us a new approach in the convergence of the Euler-Poisson system to the incompressible Euler equations. For a vanishing Debye length (also called quasineutral limit), we obtain a new approach in the existence of solutions when boundary layers can appear (i.e. when no compatibility condition is assumed). Moreover, using an iterative method, and a finite volume scheme or a penalized mixed finite volume scheme, we numerically show the smallness condition on the electron mass needed in the existence of solutions to the system, condition which has already been shown in the literature. In the quantum drift-diffusion model for the transient bipolar case in one-space dimension, we show, by using a time discretization and energy estimates, the existence of solutions (for a general doping profile). We also prove rigorously the quasineutral limit (for a vanishing doping profile). Finally, using a new time discretization and an algorithmic construction of entropies, we prove some regularity properties for the solutions of the equation obtained in the quasineutral limit (for a vanishing pressure). This new regularity permits us to prove the positivity of solutions to this equation for at least times large enough.
Resumo:
Arthropodenhämocyanine und Molluskenhämocyanine, die extrazellulären Atmungsproteine der Arthropoden und Mollusken, unterscheiden sich grundsätzlich im Aufbau, besitzen aber ähnliche aktive Zentren, welche in ihrer oxydierten Form für die Blaufärbung der Hämocyanine verantwortlich sind. Sauerstoff wird im Bindungszentrum zwischen zwei, von sechs Histidinen ligandierten, Kupfer(I)Ionen gebunden. Arthropodenhämocyanine bauen sich artspezifisch aus 1, 2, 4, 6, oder 8 Hexameren mit D3-Symmetrie auf. Die Untereinheiten von je ca. 75 kDa falten sich in drei Domänen unterschiedlicher Funktionen. Der komplexe, hierarchische Zusammenbau der Arthropodenhämocyanine hängt von der Heterogenität der Untereinheiten ab. Die 7 verschieden Sequenzen des 4x6-Hämocyanins von Eurypelma californicum (EcHc) sind biochemisch in der Quartärstruktur lokalisiert. Bislang fehlte noch ein unabhängig erstelltes 3D-Modell der geometrischen Gesamtstruktur welche die hexamere und monomere Topographie eindeutig zeigt. Dessen Erstellung war Gegenstand dieser Arbeit, in Verbindung mit der Zielsetzung, die 3D-Rekonstruktion in den beiden extremen physiologischen Zuständen, mit und ohne gebundenen Sauerstoff, zu erzeugen. Dazu wurden in einer eigens entwickelten Atmosphären-Präparationskammer die Proteine in Lösung schockgefrorenen und mittels Cryo-3D-Elektronenmikroskopie gemessen. Aus den daraus gewonnen Projektionsbildern ließen sich mit der ”Single Particle Analyse“ die 3D-Informationen zurückberechnen. Die 3D-Rekonstruktionen wurden mit der publizierten Röntgenkristallstruktur des hexameren Referenz-Hämocyanins der Languste Panulirus interruptus verifiziert. Die Rekonstruktionen erlaubten die eindeutige Messung diverser in der Literatur diskutierter Parameter der Architektur des 4x6-EcHc und darüber hinaus weiterer geometrischer Parameter, welche hier erstmals veröffentlicht werden. SAXS-Daten sagen extreme Translationen und Rotationen von Teilquartärstrukturen zwischen oxy- und deoxy-EcHc voraus, was von den 3D-Rekonstruktionen der beiden Zustände nicht bestätigt werden konnte: Die 16 Å Rekonstruktion der Deoxyform weicht geometrisch nicht von der 21 Å Rekonstruktion der Oxyform ab. Die Einpassung der publizierten Röntgenstruktur der Untereinheit II des Hämocyanin des Pfeilschwanzkrebses Limulus polyphemus in die Rekonstruktionen unterstützt eine auf der hexameren Hierarchieebene lokalisierte Dynamik der Oxygenierung. Mittels Einpassung modellierter molekularer Strukturen der EcHc-Sequenzen konnte eine erste Vermutung zur Lokalisation der beiden zentralen Linker-Untereinheiten b und c des 4x6-Moleküls gemacht werden: Demnach würde Untereinheit b in den exponierten Hexameren des Moleküls liegen. Aussagen über die Quartärstrukturbindungen auf molekularer Ebene aufgrund der Einpassung modellierter molekularer Daten in die Rekonstruktionen sind als spekulativ einzustufen: a) Die Auflösung der Rekonstruktion ist verbesserungswürdig. b) Es gibt keine adäquate Vorlage für eine verlässliche Strukturvorhersage; die verschiedenen EcHc-Sequenzen liegen nur als Modellierung vor. c) Es wäre eine flexible Einpassung notwendig, um Ungenauigkeiten in den modellierten Strukturen durch Sekundärstrukturanpassung zu minimieren.
Resumo:
Precision measurements of phenomena related to fermion mixing require the inclusion of higher order corrections in the calculation of corresponding theoretical predictions. For this, a complete renormalization scheme for models that allow for fermion mixing is highly required. The correct treatment of unstable particles makes this task difficult and yet, no satisfactory and general solution can be found in the literature. In the present work, we study the renormalization of the fermion Lagrange density with Dirac and Majorana particles in models that involve mixing. The first part of the thesis provides a general renormalization prescription for the Lagrangian, while the second one is an application to specific models. In a general framework, using the on-shell renormalization scheme, we identify the physical mass and the decay width of a fermion from its full propagator. The so-called wave function renormalization constants are determined such that the subtracted propagator is diagonal on-shell. As a consequence of absorptive parts in the self-energy, the constants that are supposed to renormalize the incoming fermion and the outgoing antifermion are different from the ones that should renormalize the outgoing fermion and the incoming antifermion and not related by hermiticity, as desired. Instead of defining field renormalization constants identical to the wave function renormalization ones, we differentiate the two by a set of finite constants. Using the additional freedom offered by this finite difference, we investigate the possibility of defining field renormalization constants related by hermiticity. We show that for Dirac fermions, unless the model has very special features, the hermiticity condition leads to ill-defined matrix elements due to self-energy corrections of external legs. In the case of Majorana fermions, the constraints for the model are less restrictive. Here one might have a better chance to define field renormalization constants related by hermiticity. After analysing the complete renormalized Lagrangian in a general theory including vector and scalar bosons with arbitrary renormalizable interactions, we consider two specific models: quark mixing in the electroweak Standard Model and mixing of Majorana neutrinos in the seesaw mechanism. A counter term for fermion mixing matrices can not be fixed by only taking into account self-energy corrections or fermion field renormalization constants. The presence of unstable particles in the theory can lead to a non-unitary renormalized mixing matrix or to a gauge parameter dependence in its counter term. Therefore, we propose to determine the mixing matrix counter term by fixing the complete correction terms for a physical process to experimental measurements. As an example, we calculate the decay rate of a top quark and of a heavy neutrino. We provide in each of the chosen models sample calculations that can be easily extended to other theories.
Resumo:
In dieser Arbeit werden Quantum-Hydrodynamische (QHD) Modelle betrachtet, die ihren Einsatz besonders in der Modellierung von Halbleiterbauteilen finden. Das QHD Modell besteht aus den Erhaltungsgleichungen für die Teilchendichte, das Momentum und die Energiedichte, inklusive der Quanten-Korrekturen durch das Bohmsche Potential. Zu Beginn wird eine Übersicht über die bekannten Ergebnisse der QHD Modelle unter Vernachlässigung von Kollisionseffekten gegeben, die aus einem Schrödinger-System für den gemischten-Zustand oder aus der Wigner-Gleichung hergeleitet werden können. Nach der Reformulierung der eindimensionalen QHD Gleichungen mit linearem Potential als stationäre Schrödinger-Gleichung werden die semianalytischen Fassungen der QHD Gleichungen für die Gleichspannungs-Kurve betrachtet. Weiterhin werden die viskosen Stabilisierungen des QHD Modells berücksichtigt, sowie die von Gardner vorgeschlagene numerische Viskosität für das {sf upwind} Finite-Differenzen Schema berechnet. Im Weiteren wird das viskose QHD Modell aus der Wigner-Gleichung mit Fokker-Planck Kollisions-Operator hergeleitet. Dieses Modell enthält die physikalische Viskosität, die durch den Kollision-Operator eingeführt wird. Die Existenz der Lösungen (mit strikt positiver Teilchendichte) für das isotherme, stationäre, eindimensionale, viskose Modell für allgemeine Daten und nichthomogene Randbedingungen wird gezeigt. Die dafür notwendigen Abschätzungen hängen von der Viskosität ab und erlauben daher den Grenzübergang zum nicht-viskosen Fall nicht. Numerische Simulationen der Resonanz-Tunneldiode modelliert mit dem nichtisothermen, stationären, eindimensionalen, viskosen QHD Modell zeigen den Einfluss der Viskosität auf die Lösung. Unter Verwendung des von Degond und Ringhofer entwickelten Quanten-Entropie-Minimierungs-Verfahren werden die allgemeinen QHD-Gleichungen aus der Wigner-Boltzmann-Gleichung mit dem BGK-Kollisions-Operator hergeleitet. Die Herleitung basiert auf der vorsichtige Entwicklung des Quanten-Maxwellians in Potenzen der skalierten Plankschen Konstante. Das so erhaltene Modell enthält auch vertex-Terme und dispersive Terme für die Geschwindigkeit. Dadurch bleibt die Gleichspannungs-Kurve für die Resonanz-Tunneldiode unter Verwendung des allgemeinen QHD Modells in einer Dimension numerisch erhalten. Die Ergebnisse zeigen, dass der dispersive Geschwindigkeits-Term die Lösung des Systems stabilisiert.
Resumo:
Ziel der vorliegenden Arbeit war es, den Einfluss von regulatorischen T-Zellen (Treg) auf die Pathogenese des Asthmas in einem murinen Modell zu untersuchen. Es konnte gezeigt werden, dass die Co-Expression von TGF-ß1 und IL-10 auf Treg notwendig ist, um im Tiermodell vor einer Atemwegs-Hyperreagibilität (AHR) zu schützen. Natürliche Treg konnten keinen Schutz vermitteln. Weiterhin wurde gezeigt, dass der Schutz vor AHR durch TGF-ß1 über Empfänger T-Zellen vermittelt wird. Dabei reichte die alleinige Anwesenheit von TGF-ß1 nicht aus, vielmehr musste das Zytokin von Treg exprimiert werden. Ein Einfluss von TGF-ß1 überexprimierenden Treg auf die peribronchiale Entzündung konnte nicht festgestellt werden, wohingegen adoptiver Transfer von natürlichen Treg die Eosinophilen Anzahl in der Bronchiallavage signifikant verringern konnte. Dabei korrelierte die Eosinophilie mit den IL-5 Spiegeln in der Bronchiallavage. In dieser Arbeit konnte also eine Entkopplung der Mechanismen von AHR und Entzündung festgestellt werden. Die weitere Aufklärung der Mechanismen der Suppression der AHR durch TGF-ß1 und IL-10 produzierende Treg könnte daher die Entwicklung neuer therapeutischer Ansätze bei Atemwegserkrankungen ermöglichen.
Resumo:
Die Wirksamkeit einer Vakzine ist von vielen Parametern abhängig. Dazu gehören unter anderen: das ausgewählte Antigen, die Formulation in der das Antigen benutzt wird sowie die Applikationsroute. Antigen-kodierende Ribonukleinsäuren (RNA) gilt heutzutage als eine sichere und effiziente Alternative zu traditionellen Impfstoff-Formulierungen, wie Peptiden, rekombinanten Proteinen, viralen Systemen oder DNA basierten Impfstoffen. Bezüglich des Applikationsortes repräsentiert der Lymphknoten ein optimales Milieu für die Interaktion zwischen antigenpräsentierenden Zellen und T-Zellen. Vor diesem Hintergrund war die Zielsetzung dieser Arbeit, ein auf direktem in vivo Transfer von Antigen-kodierender in vitro transkribierter RNA (IVT-RNA) basierendes Impfverfahren zu entwickeln, zu charakterisieren und auf seine anti-tumorale Wirksamkeit zu testen. In der vorliegenden Arbeit konnte gezeigt werden, dass dendritische Zellen (DCs) in vitro hocheffizient mit IVT-RNA transfiziert werden können und eine hohe stimulatorische Kapazität besitzen. Durch Sequenzmodifikation der IVT-RNA konnten wir die Transkriptstabilität und Translationseffizienz erhöhen was zu einer Steigerung der stimulatorischen Kapazität in vivo führte. Darüber hinaus untersuchten wir die Auswirkung der Insertion eines Signalpeptides 5’ sowie einer C-terminalen transmembran- und zytosolischen-Domäne eines MHC-Klasse-I-Moleküls am 3’ der Antigen-kodierenden Sequenz auf die Effizienz der MHC-Klasse-I und -II Präsentation. Wir konnten in vitro und in vivo nachweisen, dass diese Modifikation zu einer gesteigerten, simultanen Stimulation von antigenspezifischen CD4+ und CD8+ T-Zellen führt. Auf der Basis der optimierten Vektorkassetten etablierten wir die intranodale (i.n.) Transfektion von antigenpräsentierenden Zellen in der Maus. Dazu nutzten wir verschiedene Reportersysteme (eGFP-RNA, fluoreszensmarkierte RNA) und konnten zeigen, dass die intranodale Applikation von IVT-RNA zu selektiven Transfektion und Maturation lymphknotenresidenter DCs führt. Zur Untersuchung der immunologischen Effekte wurden in erster Linie auf Influenza-Hemagglutinin-A und Ovalbumin basierende Modellantigensysteme verwendet. Beide Antigene wurden als Antigen-MHC-Fusionskonstrukte genutzt. Als Responderzellen wurden TCR-transgene Lymphozyten verwendet, die MHC-Klasse-I oder -Klasse-II restringierte Epitope des Influenza-Hemagglutinin-A bzw. des Ovalbumin-Proteins erkennen. Wir konnten in vivo zeigen, dass die intranodale Immunisierung mit IVT-RNA zu einer effizienten Stimulation und Expansion von antigenspezifischen CD4+ und CD8+ T-Zellen in einer dosisabhängigen Weise führt. Funktionell konnte gezeigt werden, dass diese T-Zellen Zytokine sezernieren und zur Zytolyse befähigt sind. Wir waren in der Lage durch repetitive i.n. RNA Immunisierung ein ‚Priming’ CD8+ T-Zellen in naiven Mäusen sowohl gegen virale als auch gegen Tumor assoziierte Antigene zu erreichen. Die geprimten T-Zellen waren befähigt eine zytolytische Aktivität gegen mit spezifischem Peptid beladene Targetzellen zu generieren. Darüber hinaus waren wir in der Lage Gedächtnisszellen expandieren zu können. Abschließend konnten wir in Tumormodellen sowohl in prophylaktischen als auch in therapeutischen Experimenten zeigen dass die i.n. RNA Vakzination die Potenz zur Induktion einer anti-tumoralen Immunität besitzt.
Resumo:
Computer simulations play an ever growing role for the development of automotive products. Assembly simulation, as well as many other processes, are used systematically even before the first physical prototype of a vehicle is built in order to check whether particular components can be assembled easily or whether another part is in the way. Usually, this kind of simulation is limited to rigid bodies. However, a vehicle contains a multitude of flexible parts of various types: cables, hoses, carpets, seat surfaces, insulations, weatherstrips... Since most of the problems using these simulations concern one-dimensional components and since an intuitive tool for cable routing is still needed, we have chosen to concentrate on this category, which includes cables, hoses and wiring harnesses. In this thesis, we present a system for simulating one dimensional flexible parts such as cables or hoses. The modeling of bending and torsion follows the Cosserat model. For this purpose we use a generalized spring-mass system and describe its configuration by a carefully chosen set of coordinates. Gravity and contact forces as well as the forces responsible for length conservation are expressed in Cartesian coordinates. But bending and torsion effects can be dealt with more effectively by using quaternions to represent the orientation of the segments joining two neighboring mass points. This augmented system allows an easy formulation of all interactions with the best appropriate coordinate type and yields a strongly banded Hessian matrix. An energy minimizing process accounts for a solution exempt from the oscillations that are typical of spring-mass systems. The use of integral forces, similar to an integral controller, allows to enforce exactly the constraints. The whole system is numerically stable and can be solved at interactive frame rates. It is integrated in the DaimlerChrysler in-house Virtual Reality Software veo for use in applications such as cable routing and assembly simulation and has been well received by users. Parts of this work have been published at the ACM Solid and Physical Modeling Conference 2006 and have been selected for the special issue of the Computer-Aided-Design Journal to the conference.
Resumo:
In this thesis a mathematical model was derived that describes the charge and energy transport in semiconductor devices like transistors. Moreover, numerical simulations of these physical processes are performed. In order to accomplish this, methods of theoretical physics, functional analysis, numerical mathematics and computer programming are applied. After an introduction to the status quo of semiconductor device simulation methods and a brief review of historical facts up to now, the attention is shifted to the construction of a model, which serves as the basis of the subsequent derivations in the thesis. Thereby the starting point is an important equation of the theory of dilute gases. From this equation the model equations are derived and specified by means of a series expansion method. This is done in a multi-stage derivation process, which is mainly taken from a scientific paper and which does not constitute the focus of this thesis. In the following phase we specify the mathematical setting and make precise the model assumptions. Thereby we make use of methods of functional analysis. Since the equations we deal with are coupled, we are concerned with a nonstandard problem. In contrary, the theory of scalar elliptic equations is established meanwhile. Subsequently, we are preoccupied with the numerical discretization of the equations. A special finite-element method is used for the discretization. This special approach has to be done in order to make the numerical results appropriate for practical application. By a series of transformations from the discrete model we derive a system of algebraic equations that are eligible for numerical evaluation. Using self-made computer programs we solve the equations to get approximate solutions. These programs are based on new and specialized iteration procedures that are developed and thoroughly tested within the frame of this research work. Due to their importance and their novel status, they are explained and demonstrated in detail. We compare these new iterations with a standard method that is complemented by a feature to fit in the current context. A further innovation is the computation of solutions in three-dimensional domains, which are still rare. Special attention is paid to applicability of the 3D simulation tools. The programs are designed to have justifiable working complexity. The simulation results of some models of contemporary semiconductor devices are shown and detailed comments on the results are given. Eventually, we make a prospect on future development and enhancements of the models and of the algorithms that we used.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
In this work, we consider a simple model problem for the electromagnetic exploration of small perfectly conducting objects buried within the lower halfspace of an unbounded two–layered background medium. In possible applications, such as, e.g., humanitarian demining, the two layers would correspond to air and soil. Moving a set of electric devices parallel to the surface of ground to generate a time–harmonic field, the induced field is measured within the same devices. The goal is to retrieve information about buried scatterers from these data. In mathematical terms, we are concerned with the analysis and numerical solution of the inverse scattering problem to reconstruct the number and the positions of a collection of finitely many small perfectly conducting scatterers buried within the lower halfspace of an unbounded two–layered background medium from near field measurements of time–harmonic electromagnetic waves. For this purpose, we first study the corresponding direct scattering problem in detail and derive an asymptotic expansion of the scattered field as the size of the scatterers tends to zero. Then, we use this expansion to justify a noniterative MUSIC–type reconstruction method for the solution of the inverse scattering problem. We propose a numerical implementation of this reconstruction method and provide a series of numerical experiments.