389 resultados para Heisenberg-Modell
Resumo:
Habitusbildung im Studium der Sozialpädagogik. Eine explorative Studie zur Strukturtypik studentischer Professionalisierungsprozesse Die qualitativ-empirische Studie untersucht die als studentischen und pädagogischen Habitus bezeichnete pädagogische Professionalisierung im Studium. Das zugrunde gelegte strukturtheoretische Modell einer professionalisierten sozialpädagogischen Praxis ist eine widersprüchliche Einheit von Theorie- und Fallverstehen. Schütze (1996) analysiert das im Kern paradoxale Verhältnis zwischen Professionellen und Klientel, die widersprüchliche Handlungslogik der Profession und die Konsequenzen ihrer herrschaftlicher Kontexte. In Oevermanns Skizze einer revidierten Theorie professionalisierten Handelns (1996) werden wissenschaftliches Verstehen und hermeneutisches Fallverstehen zur Grundlage des professionalisierten Handelns. Von besonderer Bedeutung ist Oevermanns Konzeption der stellvertretenden Deutung, der Deutung des latenten Sinns einer Interaktion, einer Handlung, einer latenten Sinnstrukur. Aus objektiv-hermeneutischer Sicht sind die Handlungsspielräume einer je konkreten Lebenspraxis durch Regeln gesetzt, bereits die Welt sozialer Regeln bestimmt Möglichkeiten und Folgen einer Handlung, nicht erst die Lebenspraxis. Die Kontrastierung von vier Fallrekonstruktionen mündet in der Formulierung zweier Strukturtypen. Beim Strukturtyp 1, „Scheitern der Habitusformation durch Verweigerung von Emergenz“, wird eine auf ein, maximal zwei sozialpädagogische Handlungsfelder gerichtete Berufskonzeption ausgeformt. Neue Inhalte, die sich nicht widerspruchsfrei in dieses minimalistische Konzept sozialer Praxis integrieren lassen, werden abgewehrt. Das Strukturpotential, das in dieser krisenhaften Übergangssituation angesprochen wird mit dem Anspruch, neue perzeptions- und handlungsleitende Sinnstrukturen zu bilden, stagniert in biografisch bewährten Bearbeitungsstrategien. Für die Fallstrukturgesetzlichkeit des Strukturtyps 2, „Krisenbearbeitung und Transformation biografietypischer Strukturen“, ist ein hohes Potential, in einem Prozess der Emergenz Krisen durch neue Handlungs- und Sinnstrukturen zu lösen, signifikant. Die gelingende Habitusformation vollzieht sich dort, wo diese emergenten Strukturen in die Vermitteltheit einer professionalisierten Routine überführt werden. Die Rückbindung der Strukturtypen an die Studienmodelle des „wissenschaftlich gebildeten Praktikers“ und des fallrekonstruktiven Modells fundiert die These, dass der durch die Einsozialisation in ein hermeneutisches Fallverstehen eröffnete Bildungsprozess vertiefte Kenntnisse um Lebensgesetzlichkeiten, Regelkenntnisse und eine entmystifizierte Haltung zur Theorie als einer „verwissenschaftlichten Rationalität“ vermittelt.
Analysis of the influence of epitope flanking regions on MHC class I restricted antigen presentation
Resumo:
Peptides presented by MHC class I molecules for CTL recognition are derived mainly from cytosolic proteins. For antigen presentation on the cell surface, epitopes require correct processing by cytosolic and ER proteases, efficient TAP transport and MHC class I binding affinity. The efficiency of epitope generation depends not only on the epitope itself, but also on its flanking regions. In this project, the influence of the C-terminal region of the model epitope SIINFEKL (S8L) from chicken ovalbumin (aa 257-264) on antigen processing has been investigated. S8L is a well characterized epitope presented on the murine MHC class I molecule, H-2Kb. The Flp-In 293Kb cell line was transfected with different constructs each enabling the expression of the S8L sequence with different defined C-terminal flanking regions. The constructs differed at the two first C-terminal positions after the S8L epitope, so called P1’ and P2’. At these sites, all 20 amino acids were exchanged consecutively and tested for their influence on H-2Kb/S8L presentation on the cell surface of the Flp-In 293Kb cells. The detection of this complex was performed by immunostaining and flow cytometry. The prevailing assumption is that proteasomal cleavages are exclusively responsible for the generation of the final C-termini of CTL epitopes. Nevertheless, recent publications showed that TPPII (tripeptidyl peptidase II) is required for the generation of the correct C-terminus of the HLA-A3-restricted HIV epitope Nef(73-82). With this background, the dependence of the S8L generation on proteasomal cleavage of the designed constructs was characterized using proteasomal inhibitors. The results obtained indicate that it is crucial for proteasomal cleavage, which amino acid is flanking the C-terminus of an epitope. Furthermore, partially proteasome independent S8L generation from specific S8L-precursor peptides was observed. Hence, the possibility of other existing endo- or carboxy-peptidases in the cytosol that could be involved in the correct trimming of the C-terminus of antigenic peptides for MHC class I presentation was investigated, performing specific knockdowns and using inhibitors against the target peptidases. In parallel, a purification strategy to identify the novel peptidase was established. The purified peaks showing an endopeptidase activity were further analyzed by mass spectrometry and some potential peptidases (like e.g. Lon) were identified, which have to be further characterized.
Resumo:
Development of empirical potentials for amorphous silica Amorphous silica (SiO2) is of great importance in geoscience and mineralogy as well as a raw material in glass industry. Its structure is characterized as a disordered continuous network of SiO4 tetrahedra. Many efforts have been undertaken to understand the microscopic properties of silica by classical molecular dynamics (MD) simulations. In this method the interatomic interactions are modeled by an effective potential that does not take explicitely into account the electronic degrees of freedom. In this work, we propose a new methodology to parameterize such a potential for silica using ab initio simulations, namely Car-Parrinello (CP) method [Phys. Rev. Lett. 55, 2471 (1985)]. The new potential proposed is compared to the BKS potential [Phys. Rev. Lett. 64, 1955 (1990)] that is considered as the benchmark potential for silica. First, CP simulations have been performed on a liquid silica sample at 3600 K. The structural features so obtained have been compared to the ones predicted by the classical BKS potential. Regarding the bond lengths the BKS tends to underestimate the Si-O bond whereas the Si-Si bond is overestimated. The inter-tetrahedral angular distribution functions are also not well described by the BKS potential. The corresponding mean value of theSiOSi angle is found to be ≃ 147◦, while the CP yields to aSiOSi angle centered around 135◦. Our aim is to fit a classical Born-Mayer/Coulomb pair potential using ab initio calculations. To this end, we use the force-matching method proposed by Ercolessi and Adams [Europhys. Lett. 26, 583 (1994)]. The CP configurations and their corresponding interatomic forces have been considered for a least square fitting procedure. The classical MD simulations with the resulting potential have lead to a structure that is very different from the CP one. Therefore, a different fitting criterion based on the CP partial pair correlation functions was applied. Using this approach the resulting potential shows a better agreement with the CP data than the BKS ones: pair correlation functions, angular distribution functions, structure factors, density of states and pressure/density were improved. At low temperature, the diffusion coefficients appear to be three times higher than those predicted by the BKS model, however showing a similar temperature dependence. Calculations have also been carried out on crystalline samples in order to check the transferability of the potential. The equilibrium geometry as well as the elastic constants of α-quartz at 0 K are well described by our new potential although the crystalline phases have not been considered for the parameterization. We have developed a new potential for silica which represents an improvement over the pair potentials class proposed so far. Furthermore, the fitting methodology that has been developed in this work can be applied to other network forming systems such as germania as well as mixtures of SiO2 with other oxides (e.g. Al2O3, K2O, Na2O).
Resumo:
Hypoxie ist ein Zustand des Sauerstoffmangels, hervorgerufen durch fehlende Verfügbarkeit von Sauerstoff in der Umgebung eines Organismus oder durch pathologisch bedingte unzureichende Nutzbarkeit des Sauerstoffs von Geweben. Die Sensitivität gegenüber Hypoxie variiert enorm im Tierreich zwischen verschiedenen Phyla und Spezies. Die meisten Säugetiere sind nur unzureichend an niedrige Sauerstoffkonzentrationen angepasst, wohingegen einige unterirdisch lebende Säuger sehr resistent gegen Hypoxiestress sind. Um die molekulare Basis der Hypoxietoleranz zu bestimmen, wurden in der vorliegenden Arbeit Globine untersucht, die potenziell in der Lage sind, als respiratorische Proteine zur Hypoxietoleranz von Tieren beizutragen. Dazu wurde die Expression der Globine in der hypoxieresistenten, in Israel lebenden Blindmaus Spalax ehrenbergi mit der Genexpression in der hypoxiesensitiven Ratte (Rattus norvegicus) verglichen. In der vorliegenden Arbeit wurden die erst vor wenigen Jahren entdeckten Globine Neuroglobin und Cytoglobin untersucht, deren exakte physiologische Rolle noch unklar ist, und mit Daten des viel detaillierter untersuchten Myoglobins verglichen. Beim Vergleich der Expression von Cytoglobin und Neuroglobin in Spalax versus Ratte fällt auf, dass Neuroglobin und Cytoglobin bereits unter normoxischen Bedingungen auf mRNA- und Proteinebene in der Blindmaus um einen Faktor von mindesten 2 bis 3 verstärkt exprimiert werden. Bei Myoglobin (als dem Kontrollgen mit bekannter Funktion) konnte auf mRNA-Ebene eine noch weitaus stärkere Expression in Spalax vs. Ratte gefunden werden. Das übergreifende Phänomen der verstärkten Genexpression von Globinen in Spalax kann im Sinne einer Präadaptation an das unterirdische, häufig hypoxische Leben der Blindmaus interpretiert werden. Einen weiteren Hinweis auf eine besondere, spezialisierte Funktion von Neuroglobin in Spalax geben immunhistochemische Daten, die zeigen, dass Neuroglobin im Gehirn von Spalax im Gegensatz zur Ratte nicht nur in Neuronen, sondern auch in Gliazellen exprimiert wird. Dies impliziert Änderungen des oxidativen Stoffwechsels im Nervensystem der hypoxietoleranten Spezies. Die zellulären Expressionsmuster von Cytoglobin erscheinen hingegen in beiden Säugerspezies weitgehend identisch. Es wurde der Frage nachgegangen, ob und wie experimentell induzierte Hypoxie die Genexpression der Globine verändert. Dabei zeigten sich für Neuroglobin und Cytoglobin unterschiedliche Expressionsmuster. Neuroglobin wird unter diversen Sauerstoffmangelbedingungen sowohl in der Ratte als auch in Spalax auf mRNA- und Proteinebene herunterreguliert. Ein ähnliches Regulationsverhalten wurde auch für Myoglobin beobachtet. Die verminderte Expression von Neuroglobin (und evtl. auch Myoglobin) unter Hypoxie ist mit einer gezielten Verringerung der Sauerstoff-Speicherkapazität in Abwesenheit von O2 zu erklären. Ein weiterer denkbarer Grund könnte auch die allgemeine Tendenz sein, unter Hypoxie aus Energiespargründen den Metabolismus herunter zu regulieren. Cytoglobin, das bei normalen Sauerstoffbedingungen nur im Gehirn von Spalax (nicht jedoch in Herz und Leber) ebenfalls um Faktor 2 bis 3 stärker exprimiert wird als in der Ratte, ist mit einiger Sicherheit ebenfalls von adaptivem Nutzen für die Anpassung von Spalax an niedrige Sauerstoffbedingungen, wenngleich seine Funktion unklar bleibt. Unter Hypoxie wird die Cytoglobin-mRNA sowohl in Spalax als auch in der Ratte hochreguliert. Es konnte in der vorliegenden Arbeit dargelegt werden, dass die Expression von Cygb höchstwahrscheinlich durch den Transkriptionsfaktor Hif-1 gesteuert wird, der die molekulare Hypoxieantwort vieler Tierarten zentral steuert. In der vorliegenden Arbeit wurde ebenfalls die Expression von Ngb und Cygb im Gehirn des Hausschweins (Sus scrofa) untersucht. Diese Spezies diente in der Arbeit als weiterer hypoxiesensitiver Organismus sowie als biomedizinisch relevantes Modell für eine Operation an Säuglingen mit angeborenen Herzkrankheiten. Die Versuche haben gezeigt, dass die Gabe bestimmter Medikamente wie dem Immunsuppressivum FK506 zu einer erhöhten Ngb-Konzentration auf mRNA-Ebene führen kann, was potenziell im Zusammenhang mit beobachteten protektiven Effekten der Medikamentengabe während und nach der Herzoperation steht.
Resumo:
The aim of this work is to explore, within the framework of the presumably asymptotically safe Quantum Einstein Gravity, quantum corrections to black hole spacetimes, in particular in the case of rotating black holes. We have analysed this problem by exploiting the scale dependent Newton s constant implied by the renormalization group equation for the effective average action, and introducing an appropriate "cutoff identification" which relates the renormalization scale to the geometry of the spacetime manifold. We used these two ingredients in order to "renormalization group improve" the classical Kerr metric that describes the spacetime generated by a rotating black hole. We have focused our investigation on four basic subjects of black hole physics. The main results related to these topics can be summarized as follows. Concerning the critical surfaces, i.e. horizons and static limit surfaces, the improvement leads to a smooth deformation of the classical critical surfaces. Their number remains unchanged. In relation to the Penrose process for energy extraction from black holes, we have found that there exists a non-trivial correlation between regions of negative energy states in the phase space of rotating test particles and configurations of critical surfaces of the black hole. As for the vacuum energy-momentum tensor and the energy conditions we have shown that no model with "normal" matter, in the sense of matter fulfilling the usual energy conditions, can simulate the quantum fluctuations described by the improved Kerr spacetime that we have derived. Finally, in the context of black hole thermodynamics, we have performed calculations of the mass and angular momentum of the improved Kerr black hole, applying the standard Komar integrals. The results reflect the antiscreening character of the quantum fluctuations of the gravitational field. Furthermore we calculated approximations to the entropy and the temperature of the improved Kerr black hole to leading order in the angular momentum. More generally we have proven that the temperature can no longer be proportional to the surface gravity if an entropy-like state function is to exist.
Resumo:
Computer simulations play an ever growing role for the development of automotive products. Assembly simulation, as well as many other processes, are used systematically even before the first physical prototype of a vehicle is built in order to check whether particular components can be assembled easily or whether another part is in the way. Usually, this kind of simulation is limited to rigid bodies. However, a vehicle contains a multitude of flexible parts of various types: cables, hoses, carpets, seat surfaces, insulations, weatherstrips... Since most of the problems using these simulations concern one-dimensional components and since an intuitive tool for cable routing is still needed, we have chosen to concentrate on this category, which includes cables, hoses and wiring harnesses. In this thesis, we present a system for simulating one dimensional flexible parts such as cables or hoses. The modeling of bending and torsion follows the Cosserat model. For this purpose we use a generalized spring-mass system and describe its configuration by a carefully chosen set of coordinates. Gravity and contact forces as well as the forces responsible for length conservation are expressed in Cartesian coordinates. But bending and torsion effects can be dealt with more effectively by using quaternions to represent the orientation of the segments joining two neighboring mass points. This augmented system allows an easy formulation of all interactions with the best appropriate coordinate type and yields a strongly banded Hessian matrix. An energy minimizing process accounts for a solution exempt from the oscillations that are typical of spring-mass systems. The use of integral forces, similar to an integral controller, allows to enforce exactly the constraints. The whole system is numerically stable and can be solved at interactive frame rates. It is integrated in the DaimlerChrysler in-house Virtual Reality Software veo for use in applications such as cable routing and assembly simulation and has been well received by users. Parts of this work have been published at the ACM Solid and Physical Modeling Conference 2006 and have been selected for the special issue of the Computer-Aided-Design Journal to the conference.
Resumo:
Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.
Resumo:
In der hier vorliegenden Arbeit wurde am Beispiel der Kraut- und Knollenfäule an Kartoffeln Phytophthora infestans und des Kartoffelkäfers Leptinotarsa decemlineata untersucht, ob durch den Einsatz von Geographischen Informationssystemen (GIS) landwirtschaftliche Schader¬reger¬prognosen für jeden beliebigen Kartoffelschlag in Deutschland erstellt werden können. Um dieses Ziel zu erreichen, wurden die Eingangsparameter (Temperatur und relative Luftfeuchte) der Prognosemodelle für die beiden Schaderreger (SIMLEP1, SIMPHYT1, SIMPHYT3 and SIMBLIGHT1) so aufbereitet, dass Wetterdaten flächendeckend für Deutschland zur Verfügung standen. Bevor jedoch interpoliert werden konnte, wurde eine Regionalisierung von Deutschland in Interpolationszonen durchgeführt und somit Naturräume geschaffen, die einen Vergleich und eine Bewertung der in ihnen liegenden Wetterstationen zulassen. Hierzu wurden die Boden-Klima-Regionen von SCHULZKE und KAULE (2000) modifiziert, an das Wetterstationsnetz angepasst und mit 5 bis 10 km breiten Pufferzonen an der Grenze der Interpolationszonen versehen, um die Wetterstationen so häufig wie möglich verwenden zu können. Für die Interpolation der Wetterdaten wurde das Verfahren der multiplen Regression gewählt, weil dieses im Vergleich zu anderen Verfahren die geringsten Abweichungen zwischen interpolierten und gemessenen Daten aufwies und den technischen Anforderungen am besten entsprach. Für 99 % aller Werte konnten bei der Temperaturberechnung Abweichungen in einem Bereich zwischen -2,5 und 2,5 °C erzielt werden. Bei der Berechnung der relativen Luftfeuchte wurden Abweichungen zwischen -12 und 10 % relativer Luftfeuchte erreicht. Die Mittelwerte der Abweichungen lagen bei der Temperatur bei 0,1 °C und bei der relativen Luftfeuchte bei -1,8 %. Zur Überprüfung der Trefferquoten der Modelle beim Betrieb mit interpolierten Wetterdaten wurden Felderhebungsdaten aus den Jahren 2000 bis 2007 zum Erstauftreten der Kraut- und Knollenfäule sowie des Kartoffelkäfers verwendet. Dabei konnten mit interpolierten Wetterdaten die gleichen und auch höhere Trefferquoten erreicht werden, als mit der bisherigen Berechnungsmethode. Beispielsweise erzielte die Berechnung des Erstauftretens von P. infestans durch das Modell SIMBLIGHT1 mit interpolierten Wetterdaten im Schnitt drei Tage geringere Abweichungen im Vergleich zu den Berechnungen ohne GIS. Um die Auswirkungen interpretieren zu können, die durch Abweichungen der Temperatur und der relativen Luftfeuchte entstanden wurde zusätzlich eine Sensitivitätsanalyse zur Temperatur und relativen Luftfeuchte der verwendeten Prognosemodelle durchgeführt. Die Temperatur hatte bei allen Modellen nur einen geringen Einfluss auf das Prognoseergebnis. Veränderungen der relativen Luftfeuchte haben sich dagegen deutlich stärker ausgewirkt. So lag bei SIMBLIGHT1 die Abweichung durch eine stündliche Veränderung der relativen Luftfeuchte (± 6 %) bei maximal 27 Tagen, wogegen stündliche Veränderungen der Temperatur (± 2 °C) eine Abweichung von maximal 10 Tagen ausmachten. Die Ergebnisse dieser Arbeit zeigen, dass durch die Verwendung von GIS mindestens die gleichen und auch höhere Trefferquoten bei Schaderregerprognosen erzielt werden als mit der bisherigen Verwendung von Daten einer nahegelegenen Wetterstation. Die Ergebnisse stellen einen wesentlichen Fortschritt für die landwirtschaftlichen Schaderregerprognosen dar. Erstmals ist es möglich, bundesweite Prognosen für jeden beliebigen Kartoffelschlag zur Bekämpfung von Schädlingen in der Landwirtschaft bereit zu stellen.
Resumo:
Therapeutisches Drug Monitoring (TDM) ist eine Maßnahme, bei der durch Messung der Medikamentenspiegel im Blut die Dosis ermittelt wird, bei der mit höchster Wahrscheinlichkeit mit Therapieansprechen gerechnet werden kann. Dabei wird angenommen, dass die Konzentrationen im Blut mit denen im Wirkkompartiment korrelieren. Für Antipsychotika wurde gezeigt, dass die Konzentrationen im Blut direkt mit denen im Gehirn korrelieren, die Verteilung zwischen den beiden Kompartimenten ist jedoch für die verschiedenen Antipsychotika sehr unterschiedlich. Die Distribution von Arzneistoffen zwischen Blut und Gehirn wird durch Effluxtransporter in der Blut-Hirn-Schranke kontrolliert. Welche Rolle dabei P-Glykoprotein (P-gp) für die Verteilung von atypischen Antipsychotika spielt und wie die Pharmakokinetik und –dynamik durch diesen Transporter beeinflusst werden, sollte in dieser Arbeit untersucht werden. Für die Messung des neu eingeführten Antipsychotikums Aripiprazol, sowie für seinen aktiven Metaboliten Dehydroaripiprazol, wurde eine hochleistungsflüssigchromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert. Die Methode wurde für die Messung von Serumproben schizophrener Patienten eingesetzt, um einen therapeutischen Bereich für Aripiprazol zu ermitteln. Aus der Analyse von 523 Patientenproben wurde herausgefunden, dass Aripiprazol-Serumkonzentrationen von 150 bis 300 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Weiterhin wurde festgestellt, dass die Serumspiegel bei gleichzeitiger Gabe von Inhibitoren und Induktoren der Cytochrom P450 (CYP) Isoenzyme CYP2D6 und CYP3A4 erhöht bzw. gesenkt wurden. Am Modell der P-gp Knockout Maus im Vergleich zu FVB Wildtyp Mäusen wurden Konzentrationsverläufe von Antipsychotika nach i.p. Gabe von Amisulprid, Aripiprazol, Dehydroaripiprazol, Clozapin, Desmethylclozapin, Haloperidol, Olanzapin, Quetiapin, Risperidon und 9-Hydroxyrisperidon sowie der Kontrollsubstanz Domperidon im Gehirn und Blut über 24 Stunden mittels HPLC-Methoden gemessen. Welchen Einfluss eine verminderte Expression von P-gp auf die Pharmakodynamik hat, wurde in zwei Verhaltenstests untersucht. Mit Hilfe des Rotarods wurden motorische Effekte der Arzneistoffe erfasst und mittels Radial Arm Water Maze kognitive Fähigkeiten. Risperidon und sein aktiver Metabolit 9-Hydroxyrisperidon waren die stärksten Substrate von P-gp. 10-fach höhere Konzentrationen im Gehirn der P-gp Knockout Mäuse führten zu 10-fach stärkeren Beeinträchtigungen in den pharmakodynamischen Untersuchungen im Vergleich zu Wildtyp Tieren. Amisulprid, Aripiprazol, Dehydroaripiprazol, Desmethylclozapin und Quetiapin konnten ebenfalls als Substrate von P-gp identifiziert werden. Olanzapin, Haloperidol und Clozapin wurden durch P-gp wenig bzw. nicht in ihrer Pharmakokinetik und –dynamik beeinflusst. Da P-gp von Nagern und Menschen nach derzeitiger Kenntnis in ihren Substrateigenschaften weitgehend übereinstimmen, muss bei einer Behandlung von schizophrenen Patienten mit Antipsychotika, die als Substrate von P-gp identifiziert wurden, davon ausgegangen werden, dass eine Veränderung der Expression oder Aktivität von P-gp, genetisch verursacht oder durch Medikamente bedingt, für das Therapieansprechen oder das Auftreten von Nebenwirkungen bedeutsam sind.
Resumo:
In this thesis a mathematical model was derived that describes the charge and energy transport in semiconductor devices like transistors. Moreover, numerical simulations of these physical processes are performed. In order to accomplish this, methods of theoretical physics, functional analysis, numerical mathematics and computer programming are applied. After an introduction to the status quo of semiconductor device simulation methods and a brief review of historical facts up to now, the attention is shifted to the construction of a model, which serves as the basis of the subsequent derivations in the thesis. Thereby the starting point is an important equation of the theory of dilute gases. From this equation the model equations are derived and specified by means of a series expansion method. This is done in a multi-stage derivation process, which is mainly taken from a scientific paper and which does not constitute the focus of this thesis. In the following phase we specify the mathematical setting and make precise the model assumptions. Thereby we make use of methods of functional analysis. Since the equations we deal with are coupled, we are concerned with a nonstandard problem. In contrary, the theory of scalar elliptic equations is established meanwhile. Subsequently, we are preoccupied with the numerical discretization of the equations. A special finite-element method is used for the discretization. This special approach has to be done in order to make the numerical results appropriate for practical application. By a series of transformations from the discrete model we derive a system of algebraic equations that are eligible for numerical evaluation. Using self-made computer programs we solve the equations to get approximate solutions. These programs are based on new and specialized iteration procedures that are developed and thoroughly tested within the frame of this research work. Due to their importance and their novel status, they are explained and demonstrated in detail. We compare these new iterations with a standard method that is complemented by a feature to fit in the current context. A further innovation is the computation of solutions in three-dimensional domains, which are still rare. Special attention is paid to applicability of the 3D simulation tools. The programs are designed to have justifiable working complexity. The simulation results of some models of contemporary semiconductor devices are shown and detailed comments on the results are given. Eventually, we make a prospect on future development and enhancements of the models and of the algorithms that we used.
Resumo:
Bei der amyotrophen Lateralsklerose 1 (ALS1) handelt es sich um eine altersabhängige Motoneuronenerkrankung, die durch Mutationen im Gen der Cu/Zn-Superoxid Dismutase (hSOD1mut) ausgelöst wird. Die toxischen Eigen¬schaften von hSOD1mut (z. B. Aggregations- oder oxidative Stress-Hypothese) und der Einfluss wildtypischer hSOD1 (hSOD1WT) auf den Krankheitsverlauf sind weithin ungeklärt. Das Ziel dieser Arbeit war es, die Auswirkungen von hSOD1mut-hSOD1WT-Heterodimeren im Vergleich zu mutanten Homodimeren auf die Pathogenese der ALS1 zu untersuchen. Nachdem gezeigt werden konnte, dass es in humanen Zellen in der Tat zu einer Bil¬dung hetero- und homodimerer mutanter hSOD1-Spezies kommt, wurden Dimerfusionsproteine aus zwei hSOD1-Monomeren generiert, die durch einen flexiblen Peptidlinker verbunden und C-terminal mit eGFP markiert waren. Neben hSOD1WT-WT wurden hSOD1mut-mut- und hSOD1mut-WT-Dimere mit vier verschiedenen hSOD1-Mu¬tanten untersucht. Die biochemische Charakterisierung zeigte, dass alle Dimere, die wildtyp-ähnliche hSOD1mut enthielten, eine Dismutaseaktivität aufwiesen. Im Gegensatz dazu war das Homodimer aus zwei metalldefizienten hSOD1G85R inaktiv, wobei interessanterweise hSOD1G85R mit hSOD1WT ein Dismutase-aktives Dimer bilden konnte. Sowohl in Zellkultursystemen als auch in einem C. elegans-Modell bildeten alle mutanten Homodimere vermehrt Aggregate im Vergleich zu den dazugehörigen Heterodimeren. Dieses Aggregationsverhalten korrelierte aber nicht mit der Toxizität der Dimerproteine in Überlebensassays und einer C. elegans Bewe¬gungs¬analyse. In diesen funktionellen Studien assoziierte die Toxizität der dimeren Fusionsproteine mit der enzy¬matischen Aktivität. In Übereinstimmung mit diesen Ergebnissen konnte gezeigt werden, dass hSOD1WT nicht in hSOD1mut-abhängigen Aggregaten vorkommt. Die Ergebnisse dieser Studie sprechen gegen die Aggregation als primäre toxische Eigen¬schaft der hSOD1mut und unterstützen die oxidative Stress-Hypothese. Dis¬mutase-inaktive hSOD1mut können eine untypische Enzymaktivität durch die Heterodimerisierung mit hSODWT erlangen, die auf diese Weise maßgeblich an der Pathogenese der ALS1 beteiligt sein könnte.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Major depression belongs to the most serious and widespread psychiatric disorders in today’s society. There is a great need for the delineation of the underlying molecular mechanisms as well as for the identification of novel targets for its treatment. In this thesis, transgenic mice of the endocannabinoid and the corticotropin-releasing hormone (CRH) system were investigated to determine the putative role of these systems for depression-like phenotypes in mice. In the first part of the thesis, we found that the endocannabinoid system was prominently involved in a brain region-specific and temporally controlled manner in acute as well as in chronic stress processing. Genetic deletion in combination with pharmacological intervention revealed the importance of a fully functional endocannabinoid system for efficient neuroendocrine and behavioral stress coping. Accordingly, cannabinoid type 1 (CB1) receptor-deficient mice displayed several depression-like symptoms and molecular alterations, including “behavioral despair”, stress hormone hypersecretion and decreased glucocorticoid receptor and brain-derived neurotrophic factor expression in the hippocampus. However, the endocannabinoid system was dispensable for the efficacy of currently used antidepressant drugs. To facilitate future endocannabinoid research, a transgenic mouse was generated, which overexpressed the CB1 receptor protein fused to a fluorescent protein. In the second part of the thesis, conditional brain region-specific CRH overexpressing mice were evaluated as a model for pathological chronic CRH hyperactivation. Mutant mice showed aberrant neuroendocrine and behavioral stress coping and hyperarousal due to CRH-induced activation of the noradrenergic system in the brain. Mutant mice appeared to share similarities with naturally occurring endogenous CRH activation in wild-type mice and were sensitive to acute pharmacological blockade of CRH receptor type 1 (CRH-R1). Thus, CRH overexpressing mice serve as an ideal in vivo tool to evaluate the efficacy of novel CRH-R1 antagonists. Together, these findings highlight the potential of transgenic mice for the understanding of certain endo-phenotypes (isolated symptoms) of depression and their molecular correlates.
Resumo:
In this work the numerical coupling of thermal and electric network models with model equations for optoelectronic semiconductor devices is presented. Modified nodal analysis (MNA) is applied to model electric networks. Thermal effects are modeled by an accompanying thermal network. Semiconductor devices are modeled by the energy-transport model, that allows for thermal effects. The energy-transport model is expandend to a model for optoelectronic semiconductor devices. The temperature of the crystal lattice of the semiconductor devices is modeled by the heat flow eqaution. The corresponding heat source term is derived under thermodynamical and phenomenological considerations of energy fluxes. The energy-transport model is coupled directly into the network equations and the heat flow equation for the lattice temperature is coupled directly into the accompanying thermal network. The coupled thermal-electric network-device model results in a system of partial differential-algebraic equations (PDAE). Numerical examples are presented for the coupling of network- and one-dimensional semiconductor equations. Hybridized mixed finite elements are applied for the space discretization of the semiconductor equations. Backward difference formluas are applied for time discretization. Thus, positivity of charge carrier densities and continuity of the current density is guaranteed even for the coupled model.
Resumo:
This thesis is mainly concerned with a model calculation for generalized parton distributions (GPDs). We calculate vectorial- and axial GPDs for the N N and N Delta transition in the framework of a light front quark model. This requires the elaboration of a connection between transition amplitudes and GPDs. We provide the first quark model calculations for N Delta GPDs. The examination of transition amplitudes leads to various model independent consistency relations. These relations are not exactly obeyed by our model calculation since the use of the impulse approximation in the light front quark model leads to a violation of Poincare covariance. We explore the impact of this covariance breaking on the GPDs and form factors which we determine in our model calculation and find large effects. The reference frame dependence of our results which originates from the breaking of Poincare covariance can be eliminated by introducing spurious covariants. We extend this formalism in order to obtain frame independent results from our transition amplitudes.