961 resultados para Dreidimensionales Modell


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hypoxie ist ein Zustand des Sauerstoffmangels, hervorgerufen durch fehlende Verfügbarkeit von Sauerstoff in der Umgebung eines Organismus oder durch pathologisch bedingte unzureichende Nutzbarkeit des Sauerstoffs von Geweben. Die Sensitivität gegenüber Hypoxie variiert enorm im Tierreich zwischen verschiedenen Phyla und Spezies. Die meisten Säugetiere sind nur unzureichend an niedrige Sauerstoffkonzentrationen angepasst, wohingegen einige unterirdisch lebende Säuger sehr resistent gegen Hypoxiestress sind. Um die molekulare Basis der Hypoxietoleranz zu bestimmen, wurden in der vorliegenden Arbeit Globine untersucht, die potenziell in der Lage sind, als respiratorische Proteine zur Hypoxietoleranz von Tieren beizutragen. Dazu wurde die Expression der Globine in der hypoxieresistenten, in Israel lebenden Blindmaus Spalax ehrenbergi mit der Genexpression in der hypoxiesensitiven Ratte (Rattus norvegicus) verglichen. In der vorliegenden Arbeit wurden die erst vor wenigen Jahren entdeckten Globine Neuroglobin und Cytoglobin untersucht, deren exakte physiologische Rolle noch unklar ist, und mit Daten des viel detaillierter untersuchten Myoglobins verglichen. Beim Vergleich der Expression von Cytoglobin und Neuroglobin in Spalax versus Ratte fällt auf, dass Neuroglobin und Cytoglobin bereits unter normoxischen Bedingungen auf mRNA- und Proteinebene in der Blindmaus um einen Faktor von mindesten 2 bis 3 verstärkt exprimiert werden. Bei Myoglobin (als dem Kontrollgen mit bekannter Funktion) konnte auf mRNA-Ebene eine noch weitaus stärkere Expression in Spalax vs. Ratte gefunden werden. Das übergreifende Phänomen der verstärkten Genexpression von Globinen in Spalax kann im Sinne einer Präadaptation an das unterirdische, häufig hypoxische Leben der Blindmaus interpretiert werden. Einen weiteren Hinweis auf eine besondere, spezialisierte Funktion von Neuroglobin in Spalax geben immunhistochemische Daten, die zeigen, dass Neuroglobin im Gehirn von Spalax im Gegensatz zur Ratte nicht nur in Neuronen, sondern auch in Gliazellen exprimiert wird. Dies impliziert Änderungen des oxidativen Stoffwechsels im Nervensystem der hypoxietoleranten Spezies. Die zellulären Expressionsmuster von Cytoglobin erscheinen hingegen in beiden Säugerspezies weitgehend identisch. Es wurde der Frage nachgegangen, ob und wie experimentell induzierte Hypoxie die Genexpression der Globine verändert. Dabei zeigten sich für Neuroglobin und Cytoglobin unterschiedliche Expressionsmuster. Neuroglobin wird unter diversen Sauerstoffmangelbedingungen sowohl in der Ratte als auch in Spalax auf mRNA- und Proteinebene herunterreguliert. Ein ähnliches Regulationsverhalten wurde auch für Myoglobin beobachtet. Die verminderte Expression von Neuroglobin (und evtl. auch Myoglobin) unter Hypoxie ist mit einer gezielten Verringerung der Sauerstoff-Speicherkapazität in Abwesenheit von O2 zu erklären. Ein weiterer denkbarer Grund könnte auch die allgemeine Tendenz sein, unter Hypoxie aus Energiespargründen den Metabolismus herunter zu regulieren. Cytoglobin, das bei normalen Sauerstoffbedingungen nur im Gehirn von Spalax (nicht jedoch in Herz und Leber) ebenfalls um Faktor 2 bis 3 stärker exprimiert wird als in der Ratte, ist mit einiger Sicherheit ebenfalls von adaptivem Nutzen für die Anpassung von Spalax an niedrige Sauerstoffbedingungen, wenngleich seine Funktion unklar bleibt. Unter Hypoxie wird die Cytoglobin-mRNA sowohl in Spalax als auch in der Ratte hochreguliert. Es konnte in der vorliegenden Arbeit dargelegt werden, dass die Expression von Cygb höchstwahrscheinlich durch den Transkriptionsfaktor Hif-1 gesteuert wird, der die molekulare Hypoxieantwort vieler Tierarten zentral steuert. In der vorliegenden Arbeit wurde ebenfalls die Expression von Ngb und Cygb im Gehirn des Hausschweins (Sus scrofa) untersucht. Diese Spezies diente in der Arbeit als weiterer hypoxiesensitiver Organismus sowie als biomedizinisch relevantes Modell für eine Operation an Säuglingen mit angeborenen Herzkrankheiten. Die Versuche haben gezeigt, dass die Gabe bestimmter Medikamente wie dem Immunsuppressivum FK506 zu einer erhöhten Ngb-Konzentration auf mRNA-Ebene führen kann, was potenziell im Zusammenhang mit beobachteten protektiven Effekten der Medikamentengabe während und nach der Herzoperation steht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this work is to explore, within the framework of the presumably asymptotically safe Quantum Einstein Gravity, quantum corrections to black hole spacetimes, in particular in the case of rotating black holes. We have analysed this problem by exploiting the scale dependent Newton s constant implied by the renormalization group equation for the effective average action, and introducing an appropriate "cutoff identification" which relates the renormalization scale to the geometry of the spacetime manifold. We used these two ingredients in order to "renormalization group improve" the classical Kerr metric that describes the spacetime generated by a rotating black hole. We have focused our investigation on four basic subjects of black hole physics. The main results related to these topics can be summarized as follows. Concerning the critical surfaces, i.e. horizons and static limit surfaces, the improvement leads to a smooth deformation of the classical critical surfaces. Their number remains unchanged. In relation to the Penrose process for energy extraction from black holes, we have found that there exists a non-trivial correlation between regions of negative energy states in the phase space of rotating test particles and configurations of critical surfaces of the black hole. As for the vacuum energy-momentum tensor and the energy conditions we have shown that no model with "normal" matter, in the sense of matter fulfilling the usual energy conditions, can simulate the quantum fluctuations described by the improved Kerr spacetime that we have derived. Finally, in the context of black hole thermodynamics, we have performed calculations of the mass and angular momentum of the improved Kerr black hole, applying the standard Komar integrals. The results reflect the antiscreening character of the quantum fluctuations of the gravitational field. Furthermore we calculated approximations to the entropy and the temperature of the improved Kerr black hole to leading order in the angular momentum. More generally we have proven that the temperature can no longer be proportional to the surface gravity if an entropy-like state function is to exist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Computer simulations play an ever growing role for the development of automotive products. Assembly simulation, as well as many other processes, are used systematically even before the first physical prototype of a vehicle is built in order to check whether particular components can be assembled easily or whether another part is in the way. Usually, this kind of simulation is limited to rigid bodies. However, a vehicle contains a multitude of flexible parts of various types: cables, hoses, carpets, seat surfaces, insulations, weatherstrips... Since most of the problems using these simulations concern one-dimensional components and since an intuitive tool for cable routing is still needed, we have chosen to concentrate on this category, which includes cables, hoses and wiring harnesses. In this thesis, we present a system for simulating one dimensional flexible parts such as cables or hoses. The modeling of bending and torsion follows the Cosserat model. For this purpose we use a generalized spring-mass system and describe its configuration by a carefully chosen set of coordinates. Gravity and contact forces as well as the forces responsible for length conservation are expressed in Cartesian coordinates. But bending and torsion effects can be dealt with more effectively by using quaternions to represent the orientation of the segments joining two neighboring mass points. This augmented system allows an easy formulation of all interactions with the best appropriate coordinate type and yields a strongly banded Hessian matrix. An energy minimizing process accounts for a solution exempt from the oscillations that are typical of spring-mass systems. The use of integral forces, similar to an integral controller, allows to enforce exactly the constraints. The whole system is numerically stable and can be solved at interactive frame rates. It is integrated in the DaimlerChrysler in-house Virtual Reality Software veo for use in applications such as cable routing and assembly simulation and has been well received by users. Parts of this work have been published at the ACM Solid and Physical Modeling Conference 2006 and have been selected for the special issue of the Computer-Aided-Design Journal to the conference.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der hier vorliegenden Arbeit wurde am Beispiel der Kraut- und Knollenfäule an Kartoffeln Phytophthora infestans und des Kartoffelkäfers Leptinotarsa decemlineata untersucht, ob durch den Einsatz von Geographischen Informationssystemen (GIS) landwirtschaftliche Schader¬reger¬prognosen für jeden beliebigen Kartoffelschlag in Deutschland erstellt werden können. Um dieses Ziel zu erreichen, wurden die Eingangsparameter (Temperatur und relative Luftfeuchte) der Prognosemodelle für die beiden Schaderreger (SIMLEP1, SIMPHYT1, SIMPHYT3 and SIMBLIGHT1) so aufbereitet, dass Wetterdaten flächendeckend für Deutschland zur Verfügung standen. Bevor jedoch interpoliert werden konnte, wurde eine Regionalisierung von Deutschland in Interpolationszonen durchgeführt und somit Naturräume geschaffen, die einen Vergleich und eine Bewertung der in ihnen liegenden Wetterstationen zulassen. Hierzu wurden die Boden-Klima-Regionen von SCHULZKE und KAULE (2000) modifiziert, an das Wetterstationsnetz angepasst und mit 5 bis 10 km breiten Pufferzonen an der Grenze der Interpolationszonen versehen, um die Wetterstationen so häufig wie möglich verwenden zu können. Für die Interpolation der Wetterdaten wurde das Verfahren der multiplen Regression gewählt, weil dieses im Vergleich zu anderen Verfahren die geringsten Abweichungen zwischen interpolierten und gemessenen Daten aufwies und den technischen Anforderungen am besten entsprach. Für 99 % aller Werte konnten bei der Temperaturberechnung Abweichungen in einem Bereich zwischen -2,5 und 2,5 °C erzielt werden. Bei der Berechnung der relativen Luftfeuchte wurden Abweichungen zwischen -12 und 10 % relativer Luftfeuchte erreicht. Die Mittelwerte der Abweichungen lagen bei der Temperatur bei 0,1 °C und bei der relativen Luftfeuchte bei -1,8 %. Zur Überprüfung der Trefferquoten der Modelle beim Betrieb mit interpolierten Wetterdaten wurden Felderhebungsdaten aus den Jahren 2000 bis 2007 zum Erstauftreten der Kraut- und Knollenfäule sowie des Kartoffelkäfers verwendet. Dabei konnten mit interpolierten Wetterdaten die gleichen und auch höhere Trefferquoten erreicht werden, als mit der bisherigen Berechnungsmethode. Beispielsweise erzielte die Berechnung des Erstauftretens von P. infestans durch das Modell SIMBLIGHT1 mit interpolierten Wetterdaten im Schnitt drei Tage geringere Abweichungen im Vergleich zu den Berechnungen ohne GIS. Um die Auswirkungen interpretieren zu können, die durch Abweichungen der Temperatur und der relativen Luftfeuchte entstanden wurde zusätzlich eine Sensitivitätsanalyse zur Temperatur und relativen Luftfeuchte der verwendeten Prognosemodelle durchgeführt. Die Temperatur hatte bei allen Modellen nur einen geringen Einfluss auf das Prognoseergebnis. Veränderungen der relativen Luftfeuchte haben sich dagegen deutlich stärker ausgewirkt. So lag bei SIMBLIGHT1 die Abweichung durch eine stündliche Veränderung der relativen Luftfeuchte (± 6 %) bei maximal 27 Tagen, wogegen stündliche Veränderungen der Temperatur (± 2 °C) eine Abweichung von maximal 10 Tagen ausmachten. Die Ergebnisse dieser Arbeit zeigen, dass durch die Verwendung von GIS mindestens die gleichen und auch höhere Trefferquoten bei Schaderregerprognosen erzielt werden als mit der bisherigen Verwendung von Daten einer nahegelegenen Wetterstation. Die Ergebnisse stellen einen wesentlichen Fortschritt für die landwirtschaftlichen Schaderregerprognosen dar. Erstmals ist es möglich, bundesweite Prognosen für jeden beliebigen Kartoffelschlag zur Bekämpfung von Schädlingen in der Landwirtschaft bereit zu stellen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) ist eine Maßnahme, bei der durch Messung der Medikamentenspiegel im Blut die Dosis ermittelt wird, bei der mit höchster Wahrscheinlichkeit mit Therapieansprechen gerechnet werden kann. Dabei wird angenommen, dass die Konzentrationen im Blut mit denen im Wirkkompartiment korrelieren. Für Antipsychotika wurde gezeigt, dass die Konzentrationen im Blut direkt mit denen im Gehirn korrelieren, die Verteilung zwischen den beiden Kompartimenten ist jedoch für die verschiedenen Antipsychotika sehr unterschiedlich. Die Distribution von Arzneistoffen zwischen Blut und Gehirn wird durch Effluxtransporter in der Blut-Hirn-Schranke kontrolliert. Welche Rolle dabei P-Glykoprotein (P-gp) für die Verteilung von atypischen Antipsychotika spielt und wie die Pharmakokinetik und –dynamik durch diesen Transporter beeinflusst werden, sollte in dieser Arbeit untersucht werden. Für die Messung des neu eingeführten Antipsychotikums Aripiprazol, sowie für seinen aktiven Metaboliten Dehydroaripiprazol, wurde eine hochleistungsflüssigchromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert. Die Methode wurde für die Messung von Serumproben schizophrener Patienten eingesetzt, um einen therapeutischen Bereich für Aripiprazol zu ermitteln. Aus der Analyse von 523 Patientenproben wurde herausgefunden, dass Aripiprazol-Serumkonzentrationen von 150 bis 300 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Weiterhin wurde festgestellt, dass die Serumspiegel bei gleichzeitiger Gabe von Inhibitoren und Induktoren der Cytochrom P450 (CYP) Isoenzyme CYP2D6 und CYP3A4 erhöht bzw. gesenkt wurden. Am Modell der P-gp Knockout Maus im Vergleich zu FVB Wildtyp Mäusen wurden Konzentrationsverläufe von Antipsychotika nach i.p. Gabe von Amisulprid, Aripiprazol, Dehydroaripiprazol, Clozapin, Desmethylclozapin, Haloperidol, Olanzapin, Quetiapin, Risperidon und 9-Hydroxyrisperidon sowie der Kontrollsubstanz Domperidon im Gehirn und Blut über 24 Stunden mittels HPLC-Methoden gemessen. Welchen Einfluss eine verminderte Expression von P-gp auf die Pharmakodynamik hat, wurde in zwei Verhaltenstests untersucht. Mit Hilfe des Rotarods wurden motorische Effekte der Arzneistoffe erfasst und mittels Radial Arm Water Maze kognitive Fähigkeiten. Risperidon und sein aktiver Metabolit 9-Hydroxyrisperidon waren die stärksten Substrate von P-gp. 10-fach höhere Konzentrationen im Gehirn der P-gp Knockout Mäuse führten zu 10-fach stärkeren Beeinträchtigungen in den pharmakodynamischen Untersuchungen im Vergleich zu Wildtyp Tieren. Amisulprid, Aripiprazol, Dehydroaripiprazol, Desmethylclozapin und Quetiapin konnten ebenfalls als Substrate von P-gp identifiziert werden. Olanzapin, Haloperidol und Clozapin wurden durch P-gp wenig bzw. nicht in ihrer Pharmakokinetik und –dynamik beeinflusst. Da P-gp von Nagern und Menschen nach derzeitiger Kenntnis in ihren Substrateigenschaften weitgehend übereinstimmen, muss bei einer Behandlung von schizophrenen Patienten mit Antipsychotika, die als Substrate von P-gp identifiziert wurden, davon ausgegangen werden, dass eine Veränderung der Expression oder Aktivität von P-gp, genetisch verursacht oder durch Medikamente bedingt, für das Therapieansprechen oder das Auftreten von Nebenwirkungen bedeutsam sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis a mathematical model was derived that describes the charge and energy transport in semiconductor devices like transistors. Moreover, numerical simulations of these physical processes are performed. In order to accomplish this, methods of theoretical physics, functional analysis, numerical mathematics and computer programming are applied. After an introduction to the status quo of semiconductor device simulation methods and a brief review of historical facts up to now, the attention is shifted to the construction of a model, which serves as the basis of the subsequent derivations in the thesis. Thereby the starting point is an important equation of the theory of dilute gases. From this equation the model equations are derived and specified by means of a series expansion method. This is done in a multi-stage derivation process, which is mainly taken from a scientific paper and which does not constitute the focus of this thesis. In the following phase we specify the mathematical setting and make precise the model assumptions. Thereby we make use of methods of functional analysis. Since the equations we deal with are coupled, we are concerned with a nonstandard problem. In contrary, the theory of scalar elliptic equations is established meanwhile. Subsequently, we are preoccupied with the numerical discretization of the equations. A special finite-element method is used for the discretization. This special approach has to be done in order to make the numerical results appropriate for practical application. By a series of transformations from the discrete model we derive a system of algebraic equations that are eligible for numerical evaluation. Using self-made computer programs we solve the equations to get approximate solutions. These programs are based on new and specialized iteration procedures that are developed and thoroughly tested within the frame of this research work. Due to their importance and their novel status, they are explained and demonstrated in detail. We compare these new iterations with a standard method that is complemented by a feature to fit in the current context. A further innovation is the computation of solutions in three-dimensional domains, which are still rare. Special attention is paid to applicability of the 3D simulation tools. The programs are designed to have justifiable working complexity. The simulation results of some models of contemporary semiconductor devices are shown and detailed comments on the results are given. Eventually, we make a prospect on future development and enhancements of the models and of the algorithms that we used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der amyotrophen Lateralsklerose 1 (ALS1) handelt es sich um eine altersabhängige Motoneuronenerkrankung, die durch Mutationen im Gen der Cu/Zn-Superoxid Dismutase (hSOD1mut) ausgelöst wird. Die toxischen Eigen¬schaften von hSOD1mut (z. B. Aggregations- oder oxidative Stress-Hypothese) und der Einfluss wildtypischer hSOD1 (hSOD1WT) auf den Krankheitsverlauf sind weithin ungeklärt. Das Ziel dieser Arbeit war es, die Auswirkungen von hSOD1mut-hSOD1WT-Heterodimeren im Vergleich zu mutanten Homodimeren auf die Pathogenese der ALS1 zu untersuchen. Nachdem gezeigt werden konnte, dass es in humanen Zellen in der Tat zu einer Bil¬dung hetero- und homodimerer mutanter hSOD1-Spezies kommt, wurden Dimerfusionsproteine aus zwei hSOD1-Monomeren generiert, die durch einen flexiblen Peptidlinker verbunden und C-terminal mit eGFP markiert waren. Neben hSOD1WT-WT wurden hSOD1mut-mut- und hSOD1mut-WT-Dimere mit vier verschiedenen hSOD1-Mu¬tanten untersucht. Die biochemische Charakterisierung zeigte, dass alle Dimere, die wildtyp-ähnliche hSOD1mut enthielten, eine Dismutaseaktivität aufwiesen. Im Gegensatz dazu war das Homodimer aus zwei metalldefizienten hSOD1G85R inaktiv, wobei interessanterweise hSOD1G85R mit hSOD1WT ein Dismutase-aktives Dimer bilden konnte. Sowohl in Zellkultursystemen als auch in einem C. elegans-Modell bildeten alle mutanten Homodimere vermehrt Aggregate im Vergleich zu den dazugehörigen Heterodimeren. Dieses Aggregationsverhalten korrelierte aber nicht mit der Toxizität der Dimerproteine in Überlebensassays und einer C. elegans Bewe¬gungs¬analyse. In diesen funktionellen Studien assoziierte die Toxizität der dimeren Fusionsproteine mit der enzy¬matischen Aktivität. In Übereinstimmung mit diesen Ergebnissen konnte gezeigt werden, dass hSOD1WT nicht in hSOD1mut-abhängigen Aggregaten vorkommt. Die Ergebnisse dieser Studie sprechen gegen die Aggregation als primäre toxische Eigen¬schaft der hSOD1mut und unterstützen die oxidative Stress-Hypothese. Dis¬mutase-inaktive hSOD1mut können eine untypische Enzymaktivität durch die Heterodimerisierung mit hSODWT erlangen, die auf diese Weise maßgeblich an der Pathogenese der ALS1 beteiligt sein könnte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Major depression belongs to the most serious and widespread psychiatric disorders in today’s society. There is a great need for the delineation of the underlying molecular mechanisms as well as for the identification of novel targets for its treatment. In this thesis, transgenic mice of the endocannabinoid and the corticotropin-releasing hormone (CRH) system were investigated to determine the putative role of these systems for depression-like phenotypes in mice. In the first part of the thesis, we found that the endocannabinoid system was prominently involved in a brain region-specific and temporally controlled manner in acute as well as in chronic stress processing. Genetic deletion in combination with pharmacological intervention revealed the importance of a fully functional endocannabinoid system for efficient neuroendocrine and behavioral stress coping. Accordingly, cannabinoid type 1 (CB1) receptor-deficient mice displayed several depression-like symptoms and molecular alterations, including “behavioral despair”, stress hormone hypersecretion and decreased glucocorticoid receptor and brain-derived neurotrophic factor expression in the hippocampus. However, the endocannabinoid system was dispensable for the efficacy of currently used antidepressant drugs. To facilitate future endocannabinoid research, a transgenic mouse was generated, which overexpressed the CB1 receptor protein fused to a fluorescent protein. In the second part of the thesis, conditional brain region-specific CRH overexpressing mice were evaluated as a model for pathological chronic CRH hyperactivation. Mutant mice showed aberrant neuroendocrine and behavioral stress coping and hyperarousal due to CRH-induced activation of the noradrenergic system in the brain. Mutant mice appeared to share similarities with naturally occurring endogenous CRH activation in wild-type mice and were sensitive to acute pharmacological blockade of CRH receptor type 1 (CRH-R1). Thus, CRH overexpressing mice serve as an ideal in vivo tool to evaluate the efficacy of novel CRH-R1 antagonists. Together, these findings highlight the potential of transgenic mice for the understanding of certain endo-phenotypes (isolated symptoms) of depression and their molecular correlates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work the numerical coupling of thermal and electric network models with model equations for optoelectronic semiconductor devices is presented. Modified nodal analysis (MNA) is applied to model electric networks. Thermal effects are modeled by an accompanying thermal network. Semiconductor devices are modeled by the energy-transport model, that allows for thermal effects. The energy-transport model is expandend to a model for optoelectronic semiconductor devices. The temperature of the crystal lattice of the semiconductor devices is modeled by the heat flow eqaution. The corresponding heat source term is derived under thermodynamical and phenomenological considerations of energy fluxes. The energy-transport model is coupled directly into the network equations and the heat flow equation for the lattice temperature is coupled directly into the accompanying thermal network. The coupled thermal-electric network-device model results in a system of partial differential-algebraic equations (PDAE). Numerical examples are presented for the coupling of network- and one-dimensional semiconductor equations. Hybridized mixed finite elements are applied for the space discretization of the semiconductor equations. Backward difference formluas are applied for time discretization. Thus, positivity of charge carrier densities and continuity of the current density is guaranteed even for the coupled model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is mainly concerned with a model calculation for generalized parton distributions (GPDs). We calculate vectorial- and axial GPDs for the N N and N Delta transition in the framework of a light front quark model. This requires the elaboration of a connection between transition amplitudes and GPDs. We provide the first quark model calculations for N Delta GPDs. The examination of transition amplitudes leads to various model independent consistency relations. These relations are not exactly obeyed by our model calculation since the use of the impulse approximation in the light front quark model leads to a violation of Poincare covariance. We explore the impact of this covariance breaking on the GPDs and form factors which we determine in our model calculation and find large effects. The reference frame dependence of our results which originates from the breaking of Poincare covariance can be eliminated by introducing spurious covariants. We extend this formalism in order to obtain frame independent results from our transition amplitudes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis foliation boudinage and related structures have been studied based on field observations and numerical modeling. Foliation boudinage occurs in foliated rocks independent of lithology contrast. The developing structures are called ‘Foliation boudinage structures (FBSs)’ and show evidence for both ductile and brittle deformation. They are recognized in rocks by perturbations in monotonous foliation adjacent to a central discontinuity, mostly filled with vein material. Foliation boudinage structures have been studied in the Çine Massif in SW-Turkey and the Furka Pass-Urseren Zone in central Switzerland. Four common types have been distinguished in the field, named after vein geometries in their boudin necks in sections normal to the boudin axis: lozenge-, crescent-, X- and double crescent- type FBSs. Lozengetype FBSs are symmetric and characterized by lozenge-shaped veins in their boudin neck with two cusps facing opposite sides. A symmetrical pair of flanking folds occurs on the two sides of the vein. Crescent-type FBSs are asymmetric with a single smoothly curved vein in the boudin neck, with vein contacts facing to one side. X- and double crescent- type FBSs are asymmetric. The geometry of the neck veins resembles that of cuspate-lobate structures. The geometry of flanking structures is related to the shape of the veins. The veins are mostly filled with massive quartz in large single crystals, commonly associated with tourmaline, feldspar and biotite and in some cases with chlorite. The dominance of large facetted single quartz crystals and spherulitic chlorite in the veins suggest that the minerals grew into open fluidfilled space. FLAC experiments show that fracture propagation during ductile deformation strongly influences the geometry of developing veins. The cusps of the veins are better developed in the case of propagating fractures. The shape of the boudin neck veins in foliation boudinage depends on the initial orientation and shape of the fracture, the propagation behaviour of the fracture, the geometry of bulk flow, and the stage at which mineral filling takes place. A two dimensional discrete element model was used to study the progressive development of foliation boudinage structures and the behavior of visco-elastic material deformed under pure shear conditions. Discrete elements are defined by particles that are connected by visco-elastic springs. Springs can break. A number of simulations was Abstract vii performed to investigate the effect of material properties (Young’s modulus, viscosity and breaking strength) and anisotropy on the developing structures. The models show the development of boudinage in single layers, multilayers and in anisotropic materials with random mica distribution. During progressive deformation different types of fractures develop from mode I, mode II to the combination of both. Voids develop along extension fractures, at intersections of conjugate shear fractures and in small pull-apart structures along shear fractures. These patterns look similar to the natural examples. Fractures are more localized in the models where the elastic constants are low and the competence contrast is high between the layers. They propagate through layers where the constants are high and the competence contrast is relatively low. Flow localize around these fractures and voids. The patterns similar to symmetric boudinage structures and extensional neck veins (e.g. lozenge type) more commonly develop in the models with lower elastic constants and anisotropy. The patterns similar to asymmetric foliation boudinage structures (e.g. X-type) develop associated with shear fractures in the models where elastic constants and anisotropy of the materials are relatively high. In these models boudin neck veins form commonly at pull-aparts along the shear fractures and at the intersection of fractures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Autor untersucht die Strategien und Konzepte des Göttinger Kulturwissenschaftlers Edmund Ballhaus, der mit seiner Filmarbeit die Entwicklung des wissenschaftlichen Films seit Mitte der achtziger Jahre maßgeblich beeinflußte. Detaillierte Analysen seiner ersten zwölf, in den Jahren 1986 bis 1996 entstandenen Filme verdeutlichen seine Abkehr von überholten inhaltlichen und methodischen Standards und die Entwicklung eines eigenständigen Typus des kulturwissenschaftlichen Films. Dieser rückt den Menschen in den Mittelpunkt der Betrachtung und erteilt den Gefilmten selbst das Wort. Damit wurde sowohl dem klassischen Erklärdokumentarismus des Fernsehens als auch dem distanzierten Dokumentationsstil des Instituts für den Wissenschaftlichen Film (IWF) ein neues Modell gegenübergestellt. Darüber hinaus löste sich Edmund Ballhaus von der traditionellen Arbeitsteilung in Hinblick auf Recherche, Konzeption und Umsetzung und ersetzte sie durch den selbstfilmenden Wissenschaftler, der für alle Arbeitsschritte einer Filmproduktion allein verantwortlich ist. Seine bereits 1987 veröffentlichten Forderungen verwirklichte er nicht nur in seinen Filmen, sondern auch mit der Gründung der Gesellschaft für den kulturwissenschaftlichen Film (GfkF) und der Einrichtung eines Studienganges Visuelle Anthropologie in Göttingen. In die Untersuchung einbezogen wurde eine im Anhang des Buches wiedergegebene Befragung des Filmautors, welche die Analyse um interessante Details sowohl in Hinblick auf die Entstehungsbedingungen einzelner Filme als auch auf seine persönlichen Überzeugungen und Beweggründe ergänzt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den letzten Jahrzehnten wurde eine deutliche, anhaltende Veränderung des globalen Klimas beobachtet, die in Zukunft zu einer Erhöhung der durchschnittlichen Oberflächentemperatur, erhöhten Niederschlagsmengen und anderen gravierenden Umweltveränderungen führen wird (IPCC 2001). Der Klimawandel wird in Flüssen sowohl mehr Extremereignisse verursachen als auch das Abflussregime bisher schmelzwasserdominierter Flüsse zu grundwassergespeisten hin ändern; dies gilt insbesondere für den Rhein (MIDDELKOOP et al. 2001). Um die möglichen Auswirkungen dieser Veränderungen auf die genetische Populationsstruktur von Makrozoobenthosorganismen vorhersagen zu können, wurden in den grundwassergespeisten Flüssen Main und Mosel sowie im Rhein Entnahmestellen oberhalb und unterhalb von Staustufen beprobt, die durch kontrastierende Strömungsverhältnisse als Modell für die zu erwartenden Änderungen dienten. Als Untersuchungsobjekt wurden Dreissena polymorpha PALLAS 1771 sowie Dikerogammarus villosus SOWINSKI 1894 herangezogen. Sie zeichnen sich durch hohe Abundanzen aus, sind aber unterschiedlich u.a. hinsichtlich ihrer Besiedlungsstrategie und –historie. Bei beiden Spezies sind die phylogeographischen Hintergründe bekannt; daher wurde auch versucht, die Einwanderungsrouten in der Populationsstruktur nachzuweisen (phylogeographisches Szenario). Dies konkurrierte mit der möglichen Anpassung der Spezies an das Abflussregime des jeweiligen Flusses (Adaptations-Szenario). Die Populationen wurden molekulargenetisch mit Hilfe der AFLP-Methode („Amplified-Fragment Length Polymorphism“) untersucht. Die Ergebnisse zeigen, dass D. polymorpha deutlich durch die Abflussregimes der Flüsse (Schmelz- oder Grundwasserdominanz) beeinflusst wird. Die Allelfrequenzen in Populationen des Rheins sind von denen der beiden grundwassergespeisten Flüsse Main und Mosel deutlich unterscheidbar (Adaptations-Szenario). Jedoch ist kein Unterschied der genetischen Diversitäten zu beobachten; das ist auf die lange Adaptation an ihre jeweiligen Habitate durch die lange Besiedlungsdauer zurückzuführen. Dies ist auch der Grund, warum die Einwanderungsrouten anhand der Populationsstruktur nicht mehr nachzuweisen waren. Die kontrastierenden Strömungsverhältnisse um die Staustufen hatten ebenfalls keine konsistenten Auswirkungen auf die genetische Diversität der Populationen. Diese Ergebnisse zeigen eine hohe phänotypische Plastizität der Spezies und dadurch eine große Anpassungsfähigkeit an wechselnde Umweltbedingungen, die unter anderem für den großen Erfolg dieser Spezies verantwortlich ist. D. villosus wanderte erst vor Kurzem in das Untersuchungsgebiet ein; die Einwanderungsroute war anhand der genetischen Diversität nachvollziehbar (phylogeographisches Szenario); durch die kurze Besiedlungsdauer war eine Adaptation an die divergenten Abflussregime der Flüsse nicht zu erwarten und wurde auch nicht gefunden. Dagegen war ein deutlicher negativer Einfluss von starker Strömung auf die genetische Diversität nachweisbar. Die Ergebnisse weisen darauf hin, dass die zukünftigen Auswirkungen des Klimawandels auf die Strömungsgeschwindigkeit negative Konsequenzen auf die genetische Diversität von D. villosus haben werden, während D. polymorpha hier keine Auswirkungen erkennen lässt. Die Auswirkungen des veränderten Abflussregimes im Rhein sind für D. villosus mit den vorliegenden Daten aufgrund der kurzen Besiedlungsdauer nicht vorhersagbar; D. polymorpha wird durch die Veränderung des Rheins zu einem grundwassergespeisten Fluss zwar einen Wandel in der genetischen Struktur erfahren, aber auch hier keine Einbußen in der genetischen Diversität erleiden.