364 resultados para Verbesserung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Computer simulations have become an important tool in physics. Especially systems in the solid state have been investigated extensively with the help of modern computational methods. This thesis focuses on the simulation of hydrogen-bonded systems, using quantum chemical methods combined with molecular dynamics (MD) simulations. MD simulations are carried out for investigating the energetics and structure of a system under conditions that include physical parameters such as temperature and pressure. Ab initio quantum chemical methods have proven to be capable of predicting spectroscopic quantities. The combination of these two features still represents a methodological challenge. Furthermore, conventional MD simulations consider the nuclei as classical particles. Not only motional effects, but also the quantum nature of the nuclei are expected to influence the properties of a molecular system. This work aims at a more realistic description of properties that are accessible via NMR experiments. With the help of the path integral formalism the quantum nature of the nuclei has been incorporated and its influence on the NMR parameters explored. The effect on both the NMR chemical shift and the Nuclear Quadrupole Coupling Constants (NQCC) is presented for intra- and intermolecular hydrogen bonds. The second part of this thesis presents the computation of electric field gradients within the Gaussian and Augmented Plane Waves (GAPW) framework, that allows for all-electron calculations in periodic systems. This recent development improves the accuracy of many calculations compared to the pseudopotential approximation, which treats the core electrons as part of an effective potential. In combination with MD simulations of water, the NMR longitudinal relaxation times for 17O and 2H have been obtained. The results show a considerable agreement with the experiment. Finally, an implementation of the calculation of the stress tensor into the quantum chemical program suite CP2K is presented. This enables MD simulations under constant pressure conditions, which is demonstrated with a series of liquid water simulations, that sheds light on the influence of the exchange-correlation functional used on the density of the simulated liquid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im ersten Teil der Dissertation wurde in einem experimentellen Asthmamodell demonstriert, dass die Signaltransduktion über IL-6 das Gleichgewicht zwischen Effektorzellen und regulatorischen T-Zellen durch verschiedene Rezeptorkomponenten kontrolliert. Hierbei zeigte sich, dass speziell das IL-6 Trans-Signaling über den sIL-6R die TH2 Cytokinproduktion steuert. Dagegen führt die Blockade des mIL-6R zur Expansion regulatorischer T-Zellen mit suppressiven Eigenschaften. Diese CD4+CD25+ Tregs induzieren außerdem IFN gamma produzierende CD4+ T-Zellen in der Lunge und verbessern daneben die AHR. Im Überblick konnte in der vorliegenden Dissertation demonstriert werden, dass IL-6 die Balance zwischen der Funktion von Effektorzellen und regulatorischen T-Zellen in der Lunge über unterschiedliche Wege kontrolliert, dem sIL-6R und dem mIL-6R. Im zweiten Teil der Arbeit wurde die lokale Blockade der IL-2R alpha- und IL-2R beta-Kette untersucht. Hier konnte gezeigt werden, dass die Blockade der IL-2R beta-Kette zur Verbesserung der AHR als auch der Rekrutierung eosinophiler Granulozyten in den Atemwegen führt. Beide Blockaden führen zur Reduktion der TH2 Cytokine IL-4 und IL-5, wohingegen IL-13 nur nach Blockade der IL-2R beta-Kette vermindert sezerniert wird. In diesem Zusammenhang wurde auch die Rolle CD4+CD25+ regulatorischer T-Zellen untersucht, wobei eine Induktion dieser Population in den Lymphknoten nach Blockade der IL-2R beta-Kette nachgewiesen werden konnte. Die Blockade der IL-2R beta-Kette wirkt sich positiv auf experimentelle Asthmastudien aus und stellt somit ein mögliches therapeutisches Potential dar, erfordert aber teilweise noch weitere Untersuchungen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is lively debated how eclogites find their way from deep to mid-crustal levels during exhumation. Different exhumation models for high-pressure and ultrahigh-pressure rocks were suggested in previous studies, based mainly on field observations and less on microstructural studies on the exhumed rocks. The development and improvement of electron microscopy techniques allows it, to focus interest on direct investigations of microstructures and crystallographic properties in eclogites. In this case, it is of importance to study the applicability of crystallographic measurements on eclogites for exhumation processes and to unravel which processes affect eclogite textures. Previous studies suggested a strong relationship between deformation and lattice preferred orientation (LPO) in omphacite but it is still unclear if the deformation is related to the exhumation of eclogites. This study is focused on the questions which processes affect omphacite LPO and if textural investigations of omphacite are applicable for studying eclogite exhumation. Therefore, eclogites from two examples in the Alps and in the Caledonides were collected systematically and investigated with respect to omphacite LPO by using the electron backscattered diffraction (EBSD) technique. Omphacite textures of the Tauern Window (Austria) and the Western Gneiss Region (Norway) were studied to compare lattice preferred orientation with field observations and suggested exhumation models from previous studies. The interpretation of omphacite textures, regarding the deformation regime is mainly based on numerical simulations in previous studies. Omphacite LPO patterns of the Eclogite Zone are clearly independent from any kind of exhumation process. The textures were generated during omphacite growth on the prograde path of eclogite development until metamorphic peak conditions. Field observations in the Eclogite Zone show that kinematics in garnet mica schist, surrounding the eclogites, strongly indicate an extrusion wedge geometry. Stretching lineations show top-N thrusting at the base and a top-S normal faulting with a sinistral shear component at the top of the Eclogite Zone. The different shear sense on both sides of the unit does not affect the omphacite textures in any way. The omphacite lattice preferred orientation patterns of the Western Gneiss Region can not be connected with any exhumation model. The textures were probably generated during the metamorphic peak and reflect the change from subduction to exhumation. Eclogite Zone and Western Gneiss Region differ significantly in size and especially in metamorphic conditions. While the Eclogite Zone is characterized by constant P-T conditions (600-650°C, 20-25 kbar), the Western Gneiss Region contains a wide P-T range from high- to ultrahigh pressure conditions (400-800°C, 20-35 kbar). In contrast to this, the omphacite textures of both units are very similar. This means that omphacite LPO is independent from P-T conditions and therefore from burial depth. Further, in both units, omphacite LPO is independent from grain and subgrain size as well as from any shape preferred orientation (SPO) on grain and subgrain scale. Overall, omphacite lattice preferred orientation are generated on the prograde part of omphacite development. Therefore, textural investigations on omphacite LPO are not applicable to study eclogite exhumation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine wesentliche Voraussetzung für die maligne Transformation von Zellen ist die Inaktivierung des programmierten Zelltodes (Apoptose). Die dabei erworbenen Defekte der Apoptose-Signalwege führen häufig zu Resistenzen gegenüber Radio- und Chemotherapien. Immuntherapeutische Ansätze haben zum Ziel, solche resistenten Tumorzellen spezifisch zu entfernen. Resistenzen gegenüber Immuntherapien können wiederum in einer gestörten Immunerkennung der Tumorzellen oder deren Resistenz gegenüber Immuneffektormechanismen begründet sein. Ziel der vorliegenden Arbeit war, zu überprüfen, ob durch Proteinkinase B (PKB)/Akt Immunresistenz vermittelt werden kann. Hierbei zeigte sich, dass die Aktivierung des PKB/Akt-Signalweges in Tumorzellen einen deutlichen Schutz gegenüber verschiedenen Apoptosestimuli in vitro vermittelt. Die konditionale Aktivierung von PKB/Akt hemmte sowohl die pharmakologisch, als auch die durch ZTL induzierte Apoptose-Signalkaskade über eine posttranskriptionelle Stabilisierung des anti-apoptotischen Proteins MCL-1. Diese Beobachtung konnte auch in einem murinen Tumorimmuntherapiemodell in vivo bestätigt werden. Unstimulierte Splenozyten von C57Bl/6-Mäusen wurden adoptiv in NOD/SCID-Mäuse mit etablierten, PKB/Akt-exprimierenden, murinen Fibrosarkomen transferiert. Die konditionale Aktivierung von PKB/Akt inhibierte den tumorsuppressiven Effekt dieser transplantierten Splenozyten signifikant. Des Weiteren konnte gezeigt werden, dass die PKB/Akt-abhängige Immunresistenz auch in vivo durch anti-apoptotisches MCL-1 vermittelt wird. PKB/Akt-exprimierende Fibrosarkome mit supprimierter endogener MCL-1-Expression verloren ihre Resistenz gegenüber der durch adoptiven Splenozytentransfer vermittelten Tumorsuppression. Dies bestätigte endogenes MCL-1 als entscheidenden Faktor der PKB/Akt-vermittelten Immunresistenz. Ferner konnte gezeigt werden, dass eine Hemmung der PKB/Akt-induzierten Signaltransduktion auf der Ebene der nachgeschalteten Kinase mTOR etablierte Fibrosarkome gegenüber adoptiver Lymphozytentherapie sensitiviert. Der mTOR-Inhibitor Rapamycin verhinderte die PKB/Akt-induzierte Aufregulation von MCL-1 und die damit einhergehende Resistenzentwicklung in vivo. Zusammengefasst wurde erstmalig gezeigt, dass eine Deregulation des PKB/Akt-Signalweges Resistenz gegenüber immunologischer Tumorsuppression vermitteln kann. PKB/Akt stellt somit ein entscheidendes Zielmolekül für die Verbesserung von Krebsimmuntherapien dar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Development of empirical potentials for amorphous silica Amorphous silica (SiO2) is of great importance in geoscience and mineralogy as well as a raw material in glass industry. Its structure is characterized as a disordered continuous network of SiO4 tetrahedra. Many efforts have been undertaken to understand the microscopic properties of silica by classical molecular dynamics (MD) simulations. In this method the interatomic interactions are modeled by an effective potential that does not take explicitely into account the electronic degrees of freedom. In this work, we propose a new methodology to parameterize such a potential for silica using ab initio simulations, namely Car-Parrinello (CP) method [Phys. Rev. Lett. 55, 2471 (1985)]. The new potential proposed is compared to the BKS potential [Phys. Rev. Lett. 64, 1955 (1990)] that is considered as the benchmark potential for silica. First, CP simulations have been performed on a liquid silica sample at 3600 K. The structural features so obtained have been compared to the ones predicted by the classical BKS potential. Regarding the bond lengths the BKS tends to underestimate the Si-O bond whereas the Si-Si bond is overestimated. The inter-tetrahedral angular distribution functions are also not well described by the BKS potential. The corresponding mean value of theSiOSi angle is found to be ≃ 147◦, while the CP yields to aSiOSi angle centered around 135◦. Our aim is to fit a classical Born-Mayer/Coulomb pair potential using ab initio calculations. To this end, we use the force-matching method proposed by Ercolessi and Adams [Europhys. Lett. 26, 583 (1994)]. The CP configurations and their corresponding interatomic forces have been considered for a least square fitting procedure. The classical MD simulations with the resulting potential have lead to a structure that is very different from the CP one. Therefore, a different fitting criterion based on the CP partial pair correlation functions was applied. Using this approach the resulting potential shows a better agreement with the CP data than the BKS ones: pair correlation functions, angular distribution functions, structure factors, density of states and pressure/density were improved. At low temperature, the diffusion coefficients appear to be three times higher than those predicted by the BKS model, however showing a similar temperature dependence. Calculations have also been carried out on crystalline samples in order to check the transferability of the potential. The equilibrium geometry as well as the elastic constants of α-quartz at 0 K are well described by our new potential although the crystalline phases have not been considered for the parameterization. We have developed a new potential for silica which represents an improvement over the pair potentials class proposed so far. Furthermore, the fitting methodology that has been developed in this work can be applied to other network forming systems such as germania as well as mixtures of SiO2 with other oxides (e.g. Al2O3, K2O, Na2O).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden die r-Prozesskerne rund um den N=82-Schalenabschluß untersucht. Dabei gelang es die bisher unbekannten Halbwertszeiten und Pn-Werte der Antimonisotope 137-139-Sb und von 139-Te zu messen. Des Weiteren wurden die Ergebnisse von Shergur et. al. zu extrem neutronenreichen Zinnisotopen (137,138-Sn) mit neuen Messungen untermauert und verbessert. Alle erhaltenen Ergebnisse werden mit entsprechenden Modellrechnungen verglichen und ihr Einfluss auf moderne Netzwerkrechnungen zum r-Prozess diskutiert. Des Weiteren gelang erstmalig die Aufnahmen von gamma-spektroskopischen Daten für das r-Prozessnuklid 136-Sn in Singlespektren. Aufgrund der hinlänglich bekannten Probleme mit Isobarenkontaminationen für Ionenstrahlen von sehr exotischen Molekülen an ISOL-Einrichtungen werden unterschiedliche technische Entwicklungen zur Verbesserung der Strahlqualität aufgezeigt. Ein besonderer Schwerpunkt liegt hier auf der neu eingeführten Technik der molekularen Seitenbänder an Massenseparatoren. Hier gelang es durch gezielte Zugabe von Schwefel in das Target ein starke SnS(+)-Seitenband zu etablieren und so bei guter Strahlintensität eine deutliche Reduktion des Isobarenuntergrunds zu erreichen. Ebenso werden die Möglichkeiten einer temperaturkontrollierten Quarztransferline zwischen Target und Ionenquelle zur Minimierung von Kontaminationen bespro-chen. Zur Verbesserung der Selektivität von Experimenten an sehr neutronenreichen Elementen wurde ein Detektorsystem zur n,gamma-Koinzidenzmessung entwickelt. Im Gegensatz zu früheren Versuchen dieser Art, gelang es durch eine entsprechende neue Elektronik striktere Koinzidenzbedingungen zu realisieren und so das Koinzidenzfenster deutlich zu verkleinern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

„Abstract“ Pantring, Heinz Schulische Umwelterziehung und Umweltbewußtsein. Eine empirische Untersuchung zur Umwelterziehung und zum Umweltbewußtsein an Wiesbadener Schulen. Das Ziel der als Fallstudie konzipierten Untersuchung bestand darin, die Wirksamkeit schulischer Umwelterziehung nicht nur auf der Wissens- und Einstellungsdimension des Umweltbewußtseins, sondern vor allen Dingen auf die Dimension des Umwelthandelns im Sinne von „ökologischem Tun“ in Abhängigkeit von manifesten Persönlichkeitsmerkmalen wie Alter, Geschlecht und Dauer des Schulbesuchs zu überprüfen. Diese Überprüfung geschah durch das Angebot an alle Schüler und Lehrer, sich an einer konkreten Umweltaktion - Anlage eines Feuchtbiotops - zu beteiligen. An den Fragebogenerhebungen waren 1821 Schüler der 4., 8. und 12. Klassen aus 19 Wiesbadener Grund- und weiterführenden Schulen beteiligt. Parallel wurden bei den 550 Lehrerinnen und Lehrern, die an den entsprechenden Schulen unterrichteten, unter anderem Ausmaß und Qualität schulischer Umwelterziehung und umweltbezogener Fortbildung sowie Aspekte der Ökologisierung von Schule und Ansichten zum Umweltunterricht erfaßt. Wesentliche Ergebnisse waren: 1) Die zur Zeit praktizierte umweltorientierte Lehrerfortbildung erreicht nur einen geschlossenen Teilnehmerkreis. 2) Eine qualitative Verbesserung des Umweltunterrichtes ist eher auf Privatinitiative, als auf ein umfassendes institutionalisiertes umweltbezogenes Fortbildungsange-bot zurückzuführen. 3) Grundschüler zeigen ein ausgeprägteres Umweltbewußtsein als Schüler weiterführender Schulen. 4) Ein Großteil der in den Grundschulen durch eine intensive Schüler - Lehrer - Interaktion erreichte Motivation für Umweltprobleme und Umweltthemen geht beim Übergang von den Grundschulen zu den weiterführenden Schulen - insbesondere Gymnasien - verloren. Im Alter von 13 - 16 Jahren fallen die Schüler in ein „Motivationsloch“ für Umwelt-erziehung. 5) Schüler zeigen eine deutliche Diskrepanz zwischen verbalem umweltorientierten Engagement und dem faktisch praktizierten „Ökologischen Tun“. 6) Es gibt keinen signifikanten Zusammenhang zwischen der umweltbezogenen Handlungsbereitschaft von Schülern und der Qualität des Umweltunterrichtes. 7) Das bei Schülern allgemein entwickelte Umweltbewußtsein hängt eher mit ihrer Sozialisation in einer umweltbewußteren Zeit als mit den unmittelbaren Anstrengungen der Schule zusammen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Materialen mit sehr hoher Spinpolarisation werden für Anwendungen im Bereich der Spin-Elektronik benötigt. Deshalb werden große Forschungsanstrengungen zur Untersuchung der Eigenschaften von Verbindungen mit potentiell halbmetallischem Charakter, d. h.mit 100% Spinpolarisation, unternommen. In halbmetallischen Verbindungen, erwartet man eine Lücke in der Zustandsdichte an der Fermi Energie für Ladungsträger einer Spinrichtung, wahrend die Ladungsträger mit der anderen Spinrichtung sich metallisch verhalten. Eine Konsequenz davon ist, dass ein Strom, der durch solche Verbindung fließt, voll spinpolarisiert ist. Die hohe Curie-Temperatur Tc (800 K) und der theoretisch vorhergesagte halbmetallische Charakter machen Co2Cr0.6Fe0.4Al (CCFA) zu einem guten Kandidaten für Spintronik-Anwendungen wie magnetische Tunnelkontakte (MTJs = Magnetic Tunneling Junctions). In dieser Arbeit werden die Ergebnisse der Untersuchung der elektronischen und strukturellen Eigenschaften von dünnen CCFA Schichten dargestellt. Diese Schichten wurden in MTJs integriert und der Tunnel-Magnetowiderstands-Effekt untersucht. Hauptziele waren die Messung der Spinpolarisation und Untersuchungen der elektronischen Struktur von CCFA. Der Einfluss verschiedener Depositionsparameter auf die Eigenschaften der Schichten, speziell auf der Oberflächenordnung und damit letztlich auf den Tunnel-Magnetowiderstand (TMR), wurde bestimmt. Epitaktische d¨unne CCFA Schichten mit zwei verschiedenen Wachstumsrichtungen wurden auf verschiedene Substrate und Pufferschichten deponiert. Ein Temperverfahren wurde eingesetzt um die strukturelle Eigenschaften der dünnen Schichten zu verbessern. Für die MTJs wurde Al2O3 als Barrierenmaterial verwendet und Co als Gegenelektrode gewählt. Die Mehrschicht-Systeme wurden in Mesa-Geometrie mit lithographischen Methoden strukturiert. Eine maximal Jullière Spinpolarisation von 54% wurde an Tunnelkontakte mit epitaktischen CCFA Schichten gemessen. Ein starker Einfluss der Tempernbedingungen auf dem TMR wurde festgestellt. Eine Erhörung des TMR wurde mit einer Verbesserung der Oberflächenordung der CCFA Schichten korreliert. Spektroskopische Messungen wurden an den MTJs durchgeführt. Diesen Messungen liefern Hinweise auf inelastische Elektron-Magnon und Elektron-Phonon Stossprozesse an den Grenzflächen. Einige der beobachteten Strukturen konnten mit der berechneten elektronischen Struktur von CCFA korreliert worden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Entscheidend für die Sauerstoffversorgung im ischämischen Gewebe ist die Bildung von Blutgefäßen. Dieser Vorgang findet im erwachsenen Organismus in Form von Arteriogenese, Angiogenese und Vaskulogenese statt. Die Entdeckung, dass endotheliale Progenitorzellen (EPC) aus dem Knochenmark mobilisiert werden können, um sich im Ischämiegebiet an der Bildung neuer Kapillaren zu beteiligen, eröffnet einen vollkommen neuen therapeutischen Ansatz. In der hier vorliegenden Arbeit konnte in drei unterschiedlichen Tiermodellen, dem Matrigelmodell, dem Hinterlaufischämiemodell und dem Infarktmodell der Nacktmaus gezeigt werden, dass eine Zelltherapie mit EPC die Neovaskularisation steigert und zu einer myokardialen Funktionsverbesserung beiträgt. Der entscheidende Beitrag der Arbeit liegt jedoch in der Erforschung des Zeitraums der Wirkung der Stammzelltherapie. In allen drei Tiermodellen konnte durch ein spezifisches Abtöten der mit der viralen Thymidinkinase (TK) transduzierten EPC der positive Effekt auf die Neovaskularisation gestoppt werden. Im Herzinfarktmodell der Nacktmaus kam es sogar zu einer signifikanten Verschlechterung der Herzfunktion sowie zu einer Vergrößerung des Infarktareals. Dieser Effekt war durch Apoptose der Zellen in der dritten und vierten Woche nach Infarkt und Zellinfusion zu beobachten. Somit besitzen EPC nicht nur eine Rolle in der initialen Freisetzung von Zytokinen, sondern tragen auch langfristig zur Aufrechterhaltung des zelltherapeutischen Effektes bei. Ob hierfür allein der Mechanismus der Differenzierung verantwortlich ist, bleibt in weiteren Untersuchungen abzuklären. Denkbar wäre auch eine Beeinflussung des Remodeling über parakrine Langzeiteffekte. Im zweiten Teil der Doktorarbeit wurde versucht, das eingeschränkte zelltherapeutische Potential von Progenitorzellen von Patienten mit „Koronarer Herzkrankheit“ (KHK) und ischämischer Kardiomyopathie mit Hilfe zweier eNOSTranskriptionsverstärker, „eNOS-enhancer“, zu verbessern. Im Matrigelmodell der Maus konnten wir eine Verbesserung des Neovaskularisationspotentials von Knochenmarkszellen (BMC) von Patienten nach Präinkubation mit dem eNOS-enhancer nachweisen. Auch im Myokardinfarktmodell der Maus konnten eine Verbesserung der Herzfunktion und eine Reduktion der Infarktgröße beobachtet werden. Beim direkten Vergleich der beiden eNOS-enhancer konnte kein Unterschied gefunden werden. Zusammenfassend leistet die hier vorliegende Arbeit einen wichtigen Beitrag zum Verständnis für die Bedeutung von Progenitorzellen im Rahmen der Stammzelltherapie nach Myokardinfarkt. Ferner wurde die Möglichkeit aufgezeigt, durch gezielte Beeinflussung der Progenitorzellen ihr therapeutisches Potential signifikant zu steigern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obwohl die funktionelle Magnetresonanztomographie (fMRI) interiktaler Spikes mit simultaner EEG-Ableitung bei Patienten mit fokalen Anfallsleiden seit einigen Jahren zur Lokalisation beteiligter Hirnstrukturen untersucht wird, ist sie nach wie vor eine experimentelle Methode. Um zuverlässig Ergebnisse zu erhalten, ist insbesondere die Verbesserung des Signal-zu-Rausch-Verhältnisses in der statistischen Bilddatenauswertung von Bedeutung. Frühere Untersuchungen zur sog. event-related fMRI weisen auf einen Zusammenhang zwischen Häufigkeit von Einzelreizen und nachfolgender hämodynamischer Signalantwort in der fMRI hin. Um einen möglichen Einfluss der Häufigkeit interiktaler Spikes auf die Signalantwort nachzuweisen, wurden 20 Kinder mit fokaler Epilepsie mit der EEG-fMRI untersucht. Von 11 dieser Patienten konnten die Daten ausgewertet werden. In einer zweifachen Analyse mit dem Softwarepaket SPM99 wurden die Bilddaten zuerst ausschließlich je nach Auftreten interiktaler Spikes der „Reiz“- oder „Ruhe“-Bedingung zugeordnet, unabhängig von der jeweiligen Anzahl der Spikes je Messzeitpunkt (on/off-Analyse). In einem zweiten Schritt wurden die „Reiz“- Bedingungen auch differenziert nach jeweiliger Anzahl einzelner Spikes ausgewertet (häufigkeitskorrelierte Analyse). Die Ergebnisse dieser Analysen zeigten bei 5 der 11 Patienten eine Zunahme von Sensitivität und Signifikanzen der in der fMRI nachgewiesenen Aktivierungen. Eine höhere Spezifität konnte hingegen nicht gezeigt werden. Diese Ergebnisse weisen auf eine positive Korrelation von Reizhäufigkeit und nachfolgender hämodynamischer Antwort auch bei interiktalen Spikes hin, welche für die EEG-fMRI nutzbar ist. Bei 6 Patienten konnte keine fMRI-Aktivierung nachgewiesen werden. Mögliche technische und physiologische Ursachen hierfür werden diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The central aim of this thesis work is the application and further development of a hybrid quantum mechanical/molecular mechanics (QM/MM) based approach to compute spectroscopic properties of molecules in complex chemical environments from electronic structure theory. In the framework of this thesis, an existing density functional theory implementation of the QM/MM approach is first used to calculate the nuclear magnetic resonance (NMR) solvent shifts of an adenine molecule in aqueous solution. The findings show that the aqueous solvation with its strongly fluctuating hydrogen bond network leads to specific changes in the NMR resonance lines. Besides the absolute values, also the ordering of the NMR lines changes under the influence of the solvating water molecules. Without the QM/MM scheme, a quantum chemical calculation could have led to an incorrect assignment of these lines. The second part of this thesis describes a methodological improvement of the QM/MM method that is designed for cases in which a covalent chemical bond crosses the QM/MM boundary. The development consists in an automatized protocol to optimize a so-called capping potential that saturates the electronic subsystem in the QM region. The optimization scheme is capable of tuning the parameters in such a way that the deviations of the electronic orbitals between the regular and the truncated (and "capped") molecule are minimized. This in turn results in a considerable improvement of the structural and spectroscopic parameters when computed with the new optimized capping potential within the QM/MM technique. This optimization scheme is applied and benchmarked on the example of truncated carbon-carbon bonds in a set of small test molecules. It turns out that the optimized capping potentials yield an excellent agreement of NMR chemical shifts and protonation energies with respect to the corresponding full molecules. These results are very promising, so that the application to larger biological complexes will significantly improve the reliability of the prediction of the related spectroscopic properties.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) umfasst die Messung von Medikamentenspiegeln im Blut und stellt die Ergebnisse in Zusammenhang mit dem klinischen Erscheinungsbild der Patienten. Dabei wird angenommen, dass die Konzentrationen im Blut besser mit der Wirkung korrelieren als die Dosis. Dies gilt auch für Antidepressiva. Voraussetzung für eine Therapiesteuerung durch TDM ist die Verfügbarkeit valider Messmethoden im Labor und die korrekte Anwendung des Verfahrens in der Klinik. Ziel dieser Arbeit war es, den Einsatz von TDM für die Depressionsbehandlung zu analysieren und zu verbessern. Im ersten Schritt wurde für das neu zugelassene Antidepressivum Duloxetin eine hochleistungsflüssig-chromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert und an Patienten für TDM angewandt. Durch Analyse von 280 Patientenproben wurde herausgefunden, dass Duloxetin-Konzentrationen von 60 bis 120 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Bezüglich seines Interaktionspotentials erwies sich Duloxetin im Vergleich zu anderen Antidepressiva als schwacher Inhibitor des Cytochrom P450 (CYP) Isoenzyms 2D6. Es gab keinen Hinweis auf eine klinische Relevanz. Im zweiten Schritt sollte eine Methode entwickelt werden, mit der möglichst viele unterschiedliche Antidepressiva einschließlich deren Metaboliten messbar sind. Dazu wurde eine flüssigchromatographische Methode (HPLC) mit Ultraviolettspektroskopie (UV) entwickelt, mit der die quantitative Analyse von zehn antidepressiven und zusätzlich zwei antipsychotischen Substanzen innerhalb von 25 Minuten mit ausreichender Präzision und Richtigkeit (beide über 85%) und Sensitivität erlaubte. Durch Säulenschaltung war eine automatisierte Analyse von Blutplasma oder –serum möglich. Störende Matrixbestandteile konnten auf einer Vorsäule ohne vorherige Probenaufbereitung abgetrennt werden. Das kosten- und zeiteffektive Verfahren war eine deutliche Verbesserung für die Bewältigung von Proben im Laboralltag und damit für das TDM von Antidepressiva. Durch Analyse des klinischen Einsatzes von TDM wurden eine Reihe von Anwendungsfehlern identifiziert. Es wurde deshalb versucht, die klinische Anwendung des TDM von Antidepressiva durch die Umstellung von einer weitgehend händischen Dokumentation auf eine elektronische Bearbeitungsweise zu verbessern. Im Rahmen der Arbeit wurde untersucht, welchen Effekt man mit dieser Intervention erzielen konnte. Dazu wurde eine Labor-EDV eingeführt, mit der der Prozess vom Probeneingang bis zur Mitteilung der Messergebnisse auf die Stationen elektronisch erfolgte und die Anwendung von TDM vor und nach der Umstellung untersucht. Die Umstellung fand bei den behandelnden Ärzten gute Akzeptanz. Die Labor-EDV erlaubte eine kumulative Befundabfrage und eine Darstellung des Behandlungsverlaufs jedes einzelnen Patienten inklusive vorhergehender Klinikaufenthalte. Auf die Qualität der Anwendung von TDM hatte die Implementierung des Systems jedoch nur einen geringen Einfluss. Viele Anforderungen waren vor und nach der Einführung der EDV unverändert fehlerhaft, z.B. wurden häufig Messungen vor Erreichen des Steady State angefordert. Die Geschwindigkeit der Bearbeitung der Proben war im Vergleich zur vorher händischen Ausführung unverändert, ebenso die Qualität der Analysen bezüglich Richtigkeit und Präzision. Ausgesprochene Empfehlungen hinsichtlich der Dosierungsstrategie der angeforderten Substanzen wurden häufig nicht beachtet. Verkürzt wurde allerdings die mittlere Latenz, mit der eine Dosisanpassung nach Mitteilung des Laborbefundes erfolgte. Insgesamt ist es mit dieser Arbeit gelungen, einen Beitrag zur Verbesserung des Therapeutischen Drug Monitoring von Antidepressiva zu liefern. In der klinischen Anwendung sind allerdings Interventionen notwendig, um Anwendungsfehler beim TDM von Antidepressiva zu minimieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Zeitraum von August 1999 bis September 2005 wurden 25 Patienten mit rezidivierenden Hörstürzen,bei denen die konservative Infusionstherapie versagt hatte,innerhalb von 7-10 Tagen zwei Rheopheresebehandlungen unterzogen. Die Behandlungsergebnisse wurden retrospektiv ausgewertet.Es zeigte sich eine Vollremission in 40% der Fälle und eine teilweise Erholung mit Verbesserung der Tonschwelle zwischen 10 und 24,3 dB im Durchschnitt in 28% der Fälle;keine Veränderung im Vergleich zum Ausgangsbefund zeigten 32% und eine Verschlechterung ergab sich in keinem der Fälle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Jahr 1989 markiert nicht nur den Beginn entscheidender geopolitischer Veränderungen, sondern gleichzeitig den Ursprung eines bedeutsamen Wandels in der internationalen Entwicklungszusammenarbeit. Mit der viel beachteten Studie ‚Sub-Saharan Africa – From Crisis to Sustainable Growth’ initiierte die Weltbank eine Debatte über die Relevanz institutioneller Faktoren für wirtschaftliche Entwicklung, die in den folgenden Jahren unter dem Titel ‚Good Governance’ erhebliche Bedeutung erlangte. Nahezu alle zentralen Akteure begannen, entsprechende Aspekte in ihrer praktischen Arbeit zu berücksichtigen, und entwickelten eigene Konzepte zu dieser Thematik. Wenn auch mit der Konzentration auf Institutionen als Entwicklungsdeterminanten eine grundlegende Gemeinsamkeit der Ansätze festzustellen ist, unterscheiden sie sich jedoch erheblich im Hinblick auf die Einbeziehung politischer Faktoren, so dass von einem einheitlichen Verständnis von ‚Good Governance’ nicht gesprochen werden kann. Während die meisten bilateralen Akteure sowie DAC und UNDP Demokratie und Menschenrechte explizit als zentrale Bestandteile betrachten, identifiziert die Weltbank einen Kern von Good Governance, der unabhängig von der Herrschaftsform, also sowohl in Demokratien wie auch in Autokratien, verwirklicht werden kann. Die Implikationen dieser Feststellung sind weit reichend. Zunächst erlaubt erst diese Sichtweise der Bank überhaupt, entsprechende Aspekte aufzugreifen, da ihr eine Berücksichtigung politischer Faktoren durch ihre Statuten verboten ist. Bedeutsamer ist allerdings, dass die Behauptung der Trennbarkeit von Good Governance und der Form politischer Herrschaft die Möglichkeit eröffnet, Entwicklung zu erreichen ohne eine demokratische Ordnung zu etablieren, da folglich autokratische Systeme in gleicher Weise wie Demokratien in der Lage sind, die institutionellen Voraussetzungen zu verwirklichen, welche als zentrale Determinanten für wirtschaftlichen Fortschritt identifiziert wurden. Damit entfällt nicht nur ein bedeutsamer Rechtfertigungsgrund für demokratische Herrschaft als solche, sondern rekurrierend auf bestimmte, dieser zu attestierende, entwicklungshemmende Charakteristika können Autokratien nun möglicherweise als überlegene Herrschaftsform verstanden werden, da sie durch jene nicht gekennzeichnet sind. Die Schlussfolgerungen der Weltbank unterstützen somit auch die vor allem im Zusammenhang mit der Erfolgsgeschichte der ostasiatischen Tigerstaaten vertretene Idee der Entwicklungsdiktatur, die heute mit dem Aufstieg der Volksrepublik China eine Renaissance erlebt. Der wirtschaftliche Erfolg dieser Staaten ist danach auf die überlegene Handlungsfähigkeit autokratischer Systeme zurückzuführen, während Demokratien aufgrund der Verantwortlichkeitsbeziehungen zwischen Regierenden und Regierten nicht in der Lage sind, die notwendigen Entscheidungen zu treffen und durchzusetzen. Die dargestellte Sichtweise der Weltbank ist allerdings von verschiedenen Autoren in Zweifel gezogen worden, die auch für ein im Wesentlichen auf technische Elemente beschränktes Good Governance-Konzept einen Zusammenhang mit der Form politischer Herrschaft erkennen. So wird beispielsweise vertreten, das Konzept der Bank bewege sich ausdrücklich nicht in einem systemneutralen Vakuum, sondern propagiere zumindest implizit die Etablierung demokratischer Regierungsformen. Im Übrigen steht die aus den Annahmen der Weltbank neuerlich abgeleitete Idee der Entwicklungsdiktatur in einem erheblichen Widerspruch zu der von multilateralen wie bilateralen Akteuren verstärkt verfolgten Förderung demokratischer Herrschaft als Mittel für wirtschaftliche Entwicklung sowie der fortschreitenden Verbreitung der Demokratie. Besteht nun doch ein Einfluss der Herrschaftsform auf die Verwirklichung von Good Governance als zentraler Entwicklungsdeterminante und kann zudem davon ausgegangen werden, dass Demokratien diesbezüglich Vorteile besitzen, dann ist eine Entwicklungsdiktatur keine denkbare Möglichkeit, sondern im Gegenteil demokratische Herrschaft der gebotene Weg zu wirtschaftlichem Wachstum bzw. einer Verbesserung der Lebensverhältnisse. Aufgrund der mit den Schlussfolgerungen der Weltbank verbundenen bedeutsamen Implikationen und der bisher weitestgehend fehlenden ausführlichen Thematisierung dieses Gegenstands in der Literatur ist eine detaillierte theoretische Betrachtung der Zusammenhänge zwischen den zentralen Elementen von Good Governance und demokratischer Herrschaft notwendig. Darüber hinaus sollen die angesprochenen Beziehungen auch einer empirischen Analyse unterzogen werden. Gegenstand dieser Arbeit ist deshalb die Fragestellung, ob Good Governance eine von demokratischer Herrschaft theoretisch und empirisch unabhängige Entwicklungsstrategie darstellt.