710 resultados para Prematuridade : Interacao mae-bebe
Resumo:
Untersuchung zum Einfluss der ACD-CPR (Aktive Kompressions- Dekompressions-Reanimation) mit während der Dekompressionsphase blockiertem Gasfluss (Impedance-Threshold-Device) im Vergleich zur Standardreanimationsrechnik auf die Kurzzeit-Überlebensrate von Patienten mit präklinisch aufgetretenem Herzkreislaufstillstand. Die Studie vergleicht die ACD-ITD-CPR gegen die Standard-CPR bei Patienten mit präklinischem Herkreislaufstillstand. Primär untersuchter Parameter war die Ein-Stunden-Überlebensrate nach Krankenhausaufnahme. Sekundär wurden die Tastbarkeit eines Pulses unter CPR, die Wiederkehr des Spontankreislaufs (ROSC), die Rate an Krankenhausaufnahmen, 24-Stunden-Überleben und Krankenhausentlassungen untersucht. Außerdem wurde das neurologische Outcome evaluiert. Die Studie fand in Mainz statt; Mainz bietet sich für die Durchführung notfallmedizinischer Studien in besonderem Maße an. Der Rettungsdienst der Stadt arbeitet nach dem in Deutschland üblichen zweigliedrigen System mit RA/RS auf RTWs und NA auf NAW/NEF. Die Studie wurde nach einer fünfmonatigen Pilotphase und extensivem Training beider Verfahren durchgeführt. Zusätzlich bestanden bei einigen der Beteiligten schon Erfahrungen mit ACD-CPR. Es ergaben sich signifikante Vorteile der ACD-ITD-CPR gegenüber der Standard-CPR hinsichtlich des primär untersuchten Parameters (51% vs. 32% p=0,006), außerdem statistisch auffällige Vorteile hinsichtlich der Pulstastbarkeit unter CPR (85% vs. 69%, p=0,008), der Wiederkehr des Spontankreislaufs (55% vs. 37%, p=0,016), der Rate der Krankenhausaufnahmen (52% vs. 36%, p=0.023) und des 24-Stunden-Überlebens (37% vs. 22%, p=0,033). Es ergaben sich keine statistisch auffälligen Unterschiede hinsichtlich der Rate an Krankenhausentlassungen und im neurologischen Outcome. Die Ergebnisse lassen den Schluss zu, dass die ACD-ITD die Kurzzeitüberlebensrate der Patienten mit außerklinischem Herzkreislaufstillstand verbessern kann. Eine Voraussetzung hierfür ist eine ausreichende und andauernde Ausbildung der beteiligten Helfer und/oder die Verfügbarkeit technisch verbesserter Lösungen. Weitere Untersuchungen zum Einfluss auf die Langzeitüberlebensraten und das neurologische Outcome scheinen angezeigt.
Resumo:
Ein neu entwickeltes globales Atmosphärenchemie- und Zirkulationsmodell (ECHAM5/MESSy1) wurde verwendet um die Chemie und den Transport von Ozonvorläufersubstanzen zu untersuchen, mit dem Schwerpunkt auf Nichtmethankohlenwasserstoffen. Zu diesem Zweck wurde das Modell durch den Vergleich der Ergebnisse mit Messungen verschiedenen Ursprungs umfangreich evaluiert. Die Analyse zeigt, daß das Modell die Verteilung von Ozon realistisch vorhersagt, und zwar sowohl die Menge als auch den Jahresgang. An der Tropopause gibt das Modell den Austausch zwischen Stratosphäre und Troposphäre ohne vorgeschriebene Flüsse oder Konzentrationen richtig wieder. Das Modell simuliert die Ozonvorläufersubstanzen mit verschiedener Qualität im Vergleich zu den Messungen. Obwohl die Alkane vom Modell gut wiedergeben werden, ergibt sich einige Abweichungen für die Alkene. Von den oxidierten Substanzen wird Formaldehyd (HCHO) richtig wiedergegeben, während die Korrelationen zwischen Beobachtungen und Modellergebnissen für Methanol (CH3OH) und Aceton (CH3COCH3) weitaus schlechter ausfallen. Um die Qualität des Modells im Bezug auf oxidierte Substanzen zu verbessern, wurden einige Sensitivitätsstudien durchgeführt. Diese Substanzen werden durch Emissionen/Deposition von/in den Ozean beeinflußt, und die Kenntnis über den Gasaustausch mit dem Ozean ist mit großen Unsicherheiten behaftet. Um die Ergebnisse des Modells ECHAM5/MESSy1 zu verbessern wurde das neue Submodell AIRSEA entwickelt und in die MESSy-Struktur integriert. Dieses Submodell berücksichtigt den Gasaustausch zwischen Ozean und Atmosphäre einschließlich der oxidierten Substanzen. AIRSEA, welches Informationen über die Flüssigphasenkonzentration des Gases im Oberflächenwasser des Ozeans benötigt wurde ausgiebig getestet. Die Anwendung des neuen Submodells verbessert geringfügig die Modellergebnisse für Aceton und Methanol, obwohl die Verwendung einer vorgeschriebenen Flüssigphasenkonzentration stark den Erfolg der Methode einschränkt, da Meßergebnisse nicht in ausreichendem Maße zu Verfügung stehen. Diese Arbeit vermittelt neue Einsichten über organische Substanzen. Sie stellt die Wichtigkeit der Kopplung zwischen Ozean und Atmosphäre für die Budgets vieler Gase heraus.
Resumo:
Die Produktion eines spinpolarisierten Strahls mit hohem mittleren Strom ist sowohl für den Betrieb von existierenden polarisierten Quellen als auch in noch stärkerem Maße für geplante zukünftige Projekte wichtig. Die Betriebszeit solcher Quellen wird durch die Abnahme der Quantenausbeute der Photokathode mit der Zeit begrenzt. Die Problematik der Abnahme der Quantenausbeute konnte durch die Reaktion der Kathodenoberfläche mit sauerstoffhaltigen Molekülen sowie durch Ionenbombardement geklärt werden. Im Laufe dieser Arbeit wurden, teilweise zum ersten Mal, Mechanismen untersucht, die zur Entstehung der chemisch aktiven Moleküle und der Ionen beitragen und weitere Effekte, die die Betriebszeit der polarisierten Quellen reduzieren. Die Experimente wurden an einer genauen Kopie der an MAMI vorhandenen polarisierten Quelle durchgeführt. Es wurde demonstriert, dass Erwärmung der Photokathode, Ioneneinfang und Strahlverlust aufgrund der Raumladungskräfte die Kathodenlebensdauer begrenzen können. Der erste Effekt ist Erwärmung der Photokathode. Die Laserleistung wird fast vollständig in Wärmeleistung umgesetzt, was zur Absenkung der Verfügbarkeit der polarisierten Quellen führen kann, und zwar unabhängig davon, ob der Photostrom produziert wird oder nicht. Der zweite Effekt ist Ionenbombardement mit den sowohl in der Beschleunigungsstrecke als auch in der Strahlführung entstehenden Ionen. Es wurde demonstriert, dass der in der Strahlführung entstehende Ionenstrom sogar größer ist als der in der Kanone. Unter bestimmten Bedingungen können die gebildeten Ionen durch das Potenzial des Elektronenstrahls eingefangen werden und die Kanone erreichen und damit zusätzlich zur Zerstörung der negativen Elektronenaffinität beitragen. Der dritte Effekt ist Strahlverlust. Es wurde demonstriert, dass die relativen Strahlverluste kleiner als 1*10-6 sein sollten, um eine Lebensdauer von mehr als 1000 Stunden beim Strom von 100 A zu erreichen, was für die vorhandene Apparatur möglich ist. Zur Erzeugung extrem hoher Ströme wurde zum ersten Mal im Bereich der spinpolarisierten Quellen das Prinzip der „Energierückgewinnung“ eingesetzt. Experimente bei einer mittleren Stromstärke von 11.4 mA und einer Spitzenstromstärke von 57 mA bei 1% Tastverhältnis wurden bereits durchgeführt.
Resumo:
Die in dieser Arbeit beschriebenen Untersuchungen befassen sich mit der Identifizierung des haupt-metabolisierenden Enzyms für die Reaktion von dem Zytostatikum Doxorubizin zu dem Alkohol-Metaboliten Doxorubizinol in humanem Leberzytosol. Der Metabolismus dieser Reaktion wurde in einer humanen Leberbank analysiert, welcher eine große interindividuelle Variabilität zeigte. Da die maximale Umsatzrate häufig proportional zu der Expression des umsetzenden Enzyms in Leber ist, wurden in dieser Arbeit die Expressionsmuster der Kandidatenenzyme, verschiedene Carbonyl reduzierende Enzyme (AKRs und CBRs), ermittelt und des Weiteren der Umsatz von Doxorubizin zu Doxorubizinol in verschiedenen humanen Organen gemessen. Die metabolische Clearance der Reaktion als auch die Affinität zu Doxorubizin war am höchsten in Dünndarm, Leber und Niere, während die anderen Organe wesentlich geringere Werte zeigten. Dies steht im Einklang mit der prominenten Rolle dieser Organe in der Detoxifizierung von Fremdstoffen. Auch der Umsatz von Doxorubizin zu Doxorubizinol wurde von den verschiedenen Enzymen in sehr unterschiedlichem Maß katalysiert. AKR1C3 und CBR1 zeigten einen ausgeprägten Metabolismus von Doxorubizin während AKR1A1, AKR1B1, AKR1B10 und AKR1C4 nur geringen Maximalumsatz zeigten. Auch die Affinität von CBR1 und AKR1C3 zu Doxorubizin war wesentlich höher als die der anderen Enzyme. Inhibitoruntersuchungen zeigten weiterhin, dass ein spezifischer CBR1-Inhibitor die untersuchte Reaktion durch CBR1 als auch durch humanes Leberzytosol in gleichem Maße hemmte. Dieses Ergebnis deutet auf CBR1 als Haupt-Doxorubizin-Reduktase hin. Dies wurde in anfangs erwähnter humaner Leberbank weiter untersucht. Der Gehalt von CBR1-Protein wurde bestimmt und mit der gemessenen spezifischen Aktivität korreliert. Der Proteingehalt korrelierte mit der gemessenen spezifischen Aktivität in sechs von neun Western Blots. Dieses Ergebnis unterstützt die Vermutung, dass CBR1 als Haupt-Doxorubizin-Reduktase in humaner Leber betrachtet werden kann. Die Analyse des CBR1-Gens zeigte zwei Haplotypen, die einen signifikant verschiedenen Km-Wert zeigten als die übrigen Haplotypen. Diese Haplotypen konnten jedoch nur einen geringen Teil der Variabilität des Doxorubizin-Metabolismus erklären. Da aber ein starker interindividueller Doxorubizin-Metabolismus in humaner Leber beobachtet wird, deutet dies auf eine starke epigenetische Regulation des CBR1-Gens hin. Analysen der Promoterregion zeigten viele Bindungsstellen für Transkriptionsfaktoren; eine Aktivierung durch xenobiotische Substanzen kann vermutet werden. Der Metabolismus von Doxorubizin kann zu einer Deaktivierung des Medikaments und damit zu einer verminderten chemotherapeutischen Wirkung führen. Durch die Charakterisierung der humanen Doxorubizin-Reduktase in Leber ist die gezielte Suche nach Hemmstoffen für dieses Enzym möglich. Dies eröffnet die Möglichkeit, die Bildung von Doxorubizin zu Doxorubizinol zu verringern und die Inaktivierung der antineoplastischen Wirkung zu vermeiden. Eine Dosisverminderung und bessere Verträglichkeit des Medikaments kann erreicht, die schweren Nebenwirkungen reduziert werden. Die Identifizierung der verantwortlichen hepatischen Doxorubizin-Reduktase im Menschen kann somit einen wichtigen Beitrag leisten, die Krebstherapie in Zukunft verträglicher und nebenwirkungsfreier zu gestalten und Resistenzbildungen vorzubeugen.
Resumo:
Evolutionary processes within the bird genus Certhia (treecreepers) are investigated and taxonomic uncertainties clarified. The original seven species of the genus have Holarctic distribution, are uniform morphologically and hence difficult to distinguish. I employed four methodological approaches. 1. Molecular phylogeny using the mitochondrial cytochrome-b gene largely established relationships and revealed two cryptic species. 2. Call and song recordings from all species and many subspecies were evaluated sonagraphically. The nine phylospecies outlined in Part 1 were clearly delimited from one another by time and frequency parameters. They comprise a monophyletic group of "motif singers" and a purely southeast Asian group of "trill singers". Song-character differences were generally consistent with molecular phylogeny (strong phylogenetic signals). 3. Central European Certhia familiaris in the field responded territorially to playback of verses of allopatric "motif singer" taxa, but usually more weakly than to their own subsequently presented songs. No song characters were unambiguously recognised as species-specific. 4. Standard body dimensions of nearly 2000 museum specimens characterise species and subspecies biometrically and reveal geographic trends. Lengths of bill and hind claw proved important parameters to explain the treecreeper lifestyle (climbing and feeding on tree trunks). In the Himalayas (highest species density) tail dimensions are also significant.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Ziel der Arbeit ist die Analyse von Prinzipien der Konturintegration im menschlichen visuellen System. Die perzeptuelle Verbindung benachbarter Teile in einer visuellen Szene zu einem Ganzen wird durch zwei gestalttheoretisch begründete Propositionen gekennzeichnet, die komplementäre lokale Mechanismen der Konturintegration beschreiben. Das erste Prinzip der Konturintegration fordert, dass lokale Ähnlichkeit von Elementen in einem anderen Merkmal als Orientierung nicht hinreicht für die Entdeckung von Konturen, sondern ein zusätzlicher statistischer Merkmalsunterschied von Konturelementen und Umgebung vorliegen muss, um Konturentdeckung zu ermöglichen. Das zweite Prinzip der Konturintegration behauptet, dass eine kollineare Ausrichtung von Konturelementen für Konturintegration hinreicht, und es bei deren Vorliegen zu robuster Konturintegrationsleistung kommt, auch wenn die lokalen merkmalstragenden Elemente in anderen Merkmalen in hohem Maße zufällig variieren und damit keine nachbarschaftliche Ähnlichkeitsbeziehung entlang der Kontur aufweisen. Als empirische Grundlage für die beiden vorgeschlagenen Prinzipien der Konturintegration werden drei Experimente berichtet, die zunächst die untergeordnete Rolle globaler Konturmerkmale wie Geschlossenheit bei der Konturentdeckung aufweisen und daraufhin die Bedeutung lokaler Mechanismen für die Konturintegration anhand der Merkmale Kollinearität, Ortsfrequenz sowie der spezifischen Art der Interaktion zwischen beiden Merkmalen beleuchten. Im ersten Experiment wird das globale Merkmal der Geschlossenheit untersucht und gezeigt, dass geschlossene Konturen nicht effektiver entdeckt werden als offene Konturen. Das zweite Experiment zeigt die Robustheit von über Kollinearität definierten Konturen über die zufällige Variation im Merkmal Ortsfrequenz entlang der Kontur und im Hintergrund, sowie die Unmöglichkeit der Konturintegration bei nachbarschaftlicher Ähnlichkeit der Konturelemente, wenn Ähnlichkeit statt über kollineare Orientierung über gleiche Ortsfrequenzen realisiert ist. Im dritten Experiment wird gezeigt, dass eine redundante Kombination von kollinearer Orientierung mit einem statistischen Unterschied im Merkmal Ortsfrequenz zu erheblichen Sichtbarkeitsgewinnen bei der Konturentdeckung führt. Aufgrund der Stärke der Summationswirkung wird vorgeschlagen, dass durch die Kombination mehrerer Hinweisreize neue kortikale Mechanismen angesprochen werden, die die Konturentdeckung unterstützen. Die Resultate der drei Experimente werden in den Kontext aktueller Forschung zur Objektwahrnehmung gestellt und ihre Bedeutung für die postulierten allgemeinen Prinzipien visueller Gruppierung in der Konturintegration diskutiert. Anhand phänomenologischer Beispiele mit anderen Merkmalen als Orientierung und Ortsfrequenz wird gezeigt, dass die gefundenen Prinzipien Generalisierbarkeit für die Verarbeitung von Konturen im visuellen System beanspruchen können.
Resumo:
The arid regions are dominated to a much larger degree than humid regions by major catastrophic events. Although most of Egypt lies within the great hot desert belt; it experiences especially in the north some torrential rainfall, which causes flash floods all over Sinai Peninsula. Flash floods in hot deserts are characterized by high velocity and low duration with a sharp discharge peak. Large sediment loads may be carried by floods threatening fields and settlements in the wadis and even people who are living there. The extreme spottiness of rare heavy rainfall, well known to desert people everywhere, precludes any efficient forecasting. Thus, although the limitation of data still reflects pre-satellite methods, chances of developing a warning system for floods in the desert seem remote. The relatively short flood-to-peak interval, a characteristic of desert floods, presents an additional impediment to the efficient use of warning systems. The present thesis contains introduction and five chapters, chapter one points out the physical settings of the study area. There are the geological settings such as outcrop lithology of the study area and the deposits. The alluvial deposits of Wadi Moreikh had been analyzed using OSL dating to know deposits and palaeoclimatic conditions. The chapter points out as well the stratigraphy and the structure geology containing main faults and folds. In addition, it manifests the pesent climate conditions such as temperature, humidity, wind and evaporation. Besides, it presents type of soils and natural vegetation cover of the study area using unsupervised classification for ETM+ images. Chapter two points out the morphometric analysis of the main basins and their drainage network in the study area. It is divided into three parts: The first part manifests the morphometric analysis of the drainage networks which had been extracted from two main sources, topographic maps and DEM images. Basins and drainage networks are considered as major influencing factors on the flash floods; Most of elements were studied which affect the network such as stream order, bifurcation ratio, stream lengths, stream frequency, drainage density, and drainage patterns. The second part of this chapter shows the morphometric analysis of basins such as area, dimensions, shape and surface. Whereas, the third part points the morphometric analysis of alluvial fans which form most of El-Qaá plain. Chapter three manifests the surface runoff through rainfall and losses analysis. The main subject in this chapter is rainfall which has been studied in detail; it is the main reason for runoff. Therefore, all rainfall characteristics are regarded here such as rainfall types, distribution, rainfall intensity, duration, frequency, and the relationship between rainfall and runoff. While the second part of this chapter concerns with water losses estimation by evaporation and infiltration which are together the main losses with direct effect on the high of runoff. Finally, chapter three points out the factors influencing desert runoff and runoff generation mechanism. Chapter four is concerned with assessment of flood hazard, it is important to estimate runoff and tocreate a map of affected areas. Therefore, the chapter consists of four main parts; first part manifests the runoff estimation, the different methods to estimate runoff and its variables such as runoff coefficient lag time, time of concentration, runoff volume, and frequency analysis of flash flood. While the second part points out the extreme event analysis. The third part shows the map of affected areas for every basin and the flash floods degrees. In this point, it has been depending on the DEM to extract the drainage networks and to determine the main streams which are normally more dangerous than others. Finally, part four presets the risk zone map of total study area which is of high inerest for planning activities. Chapter five as the last chapter concerns with flash flood Hazard mitigation. It consists of three main parts. First flood prediction and the method which can be used to predict and forecast the flood. The second part aims to determine the best methods which can be helpful to mitigate flood hazard in the arid zone and especially the study area. Whereas, the third part points out the development perspective for the study area indicating the suitable places in El-Qaá plain for using in economic activities.
Resumo:
Except the article forming the main content most HTML documents on the WWW contain additional contents such as navigation menus, design elements or commercial banners. In the context of several applications it is necessary to draw the distinction between main and additional content automatically. Content extraction and template detection are the two approaches to solve this task. This thesis gives an extensive overview of existing algorithms from both areas. It contributes an objective way to measure and evaluate the performance of content extraction algorithms under different aspects. These evaluation measures allow to draw the first objective comparison of existing extraction solutions. The newly introduced content code blurring algorithm overcomes several drawbacks of previous approaches and proves to be the best content extraction algorithm at the moment. An analysis of methods to cluster web documents according to their underlying templates is the third major contribution of this thesis. In combination with a localised crawling process this clustering analysis can be used to automatically create sets of training documents for template detection algorithms. As the whole process can be automated it allows to perform template detection on a single document, thereby combining the advantages of single and multi document algorithms.
Resumo:
Stickstoffmonoxid (NO) ist als reaktives Spurengas eine wichtige Komponente atmosphärenchemischer Prozesse und hat somit einen bedeutenden Einfluss auf die Zusammensetzung der Atmosphäre. Eine Hauptquelle des Spurengases stellen bodenmikrobiologische Prozesse dar, deren regionaler und globaler Anteil weiterhin mit größeren Unsicherheiten geschätzt wird. Ursache für die schwere Abschätzbarkeit der NO-Freisetzung aus Böden ist die hohe räumliche Variabilität der steuernden Faktoren. Als einer der wichtigsten Faktoren, die die Freisetzung von NO aus Böden regeln, gilt der Bodenwassergehalt. Ziel der vorliegenden Arbeit ist es, den Zusammenhang zwischen NO-Freisetzung, Bodenwassergehalt, den Bodeneigenschaften und den Standortbedingungen zu untersuchen und diesen möglichst zu quantifizieren. Dazu sind Bodenproben unterschiedlicher Landnutzungen in einem kleineren Wassereinzugsgebiet im Rheingau im Labor, unter kontrollierten Bedingungen, untersucht. Der charakteristische Zusammenhang zwischen Bodenfeuchte und NO-Freisetzung, die sogenannte Bodenfeuchtekurve, kann demnach weitestgehend auf die gemessenen Bodenmerkmale der untersuchten Proben zurückgeführt werden. Anhand der Bodenmerkmale kann die Bodenfeuchtekurve zufriedenstellend vorhergesagt werden. Dabei zeigt vor allem der Humusgehalt der Böden einen dominierenden Einfluss. Er ist die Variable, die die Unterschiede der Böden beim Zusammenhang zwischen Bodenfeuchte und NO-Freisetzung am besten und hinreichend erklären kann. Zur Konstruktion der Bodenfeuchtekurve müssen die optimale Bodenfeuchte und die dabei herrschende Freisetzung, sowie die obere Bodenfeuchte, bei der keine NO-Freisetzung mehr stattfindet, bekannt sein. Diese charakteristischen Punkte lassen sich durch lineare Regressionsmodelle gut aus den Bodeneigenschaften ableiten. Auf räumlicher Ebene werden die Bodeneigenschaften durch die standörtlichen Bedingungen geprägt, die wiederum Ausdruck der landschaftlichen Ausstattung sind. In der Kulturlandschaft kann der Mensch aufgrund seiner Landnutzungsansprüche als der dominierende Faktor angesehen werden. Die Landnutzung orientiert sich an den landschaftlichen Bedingungen und bestimmt in hohem Maße wichtige Bodeneigenschaften, die zu den erklärenden Merkmalen bei der Beziehung zwischen Bodenwassergehalt und NO-Freisetzung gehören. Die in erster Linie wirtschaftlich orientierten Kartenwerke Bodenschätzung, Weinbergsbodenkartierung und forstliche Standortkartierung sind dementsprechend geeignete Grundlagen, um eine Regionalisierung der Landschaft in - bezüglich der NO-Freisetzung - weitgehend homogene Flächen durchführen zu können. Eine hierauf beruhende Regionalisierung ist dazu geeignet, die räumliche Variabilität der NO-Freisetzung in räumlich sinnvoller Auflösung besser abschätzen zu können.
Resumo:
The present-day climate in the Mediterranean region is characterized by mild, wet winters and hot, dry summers. There is contradictory evidence as to whether the present-day conditions (“Mediterranean climate”) already existed in the Late Miocene. This thesis presents seasonally-resolved isotope and element proxy data obtained from Late Miocene reef corals from Crete (Southern Aegean, Eastern Mediterranean) in order to illustrate climate conditions in the Mediterranean region during this time. There was a transition from greenhouse to icehouse conditions without a Greenland ice sheet during the Late Miocene. Since the Greenland ice sheet is predicted to melt fully within the next millennia, Late Miocene climate mechanisms can be considered as useful analogues in evaluating models of Northern Hemispheric climate conditions in the future. So far, high resolution chemical proxy data on Late Miocene environments are limited. In order to enlarge the proxy database for this time span, coral genus Tarbellastraea was evaluated as a new proxy archive, and proved reliable based on consistent oxygen isotope records of Tarbellastraea and the established paleoenvironmental archive of coral genus Porites. In combination with lithostratigraphic data, global 87Sr/86Sr seawater chronostratigraphy was used to constrain the numerical age of the coral sites, assuming the Mediterranean Sea to be equilibrated with global open ocean water. 87Sr/86Sr ratios of Tarbellastraea and Porites from eight stratigraphically different sampling sites were measured by thermal ionization mass spectrometry. The ratios range from 0.708900 to 0.708958 corresponding to ages of 10 to 7 Ma (Tortonian to Early Messinian). Spectral analyses of multi-decadal time-series yield interannual δ18O variability with periods of ~2 and ~5 years, similar to that of modern records, indicating that pressure field systems comparable to those controlling the seasonality of present-day Mediterranean climate existed, at least intermittently, already during the Late Miocene. In addition to sea surface temperature (SST), δ18O composition of coral aragonite is controlled by other parameters such as local seawater composition which as a result of precipitation and evaporation, influences sea surface salinity (SSS). The Sr/Ca ratio is considered to be independent of salinity, and was used, therefore, as an additional proxy to estimate seasonality in SST. Major and trace element concentrations in coral aragonite determined by laser ablation inductively coupled plasma mass spectrometry yield significant variations along a transect perpendicular to coral growth increments, and record varying environmental conditions. The comparison between the average SST seasonality of 7°C and 9°C, derived from average annual δ18O (1.1‰) and Sr/Ca (0.579 mmol/mol) amplitudes, respectively, indicates that the δ18O-derived SST seasonality is biased by seawater composition, reducing the δ18O amplitude by 0.3‰. This value is equivalent to a seasonal SSS variation of 1‰, as observed under present-day Aegean Sea conditions. Concentration patterns of non-lattice bound major and trace elements, related to trapped particles within the coral skeleton, reflect seasonal input of suspended load into the reef environment. δ18O, Sr/Ca and non-lattice bound element proxy records, as well as geochemical compositions of the trapped particles, provide evidence for intense precipitation in the Eastern Mediterranean during winters. Winter rain caused freshwater discharge and transport of weathering products from the hinterland into the reef environment. There is a trend in coral δ18O data to more positive mean δ18O values (–2.7‰ to –1.7‰) coupled with decreased seasonal δ18O amplitudes (1.1‰ to 0.7‰) from 10 to 7 Ma. This relationship is most easily explained in terms of more positive summer δ18O. Since coral diversity and annual growth rates indicate more or less constant average SST for the Mediterranean from the Tortonian to the Early Messinian, more positive mean and summer δ18O indicate increasing aridity during the Late Miocene, and more pronounced during summers. The analytical results implicate that winter rainfall and summer drought, the main characteristics of the present-day Mediterranean climate, were already present in the Mediterranean region during the Late Miocene. Some models have argued that the Mediterranean climate did not exist in this region prior to the Pliocene. However, the data presented here show that conditions comparable to those of the present-day existed either intermittently or permanently since at least about 10 Ma.
Resumo:
Im Mittelpunkt der Studie "The Sound of Democracy - the Sound of Freedom". Jazzrezeption in Deutschland (1945 - 1963) steht ein Korpus von 16 Oral-History-Interviews mit Zeitzeugen der deutschen Jazzszene. Interviewt wurden Musiker ebenso wie bildende Künstler, Journalisten, Clubbesitzer und Jazzfans, die die Jazzszene in den 1950ern bildeten. Die Interviews werden in einen Kontext zeitgenössischer Quellen gestellt: Zeitschriftenartikel (hauptsächlich aus dem "Jazz Podium" ebenso wie Radiomanuskripte des Bayerischen Rundfunks.rnDie Ausgangsüberlegung ist die Frage, was der Jazz für sein Publikum bedeutete, mit anderen Worten, warum wählte eine studentische, sich selbst als elitär wahrnehmende Schicht aus dem großen Fundus an kulturellen Ausdrucksformen, die nach dem Zweiten Weltkrieg aus den USA nach Deutschland strömten, ausgerechnet den Jazz als persönliche Ausdrucksform? Worin bestand seine symbolische Strahlkraft für diese jungen Menschen?rnIn Zusammenhang mit dieser Frage steht die Überlegung: In welchem Maße wurde Jazz als dezidiert amerikanische Ausdrucksform wahrgenommen und welche Amerikabilder wurden durch den Jazz transportiert? Wurde Jazz bewusst als Werkzeug der Besatzer zur demokratischen Umerziehung des deutschen Volkes eingesetzt und wenn ja, in welcher Form, beziehungsweise in welchem Maß? Wie stark war die Symbolleistung und metaphorische Bedeutung des Jazz für das deutsche Publikum und in welchem Zusammenhang steht die Symbolleistung des Jazz mit der Symbolleistung der USA als Besetzungs- bzw. Befreiungsmacht? rn
Resumo:
Ein wichtiger Baustein für den langfristigen Erfolg einer Lebertransplantation ist die Compliance mit der lebenslang einzunehmenden immunsuppressiven Therapie. Im Rahmen der vorliegenden Arbeit wurde erstmals mittels MEMS® die Compliance bei lebertransplantierten Patienten untersucht, deren Transplantation einige Jahre zurücklag. Rekrutiert wurden Patienten, die vor 2, 5, 7 oder 10 Jahren (Gruppe 2 y.p.t., 5 y.p.t., 7 y.p.t., 10 y.p.t.) in der Universitätsmedizin Mainz lebertransplantiert wurden. 39 Patienten nahmen an der prospektiven Anwendungsbeobachtung teil. Die Compliance wurde mittels MEMS® über eine Beobachtungszeit von 6 Monaten erfasst. Bei der MEMS®-Auswertung war zu vermuten, dass 10 Patienten diese nicht wie vorgesehen verwendet hatten. Folglich konnten die mittels MEMS® gemessenen Compliance-Parameter nur für 29 Patienten valide ermittelt werden. Die mittlere Dosing Compliance betrug 81 ± 21 %, wobei die Gruppe 2 y.p.t. mit 86 ± 14 % bessere Werte zu verzeichnen hatte als die Gruppe 5 y.p.t. (75 ± 27 %) und 7 y.p.t. (74 ± 28 %). Die Ergebnisse waren jedoch nicht signifikant unterschiedlich (p=0,335, Kruskal-Wallis-Test). Unter Einbeziehung aller mittels MEMS® gemessenen Compliance-Parameter wurden 19 von 29 Patienten (66 %) als compliant eingestuft. Bei der Analyse der Gesamtcompliance basierend auf den subjektiven Compliance-Messmethoden (Morisky-Fragebogen, MESI-Fragebogen, Selbsteinschätzung), der Arzneimittel-Blutspiegel und der Anzahl an Abstoßungsreaktionen, in der alle 39 Patienten einbezogen werden konnten, wurden 35 Patienten (90 %) als compliant eingestuft. rnIm zweiten Teil der Arbeit wurde die Etablierung und Bewertung eines intersektoralen Pharmazeutischen Betreuungskonzepts für lebertransplantierte Patienten untersucht. Erstmals wurden anhand eines entwickelten schnittstellenübergreifenden, integrierten Betreuungskonzepts niedergelassene Apotheker in die Pharmazeutische Betreuung lebertransplantierter Patienten eingebunden. 20 Patienten wurden rekrutiert und während ihres stationären Aufenthaltes nach Transplantation pharmazeutisch betreut. Die Betreuung umfasste eine intensive Patientenschulung mit drei bis vier Gesprächen durch einen Krankenhausapotheker. Während des stationären Aufenthaltes wurden arzneimittelbezogene Probleme erkannt, gelöst und dokumentiert. Bei Entlassung stellte der Krankenhausapotheker einen Medikationsplan für den Hausarzt sowie für den niedergelassenen Apotheker aus und führte mit den Patienten ein ausführliches Entlassungsgespräch. Darüber hinaus wurden den Patienten Arzneimitteleinnahmepläne und eine Patienteninformation über ihr immunsuppressives Arzneimittel übergeben. 15 Patienten konnten daraufhin ambulant von niedergelassenen Apothekern pharmazeutisch weiterbetreut werden. Das kooperierende pharmazeutische Personal wurde durch ein eigens für die Studie erstelltes Manual zur Pharmazeutischen Betreuung lebertransplantierter Patienten geschult und unterstützt. Die niedergelassenen Apotheker sollten die Patienten in ihrer Arzneimitteltherapie begleiten, indem Beratungsgespräche geführt und arzneimittelbezogene Probleme erkannt und gelöst wurden. Die Nutzeffekte der intensiven Pharmazeutischen Betreuung konnte anhand verschiedener Erhebungsinstrumente dargelegt werden. Im Ergebnis resultierte eine hohe Zufriedenheit der Patienten und Apotheker mit dem Betreuungskonzept, die mittels Selbstbeurteilungsfragebögen ermittelt wurde. Die Compliance der Patienten wurde anhand des Morisky- und MESI-Fragebogens, der Selbsteinschätzung der Patienten, Blutspiegelbestimmungen sowie der Einschätzung durch den niedergelassenen Apotheker bestimmt. 86 % der Patienten wurden als compliant eingeordnet. Die Kenntnisse der Patienten über ihre immunsuppressive Therapie, welche anhand von Interviews erfragt wurden, lagen auf einem sehr hohen Niveau. Abschließend kann festgestellt werden, dass die Pharmazeutische Betreuung lebertransplantierter Patienten in den niedergelassenen Apotheken durchführbar ist. Anhand der Dokumentationsprotokolle lässt sich allerdings nur sehr schwer beurteilen, in welchem Maße die Betreuung tatsächlich erfolgte. Das tatsächliche vorliegen einer mangelnden Betreuung oder aber eine lückenhafte Dokumentation der Betreuungsleistung war nicht zu differenzieren. Ein limitierender Faktor für die intensivierte Betreuung ist sicherlich der erhebliche Aufwand für nur einen Patienten mit einem seltenen Krankheitsbild. Das Erkennen und Lösen von 48 ABP durch den Krankenhausapotheker und 32 ABP durch die niedergelassenen Apotheker, d. h. insgesamt 4,5 ABP pro Patient zeigt, dass die Pharmazeutische Betreuung einen wichtigen Beitrag für eine qualitätsgesicherte Arzneimitteltherapie leistet. Die intersektorale Pharmazeutische Betreuung stellt eine wesentliche Hilfe und Unterstützung der Patienten im sicheren Umgang mit ihrer Arzneimitteltherapie dar.rn
Resumo:
Zahlreiche neurologische Erkrankungen wie Morbus Parkinson oder Epilepsien sind mit nicht erholsamem Schlaf und erhöhter Tagesschläfrigkeit assoziiert. Andere Erkrankungen wie Multiple Sklerose induzieren zwar Fatigue / Müdigkeit, aber keine objektivierbar erhöhte Einschlafneigung. Aufgrund der komplexen Interaktionen von Grunderkrankung, Krankheitsfolgen und Medikationseffekten differieren subjektive Einschätzung und objektive Maße von Schläfrigkeit oft erheblich. Der pupillographische Schläfrigkeitstest (PST) ist ein effizientes und objektives Verfahren zur Bestimmung der Vigilanz bzw. Tagesschläfrigkeit, für neurologische Patienten unter naturalistischen Bedingungen liegen aber nur wenige Daten vor.
Resumo:
Die Ursachen für die Entstehung von Lungentumoren sind vielseitig. Aus geschädigtem Drüsengewebe der Lunge kann sich die Tumorart des Adenokarzinoms entwickeln, welches zu den malignen Krebserkrankungen gehört und somit nach Etablierung eines Primärtumors metastasieren kann. Es wurde vielfach gezeigt, daß das Immunsystem bei der Bekämpfung eines mutierten Gewebes im fortschreitenden Verlauf des Tumorwachstums an Effektivität verliert. Die dahinter stehenden Mechanismen sind noch nicht ganz verstanden. Eine mögliche Ursache könnte eine fehlerhafte Regulation der Immunabwehr sein. Das Zytokin, welches bei dieser Regulation eine wichtige Rolle spielt, ist das Interleukin-2 (IL-2). Dieses aktiviert immunkompetente Zellen und gewährleistet deren Fortbestand während der Immunreaktion. In der vorliegenden Arbeit ist in einem murinen Modell von Bronchioadenokarzinom die Regulation von CD4+ T-Zellen durch IL-2 untersucht worden, beziehungsweise inwieweit eine Einflußnahme auf diese Regulation zur Verbesserung der Tumorabwehr beitragen kann. Die alpha-Kette des IL-2 Rezeptorkomplexes (CD25) ist neben dem Transkriptionsfaktor Foxp3 ein gängiger Marker für die Population der so genannten regulatorischen T-Zellen. Regulatorische T-Zellen treten im Tumorgewebe in erhöhtem Maße auf und inhibieren die gegen den Tumor gerichtete Effektorfunktion anderer Immunzellen. Durch intranasale Applikation eines anti-CD25 Antikörpers sollte, im speziellen bei den regulatorischen T-Zellen, das CD25 Molekül blockiert werden, um auf diese Weise die hochaffine Signalgebung zu unterbinden und die regulatorischen T-Zellen intratumoral zu depletieren. Es konnte gezeigt werden, daß die Blockade des IL-2 Rezeptors nicht zur Reduktion des Tumorwachstums beitrug. Trotz Applikation des Antikörpers waren die regulatorischen T-Zellen signifikant erhöht. Lediglich die Produktion des Zytokins Tumornekrosisfaktor-alpha (TNF-alpha) wurde durch die Zugabe des Antikörpers gesteigert, was aber keine Verbesserung der Tumorabwehr bewirkte. Als Alternative zur Blockade des IL-2 Rezeptors wurden verschiedene Dosen von rekombinantem IL-2 ebenfalls intranasal appliziert, um die T-Zell Populationen zusätzlich zu stimulieren. In diesem Fall war bei hohen Dosierungen eine Regression des Tumors zu erreichen. Die Regression ist auf eine erhöhte, durch das IL-2 aktivierte Produktion des Zytokins Interferon-gamma (IFN-gamma) zurückzuführen. Jedoch wurde sowohl bei der Blockade des IL-2 Rezeptors, als auch bei der Stimulation durch IL-2 ersichtlich, daß im Zusammenhang mit Adenokarzinom dem Zytokin TNF-alpha eine besondere Position zugedacht werden muß. Es ist bekannt, daß TNF-alpha in verschiedenen experimentellen Tumor-Modellen unterschiedliche Funktionen besitzt. Die Deletion des TNFs, hier dargestellt mittels TNF-knockout Mäusen, hatte eine kurative Wirkung. Die TNF-knockout Mäuse wiesen fast kein Tumorwachstum auf, die CD4+ T-Zellen aus den knockout Mäusen zeigten eine im Vergleich zum Wildtyp mehrfach höhere Produktion von IFN-gamma, bei gleichzeitiger Reduktion der regulatorischen T-Zellen. Es kann vermutet werden, daß TNF-alpha in dem verwendeten Adenokarzinom-Modell eine tumorunterstützende Wirkung hat. Dahingehend wäre die Neutralisierung der TNF-Signalgebung bei zusätzlicher Stimulation mit IL-2 als wirksamer Therapieansatz in Betracht zu ziehen.