48 resultados para Soziales Wissen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The global mid-ocean ridge system creates oceanic crust and lithosphere that covers more than two-thirds of the Earth. Basalts are volumetrically the most important rock type sampled at mid-ocean ridges. For this reason, our present understanding of upper mantle dynamics and the chemical evolution of the earth is strongly influenced by the study of mid-ocean ridge basalts (MORB). However, MORB are aggregates of polybarically generated small melt increments that can undergo a variety of physical and chemical processes during their ascent and consequently affect their derivative geochemical composition. Therefore, MORB do not represent “direct” windows to the underlying upper mantle. Abyssal peridotites, upper mantle rocks recovered from the ocean floor, are the residual complement to MORB melting and provide essential information on melt extraction from the upper mantle. In this study, abyssal peridotites are examined to address these overarching questions posed by previous studies of MORB: How are basaltic melts formed in the mantle, how are they extracted from the mantle and what physical and chemical processes control mantle melting? The number of studies on abyssal peridotites is small compared to those on basalts, in part because seafloor exposures of abyssal peridotites are relatively rare. For this reason, abyssal peridotite characteristics need to be considered in the context of subaerially exposed peridotites associated with ophiolites, orogenic peridotite bodies and basalt-hosted xenoliths. However, orogenic peridotite bodies are mainly associated with passive continental margins, most ophiolites are formed in supra-subduction zone settings, and peridotite xenoliths are often contaminated by their host magma. Therefore, studies of abyssal peridotites are essential to understanding the primary characteristics of the oceanic upper mantle free from the influence of continental rifting, subduction and tectonic emplacement processes. Nevertheless, numerous processes such as melt stagnation and cooling-induced, inter-mineral exchange can affect residual abyssal peridotite compositions after the cessation of melting. The aim of this study is to address these post-melting modifications of abyssal peridotites from a petrological-geochemical perspective. The samples in this study were dredged along the axis of the ultraslow-spreading Gakkel Ridge in the Arctic Ocean within the “Sparsely Magmatic Zone”, a 100 km ridge section where only mantle rocks are exposed. During two expeditions (ARK XVII-2 in 2001 and ARK XX-2 in 2004), exceptionally fresh peridotites were recovered. The boulders and cobbles collected cover a range of mantle rock compositions, with most characterized as plagioclase-free spinel peridotites or plagioclase- spinel peridotites. This thesis investigates melt stagnation and cooling processes in the upper mantle and is divided into two parts. The first part focuses on processes in the stability field of spinel peridotites (>10 kb) such as melt refertilization and cooling related trace element exchange, while the second part investigates processes in the stability field of plagioclase peridotites (< 10 kb) such as reactive melt migration and melt stagnation. The dissertation chapters are organized to follow the theoretical ascent of a mantle parcel upwelling beneath the location where the samples were collected.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Zentrum der vorliegenden Untersuchung steht die Nutzung von Medizinalpflanzen vor dem Hintergrund einer zurückgehenden Phytodiversität in Nordbenin. Die Dissertation ba-siert auf ethnologischen Forschungen, die in das interdisziplinäre Forschungsprojekt BIOTA (Biodiversity Monitoring Transect Analysis in Africa) eingebunden sind. Das BIOTA-Projekt untersucht die Wirkung menschlichen Handelns (insbesondere Nutzung) auf die Biodiversi-tät und versucht aus diesen Erkenntnissen Maßnahmen zum Erhalt der biologischen Vielfalt abzuleiten. Die vorliegende Studie basiert auf einem 13-monatigen Feldforschungsaufenthalt im Zeitraum von April 2004 bis August 2006 in der nordbeninischen Gemeinde Ouassa-Pehunco. Meine Informanten sind überwiegend traditionelle Heiler, mit denen ich standardi-sierte und offene Interviews durchführte, deren Behandlungsverfahren und Heilzeremonien ich teilnehmend beobachtete sowie dokumentierte und auf deren Initiative hin ich mich bei dem Aufbau eines Medizinalpflanzengartens einbrachte (cf. Kap. 1). In diesem Forschungsfeld situiere ich mich mit der Frage nach dem Einfluss einer verän-derten Pflanzenvielfalt auf die traditionelle medizinische Versorgung der Baatombu Nordbe-nins. Die Beantwortung dieser Frage erfolgt in mehreren Schritten. 1. Die Phytodiversität nimmt, wie von naturwissenschaftlicher Seite bestätigt, in der Region ab. 2. Lokale Heilkun-dige nehmen diesen Rückgang an verfügbaren Heilpflanzen ebenso wahr. 3. Die Abnahme der Pflanzenbestände führen die Heiler vor allem auf den Baumwollanbau und die demogra-fischen Entwicklungen der Region zurück - dies entspricht ebenfalls den Auffassungen von Naturwissenschaftlern, die eine Verdichtung der landwirtschaftlichen Bodennutzung fest-stellten. 4. Heilkundige und Heilpflanzenverkäuferinnen vermerken eine zunehmende Nach-frage nach lokaler Pflanzenmedizin aufgrund der steigenden Bevölkerungszahlen. 5. Die pflanzenbasierte Gesundheitsversorgung der lokalen Bevölkerung ist jedoch relativ gesi-chert, da die Heiler sich alternativ wirkender Medizinalpflanzen bedienen, ihre Therapiefor-men der veränderten Lage anpassen (z.B. geringere Dosierungen) und sie regelmäßig genutz-te Pflanzen im Medizinalpflanzengarten Guson wieder anpflanzen. Ein wichtiger Aspekt der Arbeit ist, dass die Heilpraktiken der Baatombu nicht allein auf naturheilkundlichem Erfahrungswissen beruhen, sondern in magisch-religiöse Vorstellungen eingebettet sind (cf. Kap. 2). Demzufolge untersuche ich die lokalen Krankheits- und Ge-sundheitsvorstellungen und die symbolischen Klassifikationen von Heilpflanzen und Krank-heiten (cf. Kap. 3). Ich stellte fest, dass nach Auffassung von Heilkundigen soziokulturelle Faktoren wie der Zeitpunkt und der Ort einer Sammlung sowie entsprechende Ernte-Rituale die medizinische Wirksamkeit von Pflanzen maßgeblich bedingen (cf. Kap. 5). Die Umwelt-klassifikation der Heiler (Landschafts- und Vegetationstypen) richtet sich demzufolge nach dem medizinischen Wert, den sie einer Heilpflanze zuschreiben (cf. Kap.4). Basierend auf diesen Erkenntnissen wurde von einigen engagierten Heilern und mit Un-terstützung von BIOTA, der GTZ und der Deutschen Botschaft der Medizinalpflanzengarten Guson eingerichtet, der eine Antwort auf die regionale Ressourcenverknappung darstellt und in seiner Anlage dem lokalen ökologischen und heilkundlichen Wissen der Heiler entspricht (cf. Kap. 6). Den Anwendungsbezug der Forschung nutzten die Heiler, um sich als Interes-sensgemeinschaft für den Erhalt der benötigten pflanzlichen Ressourcen einzusetzen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Eritrea findet eine rasche Verbreitung von Prosopis (juliflora) statt, die sich negativ auf die Naturresourcen als auch die sozio-ökonomische Lage der ländlichen Bevölkerung auswirkt. Die Landbevölkerung Eritrea's ist davon überzeugt, dass die Pflanze vor allem die Ernährungssicherung beeinträchtigt und will deshalb, dass sie ausgerottet wird. Die vorliegende Dissertation beschreibt die Auswirkung von Posopis auf lokale Öko- und Wirtschaftssysteme und zieht Vergleiche mit der diesbezüglichen Situation in anderen Ländern. Im Weiteren stellt sie einen Prosopis Management-Plan vor, dessen Ziel es ist, die zunehmende Verbreitung zu verhindern. Auch liefert sie eine Gegenüberstellung der Ansichten von wissenschaftlichen Experten einerseits und Bauern und Nomaden andrerseits. Sie zeigt auf, dass die weit verbreitete Annahme der Experten das Problem Prosopis durch ökonomische Nutzung ("eradication by utilisation") in Schach halten zu können, fraglich ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die bedeutendste Folge der Luftverschmutzung ist eine erhöhte Konzentration an Ozon (O3) in der Troposphäre innerhalb der letzten 150 Jahre. Ozon ist ein photochemisches Oxidationsmittel und ein Treibhausgas, das als wichtigste Vorstufe des Hydroxyradikals OH die Oxidationskraft der Atmosphäre stark beeinflusst. Um die Oxidationskraft der Atmosphäre und ihren Einfluss auf das Klima verstehen zu können, ist es von großer Bedeutung ein detailliertes Wissen über die Photochemie des Ozons und seiner Vorläufer, den Stickoxiden (NOx), in der Troposphäre zu besitzen. Dies erfordert das Verstehen der Bildungs- und Abbaumechanismen von Ozon und seiner Vorläufer. Als eine für den chemischen Ozonabbau wichtige Region kann die vom Menschen weitgehend unberührte marine Grenzschicht (Marine boundary layer (MBL)) angesehen werden. Bisher wurden für diese Region jedoch kaum Spurengasmessungen durchgeführt, und so sind die dort ablaufenden photochemischen Prozesse wenig untersucht. Da etwa 70 % der Erdoberfläche mit Ozeanen bedeckt sind, können die in der marinen Granzschicht ablaufenden Prozesse als signifikant für die gesamte Atmosphäre angesehen werden. Dies macht eine genaue Untersuchung dieser Region interessant. Um die photochemische Produktion und den Abbau von Ozon abschätzen zu können und den Einfluss antrophogener Emissionen auf troposphärisches Ozon zu quantifizieren, sind aktuelle Messergebnisse von NOx im pptv-Bereich für diese Region erforderlich. Die notwendigen Messungen von NO, NO2, O3, JNO2, J(O1D), HO2, OH, ROx sowie einiger meteorologischer Parameter wurden während der Fahrt des französischen Forschungsschiffes Marion-Dufresne auf dem südlichen Atlantik (28°S-57°S, 46°W-34°E) im März 2007 durchgeführt. Dabei sind für NO und NO2 die bisher niedrigsten gemessenen Werte zu verzeichnen. Die während der Messcampagne gewonnen Daten wurden hinsichtlich Ihrer Übereinstimmung mit den Bedingungen des photochemischen stationären Gleichgewichts (photochemical steady state (PSS)) überprüft. Dabei konnte eine Abweichung vom PSS festgestellt werden, welche unter Bedingungen niedriger NOx-Konzentrationen (5 bis 25pptv) einen unerwarteten Trend im Leighton-Verhältnis bewirkt, der abhängig vom NOx Mischungsverhältnis und der JNO2 Intensität ist. Signifikante Abweichungen vom Verhältnis liegen bei einer Zunahme der JNO2 Intensität vor. Diese Ergebnisse zeigen, dass die Abweichung vom PSS nicht beim Minimum der NOx-Konzentrationen und der JNO2 Werte liegt, so wie es in bisherigen theoretischen Studien dargelegt wurde und können als Hinweis auf weitere photochemische Prozesse bei höheren JNO2-Werten in einem System mit niedrigem NOx verstanden werden. Das wichtigste Ergebnis dieser Untersuchung, ist die Verifizierung des Leighton-Verhältnisses, das zur Charakterisierung des PSS dient, bei sehr geringen NOx-Konzentrationen in der MBL. Die bei dieser Doktorarbeit gewonnenen Erkenntnisse beweisen, dass unter den Bedingungen der marinen Granzschicht rein photochemischer Abbau von Ozon stattfindet und als Hauptursache hierfür während des Tages die Photolyse gilt. Mit Hilfe der gemessenen Parameter wurde der kritische NO-Level auf Werte zwischen 5 und 9 pptv abgeschätzt, wobei diese Werte im Vergleich zu bisherigen Studien vergleichsweise niedrig sind. Möglicherweise bedeutet dies, dass das Ozon Produktion/ Abbau-Potential des südlichen Atlantiks deutlich stärker auf die Verfügbarkeit von NO reagiert, als es in anderen Regionen der Fall ist. Im Rahmen der Doktorarbeit wurde desweiteren ein direkter Vergleich der gemessenen Spezies mit dem Modelergebnis eines 3-dimensionalen Zirkulationsmodel zur Simulation atmosphären chemischer Prozesse (EMAC) entlang der exakten Schiffsstrecke durchgeführt. Um die Übereinstimmung der Messergebnisse mit dem bisherigen Verständnis der atmosphärischen Radikalchemie zu überprüfen, wurde ein Gleichgewichtspunktmodel entwickelt, das die während der Überfahrt erhaltenen Daten für Berechungen verwendet. Ein Vergleich zwischen der gemessenen und der modellierten ROx Konzentrationen in einer Umgebung mit niedrigem NOx zeigt, dass die herkömmliche Theorie zur Reproduktion der Beobachtungen unzureichend ist. Die möglichen Gründe hierfür und die Folgen werden in dieser Doktorarbeit diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Copper and Zn are essential micronutrients for plants, animals, and humans; however, they may also be pollutants if they occur at high concentrations in soil. Therefore, knowledge of Cu and Zn cycling in soils is required both for guaranteeing proper nutrition and to control possible risks arising from pollution.rnThe overall objective of my study was to test if Cu and Zn stable isotope ratios can be used to investigate into the biogeochemistry, source and transport of these metals in soils. The use of stable isotope ratios might be especially suitable to trace long-term processes occurring during soil genesis and transport of pollutants through the soil. In detail, I aimed to answer the questions, whether (1) Cu stable isotopes are fractionated during complexation with humic acid, (2) 65Cu values can be a tracer for soil genetic processes in redoximorphic soils (3) 65Cu values can help to understand soil genetic processes under oxic weathering conditions, and (4) 65Cu and 66Zn values can act as tracers of sources and transport of Cu and Zn in polluted soils.rnTo answer these questions, I ran adsorption experiments at different pH values in the laboratory and modelled Cu adsorption to humic acid. Furthermore, eight soils were sampled representing different redox and weathering regimes of which two were influenced by stagnic water, two by groundwater, two by oxic weathering (Cambisols), and two by podzolation. In all horizons of these soils, I determined selected basic soil properties, partitioned Cu into seven operationally defined fractions and determined Cu concentrations and Cu isotope ratios (65Cu values). Finally, three additional soils were sampled along a deposition gradient at different distances to a Cu smelter in Slovakia and analyzed together with bedrock and waste material from the smelter for selected basic soil properties, Cu and Zn concentrations and 65Cu and 66Zn values.rnMy results demonstrated that (1) Copper was fractionated during adsorption on humic acid resulting in an isotope fractionation between the immobilized humic acid and the solution (65CuIHA-solution) of 0.26 ± 0.11‰ (2SD) and that the extent of fractionation was independent of pH and involved functional groups of the humic acid. (2) Soil genesis and plant cycling causes measurable Cu isotope fractionation in hydromorphic soils. The results suggested that an increasing number of redox cycles depleted 63Cu with increasing depth resulting in heavier 65Cu values. (3) Organic horizons usually had isotopically lighter Cu than mineral soils presumably because of the preferred uptake and recycling of 63Cu by plants. (4) In a strongly developed Podzol, eluviation zones had lighter and illuviation zones heavier 65Cu values because of the higher stability of organo-65Cu complexes compared to organo-63Cu complexes. In the Cambisols and a little developed Podzol, oxic weathering caused increasingly lighter 65Cu values with increasing depth, resulting in the opposite depth trend as in redoximorphic soils, because of the preferential vertical transport of 63Cu. (5) The 66Zn values were fractionated during the smelting process and isotopically light Zn was emitted allowing source identification of Zn pollution while 65Cu values were unaffected by the smelting and Cu emissions isotopically indistinguishable from soil. The 65Cu values in polluted soils became lighter down to a depth of 0.4 m indicating isotope fractionation during transport and a transport depth of 0.4 m in 60 years. 66Zn values had an opposite depth trend becoming heavier with depth because of fractionation by plant cycling, speciation changes, and mixing of native and smelter-derived Zn. rnCopper showed measurable isotope fractionation of approximately 1‰ in unpolluted soils, allowing to draw conclusions on plant cycling, transport, and redox processes occurring during soil genesis and 65Cu and 66Zn values in contaminated soils allow for conclusions on sources (in my study only possible for Zn), biogeochemical behavior, and depth of dislocation of Cu and Zn pollution in soil. I conclude that stable Cu and Zn isotope ratios are a suitable novel tool to trace long-term processes in soils which are difficult to assess otherwise.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plasmonen sind die kollektive resonante Anregung von Leitungselektronen. Vom Licht angeregternPlasmonen in subwellenlängen-grossen Nanopartikeln heissen Partikelplasmonen und sind vielversprechende Kandidaten für zukünftige Mikrosensoren wegen der starken Abhängigkeit der Resonanz an extern steuerbaren Parametern, wie die optischen Eigenschaften des umgebenden Mediums und die elektrische Ladung der Nanopartikel. Die extrem hohe Streue_zienz von Partikelplasmonen erlaubt eine einfache Beobachtung einzelner Nanopartikel in einem Mikroskop.rnDie Anforderung, schnell eine statistisch relevante Anzahl von Datenpunkten sammeln zu können,rnund die wachsende Bedeutung von plasmonischen (vor allem Gold-) Nanopartikeln für Anwendungenrnin der Medizin, hat nach der Entwicklung von automatisierten Mikroskopen gedrängt, die im bis dahin nur teilweise abgedeckten spektralen Fenster der biologischen Gewebe (biologisches Fenster) von 650 bis 900nm messen können. Ich stelle in dieser Arbeit das Plasmoscope vor, das genau unter Beobachtung der genannten Anforderungen entworfen wurde, in dem (1) ein einstellbarer Spalt in die Eingangsö_nung des Spektrometers, die mit der Bildebene des Mikroskops zusammenfällt, gesetzt wurde, und (2) einem Piezo Scantisch, der es ermöglicht, die Probe durch diesen schmalen Spalt abzurastern. Diese Verwirklichung vermeidet optische Elemente, die im nahen Infra-Rot absorbieren.rnMit dem Plasmoscope untersuche ich die plasmonische Sensitivität von Gold- und Silbernanostrnäbchen, d.h. die Plasmon-Resonanzverschiebung in Abhängigkeit mit der Änderung des umgebendenrnMediums. Die Sensitivität ist das Mass dafür, wie gut die Nanopartikeln Materialänderungenrnin ihrer Umgebung detektieren können, und damit ist es immens wichtig zu wissen, welche Parameterrndie Sensitivität beein_ussen. Ich zeige hier, dass Silbernanostäbchen eine höhere Sensitivität alsrnGoldnanostäbchen innerhalb des biologischen Fensters besitzen, und darüberhinaus, dass die Sensitivität mit der Dicke der Stäbchen wächst. Ich stelle eine theoretische Diskussion der Sensitivitätrnvor, indenti_ziere die Materialparameter, die die Sensitivität bein_ussen und leite die entsprechendenrnFormeln her. In einer weiteren Annäherung präsentiere ich experimentelle Daten, die die theoretische Erkenntnis unterstützen, dass für Sensitivitätsmessschemata, die auch die Linienbreite mitberücksichtigen, Goldnanostäbchen mit einem Aspektverhältnis von 3 bis 4 das optimalste Ergebnis liefern. Verlässliche Sensoren müssen eine robuste Wiederholbarkeit aufweisen, die ich mit Gold- und Silbernanostäbchen untersuche.rnDie Plasmonen-resonanzwellenlänge hängt von folgenden intrinsischen Materialparametern ab:rnElektrondichte, Hintergrundpolarisierbarkeit und Relaxationszeit. Basierend auf meinen experimentellen Ergebnissen zeige ich, dass Nanostäbchen aus Kupfer-Gold-Legierung im Vergleich zu ähnlich geformten Goldnanostäbchen eine rotverschobene Resonanz haben, und in welcher Weiserndie Linienbreite mit der stochimetrischen Zusammensetzung der legierten Nanopartikeln variiert.rnDie Abhängigkeit der Linienbreite von der Materialzusammensetzung wird auch anhand von silberbeschichteten und unbeschichteten Goldnanostäbchen untersucht.rnHalbleiternanopartikeln sind Kandidaten für e_ziente photovoltaische Einrichtungen. Die Energieumwandlung erfordert eine Ladungstrennung, die mit dem Plasmoscope experimentell vermessen wird, in dem ich die lichtinduzierte Wachstumsdynamik von Goldsphären auf Halbleiternanost äbchen in einer Goldionenlösung durch die Messung der gestreuten Intensität verfolge.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The composition of the atmosphere is frequently perturbed by the emission of gaseous and particulate matter from natural as well as anthropogenic sources. While the impact of trace gases on the radiative forcing of the climate is relatively well understood the role of aerosol is far more uncertain. Therefore, the study of the vertical distribution of particulate matter in the atmosphere and its chemical composition contribute valuable information to bridge this gap of knowledge. The chemical composition of aerosol reveals information on properties such as radiative behavior and hygroscopicity and therefore cloud condensation or ice nucleus potential. rnThis thesis focuses on aerosol pollution plumes observed in 2008 during the POLARCAT (Polar Study using Aircraft, Remote Sensing, Surface Measurements and Models, of Climate, Chemistry, Aerosols, and Transport) campaign over Greenland in June/July and CONCERT (Contrail and Cirrus Experiment) campaign over Central and Western Europe in October/November. Measurements were performed with an Aerodyne compact time-of-flight aerosol mass spectrometer (AMS) capable of online size-resolved chemical characterization of non-refractory submicron particles. In addition, the origins of pollution plumes were determined by means of modeling tools. The characterized pollution episodes originated from a large variety of sources and were encountered at distinct altitudes. They included pure natural emissions from two volcanic eruptions in 2008. By the time of detection over Western Europe between 10 and 12 km altitude the plume was about 3 months old and composed to 71 % of particulate sulfate and 21 % of carbonaceous compounds. Also, biomass burning (BB) plumes were observed over Greenland between 4 and 7 km altitude (free troposphere) originating from Canada and East Siberia. The long-range transport took roughly one and two weeks, respectively. The aerosol was composed of 78 % organic matter and 22 % particulate sulfate. Some Canadian and all Siberian BB plumes were mixed with anthropogenic emissions from fossil fuel combustion (FF) in North America and East Asia. It was found that the contribution of particulate sulfate increased with growing influences from anthropogenic activity and Asia reaching up to 37 % after more than two weeks of transport time. The most exclusively anthropogenic emission source probed in the upper troposphere was engine exhaust from commercial aircraft liners over Germany. However, in-situ characterization of this aerosol type during aircraft chasing was not possible. All long-range transport aerosol was found to have an O:C ratio close to or greater than 1 implying that low-volatility oxygenated organic aerosol was present in each case despite the variety of origins and the large range in age from 3 to 100 days. This leads to the conclusion that organic particulate matter reaches a final and uniform state of oxygenation after at least 3 days in the free troposphere. rnExcept for aircraft exhaust all emission sources mentioned above are surface-bound and thus rely on different types of vertical transport mechanisms, such as direct high altitude injection in the case of a volcanic eruption, or severe BB, or uplift by convection, to reach higher altitudes where particles can travel long distances before removal mainly caused by cloud scavenging. A lifetime for North American mixed BB and FF aerosol of 7 to 11 days was derived. This in consequence means that emission from surface point sources, e.g. volcanoes, or regions, e.g. East Asia, do not only have a relevant impact on the immediate surroundings but rather on a hemispheric scale including such climate sensitive zones as the tropopause or the Arctic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Für viele Anwendungen von Nanomaterialien sind maßgeschneiderte Produkte wün-schenswert, weswegen ein tiefgreifendes und genaues Wissen der Reaktionsabläufe, die zu diesen Produkten führen, unabdingbar ist. Um dies im Fall von SnO2 zu erreichen, behandelt diese Arbeit die kontrollierte Synthese und genaue Charakterisierung von Nanopartikeln von Zinn(IV) Oxid.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation "Konsekutivdolmetschen und Notation" (Andres 2002) ist eine experimentelle Studie. Mit Hilfe einer von den Germersheimer Technikern konzipierten Spezialkamera wurde die Notizennahme von insgesamt 28 ProbandInnen, denen über Video die Fernsehansprache des französischen Staatspräsidenten zum Jahreswechsel 1996/1997 eingespielt wurde, gefilmt. Das Besondere an diesen Filmaufnahmen der Notizen war die mitlaufende Zeitschaltuhr. Damit konnte der zeitliche Abstand (Décalage) zur Originalrede gemessen werden. In der Verschriftung wurden die Originalrede, die Notizen und die Wiedergabe in ihrem temporalen Verlauf aufgezeichnet. Auch nonverbale Elemente wurden durch in Klammern hinter die jeweilige Äußerung gesetzte Anmerkungen integriert. Die Leistungen der ProbandInnen wurden von drei Dozentinnen bewertet. Die Auswertung der empirischen Daten erfolgte unter den Aspekten Effizienz und Knappheit, Quantität und Auswahl, Informationsstrukturierung, Décalage, Wissen und Erfahrung, Text als kommunikatives Ganzes. Auswertung der Dolmetschleistungen: Konsekutivdolmetschen ist eine komplexe Gesamtoperation, die sich aus zahlreichen miteinander vernetzten Teilen zusammensetzt. Faktoren wie Übung, Erfahrung, Wissen, das Verfügen über Sachkenntnis und Problemlösestrategien, spielen in diesem Prozess eine erhebliche Rolle. Daher ist es sinnvoll, im didaktischen Ansatz Einzeloperationen aus der Gesamtoperation herauszulösen und für Einzelbereiche die Fähigkeit zum Problemlösen zu trainieren. Die Grundvoraussetzung ist Verstehen, so dass vor allem Verstehenstechniken zu vermitteln sind. Insgesamt geht es darum, den Lernprozess so zu gestalten, dass Studierenden Strategien vermittelt werden, die es ihnen ermöglichen, defizitäre Daten der Textoberfläche durch differenzierte Erwartungsstrukturen zu ergänzen und zu lernen, Sinn zu konstruieren. In Bezug auf die Notation lassen die in der Untersuchung enthaltenen Daten den Schluss zu, dass es bei der Notation nicht um Fragen wie zielsprachliches oder ausgangssprachliches Notieren oder die Anzahl von Symbolen geht, sondern darum zu vermitteln, dass: (1) ein deutlich geschriebenes Notationssystem mit automatisierten Abkürzungsregeln und einem eindeutigen Stamm an Symbolen Zeitersparnis bewirkt, die für andere Operationen genutzt werden kann; (2) Verben und Tempusangaben für die Rekonstruktion des Gesagten ein wesentlicher Faktor sind; (3) Informationsgewichtung und -strukturierung in den Notizen die Verstehensoperationen intensivieren und die Textproduktion erleichtern; (4) Segmentierung und räumliche Anordnung in den Notizen das Zuordnen erleichtern und die Sprachproduktion positiv beeinflussen; (5) die Notation von Verknüpfungsmitteln ein wesentliches Element für die Herstellung von Kohäsion ist; (6) das Décalage in Abhängigkeit vom Faktor Verstehen Schwankungen unterworfen ist und sein darf; (7) jede Person das für sie individuelle Décalage herausfinden muss; (8) ein anhaltendes Décalage von mehr als 7 Sekunden zu Defiziten im Verstehens- oder im Notationsprozess führt; (9) diskontinuierliches Notieren zur Informationsstrukturierung oder -vervollständigung hilfreich sein kann; (10) rhetorische Merkmale in der Textproduktion leichter berücksichtigt werden, wenn diese in den Notizen markiert sind.rnSchließlich haben die Beobachtungen gezeigt, wie hilfreich für die Studierenden eine intensive Auseinandersetzung mit der Notation ist, wie wichtig ein trainiertes, verlässliches, effizientes Notationssystem als eine Teiloperation ist, die den Verstehensprozess stützt und damit entscheidenden Einfluss auf die Qualität der zielsprachlichen Umsetzung nimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oxidativer Stress ist seit über 25 Jahren als ein Charakteristikum vieler pathologischer Prozesse bekannt. Helmut Sies beschrieb bereits in den 1980er Jahren oxidativen Stress als Störung in der prooxidativ – antioxidativen Balance zugunsten der prooxidativen Seite, wodurch es potentiell zu Schäden in verschiedenen Geweben kommt. Oxidativer Stress tritt sowohl bei neurodegenerativen Erkrankungen wie Morbus Alzheimer, Morbus Parkinson und zerebraler Ischämie, bei peripheren Erkrankungen wie Arteriosklerose, als auch beim Alterungsprozess per se auf und wird als Ursache oder zumindest als ein krankheitsfördernder Faktor diskutiert. Die in in vitro-Experimenten als vielversprechend antioxidativ getesteten Substanzen (meist phenolhaltig) ergaben in mehreren klinischen Studien keinen signifikanten Vorteil. Um die Ursachen dieser Ergebnisse näher zu analysieren, wurde in der vorliegenden Arbeit auf Basis des cytoprotektiven Phenothiazins, einem aromatischen trizyklischen Amin, der Einfluss von verschiedenen Substituenten im Hinblick auf Lipophilie, Radikalstabilisierung und Löslichkeit des Moleküls chemisch vorhergesagt. Anhand dieser in silicio Struktur-Wirkungs-Beziehung wurden anschließend neue Modellsubstanzen synthetisiert, welche sich systematisch in den drei zuvor genannten Parametern unterschieden. Dies wurde durch Substitution von unterschiedlich langen Fettsäureketten, von löslichkeitsbeeinflussenden funktionellen Gruppen, oder durch Anellierung zusätzlicher aromatischer Ringe erreicht. In den folgenden Versuchen zu antioxidativer Kapazität, zellulärem Überleben, Lipidperoxidation und Proteinoxidation zeigte sich, dass mit gesteigerter Stabilität der korrespondierenden Radikale und mit wachsender Lipophilie die antioxidativ cytoprotektive Aktivität der neuen Derivate bis zu einer gewissen Grenze (logP ≈ 7) signifikant zunahm; über diesen Wert hinaus sank die Effektivität wieder ab. Benzanellierte Phenothiazine entwickelten mit EC50-Werten von ungefähr 8-10 nM die höchste mittlere effektive Wirkkonzentration in oxidativ geschädigten, klonalen hippocampalen Neuronen (HT-22 Zellen). Dies entspricht einer etwa 20-fachen Verbesserung gegenüber α-Tocopherol, welches bisher als bestes natürliches lipophiles Antioxidans angesehen wurde. Im Vergleich zu Phenothiazin erreichen die neuen Antioxidantien immerhin eine höhere Effektivität um den Faktor 4. Folglich sind es sowohl Aspekte der Löslichkeit und der Distribution, welche die Potenz der gegenwärtigen Antioxidantien limitieren als auch Aspekte der Radikalstabilisierung, die Einfluss auf die primäre Wirksamkeit nehmen. Dieses Wissen sollte beim zukünftigen Design neuer, antioxidativ potenter Moleküle im Hinblick auf ihren langfristigen Einsatz bei neurodegenerativen Erkrankungen von Nutzen sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Für die Ausheilung von L. major-Infektionen ist eine effektive Th1-/Tc1-Antwort unerlässlich. Dennoch sind bis heute nicht alle Mechanismen der schützenden Immunabwehr beim Menschen und in der Maus endgültig geklärt. Deshalb bestand das Ziel der vorliegenden Arbeit darin, Th1-/Tc1-Antworten und damit die Schnittstelle zwischen angeborenem und adaptivem Immunsystem eingehender zu untersuchen. Für diesen Ansatz wurde zunächst der Einfluss des genetischen Hintergrundes auf den Verlauf der Infektion anhand von BALB/c- und C57BL/6-Zellen analysiert. Als entscheidender Faktor für Heilung und Suszeptibilität wurde mit Hilfe von Knochenmarkschimären die Herkunft der T und/oder B Zellen identifiziert. Erst die Aktivierung durch Th1-/Tc1-Zellen versetzt L. major-infizierte Makrophagen in die Lage, die intrazellulären Parasiten abzutöten. In diesem Aktivierungsprozess spielt die TNF-induzierte Signalweiterleitung über den TNF-Rezeptor 1 (TNF-R1) eine wichtige Rolle. TNF-R1 ist mit dem Signalmolekül FAN assoziiert. In dieser Arbeit konnte anhand von Mäusen, denen FAN fehlt, die Involvierung dieses Moleküls in der Induktion eines Th1-Zytokinsprofils und in der Kontrolle der Parasitenzahl sowie der lokalen Begrenzung der Infektion gezeigt werden. Weiterhin wurde unter Verwendung immundefizienter Mäuse die Realisierbarkeit eines PBMC-Transfermodells geprüft. Ein solches wird zur Validierung an Mäusen gewonnener Erkenntnisse und als präklinisches Testsystem der humanen kutanen Leishmaniasis dringend benötigt. In allen getesteten Stämmen ließ sich durch den Transfer humaner PBMC die L. major-Infektion beeinflussen. Humane CD4+ und CD8+ T-Zellen waren an den Infektionsstellen präsent und es konnten antigenspezifische Immunreaktionen nnachgewiesen werden. Das PBMC-Transfermodell konnte durch die Transplantation humaner Haut auf immundefiziente Mäuse zusätzlich entscheidend verbessert werden. In diesen Transplantaten ließen sich L. major-Infektionen etablieren und durch zusätzlichen Transfer von PBMC die Zahl humaner CD45+ Zellen an der Infektionsstelle deutlich steigern. In ihrer Gesamtheit trägt die vorliegende Arbeit wesentlich zum Verständnis der Determinanten von Heilung und Suszeptibilität der kutanen Leishmaniasis bei und zeigt neue Ansatzpunkte für eine Beeinflussung des Krankheitsverlaufes auf. Die Etablierung eines präklinischen Testmodells der humanen Leishmaniasis ist entscheidend, um das Wissen über die murine Leishmaniasis auf die humane Erkrankung zu übertragen. So kann dem dauerhaften Problem der Entwicklung von Vakzinen an Mäusen, die keine Wirksamkeit gegen die humane Erkrankung zeigen, begegnet werden. Ein vollständig etabliertes Modell wird es ermöglichen, der humanen Erkrankung zugrundeliegende Mechanismen zu untersuchen und Patienten-spezifisch aber auch allgemeingültig Vakzinierungs-Ansätze und Therapien unter experimentellen Bedingungen zu testen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The availability of a high-intensity antiproton beam with momentum up to 15,GeV/c at the future FAIR will open a unique opportunity to investigate wide areas of nuclear physics with the $overline{P}$ANDA (anti{$overline{P}$}roton ANnihilations at DArmstadt) detector. Part of these investigations concern the Electromagnetic Form Factors of the proton in the time-like region and the study of the Transition Distribution Amplitudes, for which feasibility studies have been performed in this Thesis. rnMoreover, simulations to study the efficiency and the energy resolution of the backward endcap of the electromagnetic calorimeter of $overline{P}$ANDA are presented. This detector is crucial especially for the reconstruction of processes like $bar pprightarrow e^+ e^- pi^0$, investigated in this work. Different arrangements of dead material were studied. The results show that both, the efficiency and the energy resolution of the backward endcap of the electromagnetic calorimeter fullfill the requirements for the detection of backward particles, and that this detector is necessary for the reconstruction of the channels of interest. rnrnThe study of the annihilation channel $bar pprightarrow e^+ e^-$ will improve the knowledge of the Electromagnetic Form Factors in the time-like region, and will help to understand their connection with the Electromagnetic Form Factors in the space-like region. In this Thesis the feasibility of a measurement of the $bar pprightarrow e^+ e^-$ cross section with $overline{P}$ANDA is studied using Monte-Carlo simulations. The major background channel $bar pprightarrow pi^+ pi^-$ is taken into account. The results show a $10^9$ background suppression factor, which assure a sufficiently clean signal with less than 0.1% background contamination. The signal can be measured with an efficiency greater than 30% up to $s=14$,(GeV/c)$^2$. The Electromagnetic Form Factors are extracted from the reconstructed signal and corrected angular distribution. Above this $s$ limit, the low cross section will not allow the direct extraction of the Electromagnetic Form Factors. However, the total cross section can still be measured and an extraction of the Electromagnetic Form Factors is possible considering certain assumptions on the ratio between the electric and magnetic contributions.rnrnThe Transition Distribution Amplitudes are new non-perturbative objects describing the transition between a baryon and a meson. They are accessible in hard exclusive processes like $bar pprightarrow e^+ e^- pi^0$. The study of this process with $overline{P}$ANDA will test the Transition Distribution Amplitudes approach. This work includes a feasibility study for measuring this channel with $overline{P}$ANDA. The main background reaction is here $bar pprightarrow pi^+ pi^- pi^0$. A background suppression factor of $10^8$ has been achieved while keeping a signal efficiency above 20%.rnrnrnPart of this work has been published in the European Physics Journal A 44, 373-384 (2010).rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

When designing metaheuristic optimization methods, there is a trade-off between application range and effectiveness. For large real-world instances of combinatorial optimization problems out-of-the-box metaheuristics often fail, and optimization methods need to be adapted to the problem at hand. Knowledge about the structure of high-quality solutions can be exploited by introducing a so called bias into one of the components of the metaheuristic used. These problem-specific adaptations allow to increase search performance. This thesis analyzes the characteristics of high-quality solutions for three constrained spanning tree problems: the optimal communication spanning tree problem, the quadratic minimum spanning tree problem and the bounded diameter minimum spanning tree problem. Several relevant tree properties, that should be explored when analyzing a constrained spanning tree problem, are identified. Based on the gained insights on the structure of high-quality solutions, efficient and robust solution approaches are designed for each of the three problems. Experimental studies analyze the performance of the developed approaches compared to the current state-of-the-art.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mineral dust is an important component of the Earth's climate system and provides essential nutrientsrnto oceans and rain forests. During atmospheric transport, dust particles directly and indirectly influencernweather and climate. The strength of dust sources and characteristics of the transport, in turn, mightrnbe subject to climatic changes. Earth system models help for a better understanding of these complexrnmechanisms.rnrnThis thesis applies the global climate model ECHAM5/MESSy Atmospheric Chemistry (EMAC) for simulationsrnof the mineral dust cycle under different climatic conditions. The prerequisite for suitable modelrnresults is the determination of the model setup reproducing the most realistic dust cycle in the recentrnclimate. Simulations with this setup are used to gain new insights into properties of the transatlanticrndust transport from Africa to the Americas and adaptations of the model's climate forcing factors allowrnfor investigations of the impact of climatic changes on the dust cycle.rnrnIn the first part, the most appropriate model setup is determined through a number of sensitivity experiments.rnIt uses the dust emission parametrisation from Tegen et al. 2002 and a spectral resolutionrnof T85, corresponding to a horizontal grid spacing of about 155 km. Coarser resolutions are not able tornaccurately reproduce emissions from important source regions such as the Bodele Depression in Chad orrnthe Taklamakan Desert in Central Asia. Furthermore, the representation of ageing and wet deposition ofrndust particles in the model requires a basic sulphur chemical mechanism. This setup is recommended forrnfuture simulations with EMAC focusing on mineral dust.rnrnOne major branch of the global dust cycle is the long-range transport from the world's largest dustrnsource, the Sahara, across the Atlantic Ocean. Seasonal variations of the main transport pathways to thernAmazon Basin in boreal winter and to the Caribbean during summer are well known and understood,rnand corroborated in this thesis. Both Eulerian and Lagrangian methods give estimates on the typicalrntransport times from the source regions to the deposition on the order of nine to ten days. Previously, arnhuge proportion of the dust transported across the Atlantic Ocean has been attributed to emissions fromrnthe Bodele Depression. However, the contribution of this hot spot to the total transport is very low inrnthe present results, although the overall emissions from this region are comparable. Both model resultsrnand data sets analysed earlier, such as satellite products, involve uncertainties and this controversy aboutrndust transport from the Bodele Depression calls for future investigations and clarification.rnrnAforementioned characteristics of the transatlantic dust transport just slightly change in simulationsrnrepresenting climatic conditions of the Little Ice Age in the middle of the last millennium with meanrnnear-surface cooling of 0.5 to 1 K. However, intensification of the West African summer monsoon duringrnthe Little Ice Age is associated with higher dust emissions from North African source regions and wetterrnconditions in the Sahel. Furthermore, the Indian Monsoon and dust emissions from the Arabian Peninsula,rnwhich are affected by this circulation, are intensified during the Little Ice Age, whereas the annual globalrndust budget is similar in both climate epochs. Simulated dust emission fluxes are particularly influencedrnby the surface parameters. Modifications of the model do not affect those in this thesis, to be able tornascribe all differences in the results to changed forcing factors, such as greenhouse gas concentrations.rnDue to meagre comparison data sets, the verification of results presented here is problematic. Deeperrnknowledge about the dust cycle during the Little Ice Age can be obtained by future simulations, based onrnthis work, and additionally using improved reconstructions of surface parameters. Better evaluation ofrnsuch simulations would be possible by refining the temporal resolution of reconstructed dust depositionrnfluxes from existing ice and marine sediment cores.