594 resultados para Transports.
Resumo:
Le intersezioni stradali, sono le aree individuate da tre o più tronchi stradali (archi) che convergono in uno stesso punto, nonchè dai dispositivi e dagli apprestamenti atti a consentire ed agevolare le manovre per il passaggio da un tronco all'altro. Rappresentano punti critici della rete viaria per effetto delle mutue interferenze tra le diverse correnti di traffico durante il loro attraversamento. Si acuiscono pertanto, nella loro "area di influenza", i problemi legati alla sicurezza e quelli relativi alla regolarità ed efficienza della circolazione. Dalla numerosità dei fattori da cui dipende la configurazione di un incrocio (numero e tipo di strade, entità dei flussi, situazioni locali, ecc.) deriva una ancor più vasta gamma di tipologie e di schemi. La rotatoria, come particolare configurazione di intersezione a raso, è lo schema che viene considerato nel presente lavoro di tesi, sia nei suoi caratteri essenziali e generali, sia nel particolare di una intersezione che, nel Comune di Bologna, è stata realizzata in luogo dell'intersezione semaforizzata precedente.
Resumo:
The relation between the intercepted light and orchard productivity was considered linear, although this dependence seems to be more subordinate to planting system rather than light intensity. At whole plant level not always the increase of irradiance determines productivity improvement. One of the reasons can be the plant intrinsic un-efficiency in using energy. Generally in full light only the 5 – 10% of the total incoming energy is allocated to net photosynthesis. Therefore preserving or improving this efficiency becomes pivotal for scientist and fruit growers. Even tough a conspicuous energy amount is reflected or transmitted, plants can not avoid to absorb photons in excess. The chlorophyll over-excitation promotes the reactive species production increasing the photoinhibition risks. The dangerous consequences of photoinhibition forced plants to evolve a complex and multilevel machine able to dissipate the energy excess quenching heat (Non Photochemical Quenching), moving electrons (water-water cycle , cyclic transport around PSI, glutathione-ascorbate cycle and photorespiration) and scavenging the generated reactive species. The price plants must pay for this equipment is the use of CO2 and reducing power with a consequent decrease of the photosynthetic efficiency, both because some photons are not used for carboxylation and an effective CO2 and reducing power loss occurs. Net photosynthesis increases with light until the saturation point, additional PPFD doesn’t improve carboxylation but it rises the efficiency of the alternative pathways in energy dissipation but also ROS production and photoinhibition risks. The wide photo-protective apparatus, although is not able to cope with the excessive incoming energy, therefore photodamage occurs. Each event increasing the photon pressure and/or decreasing the efficiency of the described photo-protective mechanisms (i.e. thermal stress, water and nutritional deficiency) can emphasize the photoinhibition. Likely in nature a small amount of not damaged photosystems is found because of the effective, efficient and energy consuming recovery system. Since the damaged PSII is quickly repaired with energy expense, it would be interesting to investigate how much PSII recovery costs to plant productivity. This PhD. dissertation purposes to improve the knowledge about the several strategies accomplished for managing the incoming energy and the light excess implication on photo-damage in peach. The thesis is organized in three scientific units. In the first section a new rapid, non-intrusive, whole tissue and universal technique for functional PSII determination was implemented and validated on different kinds of plants as C3 and C4 species, woody and herbaceous plants, wild type and Chlorophyll b-less mutant and monocot and dicot plants. In the second unit, using a “singular” experimental orchard named “Asymmetric orchard”, the relation between light environment and photosynthetic performance, water use and photoinhibition was investigated in peach at whole plant level, furthermore the effect of photon pressure variation on energy management was considered on single leaf. In the third section the quenching analysis method suggested by Kornyeyev and Hendrickson (2007) was validate on peach. Afterwards it was applied in the field where the influence of moderate light and water reduction on peach photosynthetic performances, water requirements, energy management and photoinhibition was studied. Using solar energy as fuel for life plant is intrinsically suicidal since the high constant photodamage risk. This dissertation would try to highlight the complex relation existing between plant, in particular peach, and light analysing the principal strategies plants developed to manage the incoming light for deriving the maximal benefits as possible minimizing the risks. In the first instance the new method proposed for functional PSII determination based on P700 redox kinetics seems to be a valid, non intrusive, universal and field-applicable technique, even because it is able to measure in deep the whole leaf tissue rather than the first leaf layers as fluorescence. Fluorescence Fv/Fm parameter gives a good estimate of functional PSII but only when data obtained by ad-axial and ab-axial leaf surface are averaged. In addition to this method the energy quenching analysis proposed by Kornyeyev and Hendrickson (2007), combined with the photosynthesis model proposed by von Caemmerer (2000) is a forceful tool to analyse and study, even in the field, the relation between plant and environmental factors such as water, temperature but first of all light. “Asymmetric” training system is a good way to study light energy, photosynthetic performance and water use relations in the field. At whole plant level net carboxylation increases with PPFD reaching a saturating point. Light excess rather than improve photosynthesis may emphasize water and thermal stress leading to stomatal limitation. Furthermore too much light does not promote net carboxylation improvement but PSII damage, in fact in the most light exposed plants about 50-60% of the total PSII is inactivated. At single leaf level, net carboxylation increases till saturation point (1000 – 1200 μmolm-2s-1) and light excess is dissipated by non photochemical quenching and non net carboxylative transports. The latter follows a quite similar pattern of Pn/PPFD curve reaching the saturation point at almost the same photon flux density. At middle-low irradiance NPQ seems to be lumen pH limited because the incoming photon pressure is not enough to generate the optimum lumen pH for violaxanthin de-epoxidase (VDE) full activation. Peach leaves try to cope with the light excess increasing the non net carboxylative transports. While PPFD rises the xanthophyll cycle is more and more activated and the rate of non net carboxylative transports is reduced. Some of these alternative transports, such as the water-water cycle, the cyclic transport around the PSI and the glutathione-ascorbate cycle are able to generate additional H+ in lumen in order to support the VDE activation when light can be limiting. Moreover the alternative transports seems to be involved as an important dissipative way when high temperature and sub-optimal conductance emphasize the photoinhibition risks. In peach, a moderate water and light reduction does not determine net carboxylation decrease but, diminishing the incoming light and the environmental evapo-transpiration request, stomatal conductance decreases, improving water use efficiency. Therefore lowering light intensity till not limiting levels, water could be saved not compromising net photosynthesis. The quenching analysis is able to partition absorbed energy in the several utilization, photoprotection and photo-oxidation pathways. When recovery is permitted only few PSII remained un-repaired, although more net PSII damage is recorded in plants placed in full light. Even in this experiment, in over saturating light the main dissipation pathway is the non photochemical quenching; at middle-low irradiance it seems to be pH limited and other transports, such as photorespiration and alternative transports, are used to support photoprotection and to contribute for creating the optimal trans-thylakoidal ΔpH for violaxanthin de-epoxidase. These alternative pathways become the main quenching mechanisms at very low light environment. Another aspect pointed out by this study is the role of NPQ as dissipative pathway when conductance becomes severely limiting. The evidence that in nature a small amount of damaged PSII is seen indicates the presence of an effective and efficient recovery mechanism that masks the real photodamage occurring during the day. At single leaf level, when repair is not allowed leaves in full light are two fold more photoinhibited than the shaded ones. Therefore light in excess of the photosynthetic optima does not promote net carboxylation but increases water loss and PSII damage. The more is photoinhibition the more must be the photosystems to be repaired and consequently the energy and dry matter to allocate in this essential activity. Since above the saturation point net photosynthesis is constant while photoinhibition increases it would be interesting to investigate how photodamage costs in terms of tree productivity. An other aspect of pivotal importance to be further widened is the combined influence of light and other environmental parameters, like water status, temperature and nutrition on peach light, water and phtosyntate management.
Resumo:
Polycyclic aromatic hydrocarbons are chemicals produced by both human activities and natural sources and they have been present in the biosphere since millions of years. For this reason microorganisms should have developed, during the world history, the capacity of metabolized them under different electron acceptors and redox conditions. The deep understanding of these natural attenuation processes and of microbial degradation pathways has a main importance in the cleanup of contaminated areas. Anaerobic degradation of aromatic hydrocarbons is often presumed to be slow and of a minor ecological significance compared with the aerobic processes; however anaerobic bioremediation may play a key role in the transformation of organic pollutants when oxygen demand exceeds supply in natural environments. Under such conditions, anoxic and anaerobic degradation mediated by denitrifying or sulphate-reducing bacteria can become a key pathway for the contaminated lands clean up. Actually not much is known about anaerobic bioremediation processes. Anaerobic biodegrading techniques may be really interesting for the future, because they give the possibility of treating contaminated soil directly in their natural status, decreasing the costs concerning the oxygen supply, which usually are the highest ones, and about soil excavations and transports in appropriate sites for a further disposal. The aim of this dissertation work is to characterize the conditions favouring the anaerobic degradation of polycyclic aromatic hydrocarbons. Special focus will be given to the assessment of the various AEA efficiency, the characterization of degradation performance and rates under different redox conditions as well as toxicity monitoring. A comparison with aerobic and anaerobic degradation concerning the same contaminated material is also made to estimate the different biodegradation times.
Resumo:
Il progetto propone uno studio per verificare la fattibilita' di un piano territoriale (ideato per il bacino del Po ma di fatto estendibile a tutti i bacini fluviali) per la creazione di una filiera di colture bioenergetiche (biomasse) che, trasportate per mezzo della navigazione fluviale (uno dei mezzi di trasporto a minore emissione di CO2), alimentino una o piu' centrali a nuova tecnologia che associno alla produzione di calore (teleriscaldamento e raffreddamento) e di energia la separazione dei fumi. La CO2 catturata dalla crescita delle biomasse e recuperata dalla combustione, puo' quindi essere segregata nel sottosuolo di aree costiere subsidenti contrastando il fenomeno dellâabbassamento del suolo. Ricavando benefici in tutti i passaggi di attuazione del piano territoriale (lancio dell'agricoltura bioenergetica, rilancio della navigazione a corrente libera, avvio di una economia legata alla logistica del trasporto e dello stoccaggio delle biomasse, generazione di energia pulita, lotta alla subsidenza) il progetto, di fatto, consente di catturare ingenti quantitativi di CO2 dall'atmosfera e di segregarli nel sottosuolo, riducendo l'effetto serra. Nel corso del Dottorato e' stata sviluppata una metodologia di valutazione della sostenibilita' economica ed ambientale del progetto ad un bacino fluviale, che consta di una modulistica di raccolta dei dati di base e di una procedura informatizzata di analisi.
Resumo:
In dieser Arbeit wurde die Pigmentbindung verschiedener Pflanzenproteine untersucht, um daraus Rückschlüsse auf ihre Funktion zu ziehen. PsbS, die S-Untereinheit des Photosystems II, konnte mit Pigmenten isoliert werden. Es wurde kein Hinweis auf eine spezifische Wechselwirkung der Chromophore gefunden, Ergebnisse wie pigmentabhängig stärkere Helixbildung unterstützen jedoch die Vermutung, PsbS fungiere als transienter Pigmentcarrier. Die Sequenzverwandten OHP, Sep1 und Sep2 binden entweder keine Pigmente oder nur so schwach, dass eine Bindung mit den verwendeten Methoden nicht nachweisbar ist.WSCP aus Blumenkohl ist ein wasserlösliches chlorophyllbindendes Protein mit unbekannter Funktion. In dieser Arbeit wurde ein rekombinantes WSCP mit N-terminal angehängtem His-Tag hergestellt und überexprimiert. WSCP-his tetramerisiert pigmentabhängig und bindet Chlorophylle, nicht aber Carotinoide. In seinen biochemischen und spektroskopischen Eigenschaften gleicht das rekombinante dem nativen WSCP und kann als Werkzeug für Untersuchungen zur Funktion herangezogen werden. Rekonstitutionsexperimente mit Chlorophyll-Derivaten zeigten, dass der Phytolrest für die Oligomerisierung des Proteins verantwortlich ist. WSCP bindet außerdem die Chlorophyll-Vorstufen Chlorophyllid und Mg-Protoporphyrin IX. Es könnte sich um ein Carrierprotein handeln, welches die Vorstufen von der Chloroplastenhülle durch das Stroma zur Thylakoidmembran transportiert. Der Fall eines chlorophyllbindenden Pflanzenproteins ohne Carotinoide ist einmalig. Messungen zu Photostabilität und Singulettsauerstoffbildung zeigten, dass es dennoch gebundenes Chlorophyll vor photooxidativer Schädigung schützt.
Resumo:
Bei einer Risikoabschätzung bezüglich einer Gefährdung des Schutzgutes Grundwasser müssen alle relevanten Transportpfade, auf denen Schadstoffe durch die Bodenzone bis ins Grundwasser verlagert werden, identifiziert und quantifiziert werden. Die Verlagerung von Schadstoffen gebunden an mobile Partikel im Sickerwasser wird dabei oft vernachlässigt. In dieser Arbeit wurden sowohl experimentelle Untersuchungen zum Partikeltransport in der Bodenzone als auch Szenarienmodellierungen hinsichtlich der Wechselwirkung Partikel/Schadstoff durchgeführt. Die experimentellen ungesättigten Säulenversuche wurden unter naturnahen stationären und instationären hydraulischen und hydrochemischen Bedingungen durchgeführt. Dabei wurde der Einfluss der Parameter Durchmesser Bodenmatrix, Partikelgröße, Beregnungsintensität, Oberflächenspannung und Hydrochemie auf den Transport von natürlichen und synthetischen Partikeln untersucht. Des Weiteren wurden Untersuchungen zur partikelgebundenen Verlagerung von Phenanthren durchgeführt. In einer numerischen Szenarienmodellierung mit dem Modell SMART wurde untersucht, unter welchen Randbedingungen der Transport von Partikeln gleichzeitig zu signifikanten partikelgebundenen Schadstoffkonzentrationen im Grundwasser führt. Dabei wurden die Parameter Lithologie Partikel/Boden, Hydrophobizität Schadstoff, Partikelkonzentration, Partikeldurchmesser sowie Körnung Bodenmatrix variiert. Die Ergebnisse dieser Arbeit zeigen, dass der partikelgebundene Schadstofftransportpfad in der ungesättigten Bodenzone in verschiedenen Szenarien den Anteil mobiler Schadstoffe, die mit dem Sickerwasser ins Grundwasser gelangen, signifikant erhöht. Auf Basis der experimentellen und theoretischen Untersuchungen wurde ein zweistufiges Bewertungsschema entwickelt, das bereits im Vorfeld einer Risikoabschätzung als Entscheidungshilfe hinsichtlich der Relevanz einer Mobilisierung, eines Transports und des Rückhalts von partikelgebundenen Schadstoffen in der ungesättigten Zone dient.
Resumo:
In dieser Arbeit wird zum Erreichen hoher Kernspinpolarisationen die Methode des metastabilen optischen Pumpens benutzt. Das Verfahren beruht auf dem "Ubertrag des Drehimpulses absorbierter Photonen auf das hierbei angeregte Valenzelektron, welches durch Hyperfeinkopplung den Drehimpuls weiter auf den $^3$He-Kern transferiert. Da der Polarisationsprozess nur bei Dr"ucken von ca. 1~mbar effizient funktioniert, f"ur die meisten Anwendungen aber polarisiertes $^3$He bei einem Druck von $geq 1$~bar ben"otigt wird, muss das Gas nach der Aufpolarisation komprimiert werden. In unserer Arbeitsgruppe steht eine Maschine ("`Polarisator"') zur Verf"ugung, die das Gas polarisiert und anschlie"send komprimiert. Ziel dieser Dissertation ist, einerseits die Leistungsf"ahigkeit des Polarisators bez"uglich Maximalpolarisation und Gasfluss zu verbessern und andererseits den metastabilen Pumpprozess selbst genauer zu untersuchen.\ noindent Durch die Verwendung neuer Laser auf Basis der Fasertechnologie sowie einer systematischen Optimierung der optischen Komponenten konnten in abgeschlossenen Pumpzellen Rekord-Polarisationsgrade von $91pm 2$% erzielt werden.\ noindent Mit der Implementierung neuartiger Optiken und Laser am Mainzer Polarisator konnte die Leistungscharakteristik entscheidend verbessert werden. So wurde die erreichbare Polarisation bei identischer Produktionsrate um 20 Prozentpunkte gesteigert. Zurzeit sind maximale Polarisationsgrade von mehr als 75% im optischen Pumpvolumen erreichbar. Eine am Mainzer Triga-Reaktor durchgef"uhrte Polarisationsbestimmung ergab einen Wert von $72.7pm 0.7$%. Dies veranschaulicht die geringen Polarisationsverluste infolge der Gaskompression, des Transports und einer Lagerung "uber mehrere Stunden.\ noindent Zur Dynamik der geschwindigkeitsver"andernden St"o"se sowie zur Bestimmung der mittleren Photonen-Absorptionsrate wurde ein Modell entwickelt, welches auch experimentell best"atigt wurde. Damit konnte erstmalig das gemessene Absorptionsverhalten einer spektral schmalbandigen Laserdiode korrekt beschrieben werden.\ noindent Zudem stimmen die an so genannten abgeschlossenen Pumpzellen gemessenen extrem hohen Polarisationswerte mit theoretischen Vorhersagen "uberein, sofern der Druck im optischen Pumpvolumen geringer als 1~mbar ist und das $^3$He nicht durch Fremdgase verunreinigt ist. Bei derartigen Pumpzellen ist die gemessene Abh"angigkeit der Polarisation von Laserleistung, Metastabilendichte und falscher Zirkularkomponente mit der Theorie kompatibel.\
Resumo:
Der Bedarf an hyperpolarisiertem 3He in Medizin und physikalischer Grundlagenforschung ist in den letzten ca. 10-15 Jahren sowohl in Bezug auf die zu Verfügung stehende Menge, als auch auf den benötigten Grad der Kernspinpolarisation stetig gestiegen. Gleichzeitig mußten Lösungen für die polarisationserhaltende Speicherung und den Transport gefunden werden, die je nach Anwendung anzupassen waren. Als Ergebnis kann mit dieser Arbeit ein in sich geschlossenes Gesamtkonzept vorgestellt werden, daß sowohl die entsprechenden Mengen für klinische Anwendungen, als auch höchste Polarisation für physikalische Grundlagenfor-schung zur Verfügung stellen kann. Verschiedene unabhängige Polarimetriemethoden zeigten in sich konsistente Ergebnisse und konnten, neben ihrer eigenen Weiterentwicklung, zu einer verläßlichen Charakterisierung des neuen Systems und auch der Transportzellen und –boxen eingesetzt werden. Die Polarisation wird mittels „Metastabilem Optischen Pumpen“ bei einem Druck von 1 mbar erzeugt. Dabei werden ohne Gasfluß Werte von P = 84% erreicht. Im Flußbetrieb sinkt die erreichbare Polarisation auf P ≈ 77%. Das 3He kann dann weitgehend ohne Polarisationsver-luste auf mehrere bar komprimiert und zu den jeweiligen Experimenten transportiert werden. Durch konsequente Weiterentwicklung der vorgestellten Polarisationseinheit an fast allen Komponenten kann somit jetzt bei einem Fluß von 0,8 barl/h eine Polarisation von Pmax = 77% am Auslaß der Apparatur erreicht werden. Diese skaliert linear mit dem Fluß, sodaß bei 3 barl/h die Polarisation immer noch bei ca. 60% liegt. Dabei waren die im Rahmen dieser Arbeit durchgeführten Verbesserungen an den Lasern, der Optik, der Kompressionseinheit, dem Zwischenspeicher und der Gasreinigung wesentlich für das Erreichen dieser Polarisatio-nen. Neben dem Einsatz eines neuen Faserlasersystems ist die hohe Gasreinheit und die lang-lebige Kompressionseinheit ein Schlüssel für diese Leistungsfähigkeit. Seit Herbst 2001 er-zeugte das System bereits über 2000 barl hochpolarisiertes 3He und ermöglichte damit zahl-reiche interdisziplinäre Experimente und Untersuchungen. Durch Verbesserungen an als Prototypen bereits vorhandenen Transportboxen und durch weitgehende Unterdrückung der Wandrelaxation in den Transportgefäßen aufgrund neuer Erkenntnisse über deren Ursachen stellen auch polarisationserhaltende Transporte über große Strecken kein Problem mehr dar. In unbeschichteten 1 Liter Kolben aus Aluminosilikatglä-sern werden nun problemlos Speicherzeiten von T1 > 200h erreicht. Im Rahmen des europäi-schen Forschungsprojektes „Polarized Helium to Image the Lung“ wurden während 19 Liefe-rungen 70barl 3He nach Sheffield (UK) und bei 13 Transporten 100 barl nach Kopenhagen (DK) per Flugzeug transportiert. Zusammenfassend konnte gezeigt werden, daß die Problematik der Kernspinpolarisationser-zeugung von 3He, die Speicherung, der Transport und die Verwendung des polarisierten Ga-ses in klinischer Diagnostik und physikalischen Grundlagenexperimenten weitgehend gelöst ist und das Gesamtkonzept die Voraussetzungen für allgemeine Anwendungen auf diesen Gebieten geschaffen hat.
Resumo:
Im Rahmen meiner Dissertation untersuchte ich die intrazelluläre Lokalisation des Hämoglobin von Drosophila melanogaster, sowie von Neuroglobin und Cytoglobin der Vertebraten. Obwohl alle drei Globine erst kürzlich entdeckt wurden, liegen bereits Daten über ihre Struktur, ihre biochemischen Eigenschaften und die Lokalisation der mRNA vor. Ihre Funktionen konnten bisher jedoch nicht eindeutig geklärt werden. Das Globin von Drosophila melanogaster konnte mittels Westernblot sowohl in Larven als auch adulten Fliegen nachgewiesen werden. Ebenso war es mir möglich, mittels Immunperoxidaseuntersuchungen die Tracheen, die Terminalzellen der Tracheolen sowie die Fettkörperzellen als Ort der Globinexpression in Drosophila zu identifizieren. Diese Daten deuten darauf hin, dass dieses Globin eine Funktion als Sauerstoffpuffer, der sowohl Sauerstoff speichert als auch transportiert, hin. Damit würde das Drosophila Globin eine zu anderen Insektenglobinen vergleichbare Funktion übernehmen. Zum ersten Mal konnte gezeigt werden, dass Neuroglobin auch in der neuronalen Netzhaut von Säugern und Fischen vorkommt. Des Weiteren konnte Neuroglobin in der Retina zellulär sowie subzellulär lokalisiert werden. In der avaskulären Mäuseretina wurde Neuroglobin neben den Innensegmenten der Photorezeptorzellen, auch noch in den beiden plexiformen Schichten sowie in der Ganglienzellschicht gefunden. Die gezeigte Kolokalisation dieses intrazellulären Globins mit Mitochondrien und somit auch mit den Orten des höchsten Sauerstoffbedarfs in der Retina deutet auf eine Funktion im Sauerstofftransport zu den Mitochondrien hin. Des Weiteren könnte Neuroglobin auch als Sauerstoffspeicher dienen, der es Neuronen ermöglicht, kurzfristige hypoxische Bedingungen unbeschadet zu überstehen. Andere mögliche Funktionen wie z.B. die als Detoxifizierer von reaktiven Sauerstoff- bzw. Sickstoffverbindungen, als Sauerstoffsensor, sowie als terminale Oxidase erscheinen durch die gezeigten Daten eher unwahrscheinlich. Die bisherige Annahme, dass Cytoglobin ein ubiquitär exprimiertes Protein ist, konnte von mir nicht bestätigt werden. Für nichtneuronale Gewebe konnte gezeigt werden, dass Cytoglobin lediglich auf das Cytoplasma von Fibroblasten und ontogenetisch verwandte Zelltypen wie Osteoblasten, Chondroblasten und Sternzellen beschränkt ist. Möglicherweise hat Cytoglobin dort eine Funktion in der Kollagensynthese. Ferner wird Cygb cytoplasmatisch und nukleär in einigen Neuronen der Retina und des Gehirns exprimiert. Dort könnte Cygb z.B. nukleäre Enzyme wie die NO-Synthase mit Sauerstoff versorgen. Andere Funktionen scheinen aufgrund meiner Daten im Moment unwahrscheinlich.
Resumo:
Der Wintersturm Lothar zog am 26. Dezember 1999 über Europa und richtete in Frankreich, in Deutschland, in der Schweiz und in Österreich ungewöhnlich hohe Schäden an. Lothar entstand aus einer diabatischen Rossby Welle (DRW) und erreichte erst wenige Stunden vor dem europäischen Kontinent Orkanstärke. DRWs weisen ein interessantes atmosphärisches Strömungsmuster auf. Sie bestehen aus einer positiven PV-Anomalie in der unteren Troposphäre, die sich in einer Region mit starkem meridionalen Temperaturgradient befindet. Die positive PV-Anomalie löst eine zyklonale Strömung aus, dadurch wird östlich der PV-Anomalie warme Luft aus dem Süden herantransportiert. Während des Aufstieg der warmen Luft finden diabatische Prozesse statt, die zur Bildung einer neuen positiven PV-Anomalie in der unteren Troposphäre (PVA) führen. DRWs entstehen unabhängig von PV-Anomalien an der Tropopause. Falls sie jedoch mit ihnen in Wechselwirkung treten, kann - wie im Falle von Lothar - eine explosive Zyklogenese daraus resultieren. Im ersten Teil wird die Dynamik einer DRW am Beispiel des Wintersturms Lothar untersucht. Es wird insbesondere auf das Potential einer DRW zur explosiven Zyklogenese eingegangen. Im zweiten Teil wird das Aufretreten von DRWs in ECMWF-Vorhersagen untersucht. Es werden Unterschiede zwischen DRWs und anderen PV-Anomalien in der unteren Troposphäre hervorgehoben. Die Dynamik von DRWs wird mit Hilfe eines ECMWF-"Ensemble Prediction System" (EPS) des Wintersturms Lothar untersucht. Die 50 Modellläufe des EPS starten am 24. Dezember 1999 um 12 UTC und reichen bis zum 26. Dezember 1999 um 12 UTC. Nur 16 der 50 Modellläufe sagen einen ähnlich starken Sturm wie Lothar vorher. 10 Modellläufen sagen am 26. Dezember keine Zyklone mehr vorher. Die Ausprägung der baroklinen Zone, in der sich die DRW befindet, ist ausschlaggebend für die Intensität der DRW. Weitere wichtige Parameter sind der Feuchtegehalt der unteren Troposphäre und der latente Wärmefluss über dem Ozean. Diejenigen DRWs, die sich zu am 25. Dezember um 12 UTC näher als 400 km am Tropopausenjet befinden, entwickeln sich zu einer starken Zyklone. Alle anderen lösen sich auf oder bleiben schwache Zyklonen. Es ist schwierig, diabatische Prozesse in Wettervorhersagemodellen abzubilden, dementsprechend treten Schwierigkeiten bei der Vorhersage von PVAs auf. In den operationellen ECMWF-Vorhersagen von Juni 2004 bis Mai 2005 werden mit Hilfe eines Tracking- Algorithmus PVAs im Nordpazifik und Nordatlantik bestimmt und in fünf Kategorien eingeteilt. Die fünf Kategorien unterscheiden sich in ihrer Häufigkeit, ihrer Zugbahn und ihrer Gestalt. Im Nordpazifik entstehen doppelt so viele PVAs wie im Nordatlantik. Durchschnittlich werden im Winter weniger PVAs gefunden als im Sommer. Die Baroklinität und die Geschwindigkeit des Tropopausenjets ist in der Nähe von DRWs besonders hoch. Verglichen mit anderen PVAs weisen DRWs eine ähnliche Verteilung des reduzierten Bodendrucks auf. DRWs können in etwa gleich gut vorhergesagt werden wie andere PVAs.
Resumo:
A numerical model for studying the influences of deep convective cloud systems on photochemistry was developed based on a non-hydrostatic meteorological model and chemistry from a global chemistry transport model. The transport of trace gases, the scavenging of soluble trace gases, and the influences of lightning produced nitrogen oxides (NOx=NO+NO2) on the local ozone-related photochemistry were investigated in a multi-day case study for an oceanic region located in the tropical western Pacific. Model runs considering influences of large scale flows, previously neglected in multi-day cloud resolving and single column model studies of tracer transport, yielded that the influence of the mesoscale subsidence (between clouds) on trace gas transport was considerably overestimated in these studies. The simulated vertical transport and scavenging of highly soluble tracers were found to depend on the initial profiles, reconciling contrasting results from two previous studies. Influences of the modeled uptake of trace gases by hydrometeors in the liquid and the ice phase were studied in some detail for a small number of atmospheric trace gases and novel aspects concerning the role of the retention coefficient (i.e. the fraction of a dissolved trace gas that is retained in the ice phase upon freezing) on the vertical transport of highly soluble gases were illuminated. Including lightning NOx production inside a 500 km 2-D model domain was found to be important for the NOx budget and caused small to moderate changes in the domain averaged ozone concentrations. A number of sensitivity studies yielded that the fraction of lightning associated NOx which was lost through photochemical reactions in the vicinity of the lightning source was considerable, but strongly depended on assumptions about the magnitude and the altitude of the lightning NOx source. In contrast to a suggestion from an earlier study, it was argued that the near zero upper tropospheric ozone mixing ratios which were observed close to the study region were most probably not caused by the formation of NO associated with lightning. Instead, it was argued in agreement with suggestions from other studies that the deep convective transport of ozone-poor air masses from the relatively unpolluted marine boundary layer, which have most likely been advected horizontally over relatively large distances (both before and after encountering deep convection) probably played a role. In particular, it was suggested that the ozone profiles observed during CEPEX (Central Equatorial Pacific Experiment) were strongly influenced by the deep convection and the larger scale flow which are associated with the intra-seasonal oscillation.
Resumo:
Ocean Island Basalts (OIB) provide important information on the chemical and physical characteristics of their mantle sources. However, the geochemical composition of a generated magma is significantly affected by partial melting and/or subsequent fractional crystallization processes. In addition, the isotopic composition of an ascending magma may be modified during transport through the oceanic crust. The influence of these different processes on the chemical and isotopic composition of OIB from two different localities, Hawaii and Tubuai in the Pacific Ocean, are investigated here. In a first chapter, the Os-isotope variations in suites of lavas from Kohala Volcano, Hawaii, are examined to constrain the role of melt/crust interactions on the evolution of these lavas. As 187Os/188Os sensitivity to any radiogenic contaminant strongly depend on the Os content in the melt, Os and other PGE variations are investigated first. This study reveals that Os and other PGE behavior change during the Hawaiian magma differentiation. While PGE concentrations are relatively constant in lavas with relatively primitive compositions, all PGE contents strongly decrease in the melt as it evolved through ~ 8% MgO. This likely reflects the sulfur saturation of the Hawaiian magma and the onset of sulfide fractionation at around 8% MgO. Kohala tholeiites with more than 8% MgO and rich in Os have homogeneous 187Os/188Os values likely to represent the mantle signature of Kohala lavas. However, Os isotopic ratios become more radiogenic with decreasing MgO and Os contents in the lavas, which reflects assimilation of local crust material during fractional crystallization processes. Less than 8% upper oceanic crust assimilation could have produced the most radiogenic Os-isotope ratios recorded in the shield lavas. However, these small amounts of upper crust assimilation have only negligible effects on Sr and Nd isotopic ratios and therefore, are not responsible for the Sr and Nd isotopic heterogeneities observed in Kohala lavas. In a second chapter, fractional crystallization and partial melting processes are constrained using major and trace element variations in the same suites of lavas from Kohala Volcano, Hawaii. This inverse modeling approach allows the estimation of most of the trace element composition of the Hawaiian mantle source. The calculated initial trace element pattern shows slight depletion of the concentrations from LREE to the most incompatible elements, which indicates that the incompatible element enrichments described by the Hawaiian melt patterns are entirely produced by partial melting processes. The “Kea trend” signature of lavas from Kohala Volcano is also confirmed, with Kohala lavas having lower Sr/Nd and La/Th ratios than lavas from Mauna Loa Volcano. Finally, the magmatic evolution of Tubuai Island is investigated in a last chapter using the trace element and Sr, Nd, Hf isotopic variations in mafic lava suites. The Sr, Nd and Hf isotopic data are homogeneous and typical for the HIMU-type OIB and confirms the cogenetic nature of the different mafic lavas from Tubuai Island. The trace element patterns show progressive enrichment of incompatible trace elements with increasing alkali content in the lavas, which reflect progressive decrease in the degree of partial melting towards the later volcanic events. In addition, this enrichment of incompatible trace elements is associated with relative depletion of Rb, Ba, K, Nb, Ta and Ti in the lavas, which require the presence of small amount of residual phlogopite and of a Ti-bearing phase (ilmenite or rutile) during formation of the younger analcitic and nephelinitic magmas.
Resumo:
Seit der Entdeckung des Golgi-Apparates im Jahre 1898 wurden seine Struktur, seine enzymatische Zusammensetzung und die Dynamik des in ihm stattfindenden Proteintransports intensiv untersucht. Dennoch blieben bis heute wesentliche Fragen zu seiner Funktionsweise unbeantwortet. So existieren nach wie vor mehrer konkurrierende Modelle zur Organisation der hoch komplexen räumlichen Verteilung seiner Enzyme sowie zum grundlegenden Mechanismus des Intra-Golgi Transports. Die Beantwortung dieser und weiterer Fragen ist für das Verständnis des Golgi-Apparates essentiell, aber aus methodischen Gründen höchst schwierig, da es bisher nicht möglich war die Struktur und Dynamik des Golgi-Apparates lebender Zellen mit der hierfür notwendigen Auflösung und Geschwindigkeit zu untersuchen. Bis heute gibt es für die funktionsmorphologischen Untersuchungen des Golgi-Apparates lebender Zellen keine echte Alternative zur Fernfeld- Fluoreszenzmikroskopie. Das MMM-4Pi-Mikroskop ermöglicht als erstes Fluoreszenzmikroskop, aufgrund seiner Auflösung von ~200 nm in der Fokalebene und 100-150 nm entlang der optischen Achse, die Untersuchung der Subkompartimente des Golgi-Apparates und kann, aufgrund seiner hohen Aufnahmegeschwindigkeit von 0.5 Hz, die Dynamik des Intra-Golgi Transports zeitlich auflösen. Ziel dieser Arbeit war es daher, den Golgi-Apparate lebender Zellen in zwei Farben sowie mit einer bisher nicht möglichen räumlichen und zeitlichen Auflösung zu untersuchen. Um die Leistungsfähigkeit der dreidimensionalen Bildgebung dieser Methode zu überprüfen, wurde erstmals der Golgi-Apparat fixierter Säugerzellen korrelativ mit dem Transmissionselektronenmikroskop und dem MMM-4Pi-Mikroskop aufgenommen. Die rekonstruierten Strukturen korrelierten in allen drei Raumrichtungen zu über 80%, was die Validität beider Methoden eindrucksvoll unter Beweis stellt. Zudem konnten mit dem MMM-4Pi-Mikroskop Aussackungen von Golgi-Cisternen aufgelöst werden, was die Eignung dieser Methode zur strukturellen Analyse der Subkompartimente des Golgi-Apparates unterstreicht. Des Weiteren wurde, in einer Reihe zweifarbiger Aufnahmeserien, die Verteilung dreier Golgi-Enzyme in lebenden Säugerzellen untersucht, und ihre mittlere relative Distanz bestimmt. Ihre aus der Literatur bekannten Lokalisationen konnten in zwei Fällen bestätigt (GalT, MannII) und in einem Fall korrigiert werden (2-OST). Im Gegensatz zu der konfokal bestimmten Cis-/Mid-Lokalisation von 2-OST zeigen die Ergebnisse der hoch aufgelösten Distanzanalyse deutlich, dass eine Mid-/Trans-Lokalisation vorliegt. Dieses Ergebnis wurde elektronenmikroskopisch überprüft und bestätigt. Da die räumliche Anordnung der Golgi-Enzyme die Reihenfolge ihrer Akitvität wiederspiegelt, ist eine möglichst präzise Bestimmung ihrer Konzentrationsverteilungen essentiell, um die Funktion des Golgi-Apparates zu verstehen. Insbesondere zeigt dieses Resultat, dass die Bestimmung der Lokalisation von Golgi-Enzymen über konfokale Kolokalisationsstudien zu falschen Ergebnissen führen kann. Die Kombination hoher räumlicher Auflösung mit einer schnellen Datenaufnahme erlaubte die Analyse der Transportdynamik innerhalb des Golgi-Apparates von Säugerzellen. In mehreren Zeitserien zweifarbiger Aufnahmen wurde der Transport des Frachtproteins VSVG relativ zum Trans-Golgi-Marker GalT untersucht. Dabei zeigte sich, dass das Trans-Golgi-Kompartiment in einigen Fällen durch eine deutliche Formänderung auf die Ankunft eines VSVG-Transportpulses reagierte und sich insgesamt wesentlich dynamischer verhielt als der Transportpuls selbst. Diese Beobachtung bestätigt tendenziell Transportmodelle, die den Golgi-Apparat nicht als statisches, sondern als dynamisches, aktiv am Transport beteiligtes Organell beschreiben. Die hier vorgestellten Experimente stellen die ersten Untersuchungen zur Verteilung von Golgi-Enzymen sowie zur Transportdynamik des Golgi-Apparates lebender Zellen mit einer dreidimensionalen Auflösung im Bereich von 100-200 nm dar. Wie am Beispiel von 2 OST gezeigt, ist es mit dem MMM-4Pi-Mikroskop allgemein möglich, die Lokalisation von Golgi-Enzymen wesentlich präziser als bisher zu bestimmen. Bei der Untersuchung dynamischer Prozesse ist in naher Zukunft eine Steigerung der Leistungsfähigkeit der Methode zu erwarten. Zum einen werden CCD-Kameras mit kürzeren Auslesezeiten und einer elektronischen Verstärkung des Signals die Datenaufnahme weiter beschleunigen. Zum anderen könnte durch die Entwicklung eines parallelisierten Mikroskops mit Einphotonen-Anregung das Bleichen konsekutiver Aufnahmen verringert werden, wodurch längere Aufnahmeserien möglich sein werden.
Resumo:
Questa dissertazione tratterà l’argomento dello studio di metodi di progettazione e processi tecnologici innovativi per l’industrializzazione in medio-grande serie di componenti strutturali in materiale composito. L’interesse della ricerca verso questo ambito è suscitato dai notevoli vantaggi che l’utilizzo di materiali dall’alto rapporto prestazioni meccaniche/peso danno nella ricerca di elevate prestazioni in applicazioni sportive e diminuzione dei consumi ed emissioni inquinanti in mezzi di trasporto di grande serie. Lo studio di componenti in materiale composito è caratterizzato dalla peculiarità di non poter disgiungere la progettazione della geometria della parte da quella del materiale e del processo, ed in questo senso nella figura del progettista si vanno a riassumere sinergicamente competenze riguardanti i tre ambiti. Lo scopo di questo lavoro è la proposizione di una metodologia di progettazione e produzione di componenti strutturali che permetta l’utilizzazione ottimale della natura fibrosa del materiale composito sia dal punto di vista del trasferimento dei carichi tra diversi componenti, sia dal punto di vista del processo di laminazione che avviene per nastratura automatizzata. Lo studio è volto a mostrare in quali termini tale tecnologia sia potenzialmente in grado di superare i vincoli di forma ed i limiti di efficienza meccanica delle giunzioni tra le parti e di garantire maggiore produttività e costi inferiori rispetti ai diversi metodi di produzione che rappresentano oggi lo stato dell’arte dell’industrializzazione in medio-grande serie. Particolare attenzione verrà posta sull’utilizzo della tecnologia oggetto di studio per la produzione di telai automobilistici.
Resumo:
Im Rahmen dieser Arbeit wurden drei neue Modelle zur funktionellen Mimiese biologischer Membranen im Bereich der Bionanotechnologie entwickelt. Um den Rahmen der notwendigen Faktoren und Komponenten für biomimetische Membranmodelle abzustecken, wurde das biologische Vorbild im Bezug auf Zusammensetzung, Organisation und Funktion analysiert. Die daraus abgeleiteten Erkenntnisse erlauben das Erreichen von biologisch relevanten Membranwiderständen im Bereich von mehreren MOhm cm2 und eine gute lokale Fluidität. Ein weiteres Ziel dieser Arbeit war die Entwicklung einer Hierachie unterschiedlich stark von der Festkörperoberfläche entkoppelter Membranen zur Vergrößerung des submembranen Raumes. Diese Ziele konnten realisiert werden. Das auf archaealen Etherlipiden basierende DPTL-System wurde analog dem biologischen Vorbild stereoselektiv synthetisiert und ist in der Lage die Membran bei maximaler Elongation des TEG-Spacers mit mehr als 2 nm von der Oberfläche zu entkoppeln. Die erzielten Wiederstände liegen im hohen ein- bis zweistelligen MOhm-Bereich, die Kapazität entspricht mit 0,5 µF cm-2 ebenfalls dem Wert biologischer Membranen. Die Membraneigenschaften wurden mit Hilfe von SPS, EIS, IR-Spektroskopie, QCM, AFM und Kontaktwinkelmessungen charakterisiert. Die Funktionalität und lokale Fluidität der DPTL-Membran konnte anhand des Valinomycin vermittelten K+-Transports über die Membran gezeigt werden. Fluide Elektroden oder laterale Verdünnung mit TEGL erlauben den Einbau größerer Ionenkanäle. Lipo-Glycopolymere (LGP) mit unterschiedlichen Kettenlängen wurden mit Hilfe der kontrollierten radikalischen Polymerisation mit einer PD < 1.2 synthetisiert. Es zeigte sich, daß die Vororientierung der LGPs auf dem LB-Trog, gefolgt von einem LB-Übertrag auf einen funktionalisierten Träger mit photoreaktivem SAM, nach Belichten des Systems zu einer verlässlichen kovalenten Anbindung der supramolekularen LGP-Architektur führt. Da die Lipo-Glycopolymerketten am Glycopolymerterminus nur mit oberflächennahen Repetiereinheiten an die photoaktivierte Oberfläche binden, sind sie in der Lage Oberflächenrauhigkeiten des Festkörpersubstrates auszugleichen. Die photochemische Immobilisierung von funktionell orientierten supramolekularen LGP-Architekturen auf Goldoberflächen resultiert in tBLMs mit großen vertikalen Enkopplungen der Membran von der Festkörperoberfläche (>8 nm). Der funktionelle Ionentransport von Kaliumionen durch Valinomycin zeigt eine ausreichende lokale Fluidität der Membran die mit einem guten Membranwiderstand (mehrere MOhm) kombiniert ist. Große Membran-Oberflächenentkopplungen konnten mit Hilfe plasmapolymerisierter elektrophiler Polymere erreicht werden. Filmdicken von 50 nm sind mit homogener Oberfläche und Rauhigkeiten im Bereich von Nanometern möglich. Das System zeigt interessante fluide Eigenschaften mit guten Erholungsraten bei FRAP-Experimenten (Diffusionskonstanten von etwa 17 mikro m2 s-1). Die elektrischen Eigenschaften liegen mit Widerständen von wenigen kOhm unterhalb der für gute Membranmimikrie notwendigen Werte. Erstmalig konnte gezeigt werden, daß mit Hilfe dieser Methode inerte Polymere/Plastikträger (zum Beispiel Polypropylen und TOPAS) in effizienter Weise kovalent mit reaktiven Polymeroberflächen modifiziert werden können (Anwendung als DNA-Chip ist beschrieben).