321 resultados para Lepismium lineare
Resumo:
Biologische Membranen sind Fettmolekül-Doppelschichten, die sich wie zweidimensionale Flüssigkeiten verhalten. Die Energie einer solchen fluiden Oberfläche kann häufig mit Hilfe eines Hamiltonians beschrieben werden, der invariant unter Reparametrisierungen der Oberfläche ist und nur von ihrer Geometrie abhängt. Beiträge innerer Freiheitsgrade und der Umgebung können in den Formalismus mit einbezogen werden. Dieser Ansatz wird in der vorliegenden Arbeit dazu verwendet, die Mechanik fluider Membranen und ähnlicher Oberflächen zu untersuchen. Spannungen und Drehmomente in der Oberfläche lassen sich durch kovariante Tensoren ausdrücken. Diese können dann z. B. dazu verwendet werden, die Gleichgewichtsposition der Kontaktlinie zu bestimmen, an der sich zwei aneinander haftende Oberflächen voneinander trennen. Mit Ausnahme von Kapillarphänomenen ist die Oberflächenenergie nicht nur abhängig von Translationen der Kontaktlinie, sondern auch von Änderungen in der Steigung oder sogar Krümmung. Die sich ergebenden Randbedingungen entsprechen den Gleichgewichtsbedingungen an Kräfte und Drehmomente, falls sich die Kontaktlinie frei bewegen kann. Wenn eine der Oberflächen starr ist, muss die Variation lokal dieser Fläche folgen. Spannungen und Drehmomente tragen dann zu einer einzigen Gleichgewichtsbedingung bei; ihre Beiträge können nicht mehr einzeln identifiziert werden. Um quantitative Aussagen über das Verhalten einer fluiden Oberfläche zu machen, müssen ihre elastischen Eigenschaften bekannt sein. Der "Nanotrommel"-Versuchsaufbau ermöglicht es, Membraneigenschaften lokal zu untersuchen: Er besteht aus einer porenüberspannenden Membran, die während des Experiments durch die Spitze eines Rasterkraftmikroskops in die Pore gedrückt wird. Der lineare Verlauf der resultierenden Kraft-Abstands-Kurven kann mit Hilfe der in dieser Arbeit entwickelten Theorie reproduziert werden, wenn der Einfluss von Adhäsion zwischen Spitze und Membran vernachlässigt wird. Bezieht man diesen Effekt in die Rechnungen mit ein, ändert sich das Resultat erheblich: Kraft-Abstands-Kurven sind nicht länger linear, Hysterese und nichtverschwindende Trennkräfte treten auf. Die Voraussagen der Rechnungen könnten in zukünftigen Experimenten dazu verwendet werden, Parameter wie die Biegesteifigkeit der Membran mit einer Auflösung im Nanometerbereich zu bestimmen. Wenn die Materialeigenschaften bekannt sind, können Probleme der Membranmechanik genauer betrachtet werden. Oberflächenvermittelte Wechselwirkungen sind in diesem Zusammenhang ein interessantes Beispiel. Mit Hilfe des oben erwähnten Spannungstensors können analytische Ausdrücke für die krümmungsvermittelte Kraft zwischen zwei Teilchen, die z. B. Proteine repräsentieren, hergeleitet werden. Zusätzlich wird das Gleichgewicht der Kräfte und Drehmomente genutzt, um mehrere Bedingungen an die Geometrie der Membran abzuleiten. Für den Fall zweier unendlich langer Zylinder auf der Membran werden diese Bedingungen zusammen mit Profilberechnungen kombiniert, um quantitative Aussagen über die Wechselwirkung zu treffen. Theorie und Experiment stoßen an ihre Grenzen, wenn es darum geht, die Relevanz von krümmungsvermittelten Wechselwirkungen in der biologischen Zelle korrekt zu beurteilen. In einem solchen Fall bieten Computersimulationen einen alternativen Ansatz: Die hier präsentierten Simulationen sagen voraus, dass Proteine zusammenfinden und Membranbläschen (Vesikel) bilden können, sobald jedes der Proteine eine Mindestkrümmung in der Membran induziert. Der Radius der Vesikel hängt dabei stark von der lokal aufgeprägten Krümmung ab. Das Resultat der Simulationen wird in dieser Arbeit durch ein approximatives theoretisches Modell qualitativ bestätigt.
Rituali indigeni in Mesoamerica. La festa di Petición de Lluvias nella Montaña di Guerrero (Messico)
Resumo:
Questa tesi di carattere antropologico in ambito dottorale riguarda i rituali comunitari nelle comunità indigene messicane. Il principale oggetto della ricerca è il rituale della pioggia o di Petición de Lluvia, caratterizzato sia dal sacrificio animale che da una specifica relazione di causa-effetto con l’ambiente circostante. La ricerca etnografica è cominciata dall’ipotesi di voler verificare la persistenza nel tempo, e dunque nell’attualità, di procedure cerimoniali non appartenenti, almeno nella loro forma più lineare, alla religione cattolico-cristiana. Il luogo nel quale è avvenuta tale ricerca è la regione La Montaña di Guerrero, situata nel Messico sud-occidentale, e più precisamente la zona in cui vivono le comunità di etnia Nahua di San Pedro Petlacala, Acuilpa, e Xalpatláhuac che si trovano nelle vicinanze della cittadina di Tlapa de Comonfort. In un contesto ambientale profondamente rurale come quello della Montaña di Guerrero, la persistenza dei rituali evidenzia come le risorse naturali e gli agenti atmosferici - pioggia, vento, nubi - continuino a rappresentare gli elementi centrali che condizionano le variabili economiche di sussistenza e della riproduzione sociale. Il rituale di Petición de Lluvia rappresenta il momento di congiunzione tra la stagione secca e quella piovosa, tra la semina ed il raccolto del mais. Definito come una pratica religiosa nella quale il gruppo si identifica e partecipa con varie donazioni (ofrenda o deposito rituale), suddivisibili in alimenti/oggetti/preghiere ed azioni rituali, la cerimonia esprime l’auspicio di piogge abbondanti, con le quali irrigare i campi e continuare le attività umane. Il destinatario dell’offerta è la stessa divinità della pioggia, Tlaloc per le antiche civiltà mesoamericane, invocato sotto le mentite spoglie del santo patrono del 25 aprile, San Marcos. Il rituale è contraddistinto per tutta la sua durata dalla presenza del principale specialista religioso, sacerdote in lingua spagnola oppure «Tlahmáquetl» in lingua náhuatl.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Il presente lavoro trae origine dagli obiettivi e dalle relative misure applicative della riforma dell’OCM zucchero del 2006 e nello specifico dal Piano nazionale per la razionalizzazione e riconversione della produzione bieticolo-saccarifera approvato dal MIPAF nel 2007. Lo studio riguarda la riconversione dello zuccherificio di Finale Emilia (MO), di appartenenza del Gruppo bieticolo-saccarifero Co.Pro.B, in un impianto di generazione di energia elettrica e termica che utilizza biomassa di origine agricola per la combustione diretta. L'alimentazione avviene principalmente dalla coltivazione dedicata del sorgo da fibra (Sorghum bicolor), integrata con risorse agro-forestali. Lo studio mostra la necessità di coltivazione di 4.400 ettari di sorgo da fibra con una produzione annua di circa 97.000 t di prodotto al 75% di sostanza secca necessari per l’alimentazione della centrale a biomassa. L’obiettivo é quello di valutare l’impatto della nuova coltura energetica sul comprensorio agricolo e sulla economia dell’impresa agricola. La metodologia adottata si basa sulla simulazione di modelli aziendali di programmazione lineare che prevedono l’inserimento del sorgo da fibra come coltura energetica nel piano ottimo delle aziende considerate. I modelli predisposti sono stati calibrati su aziende RICA al fine di riprodurre riparti medi reali su tre tipologie dimensionali rappresentative: azienda piccola entro i 20 ha, media da 20 a 50 ha e grande oltre i 50 ha. La superficie di entrata a livello aziendale, se rapportata alla rappresentatività delle aziende dell’area di studio, risulta insufficiente per soddisfare la richiesta di approvvigionamento dell’impianto a biomassa. Infatti con tale incremento la superficie di coltivazione nel comprensorio si attesta sui 2.500 ettari circa contro i 4.400 necessari alla centrale. Lo studio mostra pertanto che occorre un incentivo superiore, di circa 80-90 €/ha, per soddisfare la richiesta della superficie colturale a livello di territorio. A questi livelli, la disponibilità della coltura energetica sul comprensorio risulta circa 9.500 ettari.
Resumo:
In dieser Doktorarbeit werden die Eigenschaften von thermoresponsiven Bürstenpolymeren untersucht. Hierbei konnten erstmalig thermische Konformationsübergänge von zylindrischen Bürstenmolekülen auf Oberflächen beobachtet werden. Der Einfluss der Oberfläche auf die Umkehrbarkeit und die Kinetik der Übergänge wurde untersucht. Die dabei erhaltenen Erkenntnisse konnten verwendet werden, um das Verhalten der Polymere auf anderen Oberflächen vorherzusagen. Im zweiten Projekt wurde gezeigt, dass Einzelmolekül-Kraftspektroskopie eine gute Methode für die Untersuchung der mechanischen Eigenschaften von Bürstenpolymeren in guten Lösungsmitteln ist. Mit kleinen Substanzmengen kann die Persistenzlänge der Polymere bestimmt werden. Es ist möglich zu zeigen, dass die Persistenzlänge der Polymerbürsten von ihrer Seitenkettenlänge abhängt. Überraschenderweise funktioniert das Experiment nicht, wenn man die Bürsten aus einem Polymerfilm zieht anstatt ein Einzelmolekülexperiment durchzuführen. In diesem Fall zeigen die Kraft-Abstands-Kurven zu lange Kontur- und Persistenzlängen. Diese Beobachtung ist für lineare Polymere nicht gültig. Im dritten Teil der Doktorarbeit werden Kraft-Abstands-Experimente an einzelnen kollabierten Polymeren untersucht. In schlechten Lösungsmitteln zeigen die Bürsten ein moleküllängenabhängiges Kraft-Plateau, welches theoretisch vorausgesagt wurde und einen Phasenübergang von einem kollabierten zu einem entspannten Zustand der Polymerkette anzeigt. In Fly-Fishing-Experimenten kann man eine Hysterese zwischen den beiden Messkurven beobachten, welche bei mehrfachem Ziehen kleiner wird. Alle Experimente in schlechten Lösungsmitteln wurden mit linearen Polymeren reproduziert, um den Einfluss der Molekülarchitektur von den generellen Eigenschaften von Polymeren in schlechten Lösungsmitteln unterscheiden zu können. Zum Abschluss wird die Abhängigkeit der Polymerentfaltung von der Laderate des Experiments gemessen.
Resumo:
„Photovernetzbare flüssigkristalline Polymere unterschiedlicher Kettentopologien“, Patrick Beyer, Mainz 2007 Zusammenfassung In der vorliegenden Arbeit wurde die Synthese und Charakterisierung flüssigkristalliner Elastomere unterschiedlicher Polymertopologien vorgestellt. Dabei wurden Systeme synthetisiert, bei denen die mesogenen Einheiten entweder als Seitengruppen an ein Polymerrückgrat angebunden (Seitenkettenelastomere) oder direkt in die Polymerkette integriert (Hauptkettenelastomere) sind (siehe Abbildung). Bezüglich der Seitenkettensysteme konnten erstmals photovernetzbare smektische Seitenkettenpolymere, in denen aufgrund der Anknüpfung eines photoisomerisierbaren Azobenzols eine Photo- modulation der ferroelektrischen Eigenschaften möglich ist, dargestellt werden. Homöotrop orientierte freistehende Filme dieser Materialien konnten durch Spincoaten dargestellt und unter Ausnutzung des Dichroismus der Azobenzole durch geeignete Wahl der Bestrahlungsgeometrie photovernetzt werden. Aufbauend auf diesen Untersuchungen wurde anhand eines nicht vernetzbaren Modellsystems im Detail der Einfluss der trans-cis Isomerisierung des Azobenzols auf die ferroelektrischen Parameter untersucht. Durch zeitaufgelöste Messungen der Absorption der Azobenzole, der spontanen Polarisation und des Direktorneigungswinkels und Auswertung der kinetischen Prozesse konnte eine lineare Abhängigkeit der ferroelektrischen Eigenschaften vom Grad der Isomerisierungsreaktion festgestellt werden. Durch Vergleich dieser in der flüssigkristallinen Phase erhaltenen Ergebnisse mit der Kinetik der thermischen Reisomerisierung in Lösung (Toluol) konnte ferner eine deutliche Reduzierung der Relaxationszeiten in der anisotropen flüssigkristallinen Umgebung festgestellt und auf eine Absenkung der Aktivierungsenergie zurückgeführt werden. Makroskopische Formänderungen der Seitenkettenelastomere am Phasenübergang von der flüssigkristallinen in die isotrope Phase konnten jedoch nicht festgestellt werden. Aus diesem Grund wurden neue Synthesestrategien für die Darstellung von Hauptkettenelastomeren entwickelt, die sich aufgrund der direkten Kopplung von flüssigkristallinem Ordnungsgrad und Polymerkettenkonformation besser für die Herstellung thermischer Aktuatoren eignen. Auf Basis flüssigkristalliner Polymalonate konnten dabei lateral funktionalisierte smektische Hauptkettenpolymere synthetisiert werden, welche erstmals die Darstellung von LC-Hauptkettenelastomeren durch Photovernetzung in der flüssigkristallinen Phase erlauben. Durch laterale Bromierung konnte in diesen Systemen die Kristallisationstendenz der verwendeten Biphenyleinheiten unterdrückt werden. Bezüglich der Photovernetzung konnten zwei neue Synthesemethoden entwickelt werden, bei denen der Vernetzungsschritt entweder durch radikalische Polymerisation lateral angebundener Acrylatgruppen oder durch photoaktive Benzophenongruppen erfolgte. Basierend auf den Benzophenon funktionalisierten Systemen konnte ein neuartiges Verfahren zur Darstellung makroskopisch orientierter Hauptkettenelastomere durch Photovernetzung entwickelt werden. Die Elastomerproben, deren Ordnungsgrad durch Röntgenuntersuchungen ermittelt werden konnte, zeigen am Phasenübergang von der flüssigkristallinen in die isotrope Phase eine reversible Formänderung von 40%. Im Gegensatz zu anderen bekannten smektischen Systemen konnten die in dieser Arbeit vorgestellten Elastomere ohne Zerstörung der Phase bis zu 60% entlang der smektischen Schichtnormalen gestreckt werden, was im Kontext einer geringen Korrelation der smektischen Schichten in Hauptkettenelastomeren diskutiert wurde.
Resumo:
Die regionale Bestimmung der Durchblutung (Perfusion) ermöglicht differenzierte Aussagen über den Gesundheitszustand und die Funktionalität der Lunge. Durch neue Messverfahren ermöglicht die Magnetresonanztomographie (MRT) eine nicht-invasive und strahlungsfreie Untersuchung der Perfusion. Obwohl die Machbarkeit qualitativer MRT-Durchblutungsmessungen bereits gezeigt wurde, fehlt bisher eine validierte quantitative Methode. Ziel dieser Arbeit war eine Optimierung der bestehenden Messprotokolle und mathematischen Modelle zur Absolutquantifizierung der Lungenperfusion mit Magnetresonanztomographie. Weiterhin sollte die Methodik durch Vergleich mit einem etablierten Referenzverfahren validiert werden. Durch Simulationen und Phantommessungen konnten optimale MRT-Messparameter und ein standardisiertes Protokoll festgelegt werden. Des Weiteren wurde eine verallgemeinerte Bestimmung der Kontrastmittelkonzentration aus den gemessenen Signalintensitäten vorgestellt, diskutiert und durch Probandenmessungen validiert. Auf der Basis dieser Entwicklungen wurde die MRT-Durchblutungsmessung der Lunge tierexperimentell mit der Positronenemissionstomographie (PET) intraindividuell verglichen und validiert. Die Ergebnisse zeigten nur kleine Abweichungen und eine statistisch hochsignifikante, stark lineare Korrelation. Zusammenfassend war es durch die Entwicklungen der vorgestellten Arbeit möglich, die kontrastmittelgestützte MRT-Durchblutungsmessung der Lunge zu optimieren und erstmals zu validieren.
Resumo:
The aim of this thesis is to apply multilevel regression model in context of household surveys. Hierarchical structure in this type of data is characterized by many small groups. In last years comparative and multilevel analysis in the field of perceived health have grown in size. The purpose of this thesis is to develop a multilevel analysis with three level of hierarchy for Physical Component Summary outcome to: evaluate magnitude of within and between variance at each level (individual, household and municipality); explore which covariates affect on perceived physical health at each level; compare model-based and design-based approach in order to establish informativeness of sampling design; estimate a quantile regression for hierarchical data. The target population are the Italian residents aged 18 years and older. Our study shows a high degree of homogeneity within level 1 units belonging from the same group, with an intraclass correlation of 27% in a level-2 null model. Almost all variance is explained by level 1 covariates. In fact, in our model the explanatory variables having more impact on the outcome are disability, unable to work, age and chronic diseases (18 pathologies). An additional analysis are performed by using novel procedure of analysis :"Linear Quantile Mixed Model", named "Multilevel Linear Quantile Regression", estimate. This give us the possibility to describe more generally the conditional distribution of the response through the estimation of its quantiles, while accounting for the dependence among the observations. This has represented a great advantage of our models with respect to classic multilevel regression. The median regression with random effects reveals to be more efficient than the mean regression in representation of the outcome central tendency. A more detailed analysis of the conditional distribution of the response on other quantiles highlighted a differential effect of some covariate along the distribution.
Resumo:
L’obiettivo di questo lavoro di tesi è di ottenere un’analisi climatica giornaliera ad alta risoluzione della precipitazione sul territorio del nord Italia realizzata con tecniche di controllo statistico, di analisi e di strumenti di descrizione dei risultati presentati nella recente letteratura. A tal fine, sono stati utilizzati i dati dell’Archivio ARCIS. In seguito alle fasi di controllo qualità, omogeneità e sincronicità i dati sono stati utilizzati per realizzare un’analisi giornaliera su grigliato regolare a 10 km di risoluzione utile alla rappresentazione della variabilità spazio-temporale della precipitazione sul Nord Italia per il periodo 1961-2005. I risultati di tale analisi mettono in evidenza dei valori medi di precipitazione annuale abbastanza intensi sulla parte centrale dell’arco Alpino, con massimi (oltre 2000 mm) sull’estremità orientale e sull’Appennino Ligure. Valori minimi (500 – 600 mm) sono osservati lungo le aree prospicienti il fiume Po, in Val d’Aosta ed in Alto Adige. La corrispondente analisi del trend temporale indica la presenza di lievi cali statisticamente significativi solo in aree limitate del territorio. In coerenza con questi risultati, la variazione nel tempo della precipitazione annuale mediata su tutto il territorio mette in evidenza un’intensa variabilità decennale, ma solo una lieve flessione lineare sull’intero periodo. Il numero annuo di giorni piovosi ed il 90° percentile della precipitazione giornaliera presentano invece trend lineari un po’ più pronunciati. In particolare, sul periodo considerato si nota un calo del numero di giorni piovosi su gran parte del territorio e solo su alcune aree del territorio un aumento dell’intensità del 90° percentile, sia a scala annuale che stagionale. Nell’ultima parte di questo lavoro è stato realizzato uno studio della relazione fra la forzante climatica e l’evoluzione della morfologia dell’Appennino Emiliano-Romagnolo. I risultati mostrano che a parità di quota, di pendenza e di litologia, la franosità è influenzata dalle precipitazioni.
Resumo:
Untersucht werden in der vorliegenden Arbeit Versionen des Satzes von Michlin f¨r Pseudodiffe- u rentialoperatoren mit nicht-regul¨ren banachraumwertigen Symbolen und deren Anwendungen a auf die Erzeugung analytischer Halbgruppen von solchen Operatoren auf vektorwertigen Sobo- levr¨umen Wp (Rn
Resumo:
Diese Arbeit beschäftigt sich mit den Unterschieden zwischen linearen und verzweigten Oligomeren/Polymeren mit praktisch gleichem chemischem Bau. Untersucht wurden eine Reihe von ungeladenen Polymeren in Hinsicht auf deren Wechselwirkungsparameter mit Lö-sungsmitteln sowie peripher geladene Dendrimere im Hinblick auf deren Staudingerindices in Wasser. Bei den ungeladenen Oligomeren/Polymeren handelt es sich um Oligoisoprene, Polygly-cerine und Oligo-Dimetylsiloxane. Vor den thermodynamischen Messungen war es notwen-dig, die verzweigten Produkte durch diskontinuierliche Spinn-Fraktionierung von linearen Bestandteilen zu befreien. In diesem Zusammenhang wurden die Phasendiagramme der Aus-gangsproben und der fraktionierten Proben bestimmt und mit denen der entsprechenden linea-ren Polymeren verglichen. Die Ergebnisse zeigen deutliche Einflüsse der Molekularchitektur, wobei Mischungen aus linearen und verzweigten Polymeren plus niedermolekularen Flüssig-keiten infolge der Unverträglichkeit der hochmolekularen Komponenten ungewöhnliches Verhalten zeigen. Die Flory-Huggins Wechselwirkungsparameter von linearen und verzweigten Polyme-ren wurden mit Hilfe von Dampfdruckmessungen (Headspace-Gaschromatographie) und dampfdruckosmometrischen Messungen bei unterschiedlichen Temperaturen bestimmt. Es zeigt sich, daß die -Werte in komplexer Weise von der Konzentration abhängen und mit einem Ansatz nach Wolf (Gleichung 26 und 31) quantitativ modellierbar sind. Allgemein gilt die folgende Ungleichung: bra > lin. Die Untersuchungen bezüglich der Staudingerindeces von Polyelektrolyten wurden an vier Generationen von peripher geladenen Dendrimeren durchgeführt. Die Ergebnisse zeigen, dass die [ ] Werte mit zunehmender Generation deutlich sinken. Bei der 1. Generation ver-hält sich das Dendrimer noch sehr ähnlich wie lineare Polyelektrolyte. Mit steigender Zahl der Generationen nimmt der Staudingerindex trotz zunehmendem Molekulargewicht deutlich ab, da der Polyelektrolyteffekt (Aufweitung der Knäuel durch elektrostatische Wechselwirkung) an Bedeutung verliert. Der Grund dafür liegt in einer Zunahme des Abstands der Ladungen zur Hauptkette und der Tatsache, dass der Zahl der Ladungen pro Molekül bei konstantem n entsprechend einer quadratischen Reihe zu (2, 4, 8, 16) zunimmt. Wie aus Messungen an der ETH Zürich bekannt ist, verhalten sich ungeladene Dendrimere in organischen Lösungsmit-teln wie die Lösungen von linearem Polystyrol.
Resumo:
Stickstoffmonoxid (NO) ist als reaktives Spurengas eine wichtige Komponente atmosphärenchemischer Prozesse und hat somit einen bedeutenden Einfluss auf die Zusammensetzung der Atmosphäre. Eine Hauptquelle des Spurengases stellen bodenmikrobiologische Prozesse dar, deren regionaler und globaler Anteil weiterhin mit größeren Unsicherheiten geschätzt wird. Ursache für die schwere Abschätzbarkeit der NO-Freisetzung aus Böden ist die hohe räumliche Variabilität der steuernden Faktoren. Als einer der wichtigsten Faktoren, die die Freisetzung von NO aus Böden regeln, gilt der Bodenwassergehalt. Ziel der vorliegenden Arbeit ist es, den Zusammenhang zwischen NO-Freisetzung, Bodenwassergehalt, den Bodeneigenschaften und den Standortbedingungen zu untersuchen und diesen möglichst zu quantifizieren. Dazu sind Bodenproben unterschiedlicher Landnutzungen in einem kleineren Wassereinzugsgebiet im Rheingau im Labor, unter kontrollierten Bedingungen, untersucht. Der charakteristische Zusammenhang zwischen Bodenfeuchte und NO-Freisetzung, die sogenannte Bodenfeuchtekurve, kann demnach weitestgehend auf die gemessenen Bodenmerkmale der untersuchten Proben zurückgeführt werden. Anhand der Bodenmerkmale kann die Bodenfeuchtekurve zufriedenstellend vorhergesagt werden. Dabei zeigt vor allem der Humusgehalt der Böden einen dominierenden Einfluss. Er ist die Variable, die die Unterschiede der Böden beim Zusammenhang zwischen Bodenfeuchte und NO-Freisetzung am besten und hinreichend erklären kann. Zur Konstruktion der Bodenfeuchtekurve müssen die optimale Bodenfeuchte und die dabei herrschende Freisetzung, sowie die obere Bodenfeuchte, bei der keine NO-Freisetzung mehr stattfindet, bekannt sein. Diese charakteristischen Punkte lassen sich durch lineare Regressionsmodelle gut aus den Bodeneigenschaften ableiten. Auf räumlicher Ebene werden die Bodeneigenschaften durch die standörtlichen Bedingungen geprägt, die wiederum Ausdruck der landschaftlichen Ausstattung sind. In der Kulturlandschaft kann der Mensch aufgrund seiner Landnutzungsansprüche als der dominierende Faktor angesehen werden. Die Landnutzung orientiert sich an den landschaftlichen Bedingungen und bestimmt in hohem Maße wichtige Bodeneigenschaften, die zu den erklärenden Merkmalen bei der Beziehung zwischen Bodenwassergehalt und NO-Freisetzung gehören. Die in erster Linie wirtschaftlich orientierten Kartenwerke Bodenschätzung, Weinbergsbodenkartierung und forstliche Standortkartierung sind dementsprechend geeignete Grundlagen, um eine Regionalisierung der Landschaft in - bezüglich der NO-Freisetzung - weitgehend homogene Flächen durchführen zu können. Eine hierauf beruhende Regionalisierung ist dazu geeignet, die räumliche Variabilität der NO-Freisetzung in räumlich sinnvoller Auflösung besser abschätzen zu können.
Resumo:
Questa tesi descrive alcuni studi di messa a punto di metodi di analisi fisici accoppiati con tecniche statistiche multivariate per valutare la qualità e l’autenticità di oli vegetali e prodotti caseari. L’applicazione di strumenti fisici permette di abbattere i costi ed i tempi necessari per le analisi classiche ed allo stesso tempo può fornire un insieme diverso di informazioni che possono riguardare tanto la qualità come l’autenticità di prodotti. Per il buon funzionamento di tali metodi è necessaria la costruzione di modelli statistici robusti che utilizzino set di dati correttamente raccolti e rappresentativi del campo di applicazione. In questo lavoro di tesi sono stati analizzati oli vegetali e alcune tipologie di formaggi (in particolare pecorini per due lavori di ricerca e Parmigiano-Reggiano per un altro). Sono stati utilizzati diversi strumenti di analisi (metodi fisici), in particolare la spettroscopia, l’analisi termica differenziale, il naso elettronico, oltre a metodiche separative tradizionali. I dati ottenuti dalle analisi sono stati trattati mediante diverse tecniche statistiche, soprattutto: minimi quadrati parziali; regressione lineare multipla ed analisi discriminante lineare.
Resumo:
This study focuses on the use of metabonomics applications in measuring fish freshness in various biological species and in evaluating how they are stored. This metabonomic approach is innovative and is based upon molecular profiling through nuclear magnetic resonance (NMR). On one hand, the aim is to ascertain if a type of fish has maintained, within certain limits, its sensory and nutritional characteristics after being caught; and on the second, the research observes the alterations in the product’s composition. The spectroscopic data obtained through experimental nuclear magnetic resonance, 1H-NMR, of the molecular profiles of the fish extracts are compared with those obtained on the same samples through analytical and conventional methods now in practice. These second methods are used to obtain chemical indices of freshness through biochemical and microbial degradation of the proteic nitrogen compounds and not (trimethylamine, N-(CH3)3, nucleotides, amino acids, etc.). At a later time, a principal components analysis (PCA) and a linear discriminant analysis (PLS-DA) are performed through a metabonomic approach to condense the temporal evolution of freshness into a single parameter. In particular, the first principal component (PC1) under both storage conditions (4 °C and 0 °C) represents the component together with the molecular composition of the samples (through 1H-NMR spectrum) evolving during storage with a very high variance. The results of this study give scientific evidence supporting the objective elements evaluating the freshness of fish products showing those which can be labeled “fresh fish.”