334 resultados para Doru lineare
Resumo:
Le encefalopatie spongiformi trasmissibili (EST), o malattie da prioni, sono malattie neurodegenerative che colpiscono l'uomo e gli animali. Le più note tra le EST animali sono la scrapie della pecora e della capra, l’encefalopatia spongiforme bovina (BSE), la Sindrome del dimagrimento cronico (CWD) dei cervidi. Negli uomini ricordiamo la malattia di Creutzfeldt-Jakob (CJD) nelle sue diverse forme (sporadica, genetica, iatrogenica e variante). La dimostrazione che la variante della CJD (vCJD) sia causata dallo stesso agente eziologico della BSE, ha evidenziato il potenziale zoonotico di queste malattie. Le EST sono caratterizzate da tempi di incubazione estremamente lunghi ed esito invariabilmente fatale. Il momento patogenetico centrale comune a tutte queste malattie è rappresentato dalla modificazione conformazionale di una proteina cellulare denominata PrPC (proteina prionica cellulare) in una isoforma patologica denominata PrPSc, insolubile e caratterizzata da una parziale resistenza alle proteasi, che tende a depositarsi sotto forma di fibrille amiloidee nel SNC dei soggetti colpiti. La suscettibilità degli ovini alla scrapie è largamente influenzata dal genotipo del gene dell’ospite che codifica per la PrP (PRNP), e più precisamente da tre polimorfismi presenti ai codoni 136, 154 e 171. Questi si combinano in cinque principali alleli, ARQ, VRQ, AHQ, ARH e ARR, correlati a differenti gradi di suscettibilità alla malattia. Risultati ottenuti da un precedente studio d’infezione sperimentale di ovini di razza Sarda con scrapie classica (Vaccari G et al 2007), hanno suggeriscono l’ordine di suscettibilità ARQ>AHQ>ARH. L’allele ARR, è risultato invece associato ai più alti livelli di protezione dalla malattia. Dallo stesso studio di trasmissione sperimentale e da uno studio epidemiologico di tipo caso-controllo, è inoltre emerso che nella razza Sarda, ovini con l’allele ARQ, con sostituzione amminoacidica al codone 137 Metionina (M)/Treonina (T) (AT137RQ) o al 176 Asparagina (N)/Lisina (K) (ARQK176) in eterozigosi sono protetti dalla scrapie. Inoltre studi di trasmissione sperimentale della BSE in ovini della stessa razza con tre differenti genotipi (ARQ/ARQ, ARQ/ARR e ARR/ARR), hanno dimostrato come la BSE abbia un targeting genetico molto simile a quello della scrapie, evidenziando il genotipo ARQ/ARQ come il più suscettibile. L’obbiettivo della seguente tesi è stato quello di verificare se fosse possibile riprodurre in vitro la differente suscettibilità genetica degli ovini alle EST evidenziata in vivo, utilizzando il PMCA (Protein Misfolding Cyclic Amplification), la metodica ad oggi più promettente e di cui è stata dimostrata la capacità di riprodurre in vitro diverse proprietà biologiche dei prioni. La tecnica, attraverso cicli ripetuti di sonicazione/incubazione, permette la conversione in vitro della PrPC presente in un omogenato cerebrale (substrato), da parte di una quantità minima di PrPSc (inoculo) che funge da “innesco” della reazione. Si è voluto inoltre utilizzare il PMCA per indagare il livello di protezione in omozigosi di alleli rari per i quali, in vivo, si avevano evidenze di protezione dalla scrapie solo in eterozigosi, e per studiare la suscettibilità degli ovini alla BSE adattata in questa specie. È stata quindi testata in PMCA la capacità diversi substrati ovini recanti differenti genotipi, di amplificare la PrPSc dello stesso isolato di scrapie classica impiegato nel precedente studio in vivo o di un inoculo di BSE bovina. Inoltre sono stati saggiati in vitro due inoculi di BSE costituiti da omogenato cerebrale di due ovini sperimentalmente infettati con BSE (BSE ovina) e recanti due differenti genotipi (ARQ/ARQ e ARR/ARR). Per poter descrivere quantitativamente il grado di correlazione osservato i risultati ottenuti in vitro e i quelli riscontrati dallo studio di sperimentazione con scrapie, espressi rispettivamente come fattori di amplificazione e tempi d’incubazione registrati in vivo, sono stati analizzati con un modello di regressione lineare. Per quanto riguarda la scrapie, i risultati ottenuti hanno evidenziato come i genotipi associati in vivo a suscettibilità (ARQ/ARQ, ARQ/AHQ and AHQ/ARH) siano anche quelli in grado di sostenere in PMCA l’amplificazione della PrPSc, e come quelli associati a resistenza (ARQ/ARR and ARR/ARR) non mostrino invece nessuna capacità di conversione. Dall’analisi di regressione lineare è inoltre emerso come l’efficienza di amplificazione in vitro dei differenti genotipi testati sia inversamente proporzionale ai tempi d’incubazione registrati in vivo. Inoltre nessuna amplificazione è stata riscontrata utilizzando il substrato con genotipo raro ARQK176/ARQK176 suggerendo come anche questo possa essere associato a resistenza, almeno nei confronti dell’isolato di scrapie classica utilizzato. Utilizzando come inoculo in PMCA l’isolato di BSE bovina, è stato possibile riscontrare, nei tre genotipi analizzati (ARQ/ARQ, ARQ/ARR e ARR/ARR) un evidente amplificazione per il solo genotipo ARQ/ARQ, sottolineando anche in questo caso l’esistenza di una correlazione tra suscettibilità riscontrata in vivo e capacità di conversione in PMCA. I tre i substrati analizzati mostrano inoltre una buona efficienza di amplificazione, per altro simile, se si utilizza la PrPSc dell’inoculo di BSE sperimentalemente trasmessa agli ovini. Questi genotipi sembrerebbero dunque ugualmente suscettibili se esposti a BSE adattata alla specie ovina. I risultati di questa tesi indicano dunque una correlazione diretta tra la capacità di conversione della PrPC con il PMCA e la suscettibilità osservata in vivo per i differenti genotipi analizzati. Mostrano inoltre come il PMCA possa essere una valida alternativa agli studi di trasmissione in vivo e un rapido strumento utile non soltanto per testare, ma anche per predire la suscettibilità genetica degli ovini a diversi ceppi di EST, rappresentando un valido aiuto per l’individuazione di ulteriori genotipi resistenti, così da incrementare la variabilità genetica dei piani di selezione attuati per gli ovini per il controllo di queste malattie.
Resumo:
Die vorliegende Dissertation beschreibt die Realisation des neuartigen Konzepts der Laserionenquellenfalle für die on-line Produktion exotischer Nuklide und für den Nachweis von Spurenisotopen in Proben mit starken Isobarenkontaminationen. Ziel dieser Entwicklung ist eine wesentliche Steigerung der Isobarenselektivität einer herkömmlichen Laserionenquelle, sowie die Erzeugung zeitlich kontrollierter Ionenpulse mit hervorragender Strahlqualität. Es konnte die prizipielle Funktionsfähigkeit des Systems in Kombination mit einem Titan:Saphir-Lasersystem für die Elemente Gallium, Calcium und Nickel demonstriert und Ionenpulse mit einer minimalen Pulslänge von 1 µs erzeugt werden. Nach ersten Abschätzungen ist die Effizienz des Systems etwa einen Faktor 2500 geringer als die einer herkömmlichen Laserionenquelle. Der zweite Teil der Arbeit beschäftigt sich mit dem spurenanalytischen Nachweis von 99-Tc, mit dem Ziel, das Verhalten von 99-Tc in der Umgebung eines möglichen Endlagers für nukleare Abfälle studieren zu können. Hier wurden erste Studien mit dem kurzlebigen Isomer 99m-Tc zur Wechselwirkung von Tc(VII) mit Huminsäure und Kaolinit durchgeführt. Für den Einsatz der Laserionenquellenfalle in der Ultraspurenanalyse, wurde ein effizientes Anregungsschema für Titan:Saphir-Laser entwickelt und 99-Tc in einer herkömmlichen Ionenquelle nachgewiesen. Der letzte Teil der Arbeit beschreibt Machbarkeitsstudien zum Aufbau einer Laserionenquelle auf Basis eines Titan:Sahphir-Lasersystems, die parallel zu oben genannten Entwicklungen am Oak Ridge National Laboratory durchgeführt wurden. Im Rahmen dieser Messungen wurden Anregungsschemata für die resonante Anregung und Ionisation von Kupfer und Palladium für Titan:Saphir-Laser getestet. Dabei konnte zum ersten Mal frequenzvervierfachtes Laserlicht in einer Laserionenquelle eingesetzt werden. Am ORNL wurden Studien zur Zeitstruktur von Laserionenpulsen, sowie Emittanzmessungen von Laser- und Oberflächenionenstrahlen durchgeführt werden.
Resumo:
Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature
Resumo:
Die Leistung multichromophorer Systeme geht oftmals über die der einzelnen Chromophor-Einheiten hinaus. Ziel der vorliegenden Dissertation mit dem Titel „Multichromophore Systeme auf Basis von Rylencarbonsäureimiden“ war daher die Synthese und Charakterisierung multichromophorer Molekülarchitekturen. Die verwendeten Rylenfarbstoffe zeichnen sich durch hohe photochemische Stabilitäten sowie nahezu quantitative Fluoreszenzquantenausbeuten aus. Die optischen und elektronischen Eigenschaften multichromophorer Systeme hängen stark von der geometrischen Ordnung ab, in der die Farbstoffe zueinander stehen. Daher wurden für den Einbau formpersistente Gerüststrukturen gewählt. Der erste Teil der Arbeit beschäftigt sich mit dem Einbau ein und desselben Chromophortyps und hat neben dem Verständnis von Chromophor-Wechselwirkungen vor allem die Erhöhung des Absorptionsquerschnitts und der Fluoreszenzintensität zum Ziel. Als Gerüststruktur dienen dabei Polyphenylen-Dendrimere, Ethinyl-verbrückte Dendrimere sowie Übergangsmetall-vermittelte supramolekulare Strukturen. Aufgrund der hohen Farbstoffanzahl, des ortsdefinierten Einbaus und den hohen Fluoreszenzquantenausbeuten eignen sich diese multichromophoren Systeme als Fluoreszenzsonden und als Einzelphotonenemitter. Im zweiten Teil der Arbeit werden verschiedene Chromophortypen zu multichromophoren Systemen verknüpft, mit deren Hilfe ein vektorieller Energietransfer möglich ist. Mit Hinsicht auf die Verwendung in photovoltaischen Zellen wurde eine dendritische Triade dargestellt. Eine lineare Variante einer Rylen-Triade stellt einen molekularen Draht dar, deren Brückenelement durch eine geeignete Syntheseführung verlängert und der Energietransport daher abstandsabhängig untersucht werden kann.
Resumo:
Abbiamo analizzato compiutamente la conformazione attuale della città di Bologna, individuandone gli elementi caratterizzanti, i punti di forza e le criticità, per riuscire a riconnetterla sia al tessuto del centro storico sia a quello rurale. Il tipo di metodo scelto riprende in parte quello utilizzato nell’analisi delle mappe storiche, lavorando attorno a tre temi fondamentali: spazi aperti, tessuto urbano e viabilità. La consapevolezza profonda della realtà e delle dinamiche presenti ci ha portato ad individuare la soluzione che riteniamo essere più funzionale per la riconnessione delle differenti zone, utilizzando la fascia come filtro tra campagna e città. L’obiettivo individuato è quello di sfruttare la linea ferroviaria in disuso convertendola in una linea di tram-treno, una infrastruttura elettrica e a basso impatto ambientale che funzioni in modo agile e puntuale contribuendo in maniera significativa alla mobilità da e verso il centro storico di Bologna, con fermate nei principali fatti urbani come il complesso fieristico, la nuova sede comunale, il centro di ricerca, il polo universitario, i centri sportivi e commerciali. Parte della stessa linea ferroviaria, in particolare il tratto ovest, verrà riqualificato creando un parco lineare sulla sede della linea stessa, come realizzato a Parigi per la “promenade plantée” o a New York con la “highline”, restituendo ai bolognesi un percorso cittadino che valorizzi la natura, la riflessione ed il benessere. Un collegamento tra diverse aree urbane caratterizzato da un flusso più lento esclusivo dei pedoni e dei ciclisti, che trova una sua continuità naturalistica ad ovest andando a collegarsi al parco fluviale del canale Reno, proseguendo invece ad est parallelamente alla linea di tram-treno, creando una continuità di percorsi ciclo-pedonali che si integrano agli esistenti raggiungendo le zone centrali della città. L’intento è quello di incanalare il flusso non carrabile proveniente dalle aree rurali e dalla tangenziale, anche attraverso parcheggi scambiatori, in un percorso privilegiato, funzionale e naturalistico che permetta di raggiungere il centro storico e anche la zona collinare risalendo lungo il parco fluviale, dando ai fruitori la possibilità di osservare Bologna con più tranquillità e da un punto di vista nuovo.
Resumo:
Biologische Membranen sind Fettmolekül-Doppelschichten, die sich wie zweidimensionale Flüssigkeiten verhalten. Die Energie einer solchen fluiden Oberfläche kann häufig mit Hilfe eines Hamiltonians beschrieben werden, der invariant unter Reparametrisierungen der Oberfläche ist und nur von ihrer Geometrie abhängt. Beiträge innerer Freiheitsgrade und der Umgebung können in den Formalismus mit einbezogen werden. Dieser Ansatz wird in der vorliegenden Arbeit dazu verwendet, die Mechanik fluider Membranen und ähnlicher Oberflächen zu untersuchen. Spannungen und Drehmomente in der Oberfläche lassen sich durch kovariante Tensoren ausdrücken. Diese können dann z. B. dazu verwendet werden, die Gleichgewichtsposition der Kontaktlinie zu bestimmen, an der sich zwei aneinander haftende Oberflächen voneinander trennen. Mit Ausnahme von Kapillarphänomenen ist die Oberflächenenergie nicht nur abhängig von Translationen der Kontaktlinie, sondern auch von Änderungen in der Steigung oder sogar Krümmung. Die sich ergebenden Randbedingungen entsprechen den Gleichgewichtsbedingungen an Kräfte und Drehmomente, falls sich die Kontaktlinie frei bewegen kann. Wenn eine der Oberflächen starr ist, muss die Variation lokal dieser Fläche folgen. Spannungen und Drehmomente tragen dann zu einer einzigen Gleichgewichtsbedingung bei; ihre Beiträge können nicht mehr einzeln identifiziert werden. Um quantitative Aussagen über das Verhalten einer fluiden Oberfläche zu machen, müssen ihre elastischen Eigenschaften bekannt sein. Der "Nanotrommel"-Versuchsaufbau ermöglicht es, Membraneigenschaften lokal zu untersuchen: Er besteht aus einer porenüberspannenden Membran, die während des Experiments durch die Spitze eines Rasterkraftmikroskops in die Pore gedrückt wird. Der lineare Verlauf der resultierenden Kraft-Abstands-Kurven kann mit Hilfe der in dieser Arbeit entwickelten Theorie reproduziert werden, wenn der Einfluss von Adhäsion zwischen Spitze und Membran vernachlässigt wird. Bezieht man diesen Effekt in die Rechnungen mit ein, ändert sich das Resultat erheblich: Kraft-Abstands-Kurven sind nicht länger linear, Hysterese und nichtverschwindende Trennkräfte treten auf. Die Voraussagen der Rechnungen könnten in zukünftigen Experimenten dazu verwendet werden, Parameter wie die Biegesteifigkeit der Membran mit einer Auflösung im Nanometerbereich zu bestimmen. Wenn die Materialeigenschaften bekannt sind, können Probleme der Membranmechanik genauer betrachtet werden. Oberflächenvermittelte Wechselwirkungen sind in diesem Zusammenhang ein interessantes Beispiel. Mit Hilfe des oben erwähnten Spannungstensors können analytische Ausdrücke für die krümmungsvermittelte Kraft zwischen zwei Teilchen, die z. B. Proteine repräsentieren, hergeleitet werden. Zusätzlich wird das Gleichgewicht der Kräfte und Drehmomente genutzt, um mehrere Bedingungen an die Geometrie der Membran abzuleiten. Für den Fall zweier unendlich langer Zylinder auf der Membran werden diese Bedingungen zusammen mit Profilberechnungen kombiniert, um quantitative Aussagen über die Wechselwirkung zu treffen. Theorie und Experiment stoßen an ihre Grenzen, wenn es darum geht, die Relevanz von krümmungsvermittelten Wechselwirkungen in der biologischen Zelle korrekt zu beurteilen. In einem solchen Fall bieten Computersimulationen einen alternativen Ansatz: Die hier präsentierten Simulationen sagen voraus, dass Proteine zusammenfinden und Membranbläschen (Vesikel) bilden können, sobald jedes der Proteine eine Mindestkrümmung in der Membran induziert. Der Radius der Vesikel hängt dabei stark von der lokal aufgeprägten Krümmung ab. Das Resultat der Simulationen wird in dieser Arbeit durch ein approximatives theoretisches Modell qualitativ bestätigt.
Rituali indigeni in Mesoamerica. La festa di Petición de Lluvias nella Montaña di Guerrero (Messico)
Resumo:
Questa tesi di carattere antropologico in ambito dottorale riguarda i rituali comunitari nelle comunità indigene messicane. Il principale oggetto della ricerca è il rituale della pioggia o di Petición de Lluvia, caratterizzato sia dal sacrificio animale che da una specifica relazione di causa-effetto con l’ambiente circostante. La ricerca etnografica è cominciata dall’ipotesi di voler verificare la persistenza nel tempo, e dunque nell’attualità, di procedure cerimoniali non appartenenti, almeno nella loro forma più lineare, alla religione cattolico-cristiana. Il luogo nel quale è avvenuta tale ricerca è la regione La Montaña di Guerrero, situata nel Messico sud-occidentale, e più precisamente la zona in cui vivono le comunità di etnia Nahua di San Pedro Petlacala, Acuilpa, e Xalpatláhuac che si trovano nelle vicinanze della cittadina di Tlapa de Comonfort. In un contesto ambientale profondamente rurale come quello della Montaña di Guerrero, la persistenza dei rituali evidenzia come le risorse naturali e gli agenti atmosferici - pioggia, vento, nubi - continuino a rappresentare gli elementi centrali che condizionano le variabili economiche di sussistenza e della riproduzione sociale. Il rituale di Petición de Lluvia rappresenta il momento di congiunzione tra la stagione secca e quella piovosa, tra la semina ed il raccolto del mais. Definito come una pratica religiosa nella quale il gruppo si identifica e partecipa con varie donazioni (ofrenda o deposito rituale), suddivisibili in alimenti/oggetti/preghiere ed azioni rituali, la cerimonia esprime l’auspicio di piogge abbondanti, con le quali irrigare i campi e continuare le attività umane. Il destinatario dell’offerta è la stessa divinità della pioggia, Tlaloc per le antiche civiltà mesoamericane, invocato sotto le mentite spoglie del santo patrono del 25 aprile, San Marcos. Il rituale è contraddistinto per tutta la sua durata dalla presenza del principale specialista religioso, sacerdote in lingua spagnola oppure «Tlahmáquetl» in lingua náhuatl.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Il presente lavoro trae origine dagli obiettivi e dalle relative misure applicative della riforma dell’OCM zucchero del 2006 e nello specifico dal Piano nazionale per la razionalizzazione e riconversione della produzione bieticolo-saccarifera approvato dal MIPAF nel 2007. Lo studio riguarda la riconversione dello zuccherificio di Finale Emilia (MO), di appartenenza del Gruppo bieticolo-saccarifero Co.Pro.B, in un impianto di generazione di energia elettrica e termica che utilizza biomassa di origine agricola per la combustione diretta. L'alimentazione avviene principalmente dalla coltivazione dedicata del sorgo da fibra (Sorghum bicolor), integrata con risorse agro-forestali. Lo studio mostra la necessità di coltivazione di 4.400 ettari di sorgo da fibra con una produzione annua di circa 97.000 t di prodotto al 75% di sostanza secca necessari per l’alimentazione della centrale a biomassa. L’obiettivo é quello di valutare l’impatto della nuova coltura energetica sul comprensorio agricolo e sulla economia dell’impresa agricola. La metodologia adottata si basa sulla simulazione di modelli aziendali di programmazione lineare che prevedono l’inserimento del sorgo da fibra come coltura energetica nel piano ottimo delle aziende considerate. I modelli predisposti sono stati calibrati su aziende RICA al fine di riprodurre riparti medi reali su tre tipologie dimensionali rappresentative: azienda piccola entro i 20 ha, media da 20 a 50 ha e grande oltre i 50 ha. La superficie di entrata a livello aziendale, se rapportata alla rappresentatività delle aziende dell’area di studio, risulta insufficiente per soddisfare la richiesta di approvvigionamento dell’impianto a biomassa. Infatti con tale incremento la superficie di coltivazione nel comprensorio si attesta sui 2.500 ettari circa contro i 4.400 necessari alla centrale. Lo studio mostra pertanto che occorre un incentivo superiore, di circa 80-90 €/ha, per soddisfare la richiesta della superficie colturale a livello di territorio. A questi livelli, la disponibilità della coltura energetica sul comprensorio risulta circa 9.500 ettari.
Resumo:
In dieser Doktorarbeit werden die Eigenschaften von thermoresponsiven Bürstenpolymeren untersucht. Hierbei konnten erstmalig thermische Konformationsübergänge von zylindrischen Bürstenmolekülen auf Oberflächen beobachtet werden. Der Einfluss der Oberfläche auf die Umkehrbarkeit und die Kinetik der Übergänge wurde untersucht. Die dabei erhaltenen Erkenntnisse konnten verwendet werden, um das Verhalten der Polymere auf anderen Oberflächen vorherzusagen. Im zweiten Projekt wurde gezeigt, dass Einzelmolekül-Kraftspektroskopie eine gute Methode für die Untersuchung der mechanischen Eigenschaften von Bürstenpolymeren in guten Lösungsmitteln ist. Mit kleinen Substanzmengen kann die Persistenzlänge der Polymere bestimmt werden. Es ist möglich zu zeigen, dass die Persistenzlänge der Polymerbürsten von ihrer Seitenkettenlänge abhängt. Überraschenderweise funktioniert das Experiment nicht, wenn man die Bürsten aus einem Polymerfilm zieht anstatt ein Einzelmolekülexperiment durchzuführen. In diesem Fall zeigen die Kraft-Abstands-Kurven zu lange Kontur- und Persistenzlängen. Diese Beobachtung ist für lineare Polymere nicht gültig. Im dritten Teil der Doktorarbeit werden Kraft-Abstands-Experimente an einzelnen kollabierten Polymeren untersucht. In schlechten Lösungsmitteln zeigen die Bürsten ein moleküllängenabhängiges Kraft-Plateau, welches theoretisch vorausgesagt wurde und einen Phasenübergang von einem kollabierten zu einem entspannten Zustand der Polymerkette anzeigt. In Fly-Fishing-Experimenten kann man eine Hysterese zwischen den beiden Messkurven beobachten, welche bei mehrfachem Ziehen kleiner wird. Alle Experimente in schlechten Lösungsmitteln wurden mit linearen Polymeren reproduziert, um den Einfluss der Molekülarchitektur von den generellen Eigenschaften von Polymeren in schlechten Lösungsmitteln unterscheiden zu können. Zum Abschluss wird die Abhängigkeit der Polymerentfaltung von der Laderate des Experiments gemessen.
Resumo:
„Photovernetzbare flüssigkristalline Polymere unterschiedlicher Kettentopologien“, Patrick Beyer, Mainz 2007 Zusammenfassung In der vorliegenden Arbeit wurde die Synthese und Charakterisierung flüssigkristalliner Elastomere unterschiedlicher Polymertopologien vorgestellt. Dabei wurden Systeme synthetisiert, bei denen die mesogenen Einheiten entweder als Seitengruppen an ein Polymerrückgrat angebunden (Seitenkettenelastomere) oder direkt in die Polymerkette integriert (Hauptkettenelastomere) sind (siehe Abbildung). Bezüglich der Seitenkettensysteme konnten erstmals photovernetzbare smektische Seitenkettenpolymere, in denen aufgrund der Anknüpfung eines photoisomerisierbaren Azobenzols eine Photo- modulation der ferroelektrischen Eigenschaften möglich ist, dargestellt werden. Homöotrop orientierte freistehende Filme dieser Materialien konnten durch Spincoaten dargestellt und unter Ausnutzung des Dichroismus der Azobenzole durch geeignete Wahl der Bestrahlungsgeometrie photovernetzt werden. Aufbauend auf diesen Untersuchungen wurde anhand eines nicht vernetzbaren Modellsystems im Detail der Einfluss der trans-cis Isomerisierung des Azobenzols auf die ferroelektrischen Parameter untersucht. Durch zeitaufgelöste Messungen der Absorption der Azobenzole, der spontanen Polarisation und des Direktorneigungswinkels und Auswertung der kinetischen Prozesse konnte eine lineare Abhängigkeit der ferroelektrischen Eigenschaften vom Grad der Isomerisierungsreaktion festgestellt werden. Durch Vergleich dieser in der flüssigkristallinen Phase erhaltenen Ergebnisse mit der Kinetik der thermischen Reisomerisierung in Lösung (Toluol) konnte ferner eine deutliche Reduzierung der Relaxationszeiten in der anisotropen flüssigkristallinen Umgebung festgestellt und auf eine Absenkung der Aktivierungsenergie zurückgeführt werden. Makroskopische Formänderungen der Seitenkettenelastomere am Phasenübergang von der flüssigkristallinen in die isotrope Phase konnten jedoch nicht festgestellt werden. Aus diesem Grund wurden neue Synthesestrategien für die Darstellung von Hauptkettenelastomeren entwickelt, die sich aufgrund der direkten Kopplung von flüssigkristallinem Ordnungsgrad und Polymerkettenkonformation besser für die Herstellung thermischer Aktuatoren eignen. Auf Basis flüssigkristalliner Polymalonate konnten dabei lateral funktionalisierte smektische Hauptkettenpolymere synthetisiert werden, welche erstmals die Darstellung von LC-Hauptkettenelastomeren durch Photovernetzung in der flüssigkristallinen Phase erlauben. Durch laterale Bromierung konnte in diesen Systemen die Kristallisationstendenz der verwendeten Biphenyleinheiten unterdrückt werden. Bezüglich der Photovernetzung konnten zwei neue Synthesemethoden entwickelt werden, bei denen der Vernetzungsschritt entweder durch radikalische Polymerisation lateral angebundener Acrylatgruppen oder durch photoaktive Benzophenongruppen erfolgte. Basierend auf den Benzophenon funktionalisierten Systemen konnte ein neuartiges Verfahren zur Darstellung makroskopisch orientierter Hauptkettenelastomere durch Photovernetzung entwickelt werden. Die Elastomerproben, deren Ordnungsgrad durch Röntgenuntersuchungen ermittelt werden konnte, zeigen am Phasenübergang von der flüssigkristallinen in die isotrope Phase eine reversible Formänderung von 40%. Im Gegensatz zu anderen bekannten smektischen Systemen konnten die in dieser Arbeit vorgestellten Elastomere ohne Zerstörung der Phase bis zu 60% entlang der smektischen Schichtnormalen gestreckt werden, was im Kontext einer geringen Korrelation der smektischen Schichten in Hauptkettenelastomeren diskutiert wurde.
Resumo:
Die regionale Bestimmung der Durchblutung (Perfusion) ermöglicht differenzierte Aussagen über den Gesundheitszustand und die Funktionalität der Lunge. Durch neue Messverfahren ermöglicht die Magnetresonanztomographie (MRT) eine nicht-invasive und strahlungsfreie Untersuchung der Perfusion. Obwohl die Machbarkeit qualitativer MRT-Durchblutungsmessungen bereits gezeigt wurde, fehlt bisher eine validierte quantitative Methode. Ziel dieser Arbeit war eine Optimierung der bestehenden Messprotokolle und mathematischen Modelle zur Absolutquantifizierung der Lungenperfusion mit Magnetresonanztomographie. Weiterhin sollte die Methodik durch Vergleich mit einem etablierten Referenzverfahren validiert werden. Durch Simulationen und Phantommessungen konnten optimale MRT-Messparameter und ein standardisiertes Protokoll festgelegt werden. Des Weiteren wurde eine verallgemeinerte Bestimmung der Kontrastmittelkonzentration aus den gemessenen Signalintensitäten vorgestellt, diskutiert und durch Probandenmessungen validiert. Auf der Basis dieser Entwicklungen wurde die MRT-Durchblutungsmessung der Lunge tierexperimentell mit der Positronenemissionstomographie (PET) intraindividuell verglichen und validiert. Die Ergebnisse zeigten nur kleine Abweichungen und eine statistisch hochsignifikante, stark lineare Korrelation. Zusammenfassend war es durch die Entwicklungen der vorgestellten Arbeit möglich, die kontrastmittelgestützte MRT-Durchblutungsmessung der Lunge zu optimieren und erstmals zu validieren.
Resumo:
The aim of this thesis is to apply multilevel regression model in context of household surveys. Hierarchical structure in this type of data is characterized by many small groups. In last years comparative and multilevel analysis in the field of perceived health have grown in size. The purpose of this thesis is to develop a multilevel analysis with three level of hierarchy for Physical Component Summary outcome to: evaluate magnitude of within and between variance at each level (individual, household and municipality); explore which covariates affect on perceived physical health at each level; compare model-based and design-based approach in order to establish informativeness of sampling design; estimate a quantile regression for hierarchical data. The target population are the Italian residents aged 18 years and older. Our study shows a high degree of homogeneity within level 1 units belonging from the same group, with an intraclass correlation of 27% in a level-2 null model. Almost all variance is explained by level 1 covariates. In fact, in our model the explanatory variables having more impact on the outcome are disability, unable to work, age and chronic diseases (18 pathologies). An additional analysis are performed by using novel procedure of analysis :"Linear Quantile Mixed Model", named "Multilevel Linear Quantile Regression", estimate. This give us the possibility to describe more generally the conditional distribution of the response through the estimation of its quantiles, while accounting for the dependence among the observations. This has represented a great advantage of our models with respect to classic multilevel regression. The median regression with random effects reveals to be more efficient than the mean regression in representation of the outcome central tendency. A more detailed analysis of the conditional distribution of the response on other quantiles highlighted a differential effect of some covariate along the distribution.