963 resultados para Cochran regressione lineare stima inferenza statistica
Resumo:
Uno dei cardini nel programma di ricerca attuale del Large Hadron Collider (LHC) al CERN è l’approfondimento della conoscenza relativa al bosone di Higgs e agli accoppiamenti di questa particella, di recente scoperta, con le altre del Modello Standard. Il prossimo Run di LHC sarà caratterizzato da collisioni di fasci di protoni con un'energia di 6.5 TeV ciascuno e renderà possibile l’acquisizione di grandi campioni di dati nei quali si prevede un aumento della statistica per tipologie di eventi che fino a questo momento è stato problematico studiare. Tra questi la produzione per Higgs-strahlung del bosone di Higgs associato al bosone vettore Z, che, essendo caratterizzata da una bassa sezione d’urto, è sempre stata considerata un processo molto difficile da investigare. Questa tesi fornisce uno studio preliminare della fattibilità di recuperare in modo efficiente questo canale, con l’obiettivo di individuare alcuni tagli che permettano di ripulire il grande fondo adronico prodotto nelle collisioni protone-protone a LHC. La presente analisi è stata effettuata su campioni di dati ottenuti tramite una generazione Monte Carlo e una simulazione parametrica del rivelatore ATLAS. Sebbene la statistica dei campioni MC sia ancora limitata e la simulazione della risposta del detector non sia dettagliata, le tecniche e i tagli utilizzati in questo lavoro di tesi potranno dare utili indicazioni per futuri studi più dettagliati e per l'investigazione di questo processo una volta che i dati del prossimo Run di LHC a √s=13 TeV saranno disponibili.
Resumo:
Lo studio riguarda la caratterizzazione geochimica dei sedimenti del sito Caretti, situato a est del comune di Ferrara, interessato da un forte caso di contaminazione dovuto alla presenza di due discariche municipali non controllate risalenti agli anni '60-'70. L'obiettivo del lavoro è quello di valutare la geochimica dei sedimenti e delle acque prelevate nel sito al fine di individuare eventuali relazioni tra il chimismo delle due matrici. Inoltre, i dati dell' analisi dei sedimenti sono stati confrontati con quelli di letteratura per delinearne aspetti di provenienza. I dati geochimici dei sedimenti sono stati ottenuti mediante fluorescenza a raggi X (XRF) e sono stati elaborati graficamente e statisticamente, mediante software di analisi statistica (GCDkit). La composizione geochimica delle acque è stata ottenuta mediante tecniche di cromatografia ionica e spettroscopia di assorbimento atomico. La geochimica dei sedimenti ha evidenziato che la composizione chimica mostra associazioni di elementi legate a una componente tessiturale del sedimento. In particolare si rilevano concentrazioni elevate di Fe2O3, Al2O3, TiO2, Cr, Ni, e V in sedimenti a granulometria fine, a differenza delle concentrazioni di SiO2 e Na2O elevate in sedimenti sabbiosi. La distribuzione statistica degli elementi nei sedimenti e nelle acque ha permesso di effettuare una valutazione delle caratteristiche geochimiche dei principali corpi idrogeologici. La caratterizzazione geochimica ha fornito, inoltre, indicazioni sull'origine dei sedimenti. Cromo e Nichel, tra gli elementi in traccia, sono particolarmente efficaci nella valutazione della provenienza permettendo, all'interno del sito Caretti, una distinzione tra popolazioni di provenienza appenninica (bassi valori Cr-Ni) e padana (alti valori Cr-Ni).
Resumo:
Als Phenanthro-Alkaloide wird eine kleine Gruppe von pentacyclischen, auf dem Phenanthren-Strukturmotiv basierenden Indolizidinen sowie Chinolizidinen bezeichnet. Von Letztgenannten sind bisher fünf, von den homologen Phenanthroindolizidinen mehr als sechzig natürliche Vertreter gefunden worden. Das wohl bekannteste Alkaloid in dieser Gruppe ist das Indolizidin-Alkaloid Tylophorin, das beispielsweise aus Tylophora indica (Apocynaceae, "Hundsgiftgewächse") gewonnen werden kann. Tylophorin und verwandte Derivate besitzen potente biologische und physiologische Wirkungen. So entfalten sie sowohl antiinflammatorische als auch antineoplastische Effekte (wirksam auch bei MDR-Tumorzelllinien, MDR = "multi drug resistant").rnrnDas Ziel der vorliegenden Arbeit war es, neue Methoden zur Herstellung von Phenanthro-Alkaloiden und deren Derivaten zu entwickeln. Ausgehend von (S)-Prolin konnten sowohl (S)-(+)-Tylophorin (>99% ee) als auch ein bisher noch nicht beschriebenes Derivat, das sich durch eine deutlich geringere Lichtempfindlichkeit im Vergleich zu Tylophorin aus¬zeichnet, in 33%-iger Gesamtausbeute über neun lineare Stufen, hergestellt werden. Die Synthese von (R)-(-)-Tylophorin gelang in analoger Weise aus (R)-Prolin in 21%-iger Ausbeute (93% ee). Der Einsatz von Schutzgruppen war nicht notwendig.rnDer Schlüsselschritt ist in beiden Fällen eine Cyclisierung an eine C=N-Doppelbindung über freie Radikale, die bei der Synthese des neuen Derivats hochstereoselektiv zur Bildung des (13aS,14S) Diastereomers führt. Die Synthese von 7-Methoxycryptopleurin gelang durch eine ähnliche Synthesestrategie. rnrnZur Herstellung von Cryptopleurin ist zunächst ein neuer Syntheseweg für 9-(Hydroxymethyl)-2,3,6-trimethoxyphenanthren entwickelt worden. Dieser führt über den Aufbau eines Biphenylsystems durch palladiumkatalysierte Kreuzkupplung, eine anschließende COREY-FUCHS-Transformation und als Schlüsselschritt über eine Gold-NHC-Komplex katalysierte 6-endo-dig-Cyclisierung zum entsprechenden Phenanthren. Diese Ringschlussreaktion verläuft in gewünschter Weise regioselektiv unter Bildung des 2,3,6-trimethoxysubstituierten Phenanthrens. Die Bil¬dung des regioisomeren 2,3,8-Trimethoxyphenanthrens wird nicht beobachtet. Der Alkohol wird dann in fünf linearen Stufen (34%) in das Xanthogenat überführt, aus dem sich durch eine zweistufige Reaktionssequenz, bestehend aus einer Radikal¬cyclisierung nach ZARD und einer Reduktion mit LiAlH4 das extrem lichtempfindliche und hochtoxische Alkaloid (R)-(-)-Cryptopleurin gewinnen ließ (50%).rnNachdem beide Enantiomere und das Racemat von Tylophorin synthetisiert worden waren und zum Vergleich bereit standen, wurde Tylophorin aus Tylophora indica extrahiert. rnDie Motivation rührte unter anderem daher, dass in der bisherigen Literatur Unstimmigkeiten über das in der Natur vorkommende Enantiomer des Tylophorins herrschten. Vor Beginn dieser Arbeit ging man davon aus, dass in T. indica nur (R)-(-)-Tylophorin vorkommt und für die Diskrepanzen zwischen den berichteten Drehwerten von, aus Pflanzenmaterial isolierten und des synthetisierten Naturstoffs, dessen Zersetzung vor oder während der Messung verantwortlich ist. Dieser Effekt kann zwar auch beobachtet werden, jedoch trägt er nur in geringem Maße zur Erniederigung des Drehwertes bei. Schließlich sind Proben von synthetisiertem Tylophorin in gleichem Maße von der schnell eintretenden Oxidation des Alkaloids betroffen. Aus dem Rohextrakt ist Tylophorin durch RP-HPLC isoliert worden. Anschließend wurde die Probe mittels chiraler HPLC/MS analysiert. Durch den Vergleich mit den bereit stehenden synthetischen Proben von (R)- und (S)-Tylophorin konnte in dieser Arbeit erstmals experimentell belegt werden, dass es sich bei (−)-Tylophorin aus T. indica um ein scalemisches Gemisch im Verhältnis von 56:44 (R:S) handelt.rnrnDas Ziel dieses Teilprojektes war die Entwicklung einer Synthese für den bisher noch nicht synthetisch hergestellten phytotoxischen Sekundärmetabolit (+)-Phenguignardiasäure. Isoliert wurde diese Verbindung aus Guignardia bidwellii, dem Erreger der Schwarzfäule der Weinrebe. Die absolute Konfiguration des quartären Stereozentrums war zu Beginn dieser Arbeit nicht bekannt. Ausgehend von (R)-Phenylmilchsäure und 3-Phenylprop-2-in-1-ol gelang die Synthese beider Enantiomere des Dioxolanons in acht linearen Stufen. Sie liefert den experimentellen Beweis (ECD, Polarimetrie) für die (S)-Konfiguration von natürlicher (+)-Phenguignardiasäure.rnrn
Resumo:
Im Bereich sicherheitsrelevanter eingebetteter Systeme stellt sich der Designprozess von Anwendungen als sehr komplex dar. Entsprechend einer gegebenen Hardwarearchitektur lassen sich Steuergeräte aufrüsten, um alle bestehenden Prozesse und Signale pünktlich auszuführen. Die zeitlichen Anforderungen sind strikt und müssen in jeder periodischen Wiederkehr der Prozesse erfüllt sein, da die Sicherstellung der parallelen Ausführung von größter Bedeutung ist. Existierende Ansätze können schnell Designalternativen berechnen, aber sie gewährleisten nicht, dass die Kosten für die nötigen Hardwareänderungen minimal sind. Wir stellen einen Ansatz vor, der kostenminimale Lösungen für das Problem berechnet, die alle zeitlichen Bedingungen erfüllen. Unser Algorithmus verwendet Lineare Programmierung mit Spaltengenerierung, eingebettet in eine Baumstruktur, um untere und obere Schranken während des Optimierungsprozesses bereitzustellen. Die komplexen Randbedingungen zur Gewährleistung der periodischen Ausführung verlagern sich durch eine Zerlegung des Hauptproblems in unabhängige Unterprobleme, die als ganzzahlige lineare Programme formuliert sind. Sowohl die Analysen zur Prozessausführung als auch die Methoden zur Signalübertragung werden untersucht und linearisierte Darstellungen angegeben. Des Weiteren präsentieren wir eine neue Formulierung für die Ausführung mit fixierten Prioritäten, die zusätzlich Prozessantwortzeiten im schlimmsten anzunehmenden Fall berechnet, welche für Szenarien nötig sind, in denen zeitliche Bedingungen an Teilmengen von Prozessen und Signalen gegeben sind. Wir weisen die Anwendbarkeit unserer Methoden durch die Analyse von Instanzen nach, welche Prozessstrukturen aus realen Anwendungen enthalten. Unsere Ergebnisse zeigen, dass untere Schranken schnell berechnet werden können, um die Optimalität von heuristischen Lösungen zu beweisen. Wenn wir optimale Lösungen mit Antwortzeiten liefern, stellt sich unsere neue Formulierung in der Laufzeitanalyse vorteilhaft gegenüber anderen Ansätzen dar. Die besten Resultate werden mit einem hybriden Ansatz erzielt, der heuristische Startlösungen, eine Vorverarbeitung und eine heuristische mit einer kurzen nachfolgenden exakten Berechnungsphase verbindet.
Resumo:
The exchange of chemical constituents between ocean and atmosphere provides potentially important feedback mechanisms in the climate system. The aim of this study is to develop and evaluate a chemically coupled global atmosphere-ocean model. For this, an atmosphere-ocean general circulation model with atmospheric chemistry has been expanded to include oceanic biogeochemistry and the process of air-sea gas exchange. The calculation of seawater concentrations in the oceanic biogeochemistry submodel has been expanded from DMS, CO₂
Resumo:
Die vorliegende Arbeit behandelt Vorwärts- sowie Rückwärtstheorie transienter Wirbelstromprobleme. Transiente Anregungsströme induzieren elektromagnetische Felder, welche sogenannte Wirbelströme in leitfähigen Objekten erzeugen. Im Falle von sich langsam ändernden Feldern kann diese Wechselwirkung durch die Wirbelstromgleichung, einer Approximation an die Maxwell-Gleichungen, beschrieben werden. Diese ist eine lineare partielle Differentialgleichung mit nicht-glatten Koeffizientenfunktionen von gemischt parabolisch-elliptischem Typ. Das Vorwärtsproblem besteht darin, zu gegebener Anregung sowie den umgebungsbeschreibenden Koeffizientenfunktionen das elektrische Feld als distributionelle Lösung der Gleichung zu bestimmen. Umgekehrt können die Felder mit Messspulen gemessen werden. Das Ziel des Rückwärtsproblems ist es, aus diesen Messungen Informationen über leitfähige Objekte, also über die Koeffizientenfunktion, die diese beschreibt, zu gewinnen. In dieser Arbeit wird eine variationelle Lösungstheorie vorgestellt und die Wohlgestelltheit der Gleichung diskutiert. Darauf aufbauend wird das Verhalten der Lösung für verschwindende Leitfähigkeit studiert und die Linearisierbarkeit der Gleichung ohne leitfähiges Objekt in Richtung des Auftauchens eines leitfähigen Objektes gezeigt. Zur Regularisierung der Gleichung werden Modifikationen vorgeschlagen, welche ein voll parabolisches bzw. elliptisches Problem liefern. Diese werden verifiziert, indem die Konvergenz der Lösungen gezeigt wird. Zuletzt wird gezeigt, dass unter der Annahme von sonst homogenen Umgebungsparametern leitfähige Objekte eindeutig durch die Messungen lokalisiert werden können. Hierzu werden die Linear Sampling Methode sowie die Faktorisierungsmethode angewendet.
The gas mass fraction and the dynamical state in x-ray luminous clusters of galaxies at low redshift
Resumo:
Gli ammassi di galassie sono le strutture gravitazionalmente legate con le più profonde buche di potenziale, pertanto è previsto che questi contengano una frazione di barioni non molto diversa da quella cosmologica. Con l’introduzione di modelli sempre più accurati di fisica barionica all’interno di simulazioni idrodinamiche è stato possibile predire la percentuale cosmica di barioni presente negli ammassi di galassie. Unendo questi modelli previsionali con misure della frazione di gas in ammassi e informazioni sulla densità di barioni dell’Universo si può ottenere una stima della densità di materia cosmica Ωm. L'obiettivo di questo lavoro di Tesi è la stima di Ωm a partire dalla frazione di gas osservata in questi sistemi. Questo lavoro era stato già fatto in precedenza, ma tenendo in considerazione solo gli ammassi più massivi e dinamicamente rilassati. Usando parametri che caratterizzano la morfologia della distribuzione di brillanza superficiale nei raggi X, abbiamo classificato i nostri oggetti come rilassati o disturbati, laddove presentassero evidenze di recenti attività di interazione. Abbiamo dunque valutato l’impatto degli oggetti disturbati sulla stima del parametro cosmologico Ωm, computando il Chi2 tra la frazione di massa barionica nell’Universo e quella da noi ricavata. Infine abbiamo investigato una relazione tra il valore della frazione di gas degli ammassi rilassati e quello dei disturbati, in modo da correggere quindi questi ultimi, riportandoli nei dintorni del valore medio per i rilassati e usarli per ampliare il campione e porre un vincolo più stringente su Ωm. Anche con il limitato campione a nostra disposizione, è stato possibile porre un vincolo più stretto su Ωm, utilizzando un maggior numero di oggetti e riducendo così l’errore statistico.
Resumo:
Il presente lavoro nasce dall’esigenza maturata, oramai da diversi decenni, di conoscere l’ambiente che circonda i beni culturali, in virtù della loro intrinseca natura non rinnovabile. La ricerca si compone di due parti: l’analisi microclimatica e lo sviluppo di una metodologia innovativa di analisi relativa del rischio, che vede come bersagli i beni culturali, con particolare riferimento a quelli librari. In particolare, sulla base dei dati di temperatura, umidità relativa, concentrazioni di NO2 e O3, misurati in alcune sale della Biblioteca Classense di Ravenna, nel periodo dal 21 luglio al 7 agosto 2014, è stato possibile caratterizzare diversi ambienti confinati, tra loro eterogenei, e confrontare le dinamiche che s’instaurano tra l’ambiente indoor e quello outdoor, mediante, ad esempio, il calcolo del cosiddetto rapporto Indoor/Outdoor (I/O) e la stima del tasso di ventilazione. È stata poi proposta una metodologia di analisi del rischio che valuta i suddetti parametri microclimatici, come fattori di rischio. Attraverso tale metodologia, che identifica gli eventuali stati anomali nel sistema, è possibile giungere ad una definizione delle priorità per quegli aspetti esaminati che potrebbero discostarsi dalle condizioni di benessere, provocando un’accelerazione dei processi di degrado dei beni librari. Tale metodologia, infine, è stata applicata alle sale oggetto dell’analisi microclimatica, allo scopo di identificare eventuali fattori di rischio microclimatici.
Resumo:
La tesi individua un metodo matematico per inferire alcuni eventi demografici relativi a popolazioni umane, attraverso l’analisi di dati, reali e simulati, e con strumenti di statistica e analisi numerica (Cluster Analysis, Analisi Discriminate, Analisi della varianza, Interpolazione).
Resumo:
Diese Dissertation zeigt zum ersten Mal den Ansatz gesättigte und ungesättigte Poly(Phosphorester) herzustellen, deren Polymergerüst und Seitenketten durch präzises Anbring-en von funktionellen und/oder solubilisierenden Gruppen modifiziert werden können. Durch Kombinieren der Vorteile der Olefinmetathese mit der Vielseitigkeit der Phos-phorchemie, eröffnet dieser variable Ansatz den Zugang zu einer neuen Klasse ungesättigter Poly-phosphate. Die zu Grunde liegende Idee ist das maßgeschneiderte Anpassen der Architektur und der Mikrostruktur dieser Polymere. Lineare, verzweigte, markierte und telechele Poly(Phosphorester) können in großem Maßstab mit hohen Funktionalisierungsgrad hergestellt werden.rnEiner der größten Vorteile dieses Ansatzes ist es, das Polymerrückrat modifizieren zu können, was weder bei der Ringöffnungs- noch bei klassischen Polymerisationen möglich ist, bei denen nur eine limitierte Anzahl an Monomeren existieren.rnDie Eigenschaften des Phosphors werden in neue Polymerarchitekturen übertragen, was von Nutzen für flammenhemmenden Materialen und Anwendung bei Gewebetherapeutika ist. Diese Doktorarbeit führt auch einzigartige Poly(Phosphorester) ein, welche im Feld der Op-toelektronik als Sauerstofffänger eingesetzten werden können. Die beschriebenen Synthese-vorschriften können einfach in größeren Maßstab durchgeführt werden und sind vielversprechend für industrielle Anwendungen, da ungesättigte Polyester einen sehr wichtigen Markt repräsentieren.
Resumo:
Il mapping di grandezze fisiche risulta estremamente importante, essendo in grado di fornire un adeguato supporto per la localizzazione e il monitoraggio di parametri ambientali sensibili. Nel caso indoor, in assenza di un sistema di localizzazione di riferimento analogo al GPS per il caso outdoor, sfruttando appieno le potenzialità della sensoristica a bordo degli smartphone, si è fatto progressivamente strada il mapping di grandezze fisiche quali, ad esempio, il segnale Wi-Fi e il campo magnetico terrestre. In questo caso il mapping, senza richiedere alcuna infrastruttura e coadiuvato dall'utilizzo di dispositivi portatili largamente diffusi ad uso quotidiano, rappresenta una soluzione relativamente recente ridefinibile come Mobile Crowd Sensing. Il MCS rappresenta un nuovo paradigma di servizio, volto a sfruttare l'interconnettività tra dispositivi portatili per effettuare misurazioni di caratteristiche ambientali in maniera automatizzata, aggregandole in un sistema cloud usufruibile ad una vasta comunità. Tuttavia , il considerevole flusso di dati generato, la variabilità temporale delle grandezze di interesse e il rumore insito nelle misurazioni costituiscono problematiche fondamentali per l'utilizzo e la gestione delle misurazioni effettuate. Per tali motivi l'attività di tesi ha previsto i seguenti obiettivi: (i) fornire una panoramica delle principali tecniche e tecnologie di localizzazione volta a motivare l'importanza del mapping di grandezze fisiche ambientali; (ii) individuazione di grandezze fisiche appetibili per la creazione di mappe affidabili e realizzabili nei contesti applicativi più disparati, sfruttando risorse già presenti nell'ambiente; (iii) sviluppo di un algoritmo statistico in grado di fornire una stima accurata dell'andamento spaziale della grandezza di interesse attraverso un numero limitato di misurazioni, mantenendo la compatibilità con processi MCS e una bassa complessità computazionale. L’algoritmo sviluppato è stato validato attraverso simulazioni e misurazioni svolte in ambienti reali. In particolare, prove sperimentali sono state effettuate nell’arena Vicon nei laboratori DEI dell’Università di Bologna, sede Cesena, concepita dal gruppo di ricerca Casy.
Resumo:
Numerical simulation of the Oldroyd-B type viscoelastic fluids is a very challenging problem. rnThe well-known High Weissenberg Number Problem" has haunted the mathematicians, computer scientists, and rnengineers for more than 40 years. rnWhen the Weissenberg number, which represents the ratio of elasticity to viscosity, rnexceeds some limits, simulations done by standard methods break down exponentially fast in time. rnHowever, some approaches, such as the logarithm transformation technique can significantly improve rnthe limits of the Weissenberg number until which the simulations stay stable. rnrnWe should point out that the global existence of weak solutions for the Oldroyd-B model is still open. rnLet us note that in the evolution equation of the elastic stress tensor the terms describing diffusive rneffects are typically neglected in the modelling due to their smallness. However, when keeping rnthese diffusive terms in the constitutive law the global existence of weak solutions in two-space dimension rncan been shown. rnrnThis main part of the thesis is devoted to the stability study of the Oldroyd-B viscoelastic model. rnFirstly, we show that the free energy of the diffusive Oldroyd-B model as well as its rnlogarithm transformation are dissipative in time. rnFurther, we have developed free energy dissipative schemes based on the characteristic finite element and finite difference framework. rnIn addition, the global linear stability analysis of the diffusive Oldroyd-B model has also be discussed. rnThe next part of the thesis deals with the error estimates of the combined finite element rnand finite volume discretization of a special Oldroyd-B model which covers the limiting rncase of Weissenberg number going to infinity. Theoretical results are confirmed by a series of numerical rnexperiments, which are presented in the thesis, too.
Resumo:
La dinamica dell'assetto di un satellite artificiale rappresenta uno degli aspetti più delicati della missione che esso stesso andrà a svolgere in orbita attorno ad un qualche corpo celeste, quale appunto il pianeta Terra. Il seguente lavoro di tesi si propone di analizzare la causa di una delle principali componenti di disturbo dell'assetto appena menzionato, preponderante per satelliti dalle piccole dimensioni, fornendo la spiegazione, validata attraverso una simulazione, della messa a punto di un metodo sperimentale per la valutazione della stessa. La componente in questione è la coppia di disturbo magnetica, ed è generata dall'interazione tra il campo magnetico terrestre ed il cosiddetto 'dipolo magnetico residuo' del satellite stesso, ossia quel campo magnetico che esso, in modalità operativa e non, risulta generare a causa del materiale ferromagnetico presente al suo interno, e delle correnti elettriche circolanti nei vari cavi conduttori. Ci si è dunque occupati dell'analisi e messa a punto di un metodo che possa consentire sperimentalmente di rilevare l'entità del dipolo residuo. Il lavoro di simulazione è stato svolto prendendo in considerazione le dimensioni e le possibili caratteristiche del dipolo residuo del micro-satellite ESEO (European Student Earth Orbiter), sviluppato da studenti di diverse università europee ed ora in fase di progetto dettagliato (fase C) presso i laboratori dell'azienda ALMASpace S.r.l. di Forlì. Il metodo in esame consiste nel rilevare il campo magnetico generato dal satellite, posto all'interno di un sistema tridimensionale di bobine di Helmholtz per avere una zona libera da campi magnetici esterni. Il rilevamento del dipolo avviene per mezzo di un magnetometro a tre assi, e dalla suddetta misura si può pervenire alla conoscenza delle componenti del dipolo stesso, quali posizione, orientamento ed intensità; siccome però la misura del magnetometro non è ideale, ma risulta affetta da errori, per una più corretta caratterizzazione del dipolo è necessario utilizzare un numero maggiore di magnetometri (oppure, il che è lo stesso, un unico magnetometro spostato mano a mano) in punti diversi attorno al satellite in modo da avere più misure di campo magnetico e poter così sfruttare una procedura numerica di ottimizzazione per risalire alle componenti del dipolo. Questa intera parte di calcolo è stata realizzata in MatLab®, simulando quindi le misure ottenute dai magnetometri, 'sporcandole' con i predetti errori, ed utilizzando le funzioni di minimizzazione lsqnonlin ed fmincon per verificare la funzionalità del sistema; si sono infatti analizzati i grafici rappresentanti i livelli di errore commessi dall'algoritmo di stima sulle varie componenti del dipolo, per le tipologie di errore dei magnetometri menzionate in precedenza. Si è così cercato di suggerire una configurazione ottimale di magnetometri in grado di fornire una stima caratterizzata da un buon compromesso tra numero di magnetometri da utilizzare non troppo elevato ed errore derivante accettabile.
Resumo:
Il trasporto del petrolio via mare tramite navi petroliere è molto utilizzato per congiungere i paesi produttori con quelli consumatori. Durante il trasporto possono avvenire rilasci accidentali di petrolio in mare, con contaminazione anche estesa dell’ambiente marino. La stima del rischio di contaminazione ambientale imputabile alle attività di trasporto via mare è fondamentale al fine di ridurre il rischio stesso. Per prevedere il destino degli sversamenti di olio in mare, sono stati sviluppati diversi software che simulano lo spostamento della chiazza di olio rilasciato e le trasformazioni chimico-fisiche cui essa è soggetta, dette fenomeni di oil weathering. L’obiettivo del presente lavoro di tesi è stato quello di individuare un software per la simulazione del destino dei rilasci di olio in mare idoneo ad essere utilizzato nell’ambito di una innovativa metodologia di valutazione del rischio per l’ambiente marino. A tal fine sono stati studiati e confrontati, sia da un punto di vista teorico sia tramite l’applicazione a casi di studio, i software GNOME, ADIOS e OSCAR; dal confronto è emerso che GNOME e ADIOS contengono modelli semplificati per simulare i fenomeni di oil weathering subiti da una chiazza di olio formatasi a seguito di un rilascio. Rispetto ai software GNOME e ADIOS, OSCAR è molto più complesso e articolato; richiede numerosi dati in ingresso, ma fornisce in uscita una descrizione dello scenario più aderente alla realtà. Un’importante peculiarità di OSCAR, che lo rende estremamente vantaggioso nell’ambito di una metodologia di valutazione del rischio, consiste nel fatto che esso dispone di una modalità di funzionamento stocastica. Per validare l’utilizzo di OSCAR nell’ambito di una metodologia di valutazione del rischio, se ne è effettuata l’applicazione ad un caso di studio, ovvero alla rotta da Suez a Porto Marghera. Si è pertanto osservato che il rischio derivante da un rilascio di olio in mare è dipendente dal punto in cui questo rilascio avviene. È dunque possibile concludere che il software OSCAR è uno strumento valido nell’analisi del rischio ambientale derivante da sversamenti di olio in mare. Il lavoro di tesi è strutturato come descritto nel seguito. Il Capitolo 1 è introduttivo e, dopo aver descritto la problematica legata agli sversamenti di idrocarburi in mare, elenca e spiega i fenomeni di oil weathering. Il Capitolo 2 è incentrato sulle caratteristiche e sul confronto dei software dell’ente americano NOAA, ossia ADIOS e GNOME. Il Capitolo 3 si occupa della descrizione del software OSCAR dell’ente norvegese SINTEF. Il Capitolo 4 riporta la metodologia seguita per il calcolo del rischio di contaminazione del mare, ripresa da una metodologia per il calcolo del rischio già consolidata nell’industria di processo relativa all’uomo. Il Capitolo 5 introduce il caso di studio, ovvero l’applicazione della metodologia alla rotta da Suez a Marghera. Il Capitolo 6 riporta alcune considerazioni conclusive.
Resumo:
Il teorema del viriale consiste in una relazione tra energia cinetica e energia potenziale totali di un sistema all'equilibrio. Il concetto di Viriale (dal latino vires, plurale di vis, 'forza') è stato introdotto dal fisico e matematico tedesco Rudolf Julius Emanuel Clausius (1822-1888) per indicare la quantità N Fi •xi i=1 che rappresenta la somma, fatta su tutte le N particelle di un sistema, dei prodotti scalari del vettore forza totale agente su ciascuna particella per il vettore posizione della particella stessa, rispetto ad un riferimento inerziale scelto. Tale quantità altro non è che un'energia potenziale. Dire che un sistema di particelle è virializzato equivale a dire che esso è stazionario, cioè all'equilibrio. In questo elaborato sono di nostro interesse sistemi astrofisici gravitazionali, in cui cioè l'energia potenziale sia dovuta solo a campi gravitazionali. Distingueremo innanzitutto sistemi collisionali e non collisionali, introducendo i tempi scala di attraversamento e di rilassamento. Dopo una trattazione teorica del teorema, nell'approssimazione di continuità - per cui sostuiremo alle sommatorie gli integrali - e di non collisionalità, an- dremo a studiarne l'importanza in alcuni sistemi astrofisici: applicazione agli ammassi stellari, alle galassie e agli ammassi di galassie, stima della quantità di materia oscura nei sistemi, instabilità di Jeans in nubi molecolari, rotazione delle galassie ellittiche. Per ragioni di spazio non saranno affrontati altri casi, di cui ne citiamo alcuni: collasso delle stelle, stima della massa dei buchi neri al centro delle galassie, 'mass-to-light ratio' di sistemi sferici. Parleremo in generale di “particelle” costituenti i sistemi per intendere stelle, galassie, particelle di gas a seconda del sistema in esame. Trascureremo in ogni caso le influenze gravitazionali di distribuzioni di densità esterne al sistema.