94 resultados para idrocarburi non convenzionali, shale gas, approvvigionamenti energetici, olio non convenzionale
Resumo:
Con il termine Smart Grid si intende una rete urbana capillare che trasporta energia, informazione e controllo, composta da dispositivi e sistemi altamente distribuiti e cooperanti. Essa deve essere in grado di orchestrare in modo intelligente le azioni di tutti gli utenti e dispositivi connessi al fine di distribuire energia in modo sicuro, efficiente e sostenibile. Questo connubio fra ICT ed Energia viene comunemente identificato anche con il termine Smart Metering, o Internet of Energy. La crescente domanda di energia e l’assoluta necessità di ridurre gli impatti ambientali (pacchetto clima energia 20-20-20 [9]), ha creato una convergenza di interessi scientifici, industriali e politici sul tema di come le tecnologie ICT possano abilitare un processo di trasformazione strutturale di ogni fase del ciclo energetico: dalla generazione fino all’accumulo, al trasporto, alla distribuzione, alla vendita e, non ultimo, il consumo intelligente di energia. Tutti i dispositivi connessi, diventeranno parte attiva di un ciclo di controllo esteso alle grandi centrali di generazione così come ai comportamenti dei singoli utenti, agli elettrodomestici di casa, alle auto elettriche e ai sistemi di micro-generazione diffusa. La Smart Grid dovrà quindi appoggiarsi su una rete capillare di comunicazione che fornisca non solo la connettività fra i dispositivi, ma anche l’abilitazione di nuovi servizi energetici a valore aggiunto. In questo scenario, la strategia di comunicazione sviluppata per lo Smart Metering dell’energia elettrica, può essere estesa anche a tutte le applicazioni di telerilevamento e gestione, come nuovi contatori dell’acqua e del gas intelligenti, gestione dei rifiuti, monitoraggio dell’inquinamento dell’aria, monitoraggio del rumore acustico stradale, controllo continuo del sistema di illuminazione pubblico, sistemi di gestione dei parcheggi cittadini, monitoraggio del servizio di noleggio delle biciclette, ecc. Tutto ciò si prevede possa contribuire alla progettazione di un unico sistema connesso, dove differenti dispositivi eterogenei saranno collegati per mettere a disposizione un’adeguata struttura a basso costo e bassa potenza, chiamata Metropolitan Mesh Machine Network (M3N) o ancora meglio Smart City. Le Smart Cities dovranno a loro volta diventare reti attive, in grado di reagire agli eventi esterni e perseguire obiettivi di efficienza in modo autonomo e in tempo reale. Anche per esse è richiesta l’introduzione di smart meter, connessi ad una rete di comunicazione broadband e in grado di gestire un flusso di monitoraggio e controllo bi-direzionale esteso a tutti gli apparati connessi alla rete elettrica (ma anche del gas, acqua, ecc). La M3N, è un’estensione delle wireless mesh network (WMN). Esse rappresentano una tecnologia fortemente attesa che giocherà un ruolo molto importante nelle futura generazione di reti wireless. Una WMN è una rete di telecomunicazione basata su nodi radio in cui ci sono minimo due percorsi che mettono in comunicazione due nodi. E’ un tipo di rete robusta e che offre ridondanza. Quando un nodo non è più attivo, tutti i rimanenti possono ancora comunicare tra di loro, direttamente o passando da uno o più nodi intermedi. Le WMN rappresentano una tipologia di rete fondamentale nel continuo sviluppo delle reti radio che denota la divergenza dalle tradizionali reti wireless basate su un sistema centralizzato come le reti cellulari e le WLAN (Wireless Local Area Network). Analogamente a quanto successo per le reti di telecomunicazione fisse, in cui si è passati, dalla fine degli anni ’60 ai primi anni ’70, ad introdurre schemi di rete distribuite che si sono evolute e man mano preso campo come Internet, le M3N promettono di essere il futuro delle reti wireless “smart”. Il primo vantaggio che una WMN presenta è inerente alla tolleranza alla caduta di nodi della rete stessa. Diversamente da quanto accade per una rete cellulare, in cui la caduta di una Base Station significa la perdita di servizio per una vasta area geografica, le WMN sono provviste di un’alta tolleranza alle cadute, anche quando i nodi a cadere sono più di uno. L'obbiettivo di questa tesi è quello di valutare le prestazioni, in termini di connettività e throughput, di una M3N al variare di alcuni parametri, quali l’architettura di rete, le tecnologie utilizzabili (quindi al variare della potenza, frequenza, Building Penetration Loss…ecc) e per diverse condizioni di connettività (cioè per diversi casi di propagazione e densità abitativa). Attraverso l’uso di Matlab, è stato quindi progettato e sviluppato un simulatore, che riproduce le caratteristiche di una generica M3N e funge da strumento di valutazione delle performance della stessa. Il lavoro è stato svolto presso i laboratori del DEIS di Villa Grifone in collaborazione con la FUB (Fondazione Ugo Bordoni).
Resumo:
Progettazione delle procedure necessarie alla realizzazione di piattaforme off-shore, grandi e complesse strutture intelaiate di pilastri, diagonali, travi primarie e travi secondarie, progettate per insediarsi in ambiente marino ed idonee ad ospitare impianti per l'estrazione di idrocarburi. Durante la fase di progettazione si procede con l'ideare la struttura della piattaforma fino a definire le caratteristiche di ogni componente: tale fase ha come esito la redazione dei project drawings (disegni di progetto). La fase di realizzazione è quella che interessa propriamente il lavoro svolto: a seguito della progettazione infatti emergono nuove problematiche a livello applicativo e costruttivo che necessitano di essere studiate e risolte preventivamente alla costruzione fisica dell'opera. In particolar modo è necessario definire quali parti della struttura possono essere acquistate e quali invece devono essere realizzate su misura. Definite le modalità costruttive, viene effettuato lo studio riguardante la movimentazione dei vari piani della piattaforma, movement, e successivamente le problematiche relative al sollevamento degli stessi, lifting. Le due procedure necessitano di raffinate valutazioni euristiche ed analitiche per garantire che la struttura non collassi.
Resumo:
È stata studiata la reattività di sistemi catalitici a base di ossidi misti di V e Fe per la reazione di metilazione del fenolo in fase gas con metanolo. Questi sistemi promuovono efficacemente la deidrogenazione del metanolo a formaldeide, ciò conferisce loro una grande attività e non è stata osservata alcuna disattivazione nei tempi di reazione tenuti. I principali prodotti ottenuti sono 2,6-xilenolo e o-cresolo. Il catalizzatore, inizialmente costituito da FeVO4 subisce, durante le prime fasi di reazione, una progressiva riduzione, fino all’ottenimento di una fase spinello stabile costituita da coulsonite FeV2O4 e magnetite.
Resumo:
Negli ultimi anni l’interesse nei confronti dell’H2 è cresciuto notevolmente per l’aumento della richiesta energetica mondiale. Uno dei processi più importanti per la produzione di H2 utilizza la reazione di Water-Gas Shift (WGS) per il trattamento delle correnti in uscita dai processi di steam reforming o di ossidazione parziale catalitica. CO + H2O CO2 + H2 ∆H0298 = -41,2 KJ/mol Sono quindi stati sviluppati sistemi catalitici attivi nella reazione di WGS a media temperatura (circa 300 °C). Partendo da sistemi catalitici a base di Cu/Zn/Al, ottenuti da precursori idrotalcitici e sviluppati in lavori di tesi precedenti, sono state effettuate modifiche nella composizione al fine di aumentarne l’attività e la stabilità. L’aggiunta di piccole quantità di Mg ha un effetto positivo sull’attività dei sistemi catalitici, con effetti più evidenti a 250 °C. Tuttavia, l’aumento del contenuto di Mg, sebbene migliori le proprietà fisiche del catalizzatore (area superficiale e dispersione del Cu) sia del campione calcinato che di quello scaricato dopo reazione, peggiora drasticamente l’attività catalitica. L’aggiunta di piccole quantità di Mg sembra portare alla stabilizzazione della specie attiva Cu+ e promuovere un meccanismo redox superficiale (Cu0 e Cu+). E’ possibile correlare la conversione del CO con il rapporto ZnO/Cu, confermando il ruolo nella reazione di WGS dell’interazione Cu0/ZnO libero. La sostituzione di Mg con Ba comporta un miglioramento delle prestazioni catalitiche, in particolare nelle condizioni MTS (300 °C), suggerendo una più facile dissociazione dell’acqua legata alla stabilizzazione degli ossidrili da parte dei siti basici. È però accompagnato da una diminuzione della stabilità nelle condizioni di reazione. L’aggiunta di piccole quantità di La, Ce o Zr (con un rapporto Al/R = 50 mol/mol) incrementa la stabilità termica, sia in termini di proprietà fisiche che di attività catalitica. A seguito dei cicli termici di invecchiamento accelerato, infatti, non si riscontrano importanti diminuzioni di attività catalitica, evidenziando un’elevata stabilità della fase attiva.
Resumo:
Il lavoro è costituito da una prima parte nella quale sono analizzate in dettaglio le caratteristiche fisiche e tecnologiche degli impianti a vapore, a gas e combinati. Segue quindi una seconda parte nella quale è introdotto l'ambiente di programmazione Matlab, sono spiegate alcune funzionalità del programma e infine vengono analizzate alcune toolboxes rilevanti per la parte conclusiva del lavoro, che riguarda l'analisi numerica dei cicli sopra menzionati volta all'ottenimento di interfacce user-friendly che consentono l'approccio analitico completo a questo tipo di sistemi anche da parte di utenti inesperti di programmazione.
Resumo:
Lo scopo della seguente tesi è quello di illustrare la disposizione dei campioni di sistemi binari Mg Pd e di deposizioni singole di Ti, nell’abito di due progetti di ricerca, l’SSHS, Solide State Hydrogen Storage nell’ambito dell’Azione COST, e la produzione di titania (TiO2) per la fotocatalisi, sintetizzati in differenti reggimi di flusso di gas d’He, realizzando la crescita con il metodo IGC. Sono state illustrate le nuove proprietà e i metodi di formazione dei materiali nanostrutturati, per poi passare alla descrizione dell’apparato dove sono stati prodotti i campioni, con la conseguente spiegazione della progettazione del controllore di flusso dei sistemi di alimentazione e interfacciamento di quest’ultimo. Dopo un’accurata analisi al microscopio elettronico, `e stata descritta la morfologia dei campioni a due diversi reggimi di flusso di gas He, per i campioni di Mg Pd non sono state apprezzate differenze al variare del flusso, per il Ti, invece, si può notare una variazione morfologica legata alle dimensioni.
Resumo:
Il primo scopo di questo progetto sperimentale è stato quello di valutare la qualità chimica e sensoriale di oli vergini d’oliva ottenuti da olive conservate per tempi diversi prima della loro lavorazione. Spesso, infatti, quando le olive arrivano in frantoio, la loro trasformazione può essere ritardata a causa della ridotta capacità di lavorazione degli impianti rispetto alla quantità di prodotto da lavorare. Il tempo e le modalità di conservazione delle drupe risultano fattori molto importanti ai fini della qualità organolettica dell’olio prodotto. Per questa finalità sono state acquistate olive di due diverse varietà (Correggiolo e Canino) e divise in due aliquote. La prima aliquota di ogni partita di olive è stata franta al momento della consegna (tempo 0), la seconda invece è stata stoccata in condizioni non ideali di conservazione ed umidità per 7 giorni (varietà Correggiolo) e 15 giorni (varietà Canino), quindi franta. Per tutti i campioni sono stati valutati i parametri di qualità stabiliti dal Reg. CEE n. 2568/91 e successive modifiche: acidità libera e numero di perossidi con valutazioni titrimetriche, estinzioni specifiche nell'ultravioletto mediante spettrofotometria, determinazione gascromatografica degli alchil esteri degli acidi grassi ed analisi sensoriale secondo “Panel test”. Sono stati inoltre valutati parametri compositivi che attualmente non sono contemplati nei regolamenti ufficiali: il profilo qualitativo e quantitativo gascromatografico in digliceridi e quello in componenti volatili (SPME). I risultati ottenuti per i campioni ottenuti da olive “fresche” e da olive conservate per tempi diversi sono stati comparati con i limiti di legge che definiscono l'appartenenza alle categorie merceologiche degli oli di oliva vergini (extravergine, vergine o lampante) e, per i parametri non normati, sono state valutate le principali differenze in relazione alla qualità del prodotto. Il secondo scopo del progetto è stato quello di valutare la possibilità di una rapida discriminazione di oli d’oliva caratterizzati da differenti concentrazioni di alchil esteri degli acidi grassi mediante Riflettometria nel Dominio del Tempo (TDR, Time Domain Reflectometry). Il metodo chimico proposto dal Reg. UE n. 61/2011 risulta, infatti, lungo e dispendioso prevedendo una separazione preparativa seguita da analisi gascromatografica. La TDR si presenta, invece, come un metodo alternativo rapido, economico e non distruttivo per la valutazione e discriminazione degli oli d’oliva sulla base di questo parametro qualitativo.
Resumo:
Studio di fattibilità sull'utilizzo della tecnologia radar Ultra Wideband per il controllo non distruttivo di manufatti in materiale composito in fibra di carbonio. La tecnologia radar UWB permette, a differenza dei radar convenzionali, una maggiore risoluzione e un maggior quantitativo di informazioni estraibili dal segnale ricevuto come eco. Nella prima parte del lavoro ci si è concentrati sulla individuazione dell'eventuale presenza del difetto in lastre di materiale composito di differenti dimensioni. Le lastre vengono "illuminate" da un fascio di onde radar UWB dal cui eco si estraggono le informazioni necessarie per determinare la presenza o meno del difetto. Lo scopo è progettare le basi di un algoritmo che, qualora la lastra in esame presenti una certa difettologia, informi l'utente della presenza dell'anomalia. Nella seconda parte si è passati a scansionare la lastra con un radar UWB in modo tale da costruire un'immagine della stessa grazie alle informazioni ricevute dai segnali eco. Per fare questo è stata necessaria dapprima la costruzione di un movimentatore ad hoc in grado di muovere il radar lungo due dimensioni (per permetterne la scansione del piano della lastra). Il movimentatore, autocostruito, è gestibile da Matlab attraverso cavo USB. L'algoritmo di controllo gestisce sia la movimentazione che l'acquisizione dei segnali ricevuti e quindi la creazione del database, punto di partenza per la creazione dell'immagine della lastra. Rispetto alla prima fase del lavoro dove si cercava di sapere se ci fosse o meno il difetto, ora, si è in grado di determinare dimensione e posizione dello stesso.
Resumo:
Il plasma, quarto stato della materia, rappresenta un gas ionizzato in cui ioni ed elettroni si muovono a diverse energie sotto l’azione di un campo elettro-magnetico applicato dall’esterno. I plasmi si dividono in plasmi di equilibrio e di non equilibrio termodinamico, quest’ultimi sono caratterizzati da un’alta temperatura elettronica (oltre 10000 K) e da una bassa temperatura traslazionale degli ioni e delle specie neutre (300-1000 K). I plasmi di non equilibrio trovano largo impiego nella microelettronica, nei processi di polimerizzazione, nell’industria biomedicale e del packaging, consentendo di effettuare trattamenti di sterilizzazione e attivazione superficiale. Il lavoro di tesi è incentrato sui processi di funzionalizzazione e polimerizzazione superficiale con l’obbiettivo di realizzare e caratterizzare sorgenti di plasma di non equilibrio a pressione atmosferica operanti in ambiente controllato. È stata realizzata una sorgente plasma operante a pressione atmosferica e in ambiente controllato per realizzare trattamenti di modifica superficiale e di polimerizzazione su substrati polimerici. L’efficacia e l’omogeneità dei trattamenti eseguiti sono stati valutati tramite misura dell’angolo di contatto. La caratterizzazione elettrica ha consentito di determinare i valori di densità di energia superficiale trasferita sui substrati al variare delle condizioni operative. Lo strato depositato durante il processo di polimerizzazione è stato analizzato qualitativamente tramite l’analisi chimica in spettroscopia infrarossa. L’analisi delle prove di funzionalizzazione dimostra l’uniformità dei processi plasma eseguiti; inoltre i valori dell’angolo di contatto misurati in seguito ai trattamenti risultano confrontabili con la letteratura esistente. Lo studio dei substrati trattati in atmosfera satura d’azoto ha rivelato una concentrazione superficiale di azoto pari al 3% attribuibile alla presenza di ammine, ammine protonate e gruppi ammidici; ciò conferma la bontà della soluzione realizzata e dei protocolli operativi adottati per la funzionalizzazione delle superfici. L’analisi spettroscopica dei trattamenti di polimerizzazione, ha fornito spettri IR confrontabili con la letteratura esistente indicando una buona qualità del polimero depositato (PEG). I valori misurati durante la caratterizzazione elettrica della sorgente realizzata risulteranno fondamentali in futuro per l’ottimizzazione del dispositivo. I dati raccolti infatti, determineranno le linee guida per il tailoring dei trattamenti plasma e per lo sviluppo della sorgente. Il presente lavoro di tesi, pur prendendo in esame una piccola parte delle applicazioni industriali dei plasmi non termici, conferma quanto queste siano pervasive nei comuni processi industriali evidenziandone le potenzialità e i numerosi campi d’applicazione. La tecnologia plasma è destinata ad essere imprescindibile per la ricerca di soluzioni innovative ai limiti dei processi tradizionali.
Resumo:
Quando si parla di olio extravergine di oliva ci si riferisce ad un prodotto caratterizzato da anni di storia, tradizioni e valori simbolici; è inoltre rinomato per le sue caratteristiche peculiari, anche di tipo sensoriale. Esso è definito come un prodotto "ottenuto unicamente mediante procedimenti meccanici" e non è ammesso nessun altro trattamento o successiva correzione. Lo scopo di questo lavoro di tesi è indagare le abitudini ed i gusti dei consumatori e guidarli verso scelte più consapevoli, attraverso attività divulgative e mediante l’educazione all’assaggio, la cognizione ed il senso più corretto del gusto applicati ad un prodotto vergine di altissimo valore merceologico oltre che nutrizionale. Per questa finalità, è stato realizzato un test di accettabilità su 125 soggetti, chiamati a rispondere ad una serie di domande riguardanti il gradimento e la percezione di alcuni attributi sensoriali per quattro diversi oli commercializzati come extravergini di oliva e selezionati con l’intento di rappresentare il più possibile i diversi livelli di qualità del prodotto presenti sul mercato. In questo lavoro viene messa in luce la necessità di riavvicinare e conquistare il consumatore interessato agli aspetti salutistici del prodotto ma che non dispone, per mancanza di informazioni, delle competenze e degli strumenti necessari per riconoscere un olio extravergine di qualità e capire cosa, in esso, effettivamente costituisce un valore aggiunto. I risultati ottenuti dall'indagine condotta dal Dipartimento di Scienze e Tecnologie Agro-Alimentari su 125 consumatori romagnoli, oggetto di questo elaborato, hanno permesso di capire meglio le abitudini, i gusti, le aspettative dei soggetti intervistati e di verificare la loro capacità di distinguere in maniera agevole la qualità di un prodotto tanto complesso quale l’olio extravergine di oliva. Gli oli proposti durante il test affettivo di tipo edonico, erano di differente qualità e con caratteristiche diverse in termini di attributi sensoriali, di prezzo e di origine geografica. Questo studio conferma l'esigenza di indirizzare la comunicazione in modo più mirato verso i consumatori finali, migliorando la leggibilità dell’offerta con etichette più chiare e promuovendo oltre alle caratteristiche salutistiche del prodotto, anche quelle sensoriali. Un consumatore informato, competente e capace di riconoscere la qualità rappresenta la migliore garanzia per i produttori di essere premiati per il proprio impegno.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
The recent availability of multi-wavelength data revealed the presence of large reservoirs of warm and cold gas and dust in the innermost regions of the majority of massive elliptical galaxies. To prove an internal origin of cold and warm gas, the investigation of the spatially distributed cooling process which occurs because of non-linear density perturbations and subsequent thermal instabilities is of crucial importance. The first goal of this work of thesis is to investigate the internal origin of warm and cold phases. Numerical simulations are the powerful tool of analysis. The way in which a spatially distributed cooling process originates has been examined and the off-centre amount of gas mass which cools when different and differently characterized AGN feedback mechanisms operate has been quantified. This thesis demonstrates that the aforementioned non-linear density perturbations originate and develop from AGN feedback mechanisms in a natural fashion. An internal origin of the warm phase from the once hot gas is shown to be possible. Computed velocity dispersions of ionized and hot gas are similar. The cold gas as well can originate from the cooling process: indeed, it has been estimated that the surrounding stellar radiation, which is one of the most feasible sources of ionization of the warm gas, does not manage to keep ionized all the gas at 10^4 K. Therefore, cooled gas does undergo a further cooling which can lead the warm phase to lower temperatures. However, the gas which has cooled from the hot phase is expected to be dustless; nonetheless, a large fraction of early type galaxies has detectable dust in their cores, both concentrated in filamentary and disky structures and spread over larger regions. Therefore a regularly rotating disk of cold and dusty gas has been included in the simulations. A new quantitative investigation of the spatially distributed cooling process has therefore been essential: the contribution of the included amount of dust which is embedded in the cold gas does have a role in promoting and enhancing the cooling. The fate of dust which was at first embedded in cold gas has been investigated. The role of AGN feedback mechanisms in dragging (if able) cold and dusty gas from the core of massive ellipticals up to large radii has been studied.
Resumo:
L’emissione spontanea di fluidi profondi in superficie è stata storicamente oggetto d’interesse, soprattutto per le informazioni che può fornire per l’esplorazione d’idrocarburi presenti in diverse tipologie di reservoirs associati a tale fenomeno. In questo lavoro di tesi è stato esplorato il fenomeno legato all’emissione spontanea di fluidi ricchi di metano in ambiente sottomarino che genera la precipitazione di carbonati autigeni metano-derivati (MDAC), come conseguenza dell’ossidazione anaerobica del metano da parte di consorzi formati da batteri solfato-riducenti e Archaea. In particolar modo sono state studiate le caratteristiche geochimiche e mineralogiche di una concrezione carbonatica (camino EN5) fossile campionata nell’Appennino settentrionale e dei sedimenti incassanti, che sono peliti di ambiente di piattaforma continentale. Questo perché è stato dimostrato che le concrezioni carbonatiche possono avere relazioni con i sedimenti in cui sono contenute. La scansione XRD ha evidenziato che il camino è composto all’80% da dolomite, poi contiene quarzo, plagioclasi e calcite ma soltanto nella fascia esterna (a contatto con il sedimento). Il sedimento invece è composto da quarzo, plagioclasi (in quantità maggiori rispetto al camino), calcite (di origine biogenica) e dolomite soltanto in tracce. L’analisi elementare del TOC mostra una concentrazione media di 0,5% comune sia al camino sia al sedimento. Le concentrazioni assolute degli altri elementi investigati sono minori nel camino che nei sedimenti, anche se i valori normalizzati all’Al mostrano un arricchimento di alcuni elementi nella parte interna del camino. Questo studio ha permesso di stabilire che la formazione di carbonati autigeni metano-derivati in un ambiente di piattaforma, è possibile solo quando sono presenti le giuste condizioni sedimentarie e un flusso di metano piuttosto intenso. Inoltre la formazione dei carbonati non risente, se non in minima parte, della composizione dei sedimenti ospitanti, ma è regolata dai processi accoppiati di solfato-riduzione e ossidazione del metano.
Resumo:
La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.
The gas mass fraction and the dynamical state in x-ray luminous clusters of galaxies at low redshift
Resumo:
Gli ammassi di galassie sono le strutture gravitazionalmente legate con le più profonde buche di potenziale, pertanto è previsto che questi contengano una frazione di barioni non molto diversa da quella cosmologica. Con l’introduzione di modelli sempre più accurati di fisica barionica all’interno di simulazioni idrodinamiche è stato possibile predire la percentuale cosmica di barioni presente negli ammassi di galassie. Unendo questi modelli previsionali con misure della frazione di gas in ammassi e informazioni sulla densità di barioni dell’Universo si può ottenere una stima della densità di materia cosmica Ωm. L'obiettivo di questo lavoro di Tesi è la stima di Ωm a partire dalla frazione di gas osservata in questi sistemi. Questo lavoro era stato già fatto in precedenza, ma tenendo in considerazione solo gli ammassi più massivi e dinamicamente rilassati. Usando parametri che caratterizzano la morfologia della distribuzione di brillanza superficiale nei raggi X, abbiamo classificato i nostri oggetti come rilassati o disturbati, laddove presentassero evidenze di recenti attività di interazione. Abbiamo dunque valutato l’impatto degli oggetti disturbati sulla stima del parametro cosmologico Ωm, computando il Chi2 tra la frazione di massa barionica nell’Universo e quella da noi ricavata. Infine abbiamo investigato una relazione tra il valore della frazione di gas degli ammassi rilassati e quello dei disturbati, in modo da correggere quindi questi ultimi, riportandoli nei dintorni del valore medio per i rilassati e usarli per ampliare il campione e porre un vincolo più stringente su Ωm. Anche con il limitato campione a nostra disposizione, è stato possibile porre un vincolo più stretto su Ωm, utilizzando un maggior numero di oggetti e riducendo così l’errore statistico.