966 resultados para Reazioni nucleari, supernovae, accrescimento gravitazionale, limite di luminosità di Eddington.
Resumo:
Nell’Ottobre 2015, a seguito di alcuni fenomeni di instabilità avvenuti in corrispondenza delle scarpate lato fiume in sponda sinistra del Po, nel tratto compreso tra Casalmaggiore (CR) e Dosolo (MN), l'Agenzia Interregionale per il fiume Po (AIPO) ha commissionato un' estesa campagna di indagini geognostiche. L'ampio database reso disponibile è stato utilizzato in questa tesi di laurea con l'obiettivo di sviluppare, in collaborazione con i tecnici AIPO, una valida procedura per analizzare i dissesti delle scarpate lato fiume in questo tratto del Po e per identificare gli eventuali interventi di messa in sicurezza più idonei. Lo studio proposto si prefigge i seguenti obiettivi: • La caratterizzazione geotecnica dei terreni costituenti le strutture arginali in esame ed il relativo substrato; • La definizione del modello geotecnico del sistema arginale; • La valutazione della stabilità dell'argine; • La individuazione degli interventi di messa in sicurezza delle scarpate. Attraverso l’elaborazione delle prove CPTU è stato possibile determinare la stratigrafia e i parametri geotecnici delle diverse unità stratigrafiche presenti nelle sezioni considerate significative. Sono state quindi effettuate una serie di analisi con il metodo all'equilibrio limite, verificando la stabilità delle scarpate in condizioni di magra ordinaria e in condizioni di rapido svaso. Tenendo conto che la maggior parte dei tratti analizzati aveva già manifestato segni di instabilità o comunque indicava condizioni prossime al limite dell’equilibrio, si è proceduto in "back analysis" alla individuazione dei parametri di resistenza al taglio operativi, tenendo conto della variabilità degli stessi nell'ambito di una stessa unità stratigrafica. Infine tenendo presente i criteri di progetto degli interventi normalmente adottati sulle sponde, è stato possibile procedere alla modellazione di interventi mirati ad aumentare il fattore di sicurezza, analizzandone i relativi vantaggi e svantaggi.
Resumo:
Questo elaborato ha lo scopo di esporre quelli che sono i vantaggi derivanti dall' utilizzo degli acciai inossidabili, specificando il tipo di componente e le ragioni della scelta, nei sistemi per la produzione di energia: dalle turbine, agli impianti nucleari, fino agli impianti che sfruttano le energie alternative (solare, eolica, geotermica, biogas). Inizialmente viene fornito un quadro generale sui differenti tipi di acciai inox (martensitici, ferritici, austenitici e duplex, con le relative proprietà, sottolineandone vantaggi e svantaggi), descrivendone anche i sistemi di designazione, con particolare attenzione alla norma AISI (American Iron and Steel Institute). Una volta messe in risalto queste caratteristiche, vengono esaminati e descritti diversi sistemi di produzione di energia in cui gli acciai inox trovano applicazione: si parte dalle turbine (idraulica, a vapore e a gas), spiegando i benefici nell'utilizzo di particolari categorie di acciai inox nella realizzazione di alcuni dei componenti per questi impianti. Vengono quindi esaminati gli impianti nucleari, partendo da quelli che utilizzano come moderatore e fluido refrigerante acqua naturale, ("PWR", Pressurized Water Reactor) e ("BWR", Boiling Water Reactor), fino a quelli che utilizzano invece acqua pesante ("CANDU", Canadian Deuterium Uranium Reactor), nonchè i reattori veloci ("FBR", Fast Breeding Reactor). Infine, vengono esaminate le applicazioni degli acciai inox, nei sistemi per la produzione di energia che, sfruttano fonti alternative (elencate in precedenza).
Resumo:
Scopo di questo elaborato di tesi è la modellazione e l’implementazione di una estensione del simulatore Alchemist, denominata Biochemistry, che permetta di simulare un ambiente multi-cellulare. Al fine di simulare il maggior numero possibile di processi biologici, il simulatore dovrà consentire di modellare l’eterogeneità cellulare attraverso la modellazione di diversi aspetti dei sistemi cellulari, quali: reazioni intracellulari, segnalazione tra cellule adiacenti, giunzioni cellulari e movimento. Dovrà, inoltre, essere ammissibile anche l’esecuzione di azioni impossibili nel mondo reale, come la distruzione o la creazione dal nulla di molecole chimiche. In maniera più specifica si sono modellati ed implementati i seguenti processi biochimici: creazione e distruzione di molecole chimiche, reazioni biochimiche intracellulari, scambio di molecole tra cellule adiacenti, creazione e distruzione di giunzioni cellulari. È stata dunque posta particolare enfasi nella modellazione delle reazioni tra cellule vicine, il cui meccanismo è simile a quello usato nella segnalazione cellulare. Ogni parte del sistema è stata modellata seguendo fenomeni realmente presenti nei sistemi multi-cellulari, e documentati in letteratura. Per la specifica delle reazioni chimiche, date in ingresso alla simulazione, è stata necessaria l’implementazione di un Domain Specific Language (DSL) che consente la scrittura di reazioni in modo simile al linguaggio naturale, consentendo l’uso del simulatore anche a persone senza particolari conoscenze di biologia. La correttezza del progetto è stata validata tramite test compiuti con dati presenti in letteratura e inerenti a processi biologici noti e ampiamente studiati.
Resumo:
Gli ammassi di galassie sono le strutture più grandi che possiamo osservare nell’Universo. La loro formazione deriva direttamente dalla crescita delle perturbazioni primordiali di densità e dal loro conseguente collasso gravitazionale indotto appunto dalla gravità. Gli ammassi di galassie sono molto importanti in Astrofisica in quanto possono essere considerati come dei laboratori per lo studio di molti aspetti fisici legati al gas, all’ICM e all’evoluzione delle galassie. Lo studio degli ammassi di galassie è molto importante anche per la Cosmologia in quanto è possibile effettuare delle stime sui parametri cosmologici ed ottenere dei vincoli sulla geometria dell’Universo andando a valutare la loro massa e la loro distribuzione nell’Universo. Diventa quindi fondamentale l’utilizzo di algoritmi che ci permettano di utilizzare i dati ottenuti dalle osservazioni per cercare ed individuare gli ammassi di galassie in modo tale da definire meglio la loro distribuzione nell’Universo. Le più recenti survey di galassie ci forniscono molteplici informazioni a riguardo delle galassie, come ad esempio la loro magnitudine in varie bande osservative, il loro colore, la loro velocità ecc. In questo lavoro abbiamo voluto testare la performance di un algoritmo Optimal Filtering nella ricerca degli ammassi di galassie utilizzando prima solo l’informazione della magnitudine delle galassie e successivamente anche l’informazione sul loro colore. Quello che abbiamo voluto fare, quindi, è stato valutare se l’utilizzo combinato della magnitudine delle galassie e del loro colore permette all’algoritmo di individuare più facilmente, e in numero maggiore, gli ammassi di galassie.
Resumo:
La TiO2 è uno dei materiali più studiati degli ultimi decenni. I motivi sono da ricercarsi nelle sue numerose applicazioni, possibili in molti campi come dispositivi fotovoltaici, depurazione da agenti inquinanti o filtraggio di raggi UV. Per le celle elettrochimiche in particolare, il biossido di titanio offre molti vantaggi, ma non è privo di ostacoli. Il limite principale è lo scarso assorbimento dello spettro visibile, dovuto all’energy gap elevato (circa 3.2 eV). La ricerca da diversi anni si concentra sul tentativo di aumentare l’assorbimento di luce solare: promettenti sono i risultati raggiunti grazie alla forma nanoparticellare della TiO2, che presenta proprietà diverse dal materiale bulk. Una delle strategie più studiate riguarda il drogaggio tramite impurità, che dovrebbero aumentare le prestazioni di assorbimento del materiale. Gli elementi ritenuti migliori a questo scopo sono il vanadio e l’azoto, che possono essere usati sia singolarmente che in co-doping. In questo lavoro abbiamo realizzato la crescita di nanoparticelle di V-TiO2, tramite Inert Gas Condensation. La morfologia e la struttura atomica sono state analizzate attraverso microscopia a trasmissione, analizzandone la mappe tramite image processing. Successivamente abbiamo studiato le proprietà di assorbimento ottico dei campioni, nello spettro visibile e nel vicino ultravioletto, attraverso il metodo della riflettanza diffusa, determinando poi il bandgap tramite Tauc Plot. L’esperimento centrale di questo lavoro di tesi è stato condotto sulla beamline ID26 dell’European Synchrotron Radiation Facility, a Grenoble. Lì, abbiamo effettuato misure XANES, allo scopo di studiare gli stati fotoeccitati del materiale. L’eccitazione avveniva mediante laser con lunghezza d’onda di 532 nm. Tramite gli spettri, abbiamo analizzato la struttura locale e lo stato di ossidazione del vanadio. Le variazioni indotta dal laser hanno permesso di capire il trasferimento di carica e determinare la vita media.
Resumo:
Le galassie a spirale, come la Via Lattea, sono caratterizzate dalla presenza di gas freddo e formazione stellare e vengono perciò chiamate star-forming. Per creare nuove stelle è necessaria una sufficiente riserva di gas, la cui disponibilità governa l’evoluzione della galassia stessa. Finora, non è stato individuato con certezza un meccanismo che possa alimentare la formazione di nuove stelle nelle galassie star-forming. Una delle possibili sorgenti di tale gas è l’alone galattico caldo (corona galattica) il cui raffreddamento e successivo accrescimento possono essere stimolati dal processo di fontana galattica. L’esplosione di supernovae porta nubi di gas freddo in orbita al di sopra del disco stellare; queste nubi raggiungono altezze dell’ordine del kiloparsec, interagendo con la corona di gas caldo. Il moto delle nubi all’interno di un mezzo meno denso comporta l’instaurarsi dell’instabilità di Kelvin-Helmholtz, che ’strappa’ gas dalle nubi e causa la condensazione di materia coronale. Quest’ultima viene quindi accresciuta e, ricadendo sul disco, trasferisce nuovo materiale alla galassia e ne alimenta la formazione stellare. Lo scopo di questa tesi è derivare un modello analitico di fontana galattica che consenta di ottenere una formulazione analitica per il tempo orbitale, cioè il tempo richiesto alle nubi per ricadere sul disco galattico. Infatti, più u tempo le nubi impiegano per attraversare il materiale coronale caldo e ricadere sul disco, più materiale viene accresciuto durante l’orbita. Conoscendo i tempi orbitali sarebbe possibile calcolare il tasso di accrescimento legato al fenomeno di fontana e studiarne l’andamento con il raggio del disco. Questo modello potrebbe rivelarsi utile per lo studio dell’impatto della fontana nell’evoluzione globale del disco galattico e della chimica dell’intera galassia.
Resumo:
La tesi ha come scopo principale quello di studiare la funzione di risoluzione e le distribuzioni della distanza equivalente attraverso i risultati ottenuti dal lavoro del gruppo n_TOF al CERN di Ginevra. n_TOF utilizza un fascio di protoni accelerato dal ProtoSincrotrone (PS) del CERN per crearne due di neutroni (uno verticale e uno orizzontale) tramite spallazione. Dopo aver spiegato la tecnica del tempo di volo (TOF) e descritto il set up sperimentale presente al CERN, si esporranno le simulazioni Monte Carlo utilizzate per simulare la produzione dei fasci di neutroni, analizzando nel dettaglio quello diretto verso la prima sala sperimentale. Nella parte finale del lavoro verranno riportati i risultati ottenuti dalle simulazioni; verrà prestata particolare attenzione al confronto tra le conclusioni ottenute da tre gruppi di lavoro differenti nonchè ad una trattazione statistica delle misure effettuate. Si mostrerà inoltre in che modo lo studio effettuato sia importante nella determinazione delle sezioni d'urto nelle reazioni indotte da neutroni.
Resumo:
Il percorso di tesi che ho intrapreso è stato svolto presso l'azienda Datalogic, con l'intento di integrare un sistema di visione ad un sistema di marcatura laser. L'utilizzo di questo potente strumento è però vincolato dalla particolare posizione fisica occupata, di volta in volta, dall'oggetto; per questo motivo viene fissato nella posizione desiderata, attraverso dime meccaniche. Fin ad ora si riteneva assolutamente necessaria la presenza di un operatore per il controllo del corretto posizionamento, tramite una simulazione della marcatura. Per ovviare a questo limite strutturale, Datalogic ha pensato di introdurre uno strumento di aiuto e di visione del processo: la camera. L'idea di base è stata quella di impiegare le moderne smart camera per individuare l'oggetto da marcare e rendere quindi il processo più automatico possibile. Per giungere a questo risultato è stato necessario effettuare una calibrazione del sistema totale: Camera più Laser. Il mio studio si è focalizzato quindi nel creare un eseguibile che aiutasse il cliente ad effettuare questa operazione nella maniera più semplice possibile. E' stato creato un eseguibile in C# che mettesse in comunicazione i due dispositivi ed eseguisse la calibrazione dei parametri intrinseci ed estrinseci. Il risultato finale ha permesso di avere il sistema di riferimento mondo della camera coincidente con quello del piano di marcatura del laser. Ne segue che al termine del processo di calibrazione se un oggetto verrà rilevato dalla camera, avente il baricentro nella posizione (10,10), il laser, utilizzando le medesime coordinate, marcherà proprio nel baricentro dell'oggetto desiderato. La maggiore difficoltà riscontrata è stata la differenza dei software che permettono la comunicazione con i due dispositivi e la creazione di una comunicazione con il laser, non esistente prima in C#.
Sintesi di monomeri derivati da acidi carbossilici omega insaturi e successiva sintesi di poliesteri
Resumo:
Il presente lavoro di tesi si inserisce in un progetto basato sulla ricerca di monomeri e polimeri derivati da fonte bio, in un’ottica di transizione verso una chimica green legata alla realizzazione di prodotti ottenuti da risorse rinnovabili e con processi a basso impatto ambientale. I polimeri bio, in particolare, sono prodotti parzialmente o interamente ottenibili da risorse rinnovabili, quali oli vegetali, zuccheri, grassi, resine, proteine, amminoacidi, frazioni lignocellulosiche, etc, e non da petrolio. Tra questi, gli oli vegetali sono interessanti come reagenti di partenza perché permettono di minimizzare l’uso di derivati petrolchimici e sono disponibili in quantità maggiore rispetto al petrolio. Una possibilità di sintesi di polimeri da oli consiste nel trasformare gli acidi grassi, ottenendo composti bifunzionali che possono agire da precursori nella polimerizzazione: in questo modo si possono ottenere molti polimeri lineari, tra cui poliuretani, polieteri, poliesteri, poliammidi, etc. Questo è stato l’approccio seguito per la sintesi dei poliesteri alla base del progetto di tesi. In particolare, il lavoro si è articolato nella sintesi di monomeri e polimeri utilizzando derivati di acidi carbossilici omega insaturi. Inizialmente, trattandosi di prove esplorative sulla fattibilità delle reazioni, è stato utilizzato un precursore commerciale: visti i buoni risultati ottenuti, lo studio è poi proseguito con la sintesi di poliesteri a partire da prodotti di origine naturale. Tutte le polimerizzazioni sono state effettuate in massa. Per ogni reagente, monomero e polimero sono state effettuate analisi NMR (1H-NMR, 13C-NMR, HSQC, HMBC); su alcuni reagenti e monomeri è stata invece effettuata analisi GC-MS. Infine, su tutti i polimeri ottenuti sono state effettuate analisi ATR, GPC, DSC e TGA.
Resumo:
Quando si parla di shelf life di un prodotto alimentare si fa riferimento al periodo di tempo durante il quale un prodotto mantiene le sue caratteristiche qualitative nelle normali condizioni di conservazione/utilizzo e di conseguenza può essere consumato in totale sicurezza. Gli alimenti, infatti, sono prodotti facilmente deperibili che subiscono modifiche a carico della loro composizione a causa dell’innesco di una serie di reazioni sia di tipo microbiologico che chimico-fisico, con i conseguenti rischi per la sicurezza igienico sanitaria del prodotto. Nei prodotti ittici la degradazione biologica risulta essere una delle prime cause di deterioramento dell’alimento ciò perché essi stessi sono caratterizzati dalla presenza di microrganismi provenienti principalmente dalle materie prime impiegate e dal processo di produzione/preparazione utilizzato. Durante la conservazione e lo stoccaggio del prodotto ittico, in particolare sono tre i meccanismi che determinano il deterioramento e quindi la riduzione della shelf life, ovvero: l’autolisi enzimatica (post mortem e che modifica la consistenza del tessuto muscolare favorendo inoltre la crescita microbica ed il rilascio di ammine biogene); l’ossidazione (che riduce le qualità organolettiche del prodotto alterando gli acidi grassi poliinsaturi); la crescita microbica (con produzione di metaboliti come ammine biogene, acidi organici, solfiti, alcool, aldeidi e chetoni che causano i cattivi odori) (Jiang et al. 1990, Koohmaraie M., 1996, Koutsoumanis& Nychas, 1999, Aoki et al., 1997; Bremner, 1992). Risulta quindi strategico, il poter determinare la conservabilità di un alimento verificando dal punto di vista quantitativo, come tutti i fattori che contribuiscono all’alterazione della qualità del prodotto e all’incremento del processo degradativo (popolazione microbica, attività enzimatiche, variazioni chimiche) varino nel tempo.
Resumo:
In questo lavoro di tesi ci proponiamo di determinare lo spessore degli isotopi ^155Gd e ^157Gd in vista della misura della sezione d’urto di cattura neutronica presso la facility n_TOF del CERN. La principale motivazione dell’esperimento è legata alla necessità di ottenere misure più accurate per le applicazioni ai reattori nucleari. Inoltre, i nuovi risultati, potranno essere sfruttati anche per applicazioni ai recenti sviluppi nella Terapia di Cattura Neutronica e per costruire nuovi rivelatori nell’ambito della ricerca del neutrino. La misura sarà effettuata nella prima area sperimentale EAR-1 di n TOF, equipaggiata con rivelatori, come per esempio gli scintillatori liquidi al benzene deuterato (C6D6) particolarmente adatti per questi tipi di misura. La sezione d’urto di questi due isotopi cambia di molti ordini di grandezza al variare dell’energia dei neutroni incidenti. Per questo motivo, lo studio effettuato in questa tesi ha mostrato che sono necessari due campioni altamente arricchiti per ogni isotopo da misurare: un campione estremamente sottile per energie del neutrone fino a 100 meV, e uno più spesso per energie maggiori. Inoltre per questi campioni sono stati determinati le densità areali necessarie per lo svolgimento dell’esperimento affinchè avvenga il fenomeno di trasmissione dei neutroni.
Resumo:
L’obbiettivo di questa tesi è quello di analizzare le conseguenze della scelta del frame (Jordan o Einstein) nel calcolo delle proprietà degli spettri primordiali generati dall’inflazione ed in particolare dell’osservabile r (rapporto tensore su scalare) al variare del potenziale del campo che genera l’espansione accelerata. Partendo dalla descrizione della teoria dell’inflazione in relatività generale, focalizzando l’attenzione sui motivi che hanno portato all’introduzione di questa teoria, vengono presentate le tecniche di utilizzo comune per lo studio della dinamica omogenea (classica) inflazionaria e di quella disomogenea (quantistica). Una particolare attenzione viene rivolta ai metodi di approssimazione che è necessario adottare per estrarre predizioni analitiche dai modelli inflazionari per poi confrontarle con le osservazioni. Le tecniche introdotte vengono poi applicate ai modelli di inflazione con gravità indotta, ovvero ad una famiglia di modelli con accoppiamento non minimale tra il campo scalare inflatonico e il settore gravitazionale. Si porrà attenzione alle differenze rispetto ai modelli con accoppiamento minimale, e verrà studiata la dinamica in presenza di alcuni potenziali derivanti dalla teoria delle particelle e diffusi in letteratura. Il concetto di “transizione tra il frame di Jordan e il frame di Einstein” viene illustrato e le sue conseguenze nel calcolo approssimato del rapporto tensore su scalare sono discusse. Infine gli schemi di approssimazione proposti vengono analizzati numericamente. Risulterà che per due dei tre potenziali presentati i metodi di approssimazione sono più accurati nel frame di Einstein, mentre per il terzo potenziale i due frames portano a risultati analitici similmente accurati.
Resumo:
La proliferazione di batteri in liquido è una problematica che riguarda anche le acque di fiumi e mari. In questo progetto di tesi sperimentale si indagherà un trattamento plasma assistito diretto di acqua sintetica riprodotta in laboratorio con l’obiettivo di ottenere un effetto battericida sul liquido contaminato. L’acqua trattata verrà analizzata chimicamente, in particolare si andranno a misurare i TRO (Total Residual Oxidant, composti dell’ossigeno derivanti dalla parziale ozonizzazione dell’acqua) che dovranno essere presenti in quantità minori di 0,1 mg/l. Il dispositivo utilizzato per i test biologici è una sorgente di tipologia DBD (Dielectric Barrier Discharge) indiretto. Gli elettrodi della sorgente sono separati dal solo strato di materiale dielettrico e uno di questi è composto da una rete metallica in acciaio inossidabile. Il plasma si forma tra le maglie della rete e induce la formazione di specie reattive, radiazioni UV, particelle cariche, campi elettromagnetici e calore. Ciò che raggiunge la soluzione contaminata è l’afterglow del plasma, ovvero tutte le specie reattive a lunga vita prodotte dalla ionizzazione dell’aria e dalle radiazioni UV. La sorgente è stata dapprima caratterizzata elettricamente studiando le forme d’onda di tensione e corrente a determinate condizioni operative. Il liquido da trattare è contaminato con il batterio Escherichia coli. è emerso che in tutti i casi testati i livelli degli ossidanti sono entro il limite prestabilito di 0,1 mg/l. Il trattamento plasma in soli 10 secondi è responsabile di una decontaminazione parziale del batterio E. coli. Da ulteriori studi si potranno trovare delle condizioni tali da inattivare totalmente la carica batterica presente date le grandi potenzialità di questo trattamento.
New Cadmium(II) and Iron(II) Coordination Frameworks Incorporating a Di(4-Pyridyl)Isoindoline Ligand
Resumo:
Biodiesel is a renewable fuel that has been shown to reduce many exhaust emissions, except oxides of nitrogen (NOx), in diesel engine cars. This is of special concern in inner urban areas that are subject to strict environmental regulations, such as EURO norms. Also, the use of pure biodiesel (B100) is inhibited because of its higher NOx emissions compared to petroleum diesel fuel. The aim of this present work is to investigate the effect of the iodine value and cetane number of various biodiesel fuels obtained from different feed stocks on the combustion and NOx emission characteristics of a direct injection (DI) diesel engine. The biodiesel fuels were chosen from various feed stocks such as coconut, palm kernel, mahua (Madhuca indica), pongamia pinnata, jatropha curcas, rice bran, and sesame seed oils. The experimental results show an approximately linear relationship between iodine value and NOx emissions. The biodiesels obtained from coconut and palm kernel showed lower NOx levels than diesel, but other biodiesels showed an increase in NOx. It was observed that the nature of the fatty acids of the biodiesel fuels had a significant influence on the NOx emissions. Also, the cetane numbers of the biodiesel fuels are affected both premixed combustion and the combustion rate, which further affected the amount of NOx formation. It was concluded that NOx emissions are influenced by many parameters of biodiesel fuels, particularly the iodine value and cetane number.