262 resultados para Fisica della materia
Resumo:
In questo elaborato sono discusse le proprietà morfologiche delle galassie, ponendo particolare attenzione alla Via Lattea, della quale verranno descritte le caratteristiche intrinseche, come la struttura e i moti delle stelle; infine attraverso le costanti di Oort e l'emissione dell'idrogeno neutro, è possibile ricavare la curva di rotazione e introdurre la presenza della materia oscura.
Resumo:
Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.
Resumo:
Analisi dei costi di esercizio dell'impianto Romagna Compost di Cesena e ottimizzazione della logistica dei trasporti in uscita. Calcolo dell'incidenza della qualità della materia prima in ingresso sui costi di smaltimento.
Resumo:
L'obbiettivo di questa tesi è svolgere una trattazione semplice ma esauriente degli aspetti essenziali per lo studio delle configurazioni di equilibrio di semplici sistemi meccanici. In particolare l'analisi è volta a far parte del 'Progetto Matematica'; un portale del Dipartimento di Matematica dell'Università di Bologna, il cui scopo, attraverso le tesi di chi vi partecipa, è ''presentare la Matematica del primo biennio delle facoltà scientifiche in maniera interattiva, graduale, multimediale: in una parola, nel modo più amichevole possibile''. L'analisi, dopo alcuni richiami su elementi di base di calcolo vettoriale, si apre con un capitolo che enuncia nozioni e risultati fondamentali di meccanica classica, indispensabili per affrontare il problema dell'equilibrio nell'ambito della statica. Con il secondo capitolo inizia la trattazione delle configurazioni di equilibrio partendo dalla statica del punto materiale per poi passare ai sistemi più complessi costituiti da un numero arbitrario di punti. Per la parte di applicazioni vengono illustrati i due metodi classici di risoluzione: quello basato sulle equazioni cardinali della statica, che oltre ad individuare le configurazioni di equilibrio del sistema consente di determinare anche i corrispondenti valori delle reazioni vincolari, e quello basato sul principio dei lavori virtuali. Vengono poi riportati tre problemi standard la cui risoluzione è svolta attraverso entrambi i metodi per cercare di garantire una più completa comprensione della materia. Per l'esposizione degli argomenti analizzati si è fatto riferimento principalmente ai Trattati: D. Graffi, 'Elementi di Meccanica Razionale', Patron, Bologna 1973; S. Graffi, 'Appunti dalle lezioni di Fisica Matematica II'; a cui si rinvia per ogni ulteriore approfondimento (sulla materia),in particolare riguardo ai dettagli che, per necessità di sintesi, si sono dovuti omettere.
Resumo:
Le numerose osservazioni compiute a partire dagli anni `30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande a causa della piccola probabilità di interazione e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Nell'ottica di migliorare la sensibilità del rivelatore diminuendo l'energia di soglia sono in fase di ricerca e sviluppo soluzioni alternative a quelle adottate attualmente. Una di tali soluzioni prevede l'utilizzo di fotorivelatori di tipo SiPM da affiancare ai normali PMT in uso. I fotorivelatori al silicio devono lavorare ad una temperatura di (circa 170 K) e devono rivelare fotoni di lunghezza d'onda di circa 175 nm. Il presente lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo di tale lavoro è stato la scrittura di un programma DAQ in ambiente LabVIEW per acquisire dati per caratterizzare in aria fotorivelatori di tipo SiPM. In seguito con tale programma sono state effettuate misure preliminari di pedestallo da cui è stato possibile determinare l'andamento di guadagno e di dark rate al variare della tensione di alimentazione del SiPM. L'analisi dati è stata effettuata impiegando un programma scritto in C++ in grado di analizzare le forme d'onda acquisite dal programma LabVIEW.
Resumo:
La Ricerca Operativa è considerata una disciplina universitaria il cui insegnamento è previsto nei corsi di laurea di Ingegneria, Matematica e Informatica. Da qualche anno si è verificata una tendenza ad anticipare l'insegnamento della Ricerca Operativa ad un grado scolastico inferiore. In Gran Bretagna e negli Stati Uniti sono presenti organizzazioni molto attive nell'ambito della sua divulgazione e sono nati progetti importanti a livello didattico: corsi di formazione per i docenti, condivisione in rete di materiali e report delle esperienze effettuate. A partire dal 2012 anche nelle indagini internazionali OCSE-PISA si sono aggiunte due aree i cui obiettivi e contenuti si avvicinano alla Ricerca Operativa: financial literacy e problem solving. In Italia, dopo la riforma governativa Gelmini del 2008, sono presenti elementi di Ricerca Operativa solo nei programmi di matematica del quinto anno degli istituti tecnici commerciali e industriali. Tuttavia la Ricerca Operativa può svolgere un ruolo fondamentale nella formazione scientifica, innanzitutto per il suo ruolo di "ponte" tra la matematica e l'informatica, poi per l'importanza dello sviluppo della modellizzazione e per l'interdisciplinarietà della materia e lo stretto contatto con il mondo del lavoro. Inoltre, le esperienze documentate di didattica della Ricerca Operativa hanno potuto verificare l'importante ruolo motivazionale che possiede nei confronti degli studenti meno amanti della matematica. In questo lavoro di tesi si è interrogata la fattibilità di un percorso di Ricerca Operativa per una classe seconda liceo scientifico (anno in cui vengono svolte le indagini internazionali). Viene poi presentata la costruzione di una lezione di Programmazione Lineare che prevede una prima fase di modellizzazione del problema e una seconda fase di soluzione tramite il solutore di excel in laboratorio.
Resumo:
Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.
Resumo:
L’aumento della frequenza di accadimento e dell’intensità di eventi di tempesta rappresenta una seria minaccia per gli ambienti costieri, in particolare per quelli dominati da spiagge sabbiose. Nel seguente lavoro di tesi si è voluto approfittare di un evento di flooding che ha interessato la spiaggia di Cesenatico (Febbraio 2015), provocando un lieve arretramento della linea di riva, per valutare la risposta del comparto macrobentonico a uno shift da zona intertidale a quella di primo subtidale. I dati relativi al periodo post-disturbo (after), mostrano variazioni sia dal punto di vista dell’ambiente fisico che delle comunità bentoniche ad esso associate; per quanto riguarda i campioni del 2015, si è osservata una diminuzione della media granulometrica e un aumento della materia organica rispetto al 2011 (before). Si evidenziano differenze anche tra le comunità bentoniche before e after l’evento, con valori di abbondanza, numero di taxa e diversità maggiori in after, nonché dell’intera struttura di comunità in cui si osservano variazioni di dominanza di particolari specie e l’insediamento di specie non presenti prima dell’evento. In before c’è una dominanza di S. squamata, un polichete fossatorio tipico dell’intertidale. In after è risultato che molte più specie concorrono nel determinare i pattern osservati, ed emerge una netta dominanza di L. mediterraneum e dei tanaidacei del genere Apseudes. I valori delle variabili ambientali e biotiche sono stati utilizzati per costruire un modello previsionale FNB (fuzzy naive Bayes) che è stato utilizzato con i dati abiotici relativi all’after per prevedere i pattern di comunità. Dalle simulazioni si osserva che i pattern spaziali del macrobenthos seguono l’evoluzione dell’intero sistema, confermando uno shift da intertidale a primo subtidale e può essere usato come base per comprendere gli effetti di un flooding costiero su sistemi vulnerabili qual è la spiaggia di Cesenatico.
Resumo:
Recenti sviluppi nella progettazione di impianti di luce di sincrotrone di quarta generazione riguardano la produzione di fasci di luce nella banda dei raggi X con elevate caratteristiche in termini di brillanza, coerenza e impulsi estremamente brevi ( femtosecondo ) . I principali schemi per la produzione della radiazione XFEL riguardano l’impiego di ondulatori con differenti modalità di seeding. L’utilizzo dei fasci di radiazione XFEL nelle linee di luce per applicazioni di imaging, spettroscopia e diffrazione, ha determinato un costante sforzo sia nello sviluppo di dispositivi ottici in grado di selezionare e focalizzare il fascio su dimensioni nanometriche, che nella sperimentazione di tecniche “lensless” in grado di superare i limiti imposti dall’utilizzo di tali dispositivi . I risultati ottenuti nella produzione dei fasci hanno consentito nuove possibilità di indagine nella struttura dei materiali su distanze atomiche nella definizione, senza precedenti di dettagli su scale temporali del femtosecondo, permettendo lo studio, non solo di strutture atomiche in condizioni di equilibrio stabile quanto di stati della materia velocemente dinamici e di non equilibrio. CXDI e Spettroscopia Strutturale Ultraveloce risolte in tempo sono alcune delle tecniche in cui l’utilizzo della radiazione XFEL apre nuove possibilità di indagine agli stati transienti della materia permettendo la ricostruzione della dinamica di processi chimico –fisici su intervalli temporali finora inaccessibili .
Resumo:
I raggi X, a partire dalla loro scoperta, avvenuta nel 1895 ad opera di Wilhelm Conrad Röntgen, si sono rivelati un potentissimo mezzo per lo studio della materia. In particolare in campo medico hanno permesso la nascita della diagnostica per immagini che, parallelamente allo sviluppo delle tecnologie, è diventata un mezzo imprescindibile per lo studio delle patologie. Negli ultimi decenni molti studi sono stati compiuti in particolare sui vantaggi dell’utilizzo nell’imaging di raggi X monocromatici in sostituzione dell’usuale radiazione policromatica. Con il seguente elaborato si ha l’intento di fornire un quadro generale sulla fisica dei raggi X, sulla loro interazione con la materia e sugli attuali metodi di produzione di fasci monocromatici e quasi-monocromatici, con particolare attenzione all'utilizzo su vasta scala. Sono state infine trattate le principali applicazioni della radiazione monocromatica e quasi-monocromatica nelle tecniche di imaging medico.
Resumo:
Lo scopo della tesi è di illustrare le principali tecniche spettroscopiche per l'indagine della materia mediante l'uso dei neutroni come sonda, con particolare attenzione rivolta alla diffusione anelastica su campioni monocristallini. Nel testo vengono esposti i processi di produzione dei neutroni tramite spallazione, fissione e fusione nucleare, e si descrive il reattore nucleare dell'Institut Laue-Langevin (ILL) di Grenoble. Inoltre, viene presentato uno studio della curva di dispersione dei modi vibrazionali acustici di un campione monocristallino di β-stagno a temperatura ambiente, effettuato presso l'ILL tramite un diffrattometro a triplo-asse. I risultati sono confrontati con i modelli teorici disponibili (S. H. Chen) e con dati sperimentali noti (J. M. Rowe).
Resumo:
Con lo sviluppo di sorgenti capaci di sostenere scariche di non equilibrio a pressione atmosferica è nato un notevole interesse per le applicazioni biomediche del plasma, data la generazione nella scarica di una varietà di agenti efficaci in più ambiti. I plasmi di questo tipo, caratterizzati principalmente da una temperatura macroscopica vicina a quella ambiente, sono infatti già utilizzati, ad esempio, per la sterilizzazione, per il trattamento di polimeri per migliorarne la biocompatibilità, e per l’accelerazione del processo di coagulazione del sangue. In questo lavoro verrà presentata un’altra possibilità applicativa, sempre nel settore della plasma medicine, ovvero l’utilizzo dei plasmi per il trattamento di cellule cancerose, che sta avendo un particolare successo a causa dei risultati ottenuti dai vari gruppi di ricerca che sottintendono un suo possibile futuro nel trattamento di neoplasie. Verrà presentata una breve introduzione alla fisica del plasma, mostrando alcuni parametri che caratterizzano questo stato della materia, concentrandosi in particolare sui plasmi non termici o di non equilibrio, per poi passare al processo di ionizzazione del gas. Nel secondo capitolo sono approfondite due sorgenti per la generazione di plasmi non termici, la scarica a barriera dielettrica e il plasma jet. Il terzo capitolo fornisce una preliminare spiegazione degli agenti generati nella scarica e il rapporto che hanno con la materia con cui interagiscono. L’ultimo capitolo è il fulcro della ricerca, e comprende risultati ottenuti negli ultimi anni da vari gruppi di ricerca di molte nazionalità, e una breve parte riguardante la sperimentazione originale svolta anche in mia presenza dal gruppo di ricerca del Dipartimento di Ingegneria dell’Energia Elettrica e dell’Informazione “Guglielmo Marconi”, rappresentato principalmente dal professor Carlo Angelo Borghi e dal professor Gabriele Neretti.
Resumo:
Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.