161 resultados para emissione galassie ellittiche


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo strumento MIPAS, operativo a bordo del satellite polare ENVISAT negli anni dal 2002 al 2012, ha misurato spettri di emissione nel medio infrarosso utilizzando la tecnica di scansione del lembo atmosferico. L'Agenzia Spaziale Europea (ESA), mediante un algoritmo di inversione ottimizzato, ha ricavato dagli spettri di MIPAS la distribuzione verticale di diversi composti chimici minoritari in stratosfera e alta troposfera. Tra questi composti figurano l'ozono (O3) e il CFC-11. Lo strato di ozono stratosferico svolge una funzione fondamentale come schermo della radiazione ultravioletta solare, altrimenti dannosa per gli esseri viventi sulla terra. D'altra parte, da alcuni decenni i cosiddetti cloro-fluoro carburi (CFC), tra cui la molecola di CCl3F (indicata sinteticamente con la sigla CFC-11) sono ritenuti responsabili della diminuzione generale dell'ozono stratosferico. Per questo motivo nel 1987 a Montreal è stato siglato un accordo internazionale per limitare l'immissione dei CFC in atmosfera. A partire dalla fine degli anni '80, in base a questo accordo, ci si aspetta quindi una progressiva riduzione dei CFC e un conseguente graduale recupero della concentrazione di ozono. Le misure di MIPAS, con copertura geografica globale, offrono una possibilità assai interessante per la verifica di queste tendenze attese. In questo lavoro di tesi, i profili verticali di frazione volumetrica (VMR) di ozono e CFC-11 ricavati dal processore di ESA versione 6.0 sono stati interpolati a livelli di pressione costante, raggruppati per bande di latitudine e mediati su intervalli di tempo mensili. Abbiamo quindi sviluppato un modello di tendenza parametrico che include un termine costante, uno lineare, due termini dell'oscillazione quasi biennale (QBO), un termine di flusso solare radio e diversi termini armonici in seno e coseno con periodo diverso. Il modello è stato quindi adattato mediante un algoritmo di minimizzazione di Levenberg-Marquardt alle medie mensili ottenute dalle misure di MIPAS per tutto il periodo che va da luglio 2002 ad aprile 2012. Le stime di tendenza ottenute per ozono e CFC-11 sono statisticamente significative e, a seconda della latitudine e del livello di pressione considerato, assumono una gamma di valori che va da -0.15 ppmv/decade a +0.44 ppmv/decade per l'ozono e una gamma di valori che va da -50.2 pptv/decade a +6.5 pptv/decade per il CFC-11. Abbiamo ottenuto tendenze per la maggior parte leggermente positive per l'ozono e quasi ovunque fortemente negative per il CFC-11, risultato in accordo con le disposizioni emanate a seguito del Protocollo di Montreal e in buon accordo anche con lavori precedentemente pubblicati in letteratura. Infine abbiamo stimato l'errore sistematico sulle tendenze ricavate, causato dalla deriva strumentale dovuta alla non-linearità della risposta dei rivelatori, che varia a seguito dell'invecchiamento dei rivelatori stessi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La rivelazione dei neutroni gioca un ruolo fondamentale sia nel campo della fisica nucleare di base che in diversi ambiti applicativi quali la produzione di energia in reattori a fissione, la sicurezza nazionale alle frontiere, la terapia e la diagnostica mediche. Negli anni passati la rivelazione di neutroni di bassa energia (nell'intervallo termico) si è basata principalmente sull'utilizzo di contatori proporzionali a $^3$He. Il grosso vantaggio di questi strumenti è la loro quasi totale inefficienza nella rivelazione di radiazione elettromagnetica, consentendo una caratterizzazione pulita dei flussi neutronici di bassa energia, anche quando, come spesso succede, sono accompagnati da un intenso fondo di raggi X e raggi gamma. La scarsa disponibilità di $^3$He ed il conseguente incremento del suo costo hanno stimolato, negli ultimi anni, numerosi programmi di sviluppo di nuovi rivelatori per neutroni termici in grado di rimpiazzare i troppo costosi contatori a $^3$He. In questo contesto si sono sviluppati da una parte il progetto ORIONE/HYDE dell'Istituto Nazionale di Fisica Nucleare (INFN), che punta allo sviluppo di scintillatori organici a matrice siliconica in grado di rivelare sia neutroni veloci che termici, dall'altra l'applicazione di tali sviluppi ad attività connesse con il Progetto SPES nell'ambito del PRIN intitolato Sviluppo di Rivelatori e tecniche d'analisi per la sperimentazione con i fasci radioattivi dei Laboratori Nazionali dell'INFN, con particolare riferimento a SPES. All'interno di una matrice scintillante organica (ricca quindi di nuclei di Idrogeno e Carbonio) opportunamente drogata per favorire il processo di scintillazione, viene disperso un ulteriore dopante ad alta sezione d'urto di cattura neutronica (tipicamente $^{10}$B o $^6$Li). Questo scintillatore risulta sensibile alla radiazione neutronica veloce che viene rivelata tramite i processi di urto elastico ed il successivo rinculo dei nuclei che causa l'emissione di luce di scintillazione. Inoltre grazie alle grandi sezioni d'urto dei processi di cattura neutronica da parte del materiale dopante e la successiva emissione di particelle cariche anche la sensibilità ai neutroni di bassa energia (lenti e termici) viene garantita. La matrice utilizzata (polifenil-dimetil silossano) ha ottime proprietà meccaniche e, a differenza di altri materiali utilizzati per la realizzazione di scintillatori per neutroni, non risulta tossica o dannosa per l'ambiente. Inoltre il costo del materiale utilizzato è notevolmente competitivo rispetto alle alternative attualmente in commercio. In questo lavoro di tesi verranno caratterizzati alcuni di questi nuovi scintillatori drogati con $^6$Li. Verrà analizzata la loro risposta in termini di resa di luce quando esposti a flussi di particelle cariche e raggi gamma e a flussi neutronici di bassa energia. I risultati verranno paragonati a quelli ottenuti con uno scintillatore commerciale standard a matrice vetrosa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli anni recenti, lo sviluppo dell’elettronica organica ha condotto all’impiego di materiali organici alla base di numerosi dispositivi elettronici, quali i diodi ad emissione di luce, i transistor ad effetto di campo, le celle solari e i rivelatori di radiazione. Riguardo quest’ultimi, gli studi riportati in letteratura si riferiscono per la maggiore a dispositivi basati su materiali organici a film sottile, che tuttavia presentano problemi relativi ad instabilità e degradazione. Come verrà illustrato, l’impiego di singoli cristalli organici come materiali alla base di questi dispositivi permette il superamento delle principali limitazioni che caratterizzano i rivelatori basati su film sottili. In questa attività sperimentale, dispositivi basati su cristalli organici semiconduttori verranno caratterizzati in base alle principali figure di merito dei rivelatori. Tra i campioni testati, alcuni dispositivi basati su singoli cristalli di 6,13-bis (triisopropylsilylethynyl)-pentacene (TIPS-Pentacene) e 5,6,11,12-tetraphenyltetracene (Rubrene) hanno mostrato interessanti proprietà e sono stati quindi maggiormente studiati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi 20 anni il progresso tecnologico ha segnato un profondo cambiamento in svariati ambiti tra i quali quello della Sanità in cui hanno preso vita apparecchiature diagnostiche, cosiddette “digitali native”, come la Tomografia Computerizzata (TC), la Tomografia ad Emissione di Positroni (PET), la Risonanza Magnetica Nucleare (RMN), l’Ecografia. A differenza delle diagnostiche tradizionali, come ad esempio la Radiologia convenzionale, che forniscono come risultato di un esame un’immagine bidimensionale ricavata dalla semplice proiezione di una struttura anatomica indagata, questi nuovi sistemi sono in grado di generare scansioni tomografiche. Disporre di immagini digitali contenenti dati tridimensionali rappresenta un enorme passo in avanti per l’indagine diagnostica, ma per poterne estrapolare e sfruttare i preziosi contenuti informativi occorrono i giusti strumenti che, data la natura delle acquisizioni, vanno ricercati nel mondo dell’Informatica. A tal proposito il seguente elaborato si propone di presentare un software package per la visualizzazione, l’analisi e l’elaborazione di medical images chiamato 3D Slicer che rappresenta un potente strumento di cui potersi avvalere in differenti contesti medici. Nel primo capitolo verrà proposta un’introduzione al programma; Seguirà il secondo capitolo con una trattazione più tecnica in cui verranno approfondite alcune funzionalità basilari del software e altre più specifiche; Infine nel terzo capitolo verrà preso in esame un intervento di endoprotesica vascolare e come grazie al supporto di innovativi sistemi di navigazione chirurgica sia possibile avvalersi di 3D Slicer anche in ambiente intraoperatorio

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto nella zona di Vareš, in particolare nella zona del lago di Veovača ha investigato diverse matrici ambientali (sedimenti, suoli, acque) per valutare le loro caratteristiche e la loro qualità. Nella zona è stata presente in passato attività estrattiva e di lavorazione dei minerali estratti, da qui la necessità di questo studio esplorativo. Il lavoro svolto si divide in tre fasi: campionamento, svolto in quattro giorni passati in campagna; analisi dei campioni raccolti e interpretazione dei risultati. Sono state campionate acque e sedimenti in punti interni al lago, altri in corrispondenza delle sue sponde e punti lungo la diga. Sul materiale solido sono state svolte analisi di spettrometria di fluorescenza a raggi X, mentre sulle acque sono state applicate tecniche di spettrometria di assorbimento atomico (AAS), spettrometria di emissione al plasma induttivamente accoppiato (ICP-AES) e cromatografia ionica oltre che a misure di parametri chimico-fisici in campo. Sono stati poi valutati i risultati, attraverso il confronto con banche dati di riferimento ed elaborazioni statistiche e grafiche. Si tratta di uno studio preliminare effettuato su un piccolo numero di campioni e perciò solo indicativo e non in grado di fornire risposte definitive sulla condizione ambientale dell'area. Tuttavia queste prime informazioni consentono di delineare un quadro nel quale future indagini potranno approfondire aspetti e problemi critici per la qualità ambientale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La costante evoluzione tecnologica sta portando alla luce nuove possibilità, che un tempo non erano nemmeno immaginabili. Uno dei settori che si è rivoluzionato maggiormente negli ultimi anni è quello delle telecomunicazioni e questo ha portato sia a una riduzione dei costi per le connessioni a Internet, sia ad un aumento delle loro capacità e prestazioni; di conseguenza queste connessioni sono diventate più accessibili e affidabili permettendo alle persone e alle cose di accedere a Internet quasi ininterrottamente. Questo sviluppo sta portando innumerevoli benefici, ma come ciascuna innovazione tecnologica, tuttavia, i benefici si accompagnano a nuove sfide. In questo elaborato viene dapprima analizzato lo stato dell’arte, i benefici, le problematiche e gli attuali interessi da parte di alcuni dei maggiori player verso l’Internet of Things. Vengono poi prese in considerazione due problematiche: l'individuazione e l'interazione con gli oggetti connessi a Internet, portando come esempio l'utilizzo e la ricerca di una vending machine, un distributore automatico. Proponendo una soluzione, in primo luogo è stato effettuato lo sviluppo di un ecosistema che sfrutta le potenzialità del Physical Web, implementando ad hoc ogni componente, dall'emissione del beacon Eddystone-URL alla visualizzazione della pagina ad esso associata. In secondo luogo questa è stata creata un'applicazione Android che sfrutta l'altro tipo di frame offerto dalla piattaforma beacon di Google, l'Eddystone-UID. Queste due applicazioni vengono quindi analizzate e messe a confronto, per individuare i punti forti e le mancanze delle rispettive piattaforme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uno dei comparti industriali più importanti nel mondo è senz’altro il settore automobilistico, il quale è oggetto di particolare attenzione da parte dei governi mondiali. Infatti l’automobile è il mezzo sia urbano che extraurbano che è stato perfezionato nel tempo in base alle esigenze dell’uomo, ma bisogna anche evidenziare che in generale il settore dei trasporti è un settore industriale che negli anni non ha portato grandi innovazioni, in quanto presenta ancora la stessa tecnologia di trent’anni fa. Attualmente, grazie alle nuove normative Europee riguardanti la tutela dell’ambiente e le riduzioni di emissioni, si sta passando a nuove forme di alimentazione per ridurre le emissioni di CO2 ed evitare di utilizzare i combustibili fossili. Una valida soluzione è stata attuata attraverso i veicoli completamente elettrici (EV), dato il rendimento energetico nettamente superiore e l’assente emissione di gas inquinanti. Purtroppo gli utenti hanno ancora timore ad utilizzare i veicoli elettrici (EV): ciò avviene soprattutto per mancanza/scarsità di infrastrutture e servizi a supporto degli utenti, provocando nell’utente un’insicurezza che viene più comunemente chiamata “range anxiety” (timore che il EV non abbia autonomia sufficiente per arrivare a destinazione) e generando l’infondata idea che i EV siano utilizzabili solo in città o per i tragitti brevi. In questo documento è proposta un’applicazione la quale sarà in grado di ridurre i problemi relativi a “Driving without anxiety”. In particolare tale applicazione è in grado di rilevare la velocità media e l’accelerazione sul tratto di strada che si sta percorrendo. Attraverso il servizio di Google Direction si richiede la velocità media stimata sul medesimo tratto. L’applicazione confronta il valore reale ed il valore medio stimato, ed in base a quello fornisce una classificazione dello stile di guida dell’utente (es. Aggressivo); fornisce una stima dell’energia consumata sul tratto percorso, inserendo nel calcolo dell’energia un parametro che consente di tener conto dello stile di guida, determinato al passo precedente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tra tutti i fenomeni naturali osservabili, ne era presente uno particolarmente interessante e con il quale si aveva diretto contatto quotidianamente: la gravità. Dopo le innumerevoli osservazioni astronomiche effettuate da Galileo, fu Newton nel diciassettesimo secolo a capire che il moto dei pianeti era governato dalle medesime leggi che descrivono la caduta dei gravi sulla Terra e fu quindi lui che ci fornì una prima teoria della gravità con la quale si spiegarono le orbite dei pianeti con ottima precisione. Grazie al contributo di Einstein, la teoria si rinnovò e si arricchì, ma rimase pur sempre lontana dall' essere completa, tant' è che ancora oggi sono presenti molte domande a cui non siamo in grado di rispondere. In questo articolo ci occuperemo di tali quesiti, provando a formulare una teoria che sia in accordo con le attuali evidenze sperimentali. Nella prima parte, tratteremo le ragioni che hanno spinto i ricercatori ad introdurre le nuove teorie della gravità f(R); in particolare vedremo la peculiarità delle curve di rotazione delle galassie e perché ci sia il bisogno di tirare in ballo la materia oscura. Discuteremo anche alcuni problemi derivanti dall' evoluzione cosmica e altre incongruenze riguardanti la stabilità delle stelle di neutroni. In seguito mostreremo come ricavare l' equazione di Einstein partendo dai principi variazionali di Hamilton, e estenderemo tale ragionamento con lo scopo di ottenere un' equazione corrispondente ad una gravità modificata. Infine, verranno introdotte le teorie della gravità f(R), per mezzo delle quali cercheremo di discutere alcune possibili spiegazioni alle problematiche mosse nella parte introduttiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi è stato svolto nell'ambito del gruppo Nucl-ex di Bologna dell'INFN. L'esperimento specifico si inquadra nello studio di collisioni di nuclei con numero di neutroni N uguale al numero di protoni Z (nuclei pari-pari). In particolare si vuol analizzare una reazione centrale, cioè a piccoli parametri d'impatto, nella quale i nuclei del proiettile e del bersaglio fondono assieme formando un sistema unico eccitato (nucleo composto) che successivamente decade. Nel caso della misura descritta sono stati utilizzati un fascio di 16O ed un bersaglio di 12C ed il sistema fuso che si forma è 28Si. Per rivelare le particelle provenienti dal decadimento è stato impiegato l'apparato G.AR.F.I.E.L.D. (General Array for Fragment Identification and Emitted Light particles in Dissipative collisions) accoppiato al rivelatore denominato Ring Counter (RCo). La misura è stata realizzata presso i Laboratori Nazionali dell'INFN di Legnaro (Pd) in collaborazione tra le Università e le sezioni INFN di Bologna, Firenze, Napoli e Padova. Il fascio è stato accelerato mediante l'acceleratore elettrostatico Tandem XTU, mentre il bersaglio era fisso nel sistema di riferimento del laboratorio. La misura di collisione è stata realizzata per tre diverse energie cinetiche del fascio: 90.5 MeV, 110 MeV e 130 MeV. Il lavoro è consistito principalmente nella partecipazione a diverse fasi della misura, tra cui preparazione, presa dati ed alcune calibrazioni energetiche dei rivelatori, fino ad ottenere risultati preliminari sulle distribuzioni di frequenza dei frammenti rivelati, sulle molteplicità e sulle distribuzioni angolari di particelle leggere. L'analisi preliminare effettuata ha mostrato che il valore medio di carica del residuo di evaporazione {Definito come il frammento che rimane nello stato fondamentale alla fine della catena di decadimento.} diminuisce all'aumentare dell'energia a disposizione. In modo consistente aumenta, all'aumentare dell'energia, la molteplicità media delle delle particelle leggere. Le distribuzioni angolari di particelle leggere mostrano andamenti molto simili fra le diverse energie, ma poco compatibili con il fatto che, all'aumentare dell'energia del fascio, diminuisce il cono di emissione di particelle di decadimento, in quanto aumenta la velocità del sistema fuso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi nasce dal voler approfondire lo studio delle curve piane di grado 3 iniziato nel corso di Geometria Proiettiva. In particolare si andrà a studiare la legge di gruppo che si può definire su tali curve e i punti razionali di ordine finito appartenenti alle curve ellittiche. Nel primo capitolo si parla di equazioni diofantee, dell’Ultimo Teorema di Fermat, dell'equazione e della formula di duplicazione di Bachet. Si parla inoltre dello stretto rapporto tra la geometria, l'algebra e la teoria dei numeri nella teoria delle curve ellittiche e come le curve ellittiche siano importanti nella crittografia. Nel secondo capitolo vengono enunciate alcune definizioni, proposizioni e teoremi, riguardanti polinomi e curve ellittiche. Nel terzo capitolo viene introdotta la forma normale di una cubica. Nel quarto capitolo viene descritta la legge di gruppo su una cubica piana non singolare e la costruzione geometrica che porta ad essa; si vede il caso particolare della legge di gruppo per una cubica razionale in forma normale ed inoltre si ricavano le formule esplicite per la somma di due punti appartenenti ad una cubica. Nel capitolo cinque si iniziano a studiare i punti di ordine finito per una curva ellittica con la legge di gruppo dove l'origine è un flesso: vengono descritti e studiati i punti di ordine 2 e quelli di ordine 3. Infine, nel sesto capitolo si studiano i punti razionali di ordine finito qualsiasi: viene introdotto il concetto di discriminante di una cubica e successivamente viene enunciato e dimostrato il teorema di Nagell-Lutz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi sono le descritte le fasi progettuali e costruttive del Beam Halo Monitor (BHM), un rivelatore installato sull'esperimento CMS, durante il primo lungo periodo di shutdown di LHC, che ha avuto luogo tra il 2013 ed il 2015. BHM è un rivelatore ad emissione di luce Cherenkov ed ha lo scopo di monitorare le particelle di alone prodotte dai fasci di LHC, che arrivano fino alla caverna sperimentale di CMS, ad ogni bunch crossing (25 ns). E' composto da 40 moduli, installati alle due estremità di CMS, attorno alla linea di fascio, ad una distanza di 1.8 m da questa. Ciascun modulo è costituito da un cristallo di quarzo, utilizzato come radiatore ed un fotomoltiplicatore. Sono descritte in maniera particolare le prove eseguite sui moduli che lo compongono: la caratterizzazione dei fotomoltiplicatori ed i test di direzionalità della risposta. Queste costituiscono la parte di lavoro che ho svolto personalmente. Inoltre sono descritte le fasi di installazione del rivelatore nella caverna sperimentale, a cui ho preso parte ed alcuni test preliminari per la verifica del funzionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomografia ad emissione di positroni (PET) è una tecnica di imaging di medicina nucleare, utilizzata oggi diffusamente in ambito clinico. Essa fornisce immagini e informazioni fisiologiche dei processi funzionali all’interno del corpo. La PET si basa sulla rilevazione di fotoni di annichilazione prodotti in seguito al decadimento di un radio farmaco iniettato nel paziente. I rilevatori convenzionali sono costituiti da un materiale scintillatore accoppiato ad un fotomoltiplicatore, solitamente un PMT o SiPM. Uno sviluppo della PET è la Time of Flight PET (ToF PET), attualmente già in commercio ed utilizzata con prestazioni eccellenti. Un’ulteriore modifica, che potenzialmente permetterebbe di ottenere una migliore risoluzione temporale, è la ToF PET basata sulla rilevazione di fotoni tramite radiazione Cherenkov, invece che luce di scintillazione. Questo lavoro di tesi è incentrato dunque su questa tecnica specifica. Si illustra una rassegna di pubblicazioni scientifiche degli ultimi anni riguardo ad essa con i relativi risultati ottenuti e i possibili sviluppi futuri. Infine si propone un approfondimento personale, nel quale, tramite un programma scritto in ROOT, si è realizzata una geometria di un sistema di rilevazione ToF PET. Esso prevede la rilevazione dei fotoni di annichilazione tramite un radiatore Cherenkov accoppiato ad un SiPM. In futuro questo potrà essere implementato e utilizzato per simulare il processo fisico della PET, verificando la validità e le prestazioni del sistema così sviluppato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le SNe Ia vengono utilizzate in cosmologia come indicatori di distanza. Nel 1998 due team di ricerca, il Supernova Cosmology Project e l'High-z Supernova Search Team compirono degli studi su un campione di SNe in galassie lontane a z=0.2-0.9. Da questi lavori emerse che le luminosità apparenti erano tipicamente inferiori del 25% rispetto ai valori attesi. Questo indica che tali oggetti si trovano ad una distanza di luminosità superiore a quella prevista da modelli d'Universo dominati da materia. Venne quindi determinata per la prima volta l'evidenza di un Universo in condizione di espansione accelerata. Lo scopo del presente lavoro di tesi è quello di analizzare i vincoli cosmologici imposti da SNe Ia ad alto redshift. È stato compiuto uno studio sui moduli di distanza osservativi di un campione di 580 SNe Ia al fine di trovare i parametri cosmologici che meglio descrivono il loro andamento in funzione del redshift nell'ambito dei modelli cosmologici standard con costante cosmologica positiva. Nella prima parte si illustreranno i modelli d’Universo di Friedmann, introducendo i concetti di redshift, di fattore di scala e i vari tipi di distanza. Nella seconda parte si descriverà cosa sono le Supernovae, e in particolare, le SNe di tipo Ia, le proprietà che le rendono candele standard e l'importanza che hanno assunto in cosmologia. Nella terza parte verranno presentanti i risultati prodotti per i due modelli studiati, verrà inoltre discussa la compatibilità con i parametri prodotti nei lavori compiuti dai due team di ricerca.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.