420 resultados para Energie
Resumo:
La radiazione di sincrotrone è il processo di radiazione più comune nella astrofisica delle alte energie in presenza di elettroni ultrarelativistici in moto in un campo magnetico. Sono attribuibili a questo processo le radio emissioni dei raggi cosmici (elettroni e positroni) della nostra galassia, dei resti di supernovae e delle sorgenti radio extragalattiche. In particolare, questa trattazione si soffermerà sullo studio dell’emissione tramite radiazione di sincrotrone da parte delle pulsar, stelle di neutroni in rapida rotazione e dotate di un campo magnetico, che ad intervalli estremamente regolari (periodo di rotazione) emettono radiazione coerente in regioni coniche allineate con l’asse magnetico, sotto forma di impulsi, secondo un processo che viene denominato ”effetto faro”.
Resumo:
In questa tesi è presentato il lavoro svolto per ottimizzare le selezioni dei decadimenti Λ 0 b → pK− e Λ 0 b → pπ− al fine di misurarne le asimmetrie di CP. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 6 fb−1, raccolto dall'esperimento LHCb in collisioni protone-protone ad un'energia nel centro di massa di 13 TeV. L'ottimizzazione della selezione è di fondamentale importanza nello studio di questi decadimenti, per ottenere la minor incertezza statistica possibile sulle asimmetrie misurate. Il lavoro svolto in questa tesi ha portato ad avere incertezze statistiche sulle singole asimmetrie di CP pari a: σ(A pK CP ) = 0.76%, σ(A pπ CP) = 0.95%, che risultano essere minori di circa un fattore due rispetto ai risultati già pubblicati dalla Collaborazione LHCb. Il lavoro svolto in questa tesi sarà parte della pubblicazione dei risultati ottenuti su rivista internazionale, prevista per il 2023
Resumo:
HERMES (High Energy Rapid Modular Ensemble of Satellites) è una missione basata su una costellazione di nano-satelliti in orbita terrestre bassa, ospitanti rivelatori di raggi X e gamma, avente l'obiettivo di indagare l'emissione di Gamma Ray Burst (GRB). Si tratta di un insieme di spettrografi ad alta risoluzione temporale, attivi nella banda 3–2000 keV, che operando congiuntamente sono in grado di localizzare eventi transienti. Questo esperimento fornirà un metodo veloce e complementare alla rivelazione di onde gravitazionali per l'osservazione di eventi brillanti come i GRB nell'ambito dell'astrofisica multimessaggero. Il rivelatore di ogni nano-satellite di HERMES è composto da Silicon Drift Deterctors (SDD) collegati otticamente a cristalli scintillatori di tipo GAGG:Ce. Il GAGG:Ce è uno scintillatore inorganico di nuova generazione (sviluppato attorno al 2012). L'obiettivo di questa tesi è studiare la risposta, in termini di ampiezza assoluta e uscita luce, del GAGG:Ce accoppiato a una SDD, concentrandosi nello studio della risposta non lineare dello scintillatore, dovuta al K-edge del gadolinio all'energia di 50.23 keV, per contribuire all'ottimizzazione della calibrazione strumentale per il satellite HERMES. Per l'esperimento sono stati usati tre diversi campioni di scintillatore GAGG:Ce. L'esperimento si è basato sull'osservazione di sorgenti radioattive di calibrazione e di un fascio monocromatico di fotoni X, prodotto attraverso il generatore disponibile presso la facility LARIX-A dell'Università di Ferrara, con un rivelatore composto dallo scintillatore in analisi letto con una SDD. L'intervallo di energie scelto per il fascio monocromatico è di 20-160 keV, mentre i radioisotopi consentono di acquisire dati anche ad energie maggiori. La risposta dello scintillatore è stata quindi studiata dalla minima energia rivelabile (20-40 keV) all'energia della riga del 137Cs a 661.65 keV.
Resumo:
Prendere decisioni è un’attivita incessante ed intrinseca nella nostra quotidianità, i ricercatori della Cornell University stimano che ogni giorno un adulto prenda circa 35.000 decisioni semi-consapevoli. Fare scelte è un attività molto dipendiosa a livello mentale e lo è ancora di più se le scelte da prendere sono importanti e hanno ripercussioni anche a livello collettivo e non solo individuale. L’affaticamento decisionale è un tema critico in molti ambiti professionali e può essere considerato un vero e proprio bias, uno studio su più di 1.000 decisioni prese da otto giudici israeliani per la libertà vigilata nel 2009 ha rilevato che la probabilità di ottenere esito favorevole era del 65% all’inizio di ogni sessione, ma diminuiva a meno del 10% prima della pausa pranzo, il lavoro mentale di decidere caso dopo caso, logorava in modo importante le energie decisionali dei giudici, (Tierney, 2011). Lo studio che partirà da queste premesse andrà ad indagare e approfondire il tema della Decison Fatigue, ancora poco conosciuto, lo stato attuale del mercato, e i possibili sbocchi lato prodotto. Successivamente sulla base dell’analisi precedente, da cui saranno estratti: target di riferimento, bisogni e soluzioni applicabili, sarà realizzato un device fisico che proporrà una soluzione mirata al contesto e ai problemi indiviuati.
Resumo:
Le energie rinnovabili rappresentano il presente e allo stesso tempo il futuro della produzione elettrica mondiale. Produrre sempre più energia da fonti rinnovabili è una necessità condivisa da tutti i Paesi del mondo per cercare di dare un freno agli evidenti problemi climatici e alle continue minacce subite dall’ecosistema, che stanno condizionando il pianeta negli ultimi anni. Nel corso di questo elaborato ci si è concentrati soprattutto sul fotovoltaico, che a differenza delle altre fonti, essendo alimentato dall’energia solare è ben distribuito in quasi tutto il pianeta e nel corso degli ultimi anni ha avuto una crescita e una diffusione esponenziali in Italia e nel resto del mondo. La sempre crescente innovazione nel campo dei materiali utilizzati, permette ad oggi una maggiore scelta della tipologia di pannello da installare, sulla base dei vari fattori che possono influenzarne efficienza e rendimento. L’obiettivo finale è quello di avere tutti i dati necessari per effettuare l’analisi e il confronto tra le simulazioni di funzionamento di diverse tipologie di fotovoltaico, valutandone, oltre all’aspetto tecnico, anche la convenienza e i vantaggi in termini di rendimento. Durante lo sviluppo della tesi, le simulazioni sono state condotte prendendo come riferimento un capannone industriale ubicato nella stazione ferroviaria di Bologna Interporto, analizzando poi i dati mediante l’ausilio del software PVSyst. per confrontare i dati e i risultati ottenuti all’interno di un resoconto che evidenzi le maggiori differenze e la soluzione più vantaggiosa in termini di rendimento.
Resumo:
Il Worldwide LHC Computing Grid (WLCG) è una collaborazione internazionale costituita da decine di centri di calcolo distribuiti globalmente, la cui missione consiste nell'elaborazione delle grandi quantità di dati prodotti dai maggiori esperimenti di Fisica delle Alte Energie, in particolare quelli al CERN di Ginevra. Uno di questi centri di calcolo è ospitato presso il CNAF dell'Istituto Nazionale di Fisica Nucleare a Bologna, che contribuisce anche allo sviluppo di middleware per la gestione dell'infrastruttura. Molti componenti di tale middleware, che hanno funzionalità e scopi diversi, richiedono un servizio di autorizzazione versatile e compatibile con i meccanismi di autenticazione attualmente in uso, basati su token OAuth 2.0 e su certificati VOMS Proxy. In questa tesi si analizzerà l'architettura e l'implementazione di un proof-of-concept di un sistema di autorizzazione che soddisfi queste necessità, enfatizzando l'integrazione delle tecniche di autenticazione citate. Per dimostrare la sua versatilità, verrà illustrato il processo di interfacciamento con un componente middleware attualmente in sviluppo al CNAF. Il risultato finale ottenuto è un sistema che rispetta i vincoli richiesti e si integra facilmente con servizi eterogenei.
Resumo:
Nel corso degli ultimi decenni sono stati eseguiti diversi esperimenti volti alla misura della lunghezza di scattering neutrone-neutrone, ma alcuni risultati si sono rivelati discordanti e ad oggi essa è ancora nota con insufficiente precisione, a causa della complessità del problema sia dal punto di vista teorico che sperimentale. Una migliore conoscenza di questa grandezza può fornire importanti informazioni sulla natura dei nucleoni e sulle loro interazioni. È stato quindi proposto un esperimento volto alla misura della lunghezza di scattering neutrone-neutrone al CERN di Ginevra, presso la facility n_TOF, sfruttando gli aggiornamenti apportati alle aree sperimentali e alla sorgente di neutroni negli ultimi anni. L'esperimento prevede di utilizzare la reazione di breakup del deuterio tramite l'impiego di un target attivo, composto da un bersaglio di stilbene deuterato (stilbene-d12) che funge anche da materiale scintillatore. Per verificare la fattibilità dell'esperimento sono stati eseguiti dei test preliminari presso la facility del National Center for Scientific Research (NCSR) Demokritos, irradiando il target attivo con neutroni e raggi γ a diverse energie e utilizzando due tipi diversi di sensori fotomoltiplicatori al silicio (SiPM) nel sistema di rivelazione. In questa tesi sono stati analizzati dei segnali provenienti da questi test, valutando la possibilità di eseguire discriminazione n/γ sfruttando la tecnica della Pulse Shape Discrimination (PSD).
Resumo:
L'adroterapia è una delle tecniche utilizzate ad oggi per trattare i tumori ed è basata sull'utilizzo di fasci di particelle cariche, come protoni e ioni carbonio, accelerati sulla zona da trattare. A differenza dei fotoni, utilizzati in radioterapia, le particelle cariche permettono un rilascio di energia più mirato, danneggiando il DNA delle cellule tumorali fino ad impedirne la duplicazione, senza intaccare i tessuti sani circostanti. Per sfruttare al meglio questa tecnica è necessario conoscere a fondo i processi di frammentazione nucleare che possono avere luogo durante il trattamento, sui quali si hanno ancora insufficienti dati sperimentali, in particolare a proposito della frammentazione del bersaglio. L'esperimento FOOT (FragmentatiOn Of Target) nasce proprio per poter misurare le sezioni d'urto differenziali dei processi di frammentazione nucleare alle tipiche energie dell'adroterapia, dai 60 MeV/u ai 400 MeV/u. Allo stato attuale l'esperimento è dotato di un apparato per la rivelazione di frammenti carichi pesanti e uno per quelli leggeri, mentre non ha un sistema di rivelazione per le particelle neutre. Si sta quindi valutando la possibilità di aggiungere rivelatori di neutroni, per esempio gli scintillatori liquidi BC-501A, i quali permettono di discriminare fotoni da neutroni grazie alla diversa forma del segnale prodotto (Pulse Shape Discrimination). Per studiare le prestazioni di questi rivelatori, essi si stanno attualmente testando alla facility n_TOF del CERN con diverse sorgenti di particelle. In questo lavoro di tesi mi sono occupata di analizzare i segnali raccolti da due BC-501A con una sorgente AmBe di raggi γ e neutroni, con schermo in piombo, e con una sorgente 88Y di soli raggi γ, evidenziando le buone capacità di questi rivelatori di identificare correttamente neutroni e fotoni.
Resumo:
Nei prossimi anni è atteso un aggiornamento sostanziale di LHC, che prevede di aumentare la luminosità integrata di un fattore 10 rispetto a quella attuale. Tale parametro è proporzionale al numero di collisioni per unità di tempo. Per questo, le risorse computazionali necessarie a tutti i livelli della ricostruzione cresceranno notevolmente. Dunque, la collaborazione CMS ha cominciato già da alcuni anni ad esplorare le possibilità offerte dal calcolo eterogeneo, ovvero la pratica di distribuire la computazione tra CPU e altri acceleratori dedicati, come ad esempio schede grafiche (GPU). Una delle difficoltà di questo approccio è la necessità di scrivere, validare e mantenere codice diverso per ogni dispositivo su cui dovrà essere eseguito. Questa tesi presenta la possibilità di usare SYCL per tradurre codice per la ricostruzione di eventi in modo che sia eseguibile ed efficiente su diversi dispositivi senza modifiche sostanziali. SYCL è un livello di astrazione per il calcolo eterogeneo, che rispetta lo standard ISO C++. Questo studio si concentra sul porting di un algoritmo di clustering dei depositi di energia calorimetrici, CLUE, usando oneAPI, l'implementazione SYCL supportata da Intel. Inizialmente, è stato tradotto l'algoritmo nella sua versione standalone, principalmente per prendere familiarità con SYCL e per la comodità di confronto delle performance con le versioni già esistenti. In questo caso, le prestazioni sono molto simili a quelle di codice CUDA nativo, a parità di hardware. Per validare la fisica, l'algoritmo è stato integrato all'interno di una versione ridotta del framework usato da CMS per la ricostruzione. I risultati fisici sono identici alle altre implementazioni mentre, dal punto di vista delle prestazioni computazionali, in alcuni casi, SYCL produce codice più veloce di altri livelli di astrazione adottati da CMS, presentandosi dunque come una possibilità interessante per il futuro del calcolo eterogeneo nella fisica delle alte energie.
Resumo:
La ricerca oggetto del presente elaborato di tesi persegue fini di lotta ai cambiamenti climatici e promozione delle energie rinnovabili, in linea con i diciassette Obiettivi per lo Sviluppo Sostenibile definiti dall’Organizzazione delle Nazioni Unite nel 2015 a causa dell’incombente emergenza ambientale in atto; inoltre individua risorse che possono risultare utili in situazioni di crisi energetica come quella iniziata nel 2022. L’obiettivo dell’elaborato è l’individuazione dei bare soils o “suoli nudi”, ovvero terreni lasciati senza copertura nei mesi che intercorrono tra un raccolto e la semina successiva, presenti nella parte pianeggiante dell’Emilia Romagna nell’anno 2021. È stata eseguita una ricerca introduttiva sulle politiche agricole inerenti i cambiamenti climatici e sull’uso del suolo nell’area di studio. Nel procedimento seguente sono stati utilizzati immagini e dati satellitari a libero accesso, rilevati dai satelliti Sentinel-2 del programma Copernicus dell’Unione Europea. Per mezzo di software open source, sono state identificate le superfici di suolo nudo tramite calcolo degli indici di vegetazione Normalized Difference Vegetation Index (NDVI) e selezione delle aree con valori dell’indice idonei per 4 mesi consecutivi; sono state create mappe tematiche con le posizioni dei terreni, sono state ricavate statistiche sulla loro estensione e sono state effettuate validazioni dei risultati. Secondo i calcoli, nei 2 periodi più promettenti i suoli nudi coprivano rispettivamente circa il 4% e il 25% dell’area di studio. I terreni individuati sono stati poi utilizzati come input per una simulazione di un loro utilizzo sostenibile. Infatti, quando abbastanza estesi e liberi per un tempo sufficiente, possono essere utilizzati per colture intercalari come il sorgo, volte ad ottenere biomasse adatte alla produzione di biocarburanti.
Resumo:
Nel primo punto del capitolo seguente si propone una panoramica sulla decarbonizzazione del settore energetico e si discutono i principali provvedimenti europei avviati a tal fine. Si analizza lo scenario energetico italiano e le sue prospettive future; anche l’Italia deve impegnarsi in termini di energie rinnovabili e riduzione dei gas serra. Nel settore energetico nazionale sono comprese la produzione, la trasformazione e l’utilizzo di energia elettrica. In questa fase in particolare, si studiano i dati relativi alla fase di produzione. Inoltre, si studia la dipendenza energetica dell’Italia dalle fonti fossili estere. Di seguito saranno analizzati i piani energetici auspicabili per il 2030 e per il 2050. Nel secondo punto si passa poi all’analisi dei consumi, attraverso lo studio dei consumi medi e l’approfondimento sui consumi dei principali elettrodomestici. Nella prima sezione del capito che segue vengono analizzati i principali sistemi di accumulo di energia domestica con particolare enfasi riguardo i limiti applicativi. Le batterie a litio seppur relativamente economiche hanno un forte impatto ambientale che sarebbe ammortizzato utilizzando un nuovo modello di volano (MechSTOR). Nella seconda parte del capitolo, si esamina invece la fattibilità del modello di accumulo a volano. I costi del volano verrebbero ammortizzati dal guadagno relativo all’immissione in rete di energia elettrica? L’analisi in Simulink ha permesso di lavorare con i segnali di potenza, utilizzando le curve di carico domestico e la curva di produzione fotovoltaica al fine di studiare la convenienza economica della batteria a volano.
Resumo:
Durante gli ultimi anni sta avendo sempre più rilevanza il problema del cambiamento climatico, dovuto principalmente all’emissione in atmosfera di gas serra. Una delle soluzioni da adottare è una transizione energetica verso fonti di energia rinnovabili e una progressiva elettrificazione di tutte le tecnologie che utilizzano ancora combustibili fossili. L’obiettivo di questa tesi di Laurea è analizzare e implementare un semplice modello in MATLAB/Simulink di una turbina eolica, conoscendo solo i dati di targa del generatore, la curva di potenza della turbina e avendo a disposizione dei dati reali di velocità del vento, potenza prodotta e velocità di rotore. Il progetto quindi consiste in un lavoro di reverse engineering in cui, partendo dai componenti reali, si cerca di ricavare, in maniera empirica e sperimentale, i parametri che ne caratterizzano il modello matematico. Successivamente è stato implementato un modello su Simulink, partendo da un modello già esistente, in cui si è simulato il comportamento della macchina, ottenendo una stima della potenza prodotta.
Resumo:
L’emissione di Compton Inverso (IC) rientra nei processi di radiazione detti di diffusione (o di scattering) e riguarda l’interazione tra elettroni relativistici ad alta energia e fotoni molto meno energetici. Il meccanismo di interazione viene approssimato ad un semplice urto tra le due particelle, in seguito al quale il fotone acquista parte dell’energia cinetica dell’elettrone, venendo diffuso ed osservato a frequenza più alta e con direzione di propagazione diversa rispetto a quanto possedeva prima dell’urto. Il Compton Inverso è il meccanismo contrario della diffusione Compton, dove il fotone perde energia in seguito all’urto con l’elettrone e viene osservato a frequenze inferiori a quelle originarie. L’IC viene osservato in ambito astrofisico soprattutto in combinazione con l’emissione di sicrotrone – nella quale elettroni relativistici presenti in regioni magnetizzate vengono accelerati dal campo magnetico ed emettono radiazione – in un fenomeno detto Synchrotron Self-Compton. Esso avviene solitamente in sorgenti molto compatte nelle quali i fotoni prodotti per sincrotrone hanno maggiore possibilità di interagire nuovamente con gli elettroni che li hanno generati, venendo diffusi ad energie più elevate. L’IC viene inoltre osservato in combinazione alla diffusione Compton in un processo detto Comptonizzazione. Ciò si verifica in plasmi molto caldi e abbastanza rarefatti, nei quali si hanno innumerevoli scambi di energia tra le particelle che li compongono. La tesi comprende una prima parte introduttiva nella quale viene presentato il contesto storico di inizio Novecento nel quale si inserisce, tra gli altri, il fisico Arthur H. Compton. Successivamente, vengono spiegati nel dettaglio i principali meccanismi di diffusione con particolare attenzione all’IC. Infine, sono illustrate le applicazioni astrofisiche del Compton Inverso e alcune delle sorgenti nelle quali l’IC viene osservato in combinazione con altri processi di radiazione.
Resumo:
Numerosi sono gli effetti astrofisici determinati dal moto relativo tra sorgente e osservatore, i quali pemettono non solo di inferire proprietà cinematiche degli oggetti studiati, ma addirittura caratterizanti della loro struttura e fenomenologia. Nonostante gran parte dei fenomeni in Astrofisica appartengano al regime newtoniano, esistono situazioni in cui si rende necessario l'intervento della relatività di Einstein al fine di comprenderle nella maniera più completa. La branca dell'Astrofisica che si occupa dello studio di questi oggetti tanto peculiari è detta Astrofisica delle alte energie. In seguito verrano presentati i principali strumenti offerti dalla relatività, sia nel caso speciale che in quello più generale, per trattatare effetti quali il beaming, l'effetto doppler, il redshift gravitazionale e il lensing. Per quanto riguarda il beaming e l'effetto doppler, verrà affrontata con particolare riguardo la radiazione di sincrotrone e la sua polarizzazione, come questi influenzano la struttura delle righe del ferro nei dischi di accrescimento in AGN e i moti superluminali. In conclusione si tratteranno i moti superluminali.
Resumo:
Sapersi muovere con efficienza è fondamentale per tutti gli esseri viventi. Gli uccelli sono abili navigatori del cielo e, per orientarsi, utilizzano diversi tipi di bussole naturali e un orologio circadiano che gli consente di compensare i cambiamenti giornalieri dovuti alla rotazione terrestre. Essi sono in grado di immagazzinare, in una mappa cognitiva, le informazioni percepite durante i vari voli effettuati; queste possono derivare da riferimenti sia di tipo visivo, che di altro genere, come odori e geomagnetismo, e consentono ai volatili di ritrovare facilmente la strada di casa. Gli uccelli, inoltre, sono in grado di percepire il flusso ottico proveniente da un paesaggio pieno di irregolarità (come può esserlo una foresta o una superficie ondosa marina); grazie ad esso possono controllare con precisione l'altitudine di volo a bassa quota e possono individuare ostacoli nelle immediate vicinanze in modo da evitare collisioni. Durante le migrazioni capita di volare a quote più elevate per cercare di risparmiare energie e, in questo caso, gli uccelli possono controllare la loro altitudine con un errore all'incirca di 10m, poiché sono in grado di percepire direttamente le variazioni di pressione atmosferica. Per risparmiare energie sono molto abili nello sfruttare la forza dei venti e nel compensarne la deriva. Gli uccelli possiedono diverse abilità che spiegano la loro impressionante capacità di navigazione e quindi rappresentano un ottimo spunto per apprendere diverse tecniche in modo da migliorare i nostri metodi di orientamento ed elaborazione dei dati.