1000 resultados para Energia solare, Fisica delle celle solari fotovoltaiche, Celle Tandem


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nei prossimi anni è atteso un aggiornamento sostanziale di LHC, che prevede di aumentare la luminosità integrata di un fattore 10 rispetto a quella attuale. Tale parametro è proporzionale al numero di collisioni per unità di tempo. Per questo, le risorse computazionali necessarie a tutti i livelli della ricostruzione cresceranno notevolmente. Dunque, la collaborazione CMS ha cominciato già da alcuni anni ad esplorare le possibilità offerte dal calcolo eterogeneo, ovvero la pratica di distribuire la computazione tra CPU e altri acceleratori dedicati, come ad esempio schede grafiche (GPU). Una delle difficoltà di questo approccio è la necessità di scrivere, validare e mantenere codice diverso per ogni dispositivo su cui dovrà essere eseguito. Questa tesi presenta la possibilità di usare SYCL per tradurre codice per la ricostruzione di eventi in modo che sia eseguibile ed efficiente su diversi dispositivi senza modifiche sostanziali. SYCL è un livello di astrazione per il calcolo eterogeneo, che rispetta lo standard ISO C++. Questo studio si concentra sul porting di un algoritmo di clustering dei depositi di energia calorimetrici, CLUE, usando oneAPI, l'implementazione SYCL supportata da Intel. Inizialmente, è stato tradotto l'algoritmo nella sua versione standalone, principalmente per prendere familiarità con SYCL e per la comodità di confronto delle performance con le versioni già esistenti. In questo caso, le prestazioni sono molto simili a quelle di codice CUDA nativo, a parità di hardware. Per validare la fisica, l'algoritmo è stato integrato all'interno di una versione ridotta del framework usato da CMS per la ricostruzione. I risultati fisici sono identici alle altre implementazioni mentre, dal punto di vista delle prestazioni computazionali, in alcuni casi, SYCL produce codice più veloce di altri livelli di astrazione adottati da CMS, presentandosi dunque come una possibilità interessante per il futuro del calcolo eterogeneo nella fisica delle alte energie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il modello ΛCDM è l’attuale modello standard della cosmologia e descrive la presenza dell’energia oscura attraverso una costante cosmologica Λ. Nonostante i buoni fit con le osservazioni a livello di background, il modello non risulta essere simultaneamente consistente nella stima della costante di Hubble con le osservazioni ad alto redshift e quelle a basso redshift. Si presenta un modello cosmologico di quintessenza con accoppiamento, in cui si utilizza come vincolo una funzione di Hubble identica a quella del modello standard e in cui si studiano i principali parametri di interesse cosmologico per diversi possibili accoppiamenti costanti, risolvendo numericamente le equazioni del campo scalare di energia oscura e delle perturbazioni lineari del modello. Si introducono poi due possibili estensioni del modello, utilizzando come vincolo una funzione di Hubble che differisce da quella classica per una piccola deviazione nei valori a basso redshift e risolvendone il background, infine studiando nuovamente il modello con il background di ΛCDM in cui però si introduce un accoppiamento che varia nel tempo, in accordo con i vincoli derivanti dai dati della CMB.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato tratta lo studio dell’evoluzione delle perturbazioni di densità non lineari, confrontando modelli con costante cosmologica (wΛ = −1) e modelli alternativi in cui l’energia oscura sia caratterizzata da un’equazione di stato con w diverso da −1, considerando sia il caso con energia oscura costante, sia quello in cui ha fluttuazioni. La costante cosmologica presenta infatti due problemi teorici attualmente senza soluzione: il problema del suo valore e il problema della coincidenza. Per analizzare l’evoluzione delle perturbazioni di materia ed energia oscura, sia nel caso delle sovradensità che nel caso delle sottodensità primordiali, si implementano numericamente le equazioni differenziali non lineari ricavate a partire dalla teoria del collasso sferico. Per parametrizzare il problema, si fa riferimento ai valori critici del contrasto di densità δc e δv che rappresentano, rispettivamente, la soglia lineare per il collasso gravitazionale e la soglia per l’individuazione di un vuoto cosmico. I valori di δc e δv sono importanti poich´e legati agli osservabili cosmici tramite la funzione di massa e la void size function. Le soglie critiche indicate sono infatticontenute nelle funzioni citate e quindi, cambiando δc e δv al variare del modello cosmologico assunto, è possibile influenzare direttamente il numero e il tipo di oggetti cosmici formati, stimati con la funzione di massa e la void size function. Lo scopo principale è quindi quello di capire quanto l’assunzione di un modello, piuttosto che di un altro, incida sui valori di δc e δv. In questa maniera è quindi possibile stimare, con l’utilizzo della funzione di massa e della void size function, quali sono gli effetti sulla formazione delle strutture cosmiche dovuti alle variazioni delle soglie critiche δc e δv in funzione del modello cosmologico scelto. I risultati sono messi a confronto con il modello cosmologico standard (ΛCDM) per cui si assume Ω0,m = 0.3, Ω0,Λ = 0.7 e wΛ = −1.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the treatment plans in conventional Proton therapy are considered only the elastic interactions of protons with electrons and/or nuclei, it means, mainly ionization and coulomb excitation processes. As the energy needed to reach the deep tumors should be of several hundred of MeVs, certainly the nuclear inelastic channels are open. Only some previous studies of the contribution of these processes in the full dose have been made towards targets composed of water. In this study will be presented the results of the simulation of the processes of interaction of beams of protons in the range of 100-200 MeV of energy with a cylindrical phantom composed by striated muscle (ICRU), emphasizing in the contribution to total dose due to the deposition of energy by secondary particles alpha (α), deuterium (2H), tritium (3H), neutron (n) and hélio3 (3He), originated by nuclear inelastic processes. The simulations were performed by using the method of Monte Carlo, via the computer code MCNPX v2.50 (Monte Carlo N-Particle eXtended). The results will be shown demonstrated through the graphics of the deposited dose with or without nuclear interaction, the percentual of dose deposited by secondary particles, the radial dispersion of neutrons, as well as the multiplicity of secondary particles

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’Alpha Magnetic Spectrometer (AMS-02) é un rivelatore per raggi cosmici (CR) progettato e costruito da una collaborazione internazionale di 56 istituti e 16 paesi ed installato il 19 Maggio del 2011 sulla Stazione Spaziale Internazionale (ISS). Orbitando intorno alla Terra, AMS-02 sará in grado di studiare con un livello di accuratezza mai raggiunto prima la composizione dei raggi cosmici, esplorando nuove frontiere nella fisica delle particelle, ricercando antimateria primordiale ed evidenze indirette di materia oscura. Durante il mio lavoro di tesi, ho utilizzato il software GALPROP per studiare la propagazione dei CR nella nostra Galassia attraverso il mezzo interstellare (ISM), cercando di individuare un set di parametri in grado di fornire un buon accordo con i dati preliminari di AMS-02. In particolare, mi sono dedicata all’analisi del processo di propagazione di nuclei, studiando i loro flussi e i relativi rapporti. Il set di propagazione ottenuto dall’analisi é stato poi utilizzato per studiare ipotetici flussi da materia oscura e le possibili implicazioni per la ricerca indiretta attraverso AMS-02.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella fisica delle particelle, onde poter effettuare analisi dati, è necessario disporre di una grande capacità di calcolo e di storage. LHC Computing Grid è una infrastruttura di calcolo su scala globale e al tempo stesso un insieme di servizi, sviluppati da una grande comunità di fisici e informatici, distribuita in centri di calcolo sparsi in tutto il mondo. Questa infrastruttura ha dimostrato il suo valore per quanto riguarda l'analisi dei dati raccolti durante il Run-1 di LHC, svolgendo un ruolo fondamentale nella scoperta del bosone di Higgs. Oggi il Cloud computing sta emergendo come un nuovo paradigma di calcolo per accedere a grandi quantità di risorse condivise da numerose comunità scientifiche. Date le specifiche tecniche necessarie per il Run-2 (e successivi) di LHC, la comunità scientifica è interessata a contribuire allo sviluppo di tecnologie Cloud e verificare se queste possano fornire un approccio complementare, oppure anche costituire una valida alternativa, alle soluzioni tecnologiche esistenti. Lo scopo di questa tesi è di testare un'infrastruttura Cloud e confrontare le sue prestazioni alla LHC Computing Grid. Il Capitolo 1 contiene un resoconto generale del Modello Standard. Nel Capitolo 2 si descrive l'acceleratore LHC e gli esperimenti che operano a tale acceleratore, con particolare attenzione all’esperimento CMS. Nel Capitolo 3 viene trattato il Computing nella fisica delle alte energie e vengono esaminati i paradigmi Grid e Cloud. Il Capitolo 4, ultimo del presente elaborato, riporta i risultati del mio lavoro inerente l'analisi comparata delle prestazioni di Grid e Cloud.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'obiettivo di questa tesi è studiare la fattibilità dello studio della produzione associata ttH del bosone di Higgs con due quark top nell'esperimento CMS, e valutare le funzionalità e le caratteristiche della prossima generazione di toolkit per l'analisi distribuita a CMS (CRAB versione 3) per effettuare tale analisi. Nel settore della fisica del quark top, la produzione ttH è particolarmente interessante, soprattutto perchè rappresenta l'unica opportunità di studiare direttamente il vertice t-H senza dover fare assunzioni riguardanti possibili contributi dalla fisica oltre il Modello Standard. La preparazione per questa analisi è cruciale in questo momento, prima dell'inizio del Run-2 dell'LHC nel 2015. Per essere preparati a tale studio, le implicazioni tecniche di effettuare un'analisi completa in un ambito di calcolo distribuito come la Grid non dovrebbero essere sottovalutate. Per questo motivo, vengono presentati e discussi un'analisi dello stesso strumento CRAB3 (disponibile adesso in versione di pre-produzione) e un confronto diretto di prestazioni con CRAB2. Saranno raccolti e documentati inoltre suggerimenti e consigli per un team di analisi che sarà eventualmente coinvolto in questo studio. Nel Capitolo 1 è introdotta la fisica delle alte energie a LHC nell'esperimento CMS. Il Capitolo 2 discute il modello di calcolo di CMS e il sistema di analisi distribuita della Grid. Nel Capitolo 3 viene brevemente presentata la fisica del quark top e del bosone di Higgs. Il Capitolo 4 è dedicato alla preparazione dell'analisi dal punto di vista degli strumenti della Grid (CRAB3 vs CRAB2). Nel capitolo 5 è presentato e discusso uno studio di fattibilità per un'analisi del canale ttH in termini di efficienza di selezione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi verranno affrontati due argomenti principali. Il primo sono le tecnologie wearable, comprendendo anche la notazione più generica di tecnologie bearable, che si stanno sempre più diffondendo negli ultimi anni; il secondo sono le BAN (Body Area Network), reti di sensori e dispositivi posti sul corpo umano, utilizzate per rendere possibile la comunicazione e l'interazione fra i device wearable. Si partirà da una trattazione di tipo generico degli argomenti, descrivendo l'architettura fisica delle tecnologie, con focalizzazione sull'aspetto informatico prevalentemente che su quello elettronico e telecomunicazionistico. Si parlerà degli attuali impieghi dei dispositivi e delle reti, e delle loro probabili evoluzioni future. Si introdurranno poi i protocolli di comunicazione principali e se ne analizzeranno le differenze, decretando se sia o meno conveniente puntare su uno o sull'altro rispetto alle esigenze di progetto. Verrà introdotto il sistema operativo Android, descrivendo la sua architettura e fornendo le informazioni basilari per comprendere al meglio il rapporto esistente con la tecnologia Bluetooth.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni il tema del risparmio energetico nei sistemi elettronici ha suscitato sempre maggiore interesse, poiché grazie allo sviluppo tecnologico è stato possibile creare dispositivi in grado di operare a bassa potenza. Sempre più applicazioni elettroniche richiedono di funzionare tramite fonti di energia limitata, come per esempio le batterie, con un’autonomia in alcuni casi anche di 15-20 anni, questo è il motivo per il quale è diventato fondamentale riuscire a progettare sistemi elettronici in grado di gestire in modo intelligente l’energia a disposizione. L’utilizzo di batterie però spesso richiede costi aggiuntivi, come per esempio il semplice cambio, che in alcune situazioni potrebbe essere difficoltoso poiché il sistema elettronico si potrebbe trovare in luoghi difficilmente raggiungibili dall’uomo; ecco perché negli ultimi anni il tema della raccolta di energia o anche chiamato Energy Harvesting, sta suscitando sempre più interesse. Con l’Energy Harvesting si possono catturare ed accumulare per poi riutilizzare, piccole quantità di energia presenti nell’ambiente. Attraverso sistemi di Energy Harvesting è quindi diventato possibile trasformare energia cinetica, differenze di temperatura, effetto piezoelettrico, energia solare ecc.. in energia elettrica che può essere utilizzata per alimentare semplici applicazioni elettroniche, nel caso di questa tesi un nodo sensore wireless. I vantaggi dei sistemi di Energy Harvesting rispetto a sistemi alimentati a batteria sono i seguenti: - Costi di manutenzione ridotti; - Fonte di energia idealmente inesauribile e con un impatto ambientale negativo nullo. La potenza fornita da sistemi di Energy Harvesting si aggira intorno a qualche centinaia di uW, perciò è chiaro che il sistema da alimentare deve essere ottimizzato il più possibile dal punto di vista energetico, per questo motivo il progettista si deve impegnare per evitare qualsiasi spreco energetico e dovrà utilizzare dispositivi che permettono una gestione intelligente dell’energia a disposizione, al fine di ottenere la migliore efficienza possibile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’esperimento LHCb al CERN di Ginevra è stato appositamente progettato per effettuare misure di precisione nel settore della fisica del sapore, per verificare la validità delle previsioni del Modello Standard. Il Modello Standard descrive le trasformazioni dello stato di flavour dei quark secondo lo schema di mixing compendiato nella matrice unitaria di Cabibbo-Kobayashi-Maskawa. La verifica dell’unitarietà della matrice di mixing è dunque uno dei campi d’indagine più importanti nella fisica delle particelle. I modelli teorici che estendono il Modello Standard prevedono infatti meccanismi alternativi a quello CKM per la trasformazione del flavour che implicherebbero una violazione della unitarietà. Allo scopo di studiare la dinamica del flavour l’esperimento LHCb realizza misure della violazione della simmetria di coniugazione di carica e parità CP. Le misure di violazione della simmetria CP permettono di determinare i valori dei parametri complessi della matrice CKM (modulo e fase). Esse si basano sulla misura delle asimmetrie di decadimento di stati coniugati di carica di mesoni costituiti da quark charm (mesoni D) e beauty (mesoni B) in stati finali costituiti da particelle scelte opportunamente. Di particolare importanza in questo programma di ricerca è la misura della fase del termine Vub della matrice CKM, denominata γ. Scopo della tesi è lo studio dei metodi di misura della fase γ. La tesi è organizzata in quattro capitoli. Nei primi tre capitoli sono state poste le basi teoriche per la comprensione della fenomenologia delle interazioni deboli e della sua descrizione nel Modello Standard. È stata discussa in dettaglio la dinamica del sistema dei mesoni neutri e la violazione della simmetria CP dovuta sia al decadimento sia alla oscillazione. Dopo l’inquadramento teorico, nel quarto e ultimo capitolo, sono stati presentati i tre modelli teorici generalmente utilizzati per la misura della fase γ e impiegati dagli esperimenti dedicati alla fisica del flavour. I metodi proposti sono quelli più importanti, che fino ad oggi hanno consentito di misurare γ. Al momento LHCb ha ottenuto la migliore misura di γ, con un errore relativo del 13%, combinando le tre metodologie di analisi. Si prevede che l’esperimento LHCb possa migliorare significativamente la precisione di misura raccogliendo nel prossimo futuro un campione di eventi di dimensione un’ordine di grandezza maggiore dell’attuale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esperimenti condotti negli anni Ottanta per la determinazione della vita media di alcuni radioisotopi sembrano mostrare fluttuazioni anomale del valore delle costanti di decadimento. Negli anni a seguire, altri studi hanno tentato di spiegare l'origine delle fluttuazioni osservate in questi primi lavori. Insieme agli esperimenti che hanno mostrato anomalie, però, ve ne sono altri che non hanno registrato alcuna deviazione. Con il seguente elaborato si ha l'intento di ordinare e organizzare schematicamente gli articoli pubblicati finora e realizzare così un quadro della situazione attuale. Questo può essere utile per predisporre un esperimento, da svolgersi presso il Laboratorio di Fisica delle Radiazioni del Dipartimento di Fisica e Astronomia dell'Università di Bologna, che possa arricchire la casistica del fenomeno. Si affronta in conclusione la progettazione dell'esperimento a lungo termine, per il quale si prevede inizialmente una durata triennale delle osservazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli eventi sismici del 2012 in Emilia-Romagna hanno provocato una rinnovata attenzione su alcuni fenomeni di carattere geologico superficiale. Sono stati in particolare riferiti dalla stampa locale e osservati dagli abitanti gorgogliamenti di gas naturale nelle acque dei pozzi, nelle acque dei canali di bonifica ed emissioni di gas libero, in prevalenza metano. In questa tesi si è voluto mettere in luce tutto lo sviluppo storico del metano Padano, facendo un particolare riferimento al metano più superficiale, ossia al metano denominato biogenico, illustrando le sue origini, le sue prime manifestazioni, la sua scoperta, la sua derivazione dalla torba, le sue prime produzioni, considerando gli impatti ambientali possibili e verificati, arrivando fino all’attuale periodo in cui esso si è affermato diventando una delle fonti principali di energia ed una delle materie prime più preziose. La Tesi ha lo scopo di meglio chiarire l’origine e la modalità di occorrenza del metano biogenico Padano. Viene inoltre sviluppata una indagine orientata a identificare gli orizzonti geologici più “produttivi” di metano biogenico della regione Emilia-Romagna originato da torbe. Le aree effettivamente più produttive sono una parte di quelle ricche in torba e sono caratterizzate da buone capacità di conservazione nel tempo delle caratteristiche chimico fisiche favorevoli alla degradazione batterica della sostanza organica. Ciò avviene quando vengono mantenute particolari condizioni di isolamento tramite argille ecc. Il metano biogenico Padano viene costantemente espulso dai sedimenti e naturalmente disperso in atmosfera. Eventuali attività di captazione del metano dalle aree maggiormente produttive potranno contribuire alla diminuzione dell’effetto serra e alla contestuale produzione a piccola o piccolissima scala di energia nei limiti delle normative in vigore soggette ad eventuali possibili revisioni in analogia a quanto disposto per altre forme di generazione di metano come biogas, discariche ecc.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato fornisce una introduzione al modello di Ising, utilizzato nello studio delle transizioni di fase tra la fase ferromagnetica e quella paramagnetica dei materiali. Nella prima parte viene trattato il modello unidimensionale, di cui viene esposta la soluzione esatta attraverso l'utilizzo delle matrici di trasferimento, dimostrando quindi l'inesistenza di una transizione di fase a temperature finite non nulle. Vengono calcolate le funzioni termodinamiche e se ne dimostra l'indipendenza dalle condizioni al contorno nel limite termodinamico.Viene proposta infine una spiegazione qualitativa del comportamento microscopico, attraverso la lunghezza di correlazione. Nella seconda parte viene trattato il caso a due dimensioni. Inizialmente viene determinata la temperatura critica per reticoli quadrati, attraverso il riconoscimento della presenza di una relazione di dualita tra l'espansione per alte e per basse temperature della funzione di partizione. Successivamente si fornisce la soluzione esatta attraverso una versione modificata del procedimento, originariamente ideato da L.Onsager, di cui e proposta una traccia della dimostrazione. Viene infine brevemente discussa l'importanza che questo risultato ebbe storicamente nella fisica delle transizioni di fase.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Vols. 10-18 each contain both chronological and alphabetical indexes. Vol. 18 contains also a general index to the Correspondence, v. 10-18. Vol. 20 contains indexes to the complete work: Indice dei volumi: Indice dei facsimili Indice dei nomi e delle cose notabili--Indice biografico.