978 resultados para Carathéodory teorema estensione misura
Resumo:
Questo lavoro di tesi si occupa dello studio dei buchi neri e delle loro proprietà termodinamiche da un punto di vista teorico. Nella prima parte si affronta una analisi teorico-matematica che mostra la soluzione dell’equazione di Einstein in relatività generale per un problema a simmetria sferica. Da questa soluzione si osserva la possibile presenza nell’universo di oggetti ai quali nemmeno alla luce è data la possibilità di fuggire, chiamati buchi neri. Ad ogni buco nero è associato un orizzonte degli eventi che si comporta come una membrana a senso unico: materia e luce possono entrare ma niente può uscire. E` studiata inoltre la possibile formazione di questi oggetti, mostrando che se una stella supera un certo valore critico di massa, durante la fase finale della sua evoluzione avverrà un collasso gravitazionale che nessuna forza conosciuta sarà in grado di fermare, portando alla formazione di un buco nero. Nella seconda parte si studiano le leggi meccaniche dei buchi neri. Queste leggi descrivono l’evoluzione degli stessi attraverso parametri come l’area dell’orizzonte degli eventi, la massa e la gravità di superficie. Si delinea quindi una analogia formale tra queste leggi meccaniche e le quattro leggi della termodinamica, con l’area dell’orizzonte degli eventi che si comporta come l’entropia e la gravità di superficie come la temperatura. Nella terza parte, attraverso l’utilizzo della meccanica quantistica, si mostra che l’analogia non è solo formale. Ad un buco nero è associata l’emissione di uno spettro di radiazione che corrisponde proprio a quello di un corpo nero che ha una temperatura proporzionale alla gravità di superficie. Si osserva inoltre che l’area dell’orizzonte degli eventi può essere interpretata come una misura della informazione contenuta nel buco nero e di conseguenza della sua entropia.
Resumo:
In questa tesi si propone un progetto software per il controllo automatico delle pressioni in apparato volumetrico, o apparato Sievert, dedicato allo studio dell'assorbimento e desorbimento di idrogeno nei metalli. Si introduce la fisica che regola la formazione degli idruri metallici, e i parametri di studio importanti per lo sviluppo di un sistema energetico basato sull'idrogeno. Particolare attenzione viene data alla misura di cinetica, la percentuale in peso di idrogeno assorbito/desorbito in funzione del tempo. Nel capitolo 2 si mostra il principio di funzionamento di un apparato Sievert e la realizzazione hardware dell'apparato: si compone di una serie di volumi calibrati, separati da valvole, a temperatura costante, tra cui la camera porta-campioni . La pressione al loro interno viene variata immettendo o aspirando idrogeno. Nel capitolo 3 è sviluppata la procedura di controllo software tramite LabVIEW, che si impone di impostare una pressione intermedia su un volume parziale, conoscendo la pressione finale, a volumi collegati, alla quale studiare il campione. Questo modo di lavoro permette di non agire direttamente sul campione con le immissioni e le aspirazioni di idrogeno. Il programma è stato provato con misure per materiali dalla cinetica molto veloce come il palladio(Pd). I risultati, nel capitolo 4, mostrano che il programma è in grado di controllare efficacemente le variazioni di pressioni e la misura di cinetica.
Resumo:
In questa tesi vengono presentati i risultati sperimentali di nanoindentazione su film sottili di PEDOT:PSS depositato su substrato rigido (vetro). Nella prima parte viene presentato lo sviluppo della teoria classica sul contatto meccanico tra due superfici elastiche, sviluppata per la prima volta da Hertz nella seconda metà dell'Ottocento. Nel Capitolo 2 si entra maggiormente nel dettaglio con la spiegazione del metodo sviluppato da Oliver e Pharr per misurare alcune proprietà meccaniche dei materiali tramite la tecnica della nanoindentazione utilizzata in questo esperimento. Particolare riguardo viene dato al modo in cui vengono misurate le quantità fisiche rilevanti, ovvero modulo di Young e durezza. Nel terzo capitolo vengono descritte brevemente la struttura del polimero PEDOT:PSS e la tecnica utilizzata per sintetizzarlo a partire dal suo monomero, l'EDOT. Nel Capitolo 4 una sezione è dedicata alla descrizione della preparazione dei campioni di PEDOT:PSS utilizzati in questo esperimento, quindi una parte è dedicata alla descrizione dello strumento di misura, mentre la restante parte del capitolo è riservata alla presentazione dei risultati sperimentali con l'aiuto di grafici e tabelle. Nella parte finale di questo lavoro si riportano alcune conclusioni sui risultati ottenuti.
Resumo:
La tesi introduce il problema matematico della rovina del giocatore dopo un'introduzione storica relativa allo sviluppo del gioco d'azzardo ed alla sua concezione sociale. Segue un'analisi di alcuni particolari giochi con un approfondimento sul calcolo della probabilità di vittoria e sul gioco equo. Infine sono introdotti alcuni preliminari matematici relativi alla misura, alle successioni di Bernoulli ed alle leggi dei grandi numeri, necessari per comprendere il problema.
Resumo:
Nel 2020 verrà lanciata la missione spaziale Euclid per investigare la natura dell’energia oscura. Euclid otterrà un’immensa quantità di dati fotometrici e spettrometrici finalizzati, soprattutto, alla misura di lenti gravitazionali deboli e oscillazioni acustiche barioniche. In questa tesi daremo una descrizione generale dello strumento e della scienza che potrà essere fatta grazie ad esso. In particolare, nel capitolo 2 verrà fornita una introduzione alla cosmologia e verranno introdotti i vari parametri cosmologici che Euclid sarà in grado di vincolare. Nel capitolo 3 si farà un’analisi dei principali fenomeni fisici che Euclid indagherà. Nel capitolo 4 verrà data una panoramica del satellite, descrivendo in dettaglio gli obiettivi, cosa osserverà e come farà le osservazioni, e quali sono gli strumenti che lo compongono (satellite, telescopio, VIS e NISP). Infine, nel capitolo 5 verranno mostrati dei primi risultati preliminari, ottenuti in questa tesi, riguardanti il test di un programma che servirà per la misura della funzione di correlazione a due punti di Euclid.
Resumo:
In questa tesi si è data una dimostrazione dovuta ad Andreotti e Frenkel del Teorema di Lefschetz, utilizzando gli strumenti e i risultati della Teoria di Morse.
Resumo:
L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.
Resumo:
In questa tesi si mostra che la caratteristica di Eulero e l'orientabilità (o non orientabilità) sono invarianti topologici per le superfici compatte e si studia il teorema di classificazione per tali superfici.
Resumo:
Lo scopo di questa tesi è lo studio della risolubilità per radicali di equazioni polinomiali nel caso in cui il campo dei coefficienti del polinomio abbia caratteristica zero. Nel primo capitolo vengono richiamati i principali risultati riguardanti la teoria di Galois. Nel secondo capitolo si introducono le nozioni di gruppo risolubile e gruppo semplice analizzandone le proprietà. Nel terzo capitolo si definiscono le estensioni di campi radicali e risolubili. Viene inoltre dimostrato il teorema di Galois che mette in evidenza il legame tra gruppi risolubili ed estensioni risolubili. Infine, nell'ultimo capitolo, si applicano i risultati ottenuti al problema della risolubilità per radicali delle equazioni polinomiali dando anche diversi esempi. In particolare viene analizzato il caso del polinomio universale di grado n.
Resumo:
La massa del quark top è qui misurata per mezzo dei dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con energia nel centro di massa pari ad 8 TeV. Il campione di dati raccolto corrisponde ad una luminosità integrata pari a 18.2 /fb. La misura è effettuata su eventi con un numero di jet almeno pari a 6, di cui almeno due b-taggati (ovvero identificati come prodotto dell’adronizzazione di due quark bottom). Il valore di massa trovato è di (173.95 +- 0.43 (stat)) GeV/c2, in accordo con la media mondiale. The top quark mass is here measured by using the data that have been collected with the CMS experiment in proton-proton collisions at the LHC, at a center-of-mass energy of 8 TeV. The dataset which was used, corresponds to an integrated luminosiy of 18.2 /fb. The mass measurement is carried out by using events characterized by six or more jets, two of which identified as being originated by the hadronization of bottom quarks. The result of the measurement of the top quark mass performed here is: (173.95 +- 0.43 (stat)) GeV/c2, in accordance with the recently published world average.
Resumo:
Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda USL della Romagna, Presidio Ospedaliero di Ravenna e consiste nella validazione del dato dosimetrico visualizzato su due apparecchiature per mammografia digitale e nel confronto tra qualità immagine di diverse curve di acquisizione in funzione della dose e della post-elaborazione. Presupposto per l’acquisizione delle immagini è stata la validazione del dato dosimetrico visualizzato sui mammografi, tramite misura diretta della dose in ingresso con strumentazione idonea, secondo protocolli standard e linee guida europee. A seguire, sono state effettuate prove di acquisizione delle immagini radiografiche su due diversi fantocci, contenenti inserti a diverso contrasto e risoluzione, ottenute in corrispondenza di tre curve dosimetriche e in funzione dei due livelli di post-elaborazione delle immagini grezze. Una volta verificati i vari passaggi si è proceduto con l’analisi qualitativa e quantitativa sulle immagini prodotte: la prima valutazione è stata eseguita su monitor di refertazione mammografica, mentre la seconda è stata effettuata calcolando il contrasto in relazione alla dose ghiandolare media. In particolare è stato studiato l’andamento del contrasto cambiando le modalità del software Premium View e lo spessore interposto tra la sorgente di raggi X ed il fantoccio, in modo da simulare mammelle con grandezze differenti.
Resumo:
In questa tesi sono stati apportati due importanti contributi nel campo degli acceleratori embedded many-core. Abbiamo implementato un runtime OpenMP ottimizzato per la gestione del tasking model per sistemi a processori strettamente accoppiati in cluster e poi interconnessi attraverso una network on chip. Ci siamo focalizzati sulla loro scalabilità e sul supporto di task di granularità fine, come è tipico nelle applicazioni embedded. Il secondo contributo di questa tesi è stata proporre una estensione del runtime di OpenMP che cerca di prevedere la manifestazione di errori dati da fenomeni di variability tramite una schedulazione efficiente del carico di lavoro.
Resumo:
Il presente documento si prefigge di affrontare lo sviluppo di un idea astratta e di descrivere accuratamente il processo che la trasforma in un prodotto finito. L'idea in questione si basa su un'applicazione Mobile per Android ed il conseguente progetto si articola su un portale di gestione di eventi (MiRambla) del quale l'app rappresenta una sua estensione. Tramite diversi step tra i quali descrizione del mondo social mobile, analisi, progettazione e sviluppo di affronterà tutto il lavoro che sta dietro alla creazione di quest'applicazione.
Resumo:
Dall'inizio del 2013 il Large Hadron Collider (LHC) non produce dati (fase di shut down) per effettuare operazioni di consolidamento e manutenzione. Nella primavera del 2015 ritornerà in funzione con energia e luminosità maggiori. La fase di shut down è sfruttata anche per migliorare le prestazioni dei vari rivelatori che operano in LHC, così che possano acquisire dati in modo efficiente alla riaccensione. Per quanto riguarda il monitor di luminosità LUCID, che fa parte dell'esperimento ATLAS, sono stati sostituiti i rivelatori principali (i fotomoltiplicatori) e l'elettronica. Numerosi considerazioni rispetto alla durata dei nuovi sensori nell'ambiente di LHC tra il 2015 e il 2018, nonché sulla misura della luminosità durante il run II, hanno portato alla conclusione che i nuovi PMT dovranno operare ad un guadagno di math 10^5. E' stato dunque necessario, una volta identificati ed acquistati i nuovi sensori, qualificarne il funzionamento individuale e determinare la tensione di lavoro corrispondente al guadagno desiderato. La prima parte di tali misure, effettuate interamente a Bologna, riguarda la misura della corrente di buio e l'andamento della dipendenza del guadagno dei PMT dalla tensione applicata. La seconda parte riguarda invece lo studio di diversi metodi per le misure del guadagno assoluto, e la loro applicabilità durante la fase di funzionamento di LHC. Durante la presa dati, infatti, sarà essenziale essere in grado di monitorare continuamente il guadagno di ciascun sensore al fine di mantenerlo costante. Le misure di guadagno assoluto presentate in questa tesi sono state effettuate in parte a Bologna, sfruttando il metodo del singolo fotoelettrone, e in parte presso il CERN, utilizzando una sorgente radioattiva, il Bismuto 207.
Resumo:
Questo elaborato si propone di analizzare il collegamento tra olomorfia e armonicità. La prima parte della tesi tratta le funzioni olomorfe, mentre la seconda parte tratta le funzioni armoniche. Per quanto riguarda la seconda parte, inizialmente ci limiteremo a studiare le funzioni armoniche in R^2, sottolineando il legame tra queste e le funzioni olomorfe. Considereremo poi il caso generale, ovvero estenderemo la nozione di funzione armonica ad R^N e osserveremo che molte delle proprietà viste per le funzioni olomorfe valgono anche per le funzioni armoniche. In particolare, vedremo che le formule di media per le funzioni armoniche svolgono un ruolo analogo alla formula integrale di Cauchy per le funzioni olomorfe. Vedremo anche che il Teorema di Liouville per le funzioni armoniche è l’analogo del Teorema di Liouville per le funzioni intere (funzioni olomorfe su tutto C) e, infine, osserveremo che il Principio del massimo forte non è altro che il trasferimento alle funzioni armoniche del Principio del massimo modulo visto nella teoria delle funzioni olomorfe.