109 resultados para Temperatura Boltzmann Gibbs Entropia Meccanica Statistica
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
Studio dei sistemi termodinamici che possono accedere a stati di inversione di popolazione. Confronto dei risultati ottenuti studiando questi sistemi sia con l'approccio di Boltzmann che con quello di Gibbs alla meccanica statistica.
Resumo:
In questo lavoro si è affrontata la definizione e la caratterizzazione di una misura di entropia di singolo nodo nell’ambito della teoria statistica dei network, per ottenere informazioni a livello di singolo nodo a fini di analisi e classificazione. Sono state introdotte e studiate alcune proprietà di questi osservabili in quanto la Network Entropy, precedentemente definita e utilizzata nello stesso contesto, fornisce un’informazione globale a livello dell’intero network. I risultati delle analisi svolte con questa definizione sono stati confrontati con una seconda definizione di entropia di singolo nodo proveniente dalla letteratura, applicando entrambe le misure allo stesso problema di caratterizzazione di due classi di nodi all’interno di un network
Resumo:
Con il testo presente, si intende mostrare come i gradi di libertà associati all'entropia di un buco nero possano essere ricercati in parte fruttuosamente nell'interazione dei campi quantistici con la struttura causale e geometrica esibita da un buco nero. Nel Capitolo 1, si affrontano le principali caratteristiche dei buchi neri alla luce della teoria classica di Relatività Generale: sono analizzate la soluzione di Schwarzschild e la struttura causale nello spazio-tempo conseguente, discutendo le definizioni di orizzonte e di singolarità e il rapporto che le lega, con riferimento ai risultati di Penrose e Hawking. Introdotto, all'inizio del Capitolo 2, il concetto di gravità superficiale e la metrica di Kerr-Newman, si studia il significato delle Quattro Leggi dei buchi neri, valide per soluzioni stazionarie. Il Capitolo 3 espone quali motivazioni spingano a proporre una caratterizzazione termodinamica dei buchi neri, attribuendovi una temperatura e un'entropia (detta “di Bekenstein-Hawking”) di natura geometrica, dipendente dall'area dell'orizzonte; si trattano qui i problemi che si incontrano nel costruire una corrispondente Meccanica Statistica. Si descrive dunque in quali termini il processo di radiazione di Hawking riesca a dare una spiegazione fisica della temperatura, e si rileva la presenza, secondo osservatori statici, di un'atmosfera termica nei pressi dell’orizzonte. Infine, si esamina la possibilità di attribuire alla radiazione di Hawking i gradi di libertà relativi all'entropia di Bekenstein-Hawking. In particolare, si illustra il modello a muro di mattoni di 't Hooft, che lega i gradi di libertà all'atmosfera termica. Considerando infine la deformazione dell'orizzonte dovuta a fluttuazioni quantistiche, si giunge alla conclusione che l'entropia dell'atmosfera termica rappresenta non un'interpretazione dell'entropia di Bekenstein-Hawking, bensì una sua correzione al secondo ordine.
Resumo:
Una stella non è un sistema in "vero" equilibrio termodinamico: perde costantemente energia, non ha una composizione chimica costante nel tempo e non ha nemmeno una temperatura uniforme. Ma, in realtà, i processi atomici e sub-atomici avvengono in tempi così brevi, rispetto ai tempi caratteristici dell'evoluzione stellare, da potersi considerare sempre in equilibrio. Le reazioni termonucleari, invece, avvengono su tempi scala molto lunghi, confrontabili persino con i tempi di evoluzione stellare. Inoltre il gradiente di temperatura è dell'ordine di 1e-4 K/cm e il libero cammino medio di un fotone è circa di 1 cm, il che ci permette di assumere che ogni strato della stella sia uno strato adiabatico a temperatura uniforme. Di conseguenza lo stato della materia negli interni stellari è in una condizione di ``quasi'' equilibrio termodinamico, cosa che ci permette di descrivere la materia attraverso le leggi della Meccanica Statistica. In particolare lo stato dei fotoni è descritto dalla Statistica di Bose-Einstein, la quale conduce alla Legge di Planck; lo stato del gas di ioni ed elettroni non degeneri è descritto dalla Statistica di Maxwell-Boltzmann; e, nel caso di degenerazione, lo stato degli elettroni è descritto dalla Statistica di Fermi-Dirac. Nella forma più generale, l'equazione di stato dipende dalla somma dei contributi appena citati (radiazione, gas e degenerazione). Vedremo prima questi contributi singolarmente, e dopo li confronteremo tra loro, ottenendo delle relazioni che permettono di determinare quale legge descrive lo stato fisico di un plasma stellare, semplicemente conoscendone temperatura e densità. Rappresentando queste condizioni su un piano $\log \rho \-- \log T$ possiamo descrivere lo stato del nucleo stellare come un punto, e vedere in che stato è la materia al suo interno, a seconda della zona del piano in cui ricade. È anche possibile seguire tutta l'evoluzione della stella tracciando una linea che mostra come cambia lo stato della materia nucleare nelle diverse fasi evolutive. Infine vedremo come leggi quantistiche che operano su scala atomica e sub-atomica siano in grado di influenzare l'evoluzione di sistemi enormi come quelli stellari: infatti la degenerazione elettronica conduce ad una massa limite per oggetti completamente degeneri (in particolare per le nane bianche) detta Massa di Chandrasekhar.
Resumo:
Il Modello di Hopfield è un tentativo di modellizzare il comportamento di una memoria associativa come proprietà emergente di un network costituito da unità a due stati interagenti tra loro, e costituisce un esempio di come gli strumenti della meccanica statistica possano essere applicati anche al campo delle reti neurali. Nel presente elaborato viene esposta l'analogia tra il Modello di Hopfield e il Modello di Ising nel contesto delle transizioni di fase, applicando a entrambi i modelli la teoria di campo medio. Viene esposta la dinamica a temperatura finita e ricavata e risolta l'equazione di punto a sella per il limite di non saturazione del Modello di Hopfield. Vengono inoltre accennate le principali estensioni del Modello di Hopfield.
Resumo:
Nella tesi sono trattate due famiglie di modelli meccanico statistici su vari grafi: i modelli di spin ferromagnetici (o di Ising) e i modelli di monomero-dimero. Il primo capitolo è dedicato principalmente allo studio del lavoro di Dembo e Montanari, in cui viene risolto il modello di Ising su grafi aleatori. Nel secondo capitolo vengono studiati i modelli di monomero-dimero, a partire dal lavoro di Heilemann e Lieb,con l'intento di dare contributi nuovi alla teoria. I principali temi trattati sono disuguaglianze di correlazione, soluzioni esatte su alcuni grafi ad albero e sul grafo completo, la concentrazione dell'energia libera intorno al proprio valor medio sul grafo aleatorio diluito di Erdös-Rényi.
Resumo:
Questo elaborato tratta dell'ipotesi ergodica, problema centrale nell'ambito della giustificazione dei risultati della meccanica statistica, e dell'importanza che svolge in essa il tempo di osservazione. Dopo aver presentato varie formulazioni del problema ergodico, si esamina la questione dei tempi di ritorno e si mostra come il teorema di ricorrenza di Poincaré non sia in contraddizione con la possibilità del raggiungimento dell'equilibrio. Infine, l'analisi dell'apparente paradosso di Fermi-Pasta-Ulam e la discussione di alcune proposte di soluzione mostrano un'applicazione della trattazione astratta condotta precedentemente.
Resumo:
Studio dell'influenza del rapporto d'aspetto (lunghezza/diametro) sulla resistenza a taglio di un giunto incollato tramite adesivo epossidico in temperatura. Sono stati utilizzati quattro diversi rapporti d'aspetto e il materiale è un acciaio C40. Sono state eseguite prove di spiantaggio su diversi "pin" e "collar" e poi elaborati i dati con una metodologia statistica. La temperatura in questione è di 60 gradi e lo studio analizza se il rapporto d'aspetto ha influenza o meno sulla resistenza a taglio dell'adesivo epossidico.
Resumo:
Gli acciai inossidabili austenitici presentano ottime caratteristiche che li rendono ideali in tutti quei settori in cui è richiesta un’elevata resistenza alla corrosione associata a caratteristiche estetiche e funzionali. L’acciaio AISI 316L risulta essere uno dei più studiati ed utilizzati, specie nell’industria alimentare e farmaceutica, dove leapparecchiature debbono poter essere sottoposte ad aggressive procedure di sanificazione. Tuttavia, la modesta resistenza meccanica e la bassa durezza superficiale di questo acciaio determinano un comportamento non soddisfacente dal punto di vista dell’usura da strisciamento in assenza di lubrificanti, situazione che si verifica sovente in molti macchinari dedicati a queste industrie. Tra le varie soluzioni, studiate per migliorare il suo comportamento tribologico, la cementazione a bassa temperatura (LowTemperature Carburizing, LTC) seguita dalla deposizione PE-CVD (Plasma-Enhanced Chemical Vapour Deposition) di un rivestimento di carbonio amorfo idrogenato (a-C:H), sembra essere molto promettente. In questo lavoro vengono analizzate le caratteristiche tribologiche dell’acciaio AISI 316L cementato a bassa temperatura e rivestito di carbonio amorfo idrogenato, tramite prove tribologiche di strisciamento non lubrificato in geometria di contatto pattino su cilindro. Sono state verificate, inoltre, le caratteristiche microstrutturali e meccaniche superficiali del rivestimento multistrato LTC/a-C:H tramite osservazioni morfologiche/topografiche, analisi in spettroscopia micro-Raman e misure di indentazione strumentata sulle superfici rivestite, seguite da analisi metallografia e misura dei profili di microdurezza Vickers in sezione trasversale. I risultati ottenuti dimostrano che, ai fini di contenere l’effetto negativo legato all’aumento di rugosità dovuto al trattamento LTC, è opportuno effettuare una lucidatura precedente al trattamento stesso, poiché effettuandola successivamente si rischierebbe dicomprometterne lo strato efficace. Inoltre, si osserva come il trattamento LTC incrementi le capacità del substrato di supportare il rivestimento a-C:H, portando ad un miglioramento delle prestazioni tribologiche, nelle prove di strisciamento non lubrificato. Infine, si dimostra come l’utilizzo di un rivestimento a base di carbonio amorfo idrogenato adeguatamente supportato permetta una riduzione dell’attrito (di oltre cinque volte) e dell’usura (di circa dieci ordini di grandezza) rispetto ai corrispondenti materiali non rivestiti.
Resumo:
Questo lavoro nasce dall’intento di dare un’indicazione sul legame esistente tra la temperatura e la concentrazione di ozono. La correlazione, rintracciata sui dati osservati, è stata poi utilizzata allo scopo di elaborare proiezioni di evoluzioni future. Lo studio si è concentrato su un’area piuttosto ristretta della provincia di Parma, selezionata per la buona disponibilità di dati, sia di temperatura che di ozono, ma anche per la sua rappresentatività, dimostrata, delle caratteristiche dell’Emilia Romagna. Sulla base della scelta della stazione di misura di ozono sono state individuate tre località nelle vicinanze per avere dati di temperatura sia osservati sia provenienti da downscaling statistico. Proprio per quest’ultimo dataset sono stati elaborati scenari di temperatura per il periodo 2021-2050, rispetto al trentennio climatologico di riferimento 1961-1990, applicando il metodo di regionalizzazione statistica a cinque modelli globali. Le anomalie stagionali sono poi state date in ingresso a un generatore climatico in grado di produrre serie sintetiche giornaliere per il punto in esame. Un modello appositamente creato, ispirato al metodo di campionamento casuale stratificato, ha sfruttato sia queste informazioni sul futuro andamento della temperatura, sia la relazione trovata su dati osservati, per la costruzione di un set di concentrazioni di ozono previste per lo stesso trentennio futuro. Confrontando dal punto di vista statistico queste distribuzioni con quelle ricostruite per i periodi 1961-1990 e 2001-2012 si è valutato l’andamento della concentrazione di ozono. La conclusione più evidente a cui si giunge è la conferma del fatto che la situazione attuale dell’inquinamento da ozono nell’area di studio è decisamente più critica rispetto a quella che il modello ha ricostruito per il trentennio passato. La distribuzione dei valori di concentrazione di ozono degli ultimi dodici anni è invece molto più simile ormai al set di proiezioni previste per il futuro. Quello che potrà succedere a livello dell’inquinamento da ozono nel prossimo trentennio climatologico in Emilia Romagna dipende da quale modello si rivelerà più veritiero riguardo alla proiezione futura di temperatura: è infatti possibile che tutto rimanga molto simile alla situazione attuale o che si verificherà un ulteriore aumento, aggravando una situazione già critica.
Resumo:
È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.
Resumo:
Questo lavoro di tesi si occupa dello studio dei buchi neri e delle loro proprietà termodinamiche da un punto di vista teorico. Nella prima parte si affronta una analisi teorico-matematica che mostra la soluzione dell’equazione di Einstein in relatività generale per un problema a simmetria sferica. Da questa soluzione si osserva la possibile presenza nell’universo di oggetti ai quali nemmeno alla luce è data la possibilità di fuggire, chiamati buchi neri. Ad ogni buco nero è associato un orizzonte degli eventi che si comporta come una membrana a senso unico: materia e luce possono entrare ma niente può uscire. E` studiata inoltre la possibile formazione di questi oggetti, mostrando che se una stella supera un certo valore critico di massa, durante la fase finale della sua evoluzione avverrà un collasso gravitazionale che nessuna forza conosciuta sarà in grado di fermare, portando alla formazione di un buco nero. Nella seconda parte si studiano le leggi meccaniche dei buchi neri. Queste leggi descrivono l’evoluzione degli stessi attraverso parametri come l’area dell’orizzonte degli eventi, la massa e la gravità di superficie. Si delinea quindi una analogia formale tra queste leggi meccaniche e le quattro leggi della termodinamica, con l’area dell’orizzonte degli eventi che si comporta come l’entropia e la gravità di superficie come la temperatura. Nella terza parte, attraverso l’utilizzo della meccanica quantistica, si mostra che l’analogia non è solo formale. Ad un buco nero è associata l’emissione di uno spettro di radiazione che corrisponde proprio a quello di un corpo nero che ha una temperatura proporzionale alla gravità di superficie. Si osserva inoltre che l’area dell’orizzonte degli eventi può essere interpretata come una misura della informazione contenuta nel buco nero e di conseguenza della sua entropia.
Resumo:
Studio dell'influenza del rapporto d'aspetto e della temperatura sulla tenuta di un adesivo epossidico.