962 resultados para cinetica, sodio, modelli matematici, emodialisi
Resumo:
Obiettivo della tesi è fornire nozioni di teoria della misura tramite cui è possibile l'analisi e la descrizione degli insiemi frattali. A tal fine vengono definite la Misura e la Dimensione di Hausdorff, strumenti matematici che permettono di "misurare" tali oggetti particolari, per i quali la classica Misura di Lebesgue non risulta sufficientemente precisa. Viene introdotto, inoltre, il carattere di autosimilarità, comune a molti di questi insiemi, e sono forniti alcuni tra i più noti esempi di frattali, come l'insieme di Cantor, l'insieme di Mandelbrot e il triangolo di Sierpinski. Infine, viene verificata l'ipotesi dell'esistenza di componenti di natura frattale in serie storiche di indici borsistici e di titoli finanziari (Ipotesi dei Mercati Frattali, Peters, 1990).
Resumo:
Molti concetti basilari dell'Analisi Matematica si fondano sulla definizione di limite, della quale si è avuta una formulazione rigorosa solo nel XIX secolo, grazie a Cauchy e a Weierstrass. Il primo capitolo ripercorre brevemente le tappe storiche di un percorso lungo e difficile, durato circa 2000 anni, evidenziando le difficoltà dei grandi matematici che si sono occupati dei concetti infinitesimali. Nel secondo capitolo vengono esposte le possibili cause delle difficoltà degli studenti nell'apprendimento dei limiti. Nel terzo capitolo vengono descritte ed analizzate le risposte degli studenti liceali ed universitari ad un questionario sui limiti.
Resumo:
La Congettura di Razumov-Strogranov, dimostrata solo nel 2010 con metodi puramente combinatori da due matematici italiani, Contini e Sportiello, ha affascinato molti studiosi di combinatoria che si sono dedicati allo studio delle configurazioni FPL. In questa tesi viene studiato il ruotamento, una speciale permutazione delle configurazioni FPL con determinate condizioni al bordo che è lo strumento fondamentale per la dimostrazione della sovramenzionata congettura.
Resumo:
In questo elaborato si presenta il teorema del viriale, introdotto per la prima volta da R. J. E. Clausius nel 1870. É una relazione fra energia cinetica e poteziale totali di un sistema che, se soddisfatta, implica che questo sia in equilibrio. Sono equivalenti le affermazioni: "sistema virializzato" e "sistema in equilibrio". Sebbene in ordine cronologico la prima formulazione del teorema sia stata quella in forma scalare, ricaveremo, per maggiore generalità, la forma tensoriale, dalla quale estrarremo quella scalare come caso particolare. Sono di nostro interesse i sistemi astrofisici dinamici autogravitanti costituiti da N particelle (intese come stelle, gas etc.), perciò la trattazione teorica è dedotta per tali configurazioni. In seguito ci concentreremo su alcune applicazioni astrofisiche. In primo luogo analizzeremo sistemi autogravitanti, per cui l'unica energia potenziale in gioco è quella dovuta a campi gravitazionali. Sarà quindi ricavato il limite di Jeans per l'instabilità gravitazionale, con conseguente descrizione del processo di formazione stellare, la stima della quantità di materia oscura in questi sistemi e il motivo dello schiacciamento delle galassie ellittiche. Successivamente introdurremo nell'energia potenziale un termine dovuto al campo magnetico, seguendo il lavoro di Fermi e Chandrasekhar, andando a vedere come si modifica il teorema e quali sono le implicazioni nella stabilità delle strutture stellari. Per motivi di spazio, queste trattazioni saranno presentate in termini generali e con approssimazioni, non potendo approfondire casi più specifici.
Resumo:
In questa tesi vengono valutati gli effetti sui modelli di regressione lineare da parte di troncature deterministiche dei dati analizzati, e viene proposto un metodo alternativo per effettuare queste regressioni, che rimuova queste distorsioni. In particolare vengono discussi questi effetti nel campo della ricerca biologica, come nel progetto Mark-Age. Il progetto Mark-Age ha come obiettivo quello di ottenere un set di biomarcatori per l'invecchiamento, attraverso l'uso di metodi di data learning in analisi di tipo trasversale; elaborando cioè diverse variabili misurate sulle popolazioni esaminate riguardanti più sistemi fisiologici contemporaneamente e senza escludere interazioni locali fra queste. E' necessario tenere conto in queste analisi che questi dati sono deterministicamente troncati per via dei criteri di selezione sull’età dei partecipanti, e che questo ha un effetto rilevante sui metodi di analisi standard, i quali invece ipotizzano che non vi sarebbe alcuna relazione fra l’assenza di un dato ed il suo valore, se questo fosse misurato. In questa tesi vengono studiati gli effetti di questa troncatura sia per quanto riguarda la selezione di modelli ottimali, che della stima dei parametri per questi modelli. Vengono studiati e caratterizzati questi effetti nell'ambito di un toy model, che permette di quantificare la distorsione e la perdita di potenza dovuta alla troncatura. Viene inoltre introdotto un appropriato metodo di regressione, chiamato Tobit, che tenga conto di questi effetti. Questo metodo viene infine applicato ad un sottoinsieme dati del progetto Mark-Age, dimostrando una notevole riduzione del bias di predizione, ottenendo anche una stima della precisione di queste predizioni.
Resumo:
In questa tesi il Gruppo di Rinormalizzazione non-perturbativo (FRG) viene applicato ad una particolare classe di modelli rilevanti in Gravit`a quantistica, conosciuti come Tensorial Group Field Theories (TGFT). Le TGFT sono teorie di campo quantistiche definite sulla variet`a di un gruppo G. In ogni dimensione esse possono essere espanse in grafici di Feynman duali a com- plessi simpliciali casuali e sono caratterizzate da interazioni che implementano una non-localit`a combinatoriale. Le TGFT aspirano a generare uno spaziotempo in un contesto background independent e precisamente ad ottenere una descrizione con- tinua della sua geometria attraverso meccanismi fisici come le transizioni di fase. Tra i metodi che meglio affrontano il problema di estrarre le transizioni di fase e un associato limite del continuo, uno dei pi` u efficaci `e il Gruppo di Rinormalizzazione non-perturbativo. In questo elaborato ci concentriamo su TGFT definite sulla variet`a di un gruppo non-compatto (G = R) e studiamo il loro flusso di Rinormalizzazione. Identifichiamo con successo punti fissi del flusso di tipo IR, e una superficie critica che suggerisce la presenza di transizioni di fase in regime Infrarosso. Ci`o spinge ad uno stu- dio per approfondire la comprensione di queste transizioni di fase e della fisica continua che vi `e associata. Affrontiamo inoltre il problema delle divergenze Infrarosse, tramite un processo di regolarizzazione che definisce il limite termodinamico appropriato per le TGFT. Infine, applichiamo i metodi precedentementi sviluppati ad un modello dotato di proiezione sull’insieme dei campi gauge invarianti. L’analisi, simile a quella applicata al modello precedente, conduce nuovamente all’identificazione di punti fissi (sia IR che UV) e di una superficie critica. La presenza di transizioni di fasi `e, dunque, evidente ancora una volta ed `e possibile confrontare il risultato col modello senza proiezione sulla dinamica gauge invariante.
Resumo:
Questa tesi di laurea si riferisce allo studio cinematico e morfologico di flussi granulari composti di materiale vulcanico naturale tramite la strumentazione sperimentale GRANFLOW-sim presso il Dipartimento di Scienze Geologiche dell’Università Autonoma di San Luis Potosì in Messico. E’ stato adottato un approccio sperimentale finalizzato a riprodurre le condizioni fisico-meccaniche di flussi granulari secchi in piccola scala riconducibili a differenti ambienti deposizionali naturali e artificiali. La strumentazione è composta da una canaletta di alimentazione ad inclinazione fissa di 40° ed un piano di deposizione a inclinazioni variabile da 0° a 20° al fine di simulare diverse condizioni deposizionali. Specifici sensori in posizione fissa sullo strumento hanno consentito di raccogliere dati cinematici del flusso e morfologici del deposito corrispondente, rielaborati in profili di velocità e modelli morfologici digitali per ognuno degli esperimenti effettuati. E’ stata osservata una tripartizione del fronte del flusso granulare caratterizzata da i) clasti balistici isolati, ii) un fronte disperso costituito da clasti saltellanti che precede l’arrivo del iii) fronte compatto del flusso costituito dalla parte principale del materiale trasportato. La normalizzazione dei dati cinematici e morfologici ha reso possibile l’elaborazione di relazioni empiriche per lunghezza e larghezza del deposito e velocità massima del flusso in funzione di variabili condizioni di slope-ratio (rapporto tra l’inclinazione del piano di deposizione e della canaletta) e ΔH (differenza di quota tra l’area sorgente del flusso ed il fronte compatto del deposito). Queste relazioni sono state confrontate con i valori ottenuti da Zanchetta et al. (2004) per i flussi granulari naturali nell’area di Sarno, unico caso di studio reale confrontabile con le condizioni sperimentali adottate in questa tesi. Tale confronto ha mostrato una buona corrispondenza tra dati sperimentali e situazione reale nei casi in cui l’effetto di canalizzazione dei flussi granulari era trascurabile. Ciò evidenzia la possibilità di calibrare la strumentazione GRANFLOW-sim al fine di incorporare la valutazione dell’effetto di canalizzazione, ampliando il raggio di utilizzo delle relazioni empiriche ad un numero maggiore di casi di studio di flussi granulari naturali.
Resumo:
La visione è il processo cerebrale mediante il quale l'organismo umano riesce a estrarre informazioni dal dato visivo proveniente dalla retina. Tentare di imitare questo comportamento mediante un elaboratore elettronico, il cosiddetto problema della visione, è una delle maggiori sfide del XXI secolo. In questo contesto lo scopo della tesi è dare una descrizione degli strumenti matematici che permettono di modellizzare la visione stereoscopica ed esporre le condizioni sotto le quali sia possibile effettuare una ricostruzione 3D ambientale a partire da due immagini della stessa scena nell'ipotesi di assenza di errore.
Resumo:
Questa tesi si pone l'obiettivo di presentare la teoria dei giochi, in particolare di quelli cooperativi, insieme alla teoria delle decisioni, inquadrandole formalmente in termini di matematica discreta. Si tratta di due campi dove l'indagine si origina idealmente da questioni applicative, e dove tuttavia sono sorti e sorgono problemi più tipicamente teorici che hanno interessato e interessano gli ambienti matematico e informatico. Anche se i contributi iniziali sono stati spesso formulati in ambito continuo e utilizzando strumenti tipici di teoria della misura, tuttavia oggi la scelta di modelli e metodi discreti appare la più idonea. L'idea generale è quindi quella di guardare fin da subito al complesso dei modelli e dei risultati che si intendono presentare attraverso la lente della teoria dei reticoli. Ciò consente di avere una visione globale più nitida e di riuscire agilmente ad intrecciare il discorso considerando congiuntamente la teoria dei giochi e quella delle decisioni. Quindi, dopo avere introdotto gli strumenti necessari, si considerano modelli e problemi con il fine preciso di analizzare dapprima risultati storici e solidi, proseguendo poi verso situazioni più recenti, più complesse e nelle quali i risultati raggiunti possono suscitare perplessità. Da ultimo, vengono presentate alcune questioni aperte ed associati spunti per la ricerca.
Resumo:
La tesi presenta l'algoritmo AKS, deterministico e polinomiale, scoperto dai matematici Agrawal, Kayal e Saxena nel 2002. Esso si basa su una generalizzazione del Piccolo Teorema di Fermat all'anello dei polinomi a coefficienti in Zp.
Resumo:
La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.
Resumo:
L’esperimento LHCb al CERN di Ginevra è stato appositamente progettato per effettuare misure di precisione nel settore della fisica del sapore, per verificare la validità delle previsioni del Modello Standard. Il Modello Standard descrive le trasformazioni dello stato di flavour dei quark secondo lo schema di mixing compendiato nella matrice unitaria di Cabibbo-Kobayashi-Maskawa. La verifica dell’unitarietà della matrice di mixing è dunque uno dei campi d’indagine più importanti nella fisica delle particelle. I modelli teorici che estendono il Modello Standard prevedono infatti meccanismi alternativi a quello CKM per la trasformazione del flavour che implicherebbero una violazione della unitarietà. Allo scopo di studiare la dinamica del flavour l’esperimento LHCb realizza misure della violazione della simmetria di coniugazione di carica e parità CP. Le misure di violazione della simmetria CP permettono di determinare i valori dei parametri complessi della matrice CKM (modulo e fase). Esse si basano sulla misura delle asimmetrie di decadimento di stati coniugati di carica di mesoni costituiti da quark charm (mesoni D) e beauty (mesoni B) in stati finali costituiti da particelle scelte opportunamente. Di particolare importanza in questo programma di ricerca è la misura della fase del termine Vub della matrice CKM, denominata γ. Scopo della tesi è lo studio dei metodi di misura della fase γ. La tesi è organizzata in quattro capitoli. Nei primi tre capitoli sono state poste le basi teoriche per la comprensione della fenomenologia delle interazioni deboli e della sua descrizione nel Modello Standard. È stata discussa in dettaglio la dinamica del sistema dei mesoni neutri e la violazione della simmetria CP dovuta sia al decadimento sia alla oscillazione. Dopo l’inquadramento teorico, nel quarto e ultimo capitolo, sono stati presentati i tre modelli teorici generalmente utilizzati per la misura della fase γ e impiegati dagli esperimenti dedicati alla fisica del flavour. I metodi proposti sono quelli più importanti, che fino ad oggi hanno consentito di misurare γ. Al momento LHCb ha ottenuto la migliore misura di γ, con un errore relativo del 13%, combinando le tre metodologie di analisi. Si prevede che l’esperimento LHCb possa migliorare significativamente la precisione di misura raccogliendo nel prossimo futuro un campione di eventi di dimensione un’ordine di grandezza maggiore dell’attuale.
Resumo:
The study of dielectric properties concerns storage and dissipation of electric and magnetic energy in materials. Dielectrics are important in order to explain various phenomena in Solid-State Physics and in Physics of Biological Materials. Indeed, during the last two centuries, many scientists have tried to explain and model the dielectric relaxation. Starting from the Kohlrausch model and passing through the ideal Debye one, they arrived at more com- plex models that try to explain the experimentally observed distributions of relaxation times, including the classical (Cole-Cole, Davidson-Cole and Havriliak-Negami) and the more recent ones (Hilfer, Jonscher, Weron, etc.). The purpose of this thesis is to discuss a variety of models carrying out the analysis both in the frequency and in the time domain. Particular attention is devoted to the three classical models, that are studied using a transcendental function known as Mittag-Leffler function. We highlight that one of the most important properties of this function, its complete monotonicity, is an essential property for the physical acceptability and realizability of the models. Lo studio delle proprietà dielettriche riguarda l’immagazzinamento e la dissipazione di energia elettrica e magnetica nei materiali. I dielettrici sono importanti al fine di spiegare vari fenomeni nell’ambito della Fisica dello Stato Solido e della Fisica dei Materiali Biologici. Infatti, durante i due secoli passati, molti scienziati hanno tentato di spiegare e modellizzare il rilassamento dielettrico. A partire dal modello di Kohlrausch e passando attraverso quello ideale di Debye, sono giunti a modelli più complessi che tentano di spiegare la distribuzione osservata sperimentalmente di tempi di rilassamento, tra i quali modelli abbiamo quelli classici (Cole-Cole, Davidson-Cole e Havriliak-Negami) e quelli più recenti (Hilfer, Jonscher, Weron, etc.). L’obiettivo di questa tesi è discutere vari modelli, conducendo l’analisi sia nel dominio delle frequenze sia in quello dei tempi. Particolare attenzione è rivolta ai tre modelli classici, i quali sono studiati utilizzando una funzione trascendente nota come funzione di Mittag-Leffler. Evidenziamo come una delle più importanti proprietà di questa funzione, la sua completa monotonia, è una proprietà essenziale per l’accettabilità fisica e la realizzabilità dei modelli.
Resumo:
In questo lavoro viene presentato l'utilizzo di simulatori quantistici nello studio di sistemi a molte componenti. Dall'idea iniziale di Feynman della intersimulazione tra sistemi quantistici in questi anni si è sempre più sviluppata la tecnica sperimentale necessaria a creare sistemi di atomi in reticoli ottici ben controllati, nei quali riprodurre il comportamento di sistemi di natura diversa, ottenendo risultati promettenti nell'indagine di situazioni non trattabili analiticamente o numericamente. Tra questi, la conduzione di elettroni in materiali disordinati è ancora un problema aperto. In questa tesi nello specifico sono trattati i modelli di Anderson e di André-Aubry, i quali prevedono una transizione da stati estesi a localizzati in presenza di disordine nel materiale. I due modelli sono stati investigati numericamente su reticoli monodimensionali e i risultati confrontati con una realizzazione sperimentale realizzata con atomi freddi.
Resumo:
In CMS è stato lanciato un progetto di Data Analytics e, all’interno di esso, un’attività specifica pilota che mira a sfruttare tecniche di Machine Learning per predire la popolarità dei dataset di CMS. Si tratta di un’osservabile molto delicata, la cui eventuale predizione premetterebbe a CMS di costruire modelli di data placement più intelligenti, ampie ottimizzazioni nell’uso dello storage a tutti i livelli Tiers, e formerebbe la base per l’introduzione di un solito sistema di data management dinamico e adattivo. Questa tesi descrive il lavoro fatto sfruttando un nuovo prototipo pilota chiamato DCAFPilot, interamente scritto in python, per affrontare questa sfida.