1000 resultados para Teoria di Kaluza-KleinRelatività GeneraleGravitazioneElettromagnetismo5 dimensioni
Resumo:
Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
Il passaggio dalla concezione delle forze come azioni a distanza a quella che le vede come azioni che avvengono per contatto, attraverso un mezzo descrivibile con una teoria di campo, costituisce un punto di svolta importante nell'evoluzione della fisica. Da un'analisi storica e filosofica, emerge una molteplicità di aspetti che hanno contribuito a questo cambiamento. Rivestono un ruolo importante le concezioni filosofiche che caratterizzano un periodo storico, gli strumenti matematici, i modelli e le analogie. Questa molteplicità rende il passaggio da un paradigma newtoniano a uno maxwelliano un tema significativo per la didattica. L'obiettivo di questo lavoro di tesi è quello di costruire un percorso didattico indirizzato agli studenti del quarto anno di Liceo Scientifico attraverso i concetti principali dell'elettrostatica, vista come punto di congiunzione tra diversi paradigmi concettuali e tra differenti metodi di rappresentazione matematica. Le ricerche sull'uso della storia della fisica come mezzo per la didattica mettono in luce il parallelismo tra i profili concettuali degli studenti di diverse età con i profili newtoniano e maxwelliano, e attribuiscono le difficoltà nel passaggio da un profilo a un altro a una didattica che non evidenzia la necessità di questo cambiamento. Attraverso un'analisi storica dello sviluppo dell'elettrostatica ho dunque identificato alcuni punti significativi per favorire il cambiamento concettuale, dai quali sono partita per costruire un percorso che si compone di 3 unità in cui sono rese esplicite le motivazioni che portano da un'azione a distanza al concetto di campo e di azione tramite un mezzo. I concetti dell'elettrostatica vengono così trattati attraverso una molteplicità di rappresentazioni e facendo uso di analogie tratte dalla storia della fisica, in maniera coerente con le indicazioni Nazionali per i Licei Scientifici e con le ricerche sulla didattica della fisica che riguardano i diversi aspetti toccati.
Resumo:
La sostenibilità (ambientale, economica e sociale) non rappresenta per le aziende un trend passeggero, ma una direzione da seguire per poter rispondere a norme sempre più stringenti e a consumatori sempre più attenti. La tesi illustra il concetto di sviluppo sostenibile, il quale ha segnato varie tappe della storia tra cui la pubblicazione nel 2015 dell’Agenda 2030 dalle Nazioni Unite e la definizione dei 17 obiettivi di sviluppo sostenibile per contrastare i problemi climatici. Vengono descritti i principali strumenti introdotti dall’Unione Europea per promuovere una crescita verde, utilizzando leve di intervento sia legislative che con incentivi, quali il Green Deal che mira a promuovere attività sostenibili che non generino emissioni di inquinanti, il decreto legislativo che regola l’informativa non finanziaria, il Piano d’Azione della Commissione Europea per finanziare la crescita sostenibile. Quello che le aziende comunicano sui propri siti web è una prima indicazione delle loro politiche in materia di sostenibilità, insieme ai report e alle certificazioni più formali. Lo scopo della tesi è valutare a che punto sono le aziende di diversi settori e dimensioni nella comunicazione di queste tematiche, analizzando un campione di esse, per mezzo di un form progettato per raccogliere e archiviare dati strutturati presi dai siti web. Grazie a questo si arriverà ad un punteggio per ciascuna di esse che rappresenta l’attuale livello comunicativo. Un problema attuale riscontrato è quello del greenwashing: una strategia di marketing, per dimostrare un impegno non reale nei confronti dell’ambiente agli occhi degli stakeholder e per farle guadagnare punti in reputazione e immagine aziendale. Il fine ultimo della tesi è quello di dimostrare che la sostenibilità è una scelta necessaria che va compiuta fin da subito, e non una questione solo delle grandi aziende o dei settori più “verdi”.
Resumo:
Si studia il comportamento di particelle in un tipo particolare di biliardo dinamico, in cui le riflessioni sul bordo avvengono attraverso l’inversione dell’angolo che la traiettoria compie rispetto a una direzione verticale fissata, invece della solita normale alla curva à la Fresnel. L'interesse in questo argomento deriva dall'evidenza sperimentale di un comportamento simile nella propagazione di onde entro fluidi stratificati: questa tipologia di biliardo è quindi spesso detta biliardo di onde interne. Lo studio di questi oggetti, sebbene puramente matematico, può dare luogo a peculiari considerazioni fisiche ed applicative. Notevolmente, la frequente presenza di attrattori in tali modelli suggerisce che fenomeni di concentrazione delle onde interne dovuti a tale regola di riflessione potrebbero avere un ruolo in alcuni sistemi reali, come la circolazione oceanica. Dopo aver passato in rassegna alcuni elementi della teoria di Poincaré degli omeomorfismi del cerchio, e alcuni risultati specifici sui biliardi di onde interne, si studia il caso particolare di un biliardo di forma parabolica, tagliato da un segmento normale al suo asse di simmetria. In quest'ultimo contesto, si dimostrano alcuni risultati originali sul comportamento delle traiettorie.
Resumo:
La ferroelettricità è la proprietà di alcuni materiali solidi di presentare una polarizzazione elettrica in assenza di campo elettrico. Tutti i materiali ferroelettrici sin'ora studiati esibiscono anche proprietà piezoelettriche, ossia si deformano in maniera elastica quando sottoposti ad un campo elettrico e, viceversa, si polarizzano se soggetti a deformazioni meccaniche. Questa sensibilità a stimoli elettrici e meccanici rende questi materiali particolarmente interessanti da un punto di vista pratico: applicazioni importanti si trovano nella nanotecnologia (e.g. memory devices), nella sensoristica e nell'energy harvesting. Lo scopo dell'elaborato è fornire un'introduzione allo studio delle transizioni ferroelettriche. Inizialmente il fenomeno delle transizioni di fase viene affrontato utilizzando come riferimento il caso standard dei materiali ferromagnetici: a tal riguardo viene presentato il modello di Ising, che rappresenta il paradigma per la descrizione di fenomeni collettivi in numerosi ambiti. In seguito viene presentata la teoria fenomenologica di Landau, dove si interpreta il fenomeno sulla base delle simmetrie del sistema, utilizzando un approccio di campo medio. Successivamente viene introdotto il tema centrale dell'elaborato, ossia le transizioni ferroelettriche, analizzando similitudini e differenze dal caso ferromagnetico; in particolare si presenta un' applicazione della teoria fenomenologica di Landau-Devonshire allo studio della transizione ferroelettrica del BaTiO3, un cristallo del gruppo delle perovskiti. L'ultima parte dell'elaborato ha lo scopo di introdurre un approccio più moderno allo stesso fenomeno, che utilizza la teoria quantistica del funzionale densità (DFT): utilizzando il pacchetto software VASP viene esposto un semplice calcolo a primi principi dell'energia del sistema in funzione degli spostamenti atomici, mettendone in luce la centralità nella transizione in esame.
Resumo:
Il progetto di tesi è stato svolto all’interno del reparto R&D dell’azienda Modena40, startup con sede a Rimini (RN) che si occupa di design e progettazione di motociclette. Il progetto a cui ho preso parte è stato commissionato dal produttore cinese CF Moto, di cui Modena40 rappresenta il reparto ricerca e sviluppo europeo. Esso riguarda la progettazione di un primo prototipo marciante di motocicletta sportiva, con lo scopo di svolgere test su strada per la definizione di geometrie, ergonomia ed aerodinamica. La progettazione inizierà con un benchmark delle sportive con motore V4 attualmente sul mercato. Successivamente verranno progettate tutte le componenti utili allo studio preliminare. Ho ricoperto il ruolo di ingegnere progettista, con il compito di progettare il telaio e curarne le fasi di prototipazione. Si progetterà un telaio modulare suddiviso in più parti avvitate tra loro, ognuna con un processo di produzione dedicato, per consentire una facile realizzazione e facili modifiche in fase di sviluppo. Il telaio sarà progettato tenendo conto di scelte target come ingombri, ergonomia e calcoli strutturali. All’interno della tesi sarà quindi illustrata la teoria di base e le successive scelte tecniche, discutendo e giustificando il processo che ha portato alle conclusioni raggiunte.
Resumo:
Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.
Resumo:
La tesi si suddivide in tre capitoli. Nel primo capitolo viene presentata una prima dimostrazione della disuguaglianza di Sobolev. La prova del Capitolo 1 si basa in modo essenziale sul fatto che R^ n è prodotto cartesiano di R per se stesso n volte. Nel Capitolo 2 si introducono i cosiddetti potenziali di Riesz Iα, con 0 < α < n che sono una tra le più importanti classi di operatori di convoluzione. Vediamo come sia possibile legare la teoria di questi operatori di tipo integrale frazionario a formule di rappresentazione . Il teorema principale di questo capitolo è il teorema di Hardy-Littlewood-Sobolev: si forniscono stime in norma L^p per tali operatori. La prova di tale teorema che qui abbiamo fornito segue l’idea di dimostrazione di Hedberg ed è basata sull’uso della disuguaglianza di Holder e sulle stime per la funzione massimale di Hardy-Littlewood. Le stime per il nucleo di Riesz I_1 sono state utilizzate nel Capitolo 3 per dimostrare le disuguaglianze di Sobolev e Poincaré nel caso p ∈]1, n[. Il caso p = 1 viene trattato a parte in quanto, nel caso p = 1, il teorema di Hardy-Littlewood- Sobolev fornisce solo una stima di tipo debole per il nucleo di Riesz I_1. Questo tipo di approccio, mediante le formule di rappresentazione, ha il vantaggio che può essere adattato a contesti geometrici diversi da quello Euclideo e a misure diverse della misura di Lebesgue. Infine, sempre nel Capitolo 3 abbiamo dato un breve cenno del collegamento che si ha tra la disuguaglianza di Sobolev nel caso p=1 e il problema isoperimetrico in R^n.
Resumo:
L'obiettivo di questa tesi è la caratterizzazione dei gruppi di Galois di alcune classi di polinomi separabili e risolubili per radicali. Questa classificazione si baserà sulle proprietà di primitività e imprimitività di tali gruppi, proprietà che descrivono il carattere della loro azione permutativa sulle radici dei polinomi. Da tale analisi potremo inoltre dedurre importanti informazioni sui polinomi, i quali, a loro volta, saranno detti primitivi o imprimitivi. Dopo aver ricordato alcune definizioni e risultati fondamentali di Teoria di Galois e Teoria dei gruppi, studieremo alcuni gruppi di permutazioni, concentrandoci in particolare sul gruppo lineare affine e sul prodotto intrecciato di due gruppi di permutazioni: tali oggetti costituiscono, infatti, gli strumenti principali per la descrizione dei gruppi di Galois che affronteremo negli ultimi capitoli. Nel Capitolo 3, in particolare, ci concentreremo su polinomi imprimitivi di grado p², con p primo. Nel quarto, invece, dimostreremo un potente Teorema che fornisce una notevole caratterizzazione dei gruppi di Galois di tutti i polinomi primitivi e risolubili per radicali.
Resumo:
L'elaborato tratta lo studio dell’evoluzione delle perturbazioni di densità non lineari, confrontando modelli con costante cosmologica (wΛ = −1) e modelli alternativi in cui l’energia oscura sia caratterizzata da un’equazione di stato con w diverso da −1, considerando sia il caso con energia oscura costante, sia quello in cui ha fluttuazioni. La costante cosmologica presenta infatti due problemi teorici attualmente senza soluzione: il problema del suo valore e il problema della coincidenza. Per analizzare l’evoluzione delle perturbazioni di materia ed energia oscura, sia nel caso delle sovradensità che nel caso delle sottodensità primordiali, si implementano numericamente le equazioni differenziali non lineari ricavate a partire dalla teoria del collasso sferico. Per parametrizzare il problema, si fa riferimento ai valori critici del contrasto di densità δc e δv che rappresentano, rispettivamente, la soglia lineare per il collasso gravitazionale e la soglia per l’individuazione di un vuoto cosmico. I valori di δc e δv sono importanti poich´e legati agli osservabili cosmici tramite la funzione di massa e la void size function. Le soglie critiche indicate sono infatticontenute nelle funzioni citate e quindi, cambiando δc e δv al variare del modello cosmologico assunto, è possibile influenzare direttamente il numero e il tipo di oggetti cosmici formati, stimati con la funzione di massa e la void size function. Lo scopo principale è quindi quello di capire quanto l’assunzione di un modello, piuttosto che di un altro, incida sui valori di δc e δv. In questa maniera è quindi possibile stimare, con l’utilizzo della funzione di massa e della void size function, quali sono gli effetti sulla formazione delle strutture cosmiche dovuti alle variazioni delle soglie critiche δc e δv in funzione del modello cosmologico scelto. I risultati sono messi a confronto con il modello cosmologico standard (ΛCDM) per cui si assume Ω0,m = 0.3, Ω0,Λ = 0.7 e wΛ = −1.
Resumo:
L’obiettivo del presente lavoro di tesi è quello di derivare la valutazione di un Total Return Swap (TRS) utilizzando la modellistica stocastica che sta alla base dello studio del pricing di derivati finanziari. I contratti di tipo swap, la cui origine è collocata intorno agli anni ’70, prevedono lo scambio di flussi tra due parti, definiti sulla base del sottostante. In particolare, un Total Return Swap è un derivato finanziario che prevede lo scambio periodico di pagamenti definiti rispetto alla gamba di performance del sottostante e alla gamba di interesse. L’elaborato è composto da un’introduzione alle nozioni matematiche preliminari alla costruzione di un modello di mercato utile a derivare il pricing di un derivato (i.e. Teoria di non arbitraggio, esistenza di una misura martingala e le condizioni sotto le quali questa è unica). Nel secondo capitolo, vengono presentate le definizioni finanziarie necessarie alla descrizione di tali prodotti (e.g. Tassi d’interesse spot e Tassi forward). Nel corso della tesi viene presentata una rassegna della modellistica per l’evoluzione dei tassi descritti da dinamiche di volta in volta più complesse, e.g. Modello di Vasicek, modello di Dothan e approccio di Heath-Jarrow-Morton (HJM). In tale contesto, sono state derivate le formule di valutazione ad Accrual e a Net Present Value (NPV) per il TRS sfruttando la teoria di non arbitraggio, la cui principale differenza diviene dal considerare o meno l’attualizzazione tramite il fattore di sconto stocastico dei flussi di cassa previsti tra le due parti del contratto. Nell’ultimo capitolo, viene presentata un’analisi delle due modalità di pricing effettuata su due TRS rispettivamente su basket di azioni e basket di indici.
Resumo:
In Einstein-Maxwell theory, magnetic flux lines are "expelled" from a black hole as extremality is approached, in the sense that the component of the field strength normal to the horizon goes to zero. Thus, extremal black holes are found to exhibit the sort of ¿Meissner effect¿ which is characteristic of superconducting media. We review some of the evidence for this effect and present new evidence for it using recently found black hole solutions in string theory and Kaluza-Klein theory. We also present some new solutions, which arise naturally in string theory, which are non-superconducting extremal black holes. We present a nice geometrical interpretation of these effects derived by looking carefully at the higher dimensional configurations from which the lower dimensional black hole solutions are obtained. We show that other extremal solitonic objects in string theory (such as p-branes) can also display superconducting properties. In particular, we argue that the relativistic London equation will hold on the world volume of ¿light¿ superconducting p-branes (which are embedded in flat space), and that minimally coupled zero modes will propagate in the adS factor of the near-horizon geometries of "heavy," or gravitating, superconducting p-branes.
Resumo:
We obtain a solution describing a gravitational shock wave propagating along a Randall-Sundrum brane. The interest of such a solution is twofold: on the one hand, it is the first exact solution for a localized source on a Randall-Sundrum three-brane. On the other hand, one can use it to study forward scattering at Planckian energies, including the effects of the continuum of Kaluza-Klein modes. We map out the different regimes for the scattering obtained by varying the center-of-mass energy and the impact parameter. We also discuss exact shock waves in ADD scenarios with compact extra dimensions.
Resumo:
If there are large extra dimensions and the fundamental Planck scale is at the TeV scale, then the question arises of whether ultrahigh energy cosmic rays might probe them. We study the neutrino-nucleon cross section in these models. The elastic forward scattering is analyzed in some detail, hoping to clarify earlier discussions. We also estimate the black hole production rate. We study energy loss from graviton mediated interactions and conclude that they cannot explain the cosmic ray events above the GZK energy limit. However, these interactions could start horizontal air showers with characteristic profile and at a rate higher than in the standard model.