942 resultados para fisica matematica cinematica relativa statica relativa dinamica relativa problema dei due corpi leggi di Newton
Resumo:
La tomosintesi digitale computerizzata è una particolare tecnica che permette di ricostruire una rappresentazione 3D di un oggetto, con un numero finito di proiezioni su un range angolare limitato, sfruttando le convenzionali attrezzature digitali a raggi X. In questa tesi è stato descritto un modello matematico per la ricostruzione dell’immagine della mammella nella tomosintesi digitale polienergetica che tiene conto della varietà di materiali che compongono l’oggetto e della natura polienergetica del fascio di raggi X. Utilizzando questo modello polienergetico-multimateriale, la ricostruzione dell’immagine di tomosintesi è stata ricondotta alla formulazione di un problema dei minimi quadrati non lineare su larga scala e risolverlo ha permesso la ricostruzione delle percentuali dei materiali del volume assegnato. Nelle sperimentazioni sono stati implementati il metodo del gradiente, il metodo di Gauss-Newton ed il metodo di Gauss-Newton CGLS. E' stato anche utilizzato l’algoritmo trust region reflective implementato nella funzione lsqnonlin di MATLAB. Il problema della ricostruzione dell'immagine di tomosintesi è stato risolto utilizzando questi quattro metodi ed i risultati ottenuti sono stati confrontati tra di loro.
Resumo:
In questa tesi è stato trattato il tema dei derivati sui tassi di interesse e approfondito il modello stocastico discreto di Hull-White.
Resumo:
Capire come ottenere l'informazione accessibile, cioè quanta informazione classica si può estrarre da un processo quantistico, è una delle questioni più intricate e affascinanti nell'ambito della teoria dell'informazione quantistica. Nonostante l'importanza della nozione di informazione accessibile non esistono metodi generali per poterla calcolare, esistono soltanto dei limiti, i più famosi dei quali sono il limite superiore di Holevo e il limite inferiore di Josza-Robb-Wootters. La seguente tesi fa riferimento a un processo che coinvolge due parti, Alice e Bob, che condividono due qubits. Si considera il caso in cui Bob effettua misure binarie sul suo qubit e quindi indirizza lo stato del qubit di Alice in due possibili stati. L'obiettivo di Alice è effettuare la misura ottimale nell'ottica di decretare in quale dei due stati si trova il suo qubit. Lo strumento scelto per studiare questo processo va sotto il nome di 'quantum steering ellipsoids formalism'. Esso afferma che lo stato di un sistema di due qubit può essere descritto dai vettori di Bloch di Alice e Bob e da un ellissoide nella sfera di Bloch di Alice generato da tutte le possibili misure di Bob. Tra tutti gli stati descritti da ellissoidi ce ne sono alcuni che manifestano particolari proprietà, per esempio gli stati di massimo volume. Considerando stati di massimo volume e misure binarie si è riuscito a trovare un limite inferiore all'informazione accessibile per un sistema di due qubit migliore del limite inferiore di Josza-Robb-Wootters. Un altro risultato notevole e inaspettato è che l'intuitiva e giustificata relazione 'distanza tra i punti nell'ellissoide - mutua informazione' non vale quando si confrontano coppie di punti ''vicine'' tra loro e lontane dai più distanti.
Resumo:
Il Global Positioning System (GPS) e l’Interferometric Synthetic Aperture Radar (InSAR) sono due tecniche osservative di grande importanza che utilizzano segnali nel campo delle microonde. Questa tesi intende contribuire a sviluppare una base di confronto tra i risultati derivati da queste due tecniche osservative. Una parte del lavoro riguarda uno studio delle deformazioni del suolo, in particolare, la stima dei movimenti verticali e di quelli che riguardano la componente Est della posizione delle stazioni. Un secondo ambito di ricerca è invece focalizzato alla determinazione del ritardo introdotto, nella propagazione dei segnali GPS e SAR, dal loro passaggio in atmosfera. In particolare, si è studiato l’effetto della componente umida della troposfera.
Resumo:
Questa tesi si occupa dello studio delle sorgenti radio extragalattiche. Il presente lavoro è divisibile in due parti distinte. La prima parte descrive la morfologia e la struttura delle varie tipologie degli oggetti AGN, i fenomeni relativistici riguardo al moto delle radiosorgenti, il modello unificato, che consiste nel descrivere tutti i tipi di radiosorgenti presentati come la stessa tipologia di oggetto. La seconda parte vede l'analisi di due campioni: uno di radiogalassie, l'altro di BL Lacs. L'obiettivo consiste nel confrontare i valori di core dominance(rapporto tra potenza osservata e attesa) dei due campioni e dimostrare come la core domincance degli oggetti BL Lacertae sia maggiore di quella delle radiogalassie, al fine di mettere in evidenza un fattore a sostegno della teoria dei modelli unificati. Infine sono state inserite due appendici:l'una descrive un importante meccanismo di emissione come la radiazione di sincrotrone, l'altra presenta la tecnica di interferometria VLBI.
Resumo:
Scopo dell'opera è implementare in maniera efficiente ed affidabile un metodo di tipo Newton per la ricostruzione di immagini con termine regolativo in norma L1. In particolare due metodi, battezzati "OWL-QN per inversione" e "OWL-QN precondizionato", sono presentati e provati con numerose sperimentazioni. I metodi sono generati considerando le peculiarità del problema e le proprietà della trasformata discreta di Fourier. I risultati degli esperimenti numerici effettuati mostrano la bontà del contributo proposto, dimostrando la loro superiorità rispetto al metodo OWL-QN presente in letteratura, seppure adattato alle immagini.
Resumo:
Scopo di questo studio è mostrare come, a partire dalle equazioni di Maxwell nella forma classica, sia possibile associare al campo elettromagnetico una funzione Hamiltoniana che risulti essere somma delle Hamiltoniane di un numero discreto di oscillatori armonici, ciascuno dei quali è associato ad un modo normale di vibrazione del campo. Tramite un procedimento puramente formale di quantizzazione, è possibile ricavare un'espressione per lo spettro del campo elettromagnetico e viene introdotto il concetto di fotone, inteso come quanto d'eccitazione di un singolo oscillatore. Si ricava la ben nota espressione U=ħω per l'energia del fotone e si deducono alcuni importanti aspetti, quali le fluttuazioni quantistiche del campo elettromagnetico e il problema legato alla divergenza dell'energia di vuoto fotonico, che aprono le porte all'elettrodinamica quantistica.
Resumo:
Questa tesi tratta di problemi dislocativi in spazi elastici, utili per rappresentare campi di spostamento, deformazione e sforzo generati da sorgenti interne. In particolare, considerando la Terra come un corpo elastico, i problemi trattati si riferiscono alla descrizione dei campi di sforzo in prossimità della superficie terrestre, lo studio della cui deformazione rappresenta uno dei più utili metodi di indagine delle sorgenti sismiche e vulcaniche. È possibile, con ottima approssimazione, descrivere la superficie terrestre come una superficie libera, ovvero una superficie su cui le trazioni applicate dall'esterno sono nulle. Tale approssimazione, per il tipo di studio cui mira questa trattazione, è giustificata dal fatto che le sorgenti sismiche sono situate solitamente a diversi chilometri di profondità, dove risulta legittimo trascurare le forze esterne dovute a pressione atmosferica, azione di correnti d'aria, forze di gravità esercitata dal Sole ed altri corpi celesti, etc. Volendo studiare regioni con dimensioni lineari molto inferiori al raggio terrestre, è possibile approssimare la Terra ad un semispazio elastico omogeneo con superficie libera orizzontale. Nel seguito si farà riferimento ad un sistema cartesiano ortogonale con assi y e z diretti lungo l'orizzontale e asse x diretto verticalmente verso l'interno del semispazio. La superficie terrestre è perciò descritta dal piano x=0 e, denotando con T_ij il tensore di sforzo, la condizione di superficie libera risulta: Txx = Txy = Txz = 0; in x = 0. Nella tesi sono esposti alcuni metodi che consentono di estendere soluzioni già note per spazi elastici illimitati al caso di semispazi delimitati da una superficie libera.
Resumo:
La corretta modellizzazione della zona del riflettore dei sistemi GEN III+ è un passaggio fondamentale per un’accurata predizione dei parametri di cella il cui valore influenza direttamente la distribuzione di potenza su tutto il nocciolo. Tale esigenza si è resa ancora più stringente dopo la constatazione che il fenomeno del “tilt power” risulta essere più amplificato nei noccioli nucleari equipaggiati con un riflettore pesante. Per tali ragioni, nel presente lavoro di tesi si è dedicata particolare attenzione alle metodiche di modellizzazione ed alla generazione delle sezioni d’urto efficaci omogenee ed agli assembly discontinuity factors (ADF) nella zona di riflessione. Il codice deterministico utilizzato per il calcolo è SCALE 6.1.3. La notevole differenza nelle proprietà neutroniche associata ad un’elevata eterogeneità geometrica tra un nocciolo ed un riflettore hanno suggerito di effettuare un’analisi preliminare sul sistema riflettente GEN II proposto nel benchmark NEA-NSC-DOC (2013) per testare la capacità di SCALE 6.1.3 di effettuare un corretto calcolo di cella adottando una modellizzazione monodimensionale assembly/riflettore. I risultati ottenuti sono confrontati con quelli presentati nel benchmark e e con quelli valutati attraverso il codice Monte Carlo SERPENT 2.0 confermando la capacità di calcolo di SCALE 6.1.3. L’analisi sulla modellizzazione dei sistemi riflettenti GEN III+ è stata effettuata ricavando il valore dei parametri di cella per configurazioni omogenee ed una serie di configurazioni geometriche esatte che comprendono tutte le modellizzazioni del sistema riflettente lungo la direzione angolare del riflettore. Si è inoltre effettuata un’analisi di sensitività su parametri operativi e sui parametri di codice. Si è infine effettuato un calcolo in color-set per indagare l’influenza degli effetti 2-D sui parametri di cella. I risultati prodotti rappresentano un contributo migliorativo nella conoscenza dei parametri di cella di riflettore e potranno essere utilizzati per una più precisa valutazione del fenomeno del tilt nei sistemi GEN III+.
Resumo:
In questa tesi si studiano alcune proprietà fondamentali delle funzioni Zeta e L associate ad una curva ellittica. In particolare, si dimostra la razionalità della funzione Zeta e l'ipotesi di Riemann per due famiglie specifiche di curve ellittiche. Si studia poi il problema dell'esistenza di un prolungamento analitico al piano complesso della funzione L di una curva ellittica con moltiplicazione complessa, attraverso l'analisi diretta di due casi particolari.
Resumo:
La presente tesi si propone di fornire un breve compendio sulla teoria dei complessi casuali, ramo di recente sviluppo della topologia algebrica applicata. Nell'illustrare i risultati più significativi ottenuti in tale teoria, si è voluto enfatizzare le modalità che permettono di affrontare con strumenti probabilistici lo studio delle proprietà topologiche ed algebriche dei complessi casuali.
Resumo:
In questa tesi si descrive il gruppo dei quaternioni come gruppo non abeliano avente tutti i sottogruppi normali. In particolare si dimostra il teorema di Dedekind che determina la struttura dei gruppi aventi tutti i sottogruppi normali. Si dà poi un polinomio a coefficienti razionali il cui gruppo di Galois coincide con il gruppo dei quaternioni.
Resumo:
La tesi ha come obiettivo l’analisi della correlazione dello stile tettonico, in termini di deformazione sismica, con il b-value della relazione magnitudo-frequenza di occorrenza (Gutenberg e Richter, 1944) in area globale ed euro-mediterranea. L’esistenza di una dipendenza funzionale tra il b-value e gli angoli di rake, del tipo di quella segnalata da Schorlemmer et al. (2005) e Gulia e Wiemer (2010), viene confermata prima su scala globale e poi su scala euro-mediterranea, a partire dai dati dei principali dataset di tensori momento delle aree in esame, il Global Centroid Moment Tensor (GCMT) ed il Regional Centroid Moment Tensor (RCMT). La parte innovativa della tesi consiste invece nell’incrocio di tali dataset con un database globale di terremoti, l’International Seismological Center (ISC), con magnitudo momento omogenea rivalutata in accordo con Lolli et al. (2014), per il calcolo del b-value. Il campo di deformazione sismica viene ottenuto attraverso il metodo della somma dei tensori momento sismico secondo Kostrov (1974) su pixelizzazioni a celle quadrate o esagonali. All’interno di ciascuna cella, le componenti del tensore di ciascun terremoto vengono sommate tra loro e dal tensore somma vengono estratte le direzioni dei piani principali della migliore doppia coppia. Il sub-catalogo sismico per il calcolo del b-value, ottenuto come scomposizione di quello globale ISC, viene invece ricavato per ogni cluster di celle comprese all'interno di un opportuno range di rake, le quali condividono un medesimo stile tettonico (normale, inverso o trascorrente). La magnitudo di completezza viene valutata attraverso i metodi di massima verosimiglianza [Bender, 1983] ed EMR [Woessner e Wiemer 2005]. La retta di interpolazione per il calcolo del b-value viene costruita quindi secondo il metodo di massima verosimiglianza [Bender, 1983] [Aki 1965]. L’implementazione nel linguaggio del software Matlab® degli algoritmi di pixelizzazione e di costruzione dei tensori somma, l’utilizzo di funzioni di calcolo dal pacchetto Zmap [Wiemer e Wyss, 2001], unite al lavoro di traduzione di alcune routines [Gasperini e Vannucci (2003)] dal linguaggio del FORTRAN77, hanno costituito la parte preliminare al lavoro. La tesi è strutturata in 4 capitoli.Nel primo capitolo si introducono le nozioni teoriche di base riguardanti i meccanismi focali e la distribuzione magnitudo-frequenza, mentre nel secondo capitolo l’attenzione viene posta ai dati sismici dei database utilizzati. Il terzo capitolo riguarda le procedure di elaborazione dati sviluppate nella tesi. Nel quarto ed ultimo capitolo infine si espongono e si discutono i risultati sperimentali ottenuti, assieme alle conclusioni finali.
Resumo:
La materia ordinaria copre soli pochi punti percentuali della massa-energia totale dell'Universo, che è invece largamente dominata da componenti “oscure”. Il modello standard usato per descriverle è il modello LambdaCDM. Nonostante esso sembri consistente con la maggior parte dei dati attualmente disponibili, presenta alcuni problemi fondamentali che ad oggi restano irrisolti, lasciando spazio per lo studio di modelli cosmologici alternativi. Questa Tesi mira a studiare un modello proposto recentemente, chiamato “Multi-coupled Dark Energy” (McDE), che presenta interazioni modificate rispetto al modello LambdaCDM. In particolare, la Materia Oscura è composta da due diversi tipi di particelle con accoppiamento opposto rispetto ad un campo scalare responsabile dell'Energia Oscura. L'evoluzione del background e delle perturbazioni lineari risultano essere indistinguibili da quelle del modello LambdaCDM. In questa Tesi viene presentata per la prima volta una serie di simulazioni numeriche “zoomed”. Esse presentano diverse regioni con risoluzione differente, centrate su un singolo ammasso di interesse, che permettono di studiare in dettaglio una singola struttura senza aumentare eccessivamente il tempo di calcolo necessario. Un codice chiamato ZInCo, da me appositamente sviluppato per questa Tesi, viene anch'esso presentato per la prima volta. Il codice produce condizioni iniziali adatte a simulazioni cosmologiche, con differenti regioni di risoluzione, indipendenti dal modello cosmologico scelto e che preservano tutte le caratteristiche dello spettro di potenza imposto su di esse. Il codice ZInCo è stato usato per produrre condizioni iniziali per una serie di simulazioni numeriche del modello McDE, le quali per la prima volta mostrano, grazie all'alta risoluzione raggiunta, che l'effetto di segregazione degli ammassi avviene significativamente prima di quanto stimato in precedenza. Inoltre, i profili radiale di densità ottenuti mostrano un appiattimento centrale nelle fasi iniziali della segregazione. Quest'ultimo effetto potrebbe aiutare a risolvere il problema “cusp-core” del modello LambdaCDM e porre limiti ai valori dell'accoppiamento possibili.
Resumo:
Recentemente si è assistito ad un rinnovato interesse per l’impiego dei dirigibili. Questa tesi tratta sia aspetti storici, visto che si ripercorre l’evoluzione del mezzo dai primi anni del ‘900 ad oggi, sia aspetti tecnici, con l’illustrazione dei principi fisici alla base del funzionamento dei dirigibili. In particolare la tesi verte sui seguenti argomenti: * Storia del dirigibile, dagli albori fino ai giorni nostri, e breve descrizione dei più famosi modelli e delle imprese esplorative compiute. * Fisica, tipologie e componenti principali presenti in una aeronave. * Analisi comparativa dei dati, delle prestazioni e delle caratteristiche di circa cinquanta modelli sia del presente che del passato, con diagrammi di dispersione commentati.