988 resultados para modello epidemologia


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fisica del sapore è uno dei settori di ricerca più promettenti per realizzare misure di altissima precisione del Modello Standard e per osservare indirettamente, attraverso i decadimenti mediati dalle interazioni deboli nuove particelle. L'esperimento LHCb \`e stato progettato per realizzare misure di altissima precisione in questo settore. Grazie all'alta luminosità integrata disponibile (3 fb \ap{-1}) ed alla elevata sezione d’urto di produzione dei quark charm, LHCb \`e in grado di realizzare misure di una precisione mai raggiunta fino ad ora da altri esperimenti. In questo lavoro di tesi \`e stata realizzata una misura preliminare della simmetria di violazione di CP, realizzata mediante i decadimenti dei mesoni neutri $D^0$ negli stati finali $K^+K^-$ e $\pi^+\pi^-$. Per realizzare la misura sono stati selezionati i decadimenti $D^{*\pm} \to D^0(K^+K^-)\pi^\pm_s$ e $D^{*\pm} \to D^0(\pi^+\pi^-)\pi^\pm_s$ utilizzando i dati raccolti da LHCb durante il RUN-1 (2010-2012) ed \`e stato sviluppato un modello di adattamento ai dati in grado di misurare la differenza di asimmetria di CP integrate nel tempo nei decadimenti $D^0 \rightarrow K^+K^-$ e $D^0 \rightarrow \pi^+\pi^-$, $\Delta A_{CP}$. Il modello \`e stato sviluppato in modo da descrivere le distribuzioni di massa invariante del $D^0$ e del $D^{*\pm}$ sia per la componente di segnale sia per quelle di fondo ed \`e stato adattato ai dati, per sottrarne i fondi e misurare le asimmetrie $A_{RAW}(K^+K^-)$ e $A_{RAW}(\pi^+\pi^-)$, corrispondenti alla differenza tra il numero di eventi di segnale $D^{*+}$ e $D^{*-}$, diviso la loro somma. La differenza di queste asimmetrie corrisponde a $\Delta A_{CP}$, la cui misura, non ufficiale, \`e stata determinata essere $\Delta A_{CP}= (-0.12\pm 0.08)\% $. Questo risultato rappresenta la miglior misura al mondo mai realizzata da un singolo esperimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni, parallelamente allo sviluppo di calcolatori elettronici sempre più performanti, la fluidodinamica computazionale è diventata uno strumento di notevole utilità nell’analisi dei flussi e nello sviluppo di dispositivi medici. Quando impiegate nello studio di flussi di fluidi fisiologici, come il sangue, il vantaggio principale delle analisi CFD è che permettono di caratterizzare il comportamento fluidodinamico senza dover eseguire test in-vivo/in-vitro, consentendo quindi notevoli vantaggi in termini di tempo, denaro e rischio derivante da applicazioni mediche. Inoltre, simulazioni CFD offrono una precisa e dettagliata descrizione di ogni parametro di interesse permettendo, già in fase di progettazione, di prevedere quali modifiche al layout garantiranno maggiori vantaggi in termini di funzionalità. Il presente lavoro di tesi si è posto l’obiettivo di valutare, tramite simulazioni CFD, le performances fluidodinamiche del comparto sangue “camera venosa” di un dispositivo medico monouso Bellco impiegato nella realizzazione di trattamenti di emodialisi. Dopo una panoramica del contesto, è presentata una breve descrizione della disfunzione renale e dei trattamenti sostitutivi. Notevole impegno è stato in seguito rivolto allo studio della letteratura scientifica in modo da definire un modello reologico per il fluido non-Newtoniano preso in considerazione e determinarne i parametri caratteristici. Il terzo capitolo presenta lo stato dell’arte delle apparecchiature Bellco, rivolgendosi con particolare attenzione al componente “cassette” del dispositivo monouso. L’analisi fluidodinamica del compartimento “camera venosa” della cassette, che sarà presa in considerazione nei capitoli quinto e sesto, si inserisce nell’ambito della riprogettazione del dispositivo attualmente in commercio: il quarto capitolo si incentra sul suo nuovo design, ponendo specifico interesse sul layout della camera venosa di nuova generazione. Per lo studio dei flussi che si sviluppano internamente ad essa ci si è avvalsi del modulo CFD del software COMSOL multiphysics® (versione 5.0); la definizione del modello implementato e della tipologia di studio effettuato sono presi in considerazione nel quinto capitolo. Le problematiche di maggior impatto nella realizzazione di un trattamento di emodialisi sono l’emolisi e la coagulazione del sangue. Nell'evenienza che si verifichino massivamente occorre infatti interrompere il trattamento con notevoli disagi per il paziente, per questo devono essere evitate. Nel sesto capitolo i risultati ottenuti sono stati esaminati rivolgendo particolare attenzione alla verifica dell’assenza di fenomeni che possano portare alle problematiche suddette.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'accrescimento è un processo fondamentale in astrofisica data la sua grandissima efficienza. Nel 1959 venne individuato il primo Quasar (pur non sapendo realmente di cosa si trattasse) e nel 1963 l'astronomo tedesco Maarten Schmidt scoprì che tale oggetto, di magnitudine apparente 13 (si credeva fosse una stella), aveva un redshift z = 0:37. Stelle di magnitudine 13 non dovrebbero avere un redshift così grande. Tale oggetto doveva trovarsi a grande distanza ed emettere una luminosità molto alta, superiore anche a quella di un'intera galassia. Processi termonucleari non erano sufficientemente efficienti per spiegare un'emissione di questo tipo: si capì presto che tale emissione dovesse avere origine gravitazionale, fosse cioè dovuta all'accrescimento di materia su un buco nero. In questa tesi, dopo aver spiegato come l'accrescimento rappresenti un'importante fonte di energia in astrofisica, presenterò, nel Capitolo 1, il modello di Bondi, presentato nel 1952 da Hermann Bondi. Tale modello è il più semplice modello di accrescimento e, pur essendo basato su ipotesi (che vedremo) che trascurano diversi aspetti importanti, risulta comunque un modello fondamentale, perché permette di ricavare quantità rilevanti in astrofisica. Successivamente, nel Capitolo 2, ricaverò il valore della Luminosità di Eddington, che esprime la massima luminosità che può emettere un corpo in simmetria sferica. Anche questo risultato verrà ricavato imponendo ipotesi abbastanza restrittive, quindi non andrà interpretato come un limite invalicabile. Nel Capitolo 3 parlerò (più qualitativamente, e senza la pretesa di entrare nei dettagli) di come si formano i dischi di accrescimento, che si originano quando la materia che va ad accrescere ha un momento angolare non nullo: quindi non siamo più nel caso di accrescimento a simmetria sferica. Infine, parlerò dei processi che originano gli spettri osservati degli AGN, riferendomi prevalentemente a quei processi che originano il continuo dello spettro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi introduce le basi della teoria della computazione quantistica, partendo da un approccio teorico-matematico al concetto di qubit per arrivare alla schematizzazione di alcuni circuiti per algoritmi quantistici, analizzando la differenza tra le porte logiche classiche e la loro versione quantistica. Segue poi una lista descrittiva di possibili applicazioni dei computer quantistici, divise per categorie, e i loro vantaggi rispetto ai computer classici. Tra le applicazioni rientrano la crittografia quantistica, gli algoritmi di fattorizzazione e del logaritmo discreto di Shor, il teletrasporto di informazione quantistica e molte altre. La parte più corposa della tesi riguarda le possibili implementazioni, ovvero come realizzare praticamente un computer quantistico rendendo entità fisiche i qubit. Di queste implementazioni vengono analizzati i vari aspetti necessari alla computazione quantistica, ovvero la creazione di stati iniziali, la misura di stati finali e le trasformazioni unitarie che rappresentano le porte logiche quantistiche. Infine vengono elencate le varie problematiche del modello preso in considerazione. Infine vengono citati alcuni esperimenti e modelli recenti che potrebbero vedere una realizzazione su scala industriale nei prossimi anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le basi neurali della memoria semantica e lessicale sono oggetto di indagine da anni nelle neuroscienze cognitive. In tale ambito, un ruolo crescente è svolto dall’uso di modelli matematici basati su reti di neuroni. Scopo del presente lavoro è di utilizzare e migliorare un modello sviluppato in anni recenti, per spiegare come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Il principio alla base del modello è che la semantica di un concetto è descritta attraverso una collezione di proprietà, che sintetizzano la percezione del concetto stesso nelle diverse regioni corticali. Gli aspetti semantici e lessicali sono memorizzati in regioni separate, ma reciprocamente connesse sulla base dell’esperienza passata, secondo un meccanismo di apprendimento Hebbiano. L’obiettivo del lavoro è stato quello di indagare i meccanismi che portano alla formazione di categorie. Una importante modifica effettuata è consistita nell’utilizzare un meccanismo di apprendimento Hebbiano a soglia variabile, in grado di adattarsi automaticamente alla statistica delle proprietà date in input. Ciò ha portato ad un miglioramento significativo dei risultati. In particolare, è stato possibile evitare che un proprietà comune a molti (ma non a tutti) i membri di una categoria (come la proprietà “vola” per la categoria “uccelli”) sia erroneamente attribuita all’intera categoria. Nel lavoro viene presentato lo stesso modello con quattro differenti tassonomie, relative ad animali e a oggetti artificiali. La rete, una volta addestrata con una delle 4 tassonomie, è in grado di risolvere compiti di riconoscimento e denominazione di concetti, mantenendo una distinzione tra le categorie e i suoi membri, e attribuendo un diverso ruolo alle proprietà salienti rispetto alle proprietà marginali. Le tassonomie presentano un numero di concetti e features crescente, per avvicinarsi al reale funzionamento della memoria semantica, in cui ai diversi concetti è associato un numero diverso di caratteristiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il disturbo dello spettro autistico è caratterizzato da una grave compromissione delle capacità di comunicazione e d'interazione sociale. Tale aspetto può essere la conseguenza di un ritardo dello sviluppo, in particolare della capacità di integrare stimoli di modalità diverse (audio-visive). Infatti, l'integrazione multisensoriale è il meccanismo che ci permette di elaborare al meglio le proprietà visive e acustiche degli stimoli, essenziali per la comprensione del linguaggio; nella vita di tutti i giorni, il linguaggio ci appare infatti sotto forma di stimoli acustici, dati dai fonemi, e di stimoli visivi, dati dalla lettura labiale. È stato sperimentalmente osservato che, nei bambini autistici, questi processi di integrazione multisensoriale risultano compromessi. Nel presente lavoro si adotta l’ipotesi secondo cui tale insufficiente integrazione sia determinata da una ridotta maturazione delle sinapsi cross-modali, che collegano le aree acustiche e visive, e permettono l’integrazione fra fonemi e movimenti labiali. Si ipotizza che queste sinapsi risultino particolarmente deboli negli autistici, e ciò influisce inevitabilmente sull'integrazione degli stimoli a livello multisensoriale. La tesi, dopo un lavoro di rassegna della letteratura, descrive un recente modello matematico che riproduce il processo neurale di integrazione degli stimoli. Sulla base di tale modello, sono state eseguite diverse simulazioni, col fine di mostrare le differenze tra gli individui neurotipici e quelli autistici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Fibrillazione Atriale (FA) è una delle aritmie più frequentemente riscontrate nella pratica clinica, ma i meccanismi che la generano e che la sostengono non sono ancora oggi ben chiari. L’obiettivo di questo lavoro di tesi è indagare il substrato aritmogeno della FA con particolare attenzione al legame tra rimodellamento elettrico e strutturale. La tecnica di riferimento per la valutazione della fibrosi è la risonanza magnetica con iniezione di mezzo di contrasto e acquisizione ritardata. Tipicamente, però, la presenza di fibrosi viene valutata durante la procedura di ablazione transcatetere mediante l’analisi dei potenziali elettrici rilevati, considerando le zone a basso potenziale indicative della presenza di alterazioni strutturali. In questo lavoro sono stati elaborati dati di Risonanza Magnetica (RM), in particolare sequenze Angio-RM e DE-RM. Dalle sequenze Angio-RM è stato ricostruito un modello 3D paziente-specifico dell’atrio, mentre dalle sequenze DE-RM sono state ricavate informazioni relative alla presenza di tessuto atriale fibrotico. Al modello 3D è stata poi sovrapposta l’informazione sull’intensità di grigio del dato DE-RM per poter visualizzare la localizzazione delle zone di fibrosi sulla superficie 3D dell’atrio.
 Sono stati anche esportati dal sistema di mappaggio elettroanatomico EnSite NavX (St. Jude Medical) i dati relativi alla geometria dell’atrio e ai potenziali registrati durante lo svolgimento della procedura di ablazione. Da questi dati è stato possibile ricostruire in ambiente Matlab le mappe di voltaggio raffiguranti i potenziali registrati durante la procedura. Per poter studiare e valutare il legame esistente tra rimodellamento elettrico e strutturale, sono state confrontate le mappe di voltaggio e le superfici raffiguranti fibrosi.
 Questo lavoro di tesi è stato svolto in collaborazione con l’U.O. di Cardiologia dell’Ospedale Bufalini di Cesena e la St. Jude Medical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La portata media cardiaca, (cardiac output “CO”) è un parametro essenziale per una buona gestione dei pazienti o per il monitoraggio degli stessi durante la loro permanenza nell’unità di terapia intensiva. La stesura di questo elaborato prende spunto sull’articolo di Theodore G. Papaioannou, Orestis Vardoulis, and Nikos Stergiopulos dal titolo “ The “systolic volume balance” method for the non invasive estimation of cardiac output based on pressure wave analysis” pubblicato sulla rivista American Journal of Physiology-Heart and Circulatory Physiology nel Marzo 2012. Nel sopracitato articolo si propone un metodo per il monitoraggio potenzialmente non invasivo della portata media cardiaca, basato su principi fisici ed emodinamici, che usa l’analisi della forma d’onda di pressione e un metodo non invasivo di calibrazione e trova la sua espressione ultima nell’equazione Qsvb=(C*PPao)/(T-(Psm,aorta*ts)/Pm). Questa formula è stata validata dagli autori, con buoni risultati, solo su un modello distribuito della circolazione sistemica e non è ancora stato validato in vivo. Questo elaborato si pone come obiettivo quello di un’analisi critica di questa formula per la stima della portata media cardiaca Qsvb. La formula proposta nell'articolo verrà verificata nel caso in cui la circolazione sistemica sia approssimata con modelli di tipo windkessel. Dallo studio svolto emerge il fatto che la formula porta risultati con errori trascurabili solo se si approssima la circolazione sistemica con il modello windkessel classico a due elementi (WK2) e la portata aortica con un’onda rettangolare. Approssimando la circolazione sistemica con il modello windkessel a tre elementi (WK3), o descrivendo la portata aortica con un’onda triangolare si ottengono risultati con errori non più trascurabili che variano dal 7%-9% nel caso del WK2 con portata aortica approssimata con onda triangolare ad errori più ampi del 20% nei i casi del WK3 per entrambe le approssimazioni della portata aortica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nelle matrici ambientali sono spesso presenti xenoestrogeni, molecole sintetiche o di origine naturale ad attività estrogenica in grado di alterare il normale equilibrio ormonale di organismi esposti, incidendo negativamente su alcune funzioni vitali come la riproduzione ed il metabolismo. Diverse sostanze chimiche presenti in ambiente, tra cui alcune molecole ad attività estrogenica, sono anche potenziali composti genotossici, in grado, cioè, di interagire con il DNA ed esercitare effetti anche a lungo termine come l’insorgenza di tumori nei vertebrati, uomo compreso. L’obiettivo del presente lavoro di tesi è stato quello di mettere a punto ed utilizzare due saggi biologici, il saggio E-screen ed il test dei micronuclei, per valutare la presenza di xenoestrogeni e composti genotossici in campioni di acque prelevate prima e dopo i trattamenti di potabilizzazione, utilizzando cellule MCF-7 di adenocarcinoma mammario come modello sperimentale in vitro. Le indagini biologiche sono state condotte sulla base di una convenzione di ricerca con la Società acquedottistica Romagna Acque- Società delle fonti e hanno previsto tre campagne di monitoraggio. I campioni di acqua sperimentale, raccolti prima e dopo i trattamenti presso diversi impianti di potabilizzazione, sono stati preventivamente filtrati, estratti in fase solida, fatti evaporare sotto leggero flusso di azoto, ed infine, saggiati sulle cellule. Il test E-screen, di cui abbiamo dimostrato un elevato livello di sensibilità, ha permesso di escludere la presenza di composti ad attività estrogenica nei campioni esaminati. Allo stesso modo, i risultati del test dei micronuclei hanno dimostrato l’assenza di effetti genotossici, confermando la buona qualità delle acque analizzate. Nell’ambito delle attività di monitoraggio, le indagini biologiche risultano essenziali per la valutazione di una potenziale contaminazione ambientale, in quanto forniscono informazioni anche quando non sono state condotte analisi chimiche. Inoltre, anche quando le analisi chimiche siano state condotte, i test biologici informano della potenzialità tossica di una matrice causata eventualmente da sostanze non oggetto del saggio chimico. Infine, i test biologici permettono di identificare eventuali sinergie tra più contaminanti presenti nelle acque, affermandosi come test da condurre in maniera complementare ai saggi chimici. I test biologici come quelli impiegati nel lavoro di tesi sono molto sensibili ed informativi, ma necessitano della definizione di protocolli standardizzati per garantirne un’uniforme applicazione alle acque ad uso potabile, almeno a livello nazionale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi di rassegna si pone l'obiettivo di esaminare i motivi che hanno portato alla progettazione del modello Software Defined Networking e analizzarne le caratteristiche principali. L'obiettivo è stato raggiunto attraverso un'analisi attenta dello stato dell'arte, in cui sono state evidenziate le problematiche dell'architettura tradizionale e i requisiti delle reti di nuova generazione che hanno portato i progettisti di rete a riconsiderare il modello attualmente diffuso. Dopo aver scritto in modo approfondito delle caratteristiche e dei benefici di SDN, è stata posta l'enfasi sul protocollo OpenFlow riconosciuto come fattore abilitante del modello oggetto della tesi. Infine sono state analizzate le soluzioni, che si ispirano a SDN, di tre colossi dell'informatica quali HP, Google e Cisco.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa tesi è progettare e analizzare la struttura più efficiente ed adeguata di un CubeSat 1U, realizzando un modello al calcolatore che sia il più possibile aderente al modello reale. Ciò viene fatto utilizzando un software dedicato alle simulazioni avanzate, Ansys Workbench con il quale è possibile svolgere analisi modali sulla struttura realizzata. Per validare il modello numerico occorre confrontare i risultati ottenuti al calcolatore con quelli conseguiti sperimentalmente nell'ambito della tesi del mio collega Riccardo Fabbri; una volta fatto ciò si manipola il modello numerico finché i risultati non si matchano, entro un certo margine di errore. Un modello numerico del genere è fondamentale per le fasi iniziali di qualsiasi progetto sperimentale volto alla costruzione di una struttura, infatti consente di svolgere tutta una serie di test e simulazioni di carichi e vincoli che nella realtà non si possono eseguire per via di numerosi fattori, come ad esempio la mancanza della strumentazione adeguata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto in questa tesi fa parte di un progetto volto alla realizzazione di un sistema per svolgere test di guida di motoveicoli al banco a rulli, gestendo l’intera prova in remoto, ossia dall’esterno della cella. Tale sistema, denominato RideIT, è stato progettato da Alma Automotive per conto della nota casa motociclistica MV Augusta. Tramite il sistema RideIT, è possibile automatizzare la guida di motoveicoli sul banco a rulli, riproducendo via software, tramite un modello che governa degli attuatori, il comportamento del pilota per quel che riguarda gli azionamenti di acceleratore, frizione, cambio e freno durante un test. I vantaggi di questa soluzione riguardano soprattutto la sicurezza degli addetti, che possono effettuare tutte le prove del caso rimanendo al di fuori della sala prove, oltre alla possibilità di incrementare la ripetibilità e la riproducibilità dei risultati dei test, grazie all’eliminazione del fattore di soggettività legato al guidatore. Il sistema nasce con la specifica di poter eseguire test di omologazione al banco a rulli anche se, grazie alla flessibilità che è in grado di garantire, può essere perfettamente riconfigurato, anche in vista di futuri sviluppi del progetto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi si pone l’obiettivo di studiare come un Cubesat 1U reagisce se sollecitato con vibrazioni di una certa banda di frequenze, corrispondenti a quelle generate durante il lancio del vettore VEGA, e cercare di sviluppare un modello virtuale che in futuro permetta di simulare in maniera più realistica il comportamento delle successive strutture che saranno progettate. Il campo dei nanosatelliti è in rapida espansione negli ultimi anni, bassi costi di produzione e lancio abbinati a tempi rapidi di sviluppo e progettazione li rendono un ottimo strumento per aziende di piccole dimensioni e università per aquisire esperienza nel campo delle tecnologie spaziali e permettere la formazione degli studenti. Grazie a questi fattori il corso di Ingegneria Aerospaziale di Forlì ha intrapreso la progettazione di un Cubesat che una volta ultimato potrà essere lanciato in orbita grazie al contributo dell’ESA, che si presta a fornire lanci gratuiti alle università europee. Questo progetto porta avanti il lavoro compiuto durante la fase di tirocinio in cui abbiamo cercato di progettare una struttura semplice e realizzabile completamente nei laboratori dell’università, che permettesse anche successivamente a studenti e dottorandi di cimentarsi nello studio e nella progettazione di un nanosatellite. Il mio compito in particolare consiste nell’esecuzione di una serie di prove sperimentali con uno shaker presente nei laboratori della Scuola e, raccogliendo, analizzando e interpretando la risposta della struttura, si cercherà di modificare il modello CAD realizzato finora (lavoro compiuto in un'altra tesi di laurea) in modo che rispecchi più fedelmente il comportamento di quello reale e fornire quindi una base ai futuri lavori in questo ambito. La struttura, ispirata a quelle già presenti sul mercato, è stata progettata utilizzando Solidworks un software CAD, successivamente è stata fatta un analisi tramite un altro software FEM, realizzato e poi testato mediante uno shaker presso i laboratori del corso di studi in ingegneria aerospaziale di Forlì. Per poter fare ciò si è anche realizzata quella che è stata usata come interfaccia per connettere il Cubesat allo shaker, infatti data la sua proprietà di esercitare spostamenti solo lungo l’asse verticale si è reso necessario trovare un modo per sollecitare il nanosatellite lungo tutti e tre gli assi per poter evidenziare i modi flessionali della struttura. I dati ottenuti riguardano le accelerazioni rilevate in vari punti del Cubesat e del supporto da parte di accelerometri piezometrici che sono stati analizzati per risalire al tipo di comportamento con cui ha risposto la struttura a vibrazioni di varia frequenza e intensità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo del lavoro esposto nella seguente relazione di tesi ha riguardato lo studio e la simulazione di esperimenti di radar bistatico per missioni di esplorazione planeteria. In particolare, il lavoro si è concentrato sull’uso ed il miglioramento di un simulatore software già realizzato da un consorzio di aziende ed enti di ricerca nell’ambito di uno studio dell’Agenzia Spaziale Europea (European Space Agency – ESA) finanziato nel 2008, e svolto fra il 2009 e 2010. L’azienda spagnola GMV ha coordinato lo studio, al quale presero parte anche gruppi di ricerca dell’Università di Roma “Sapienza” e dell’Università di Bologna. Il lavoro svolto si è incentrato sulla determinazione della causa di alcune inconsistenze negli output relativi alla parte del simulatore, progettato in ambiente MATLAB, finalizzato alla stima delle caratteristiche della superficie di Titano, in particolare la costante dielettrica e la rugosità media della superficie, mediante un esperimento con radar bistatico in modalità downlink eseguito dalla sonda Cassini-Huygens in orbita intorno al Titano stesso. Esperimenti con radar bistatico per lo studio di corpi celesti sono presenti nella storia dell’esplorazione spaziale fin dagli anni ’60, anche se ogni volta le apparecchiature utilizzate e le fasi di missione, durante le quali questi esperimenti erano effettuati, non sono state mai appositamente progettate per lo scopo. Da qui la necessità di progettare un simulatore per studiare varie possibili modalità di esperimenti con radar bistatico in diversi tipi di missione. In una prima fase di approccio al simulatore, il lavoro si è incentrato sullo studio della documentazione in allegato al codice così da avere un’idea generale della sua struttura e funzionamento. È seguita poi una fase di studio dettagliato, determinando lo scopo di ogni linea di codice utilizzata, nonché la verifica in letteratura delle formule e dei modelli utilizzati per la determinazione di diversi parametri. In una seconda fase il lavoro ha previsto l’intervento diretto sul codice con una serie di indagini volte a determinarne la coerenza e l’attendibilità dei risultati. Ogni indagine ha previsto una diminuzione delle ipotesi semplificative imposte al modello utilizzato in modo tale da identificare con maggiore sicurezza la parte del codice responsabile dell’inesattezza degli output del simulatore. I risultati ottenuti hanno permesso la correzione di alcune parti del codice e la determinazione della principale fonte di errore sugli output, circoscrivendo l’oggetto di studio per future indagini mirate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi affronta uno dei principali argomenti trattati dalla finanza matematica: la determinazione del prezzo dei derivati finanziari. Esistono diversi metodi per trattare questo tema, ma in particolare vengono illustrati i metodi che usano la trasformata di Fourier. Questi ultimi infatti ci permettono di sostituire il calcolo dell'attesa condizionata scontata, con il calcolo dell'integrale della trasformata di Fourier, in quanto la funzione caratteristica, cioè la trasformata di Fourier della funzione densità, è più trattabile rispetto alla funzione densità stessa. Vengono in primo luogo analizzate alcune importanti formule di valutazione e successivamente implementate, attraverso il software Mathematica. I modelli di riferimento utilizzati per l'implementazione sono il modello di Black-Scholes e il modello di Merton.