1000 resultados para indirizzo :: 868 :: Curriculum: Spazio
Resumo:
Negli ultimi cinquant’anni, il trasporto aereo ha sperimentato una rapida espansione, parallelamente alla crescita dell’economia globale. Gli aeroporti, oggi, rappresentano strutture complesse, sulle quali si concentrano interessi economici, sociali e strategici di notevole importanza. Il traffico passeggeri, espresso in RPK (Revenue Passenger Kilometers – ricavo per passeggero-chilometro trasportato), dal 1960, è cresciuto di quasi il 9% l’anno, più del doppio del Prodotto Interno Lordo (PIL), e con un tasso di crescita superiore rispetto alle altre modalità di trasporto. Si prevede che il traffico aereo, sia passeggeri che merci, continuerà ad aumentare nel prossimo futuro: le stime di crescita del traffico aereo riportate nell’ultimo rapporto di valutazione ambientale prodotto dall’ICAO (ICAO Environmental Report 2013) prevedono, per il periodo 2010-2030, un aumento del tasso di crescita annuo dei passeggeri, espresso in RPK, pari al +4,9%. Il valore stimato di RPK per il 2030 è pari a 13 bilioni, quasi tre volte maggiore di quello registrato nel 2010. Come conseguenza, anche le emissioni nocive per l’ambiente e per il clima direttamente legate al trasporto aereo sono aumentate, perché l’aumento della domanda di trasporto aereo ha superato la riduzione delle emissioni dovute ai continui miglioramenti apportati dalla tecnologia e dall’ottimizzazione delle procedure operative.
Resumo:
Studi per verificare la vulnerabilità sismica del padiglione n.14 del complesso ospedaliero Sant'Orsola di Bologna
Resumo:
Nella seguente tesi sono state illustrate alcune proprietà della volatilità implicita, una variabile molto importante nell'ambito finanziario, che viene utilizzata nella formula di Black & Scholes per ottenere il prezzo osservato; infatti essendo il prezzo dell'opzione una funzione invertibile della volatilità ad ogni prezzo quotato dell'opzione corrisponde un unico valore della volatilità, detta appunto volatilità implicita.
Resumo:
Questa tesi verte sullo studio di un modello a volatilità stocastica e locale, utilizzato per valutare opzioni esotiche nei mercati dei cambio. La difficoltà nell'implementare un modello di tal tipo risiede nella calibrazione della leverage surface e uno degli scopi principali di questo lavoro è quello di mostrarne la procedura.
Resumo:
L’assioma di scelta ha una preistoria, che riguarda l’uso inconsapevole e i primi barlumi di consapevolezza che si trattasse di un nuovo principio di ragionamento. Lo scopo della prima parte di questa tesi è quello di ricostruire questo percorso di usi più o meno impliciti e più o meno necessari che rivelarono la consapevolezza non solo del fatto che fosse indispensabile introdurre un nuovo principio, ma anche che il modo di “fare matematica” stava cambiando. Nei capitoli 2 e 3, si parla dei moltissimi matematici che, senza rendersene conto, utilizzarono l’assioma di scelta nei loro lavori; tra questi anche Cantor che appellandosi alla banalità delle dimostrazioni, evitava spesso di chiarire le situazioni in cui era richiesta questa particolare assunzione. Il capitolo 2 è dedicato ad un caso notevole e rilevante dell’uso inconsapevole dell’Assioma, di cui per la prima volta si accorse R. Bettazzi nel 1892: l’equivalenza delle due nozioni di finito, quella di Dedekind e quella “naturale”. La prima parte di questa tesi si conclude con la dimostrazione di Zermelo del teorema del buon ordinamento e con un’analisi della sua assiomatizzazione della teoria degli insiemi. La seconda parte si apre con il capitolo 5 in cui si parla dell’intenso dibattito sulla dimostrazione di Zermelo e sulla possibilità o meno di accettare il suo Assioma, che coinvolse i matematici di tutta Europa. In quel contesto l’assioma di scelta trovò per lo più oppositori che si appellavano ad alcune sue conseguenze apparentemente paradossali. Queste conseguenze, insieme alle molte importanti, sono analizzate nel capitolo 6. Nell’ultimo capitolo vengono riportate alcune tra le molte equivalenze dell’assioma di scelta con altri enunciati importanti come quello della tricotomia dei cardinali. Ci si sofferma poi sulle conseguenze dell’Assioma e sulla sua influenza sulla matematica del Novecento, quindi sulle formulazioni alternative o su quelle più deboli come l’assioma delle scelte dipendenti e quello delle scelte numerabili. Si conclude con gli importanti risultati, dovuti a Godel e a Cohen sull’indipendenza e sulla consistenza dell’assioma di scelta nell’ambito della teoria degli insiemi di Zermelo-Fraenkel.
Resumo:
In my work I derive closed-form pricing formulas for volatility based options by suitably approximating the volatility process risk-neutral density function. I exploit and adapt the idea, which stands behind popular techniques already employed in the context of equity options such as Edgeworth and Gram-Charlier expansions, of approximating the underlying process as a sum of some particular polynomials weighted by a kernel, which is typically a Gaussian distribution. I propose instead a Gamma kernel to adapt the methodology to the context of volatility options. VIX vanilla options closed-form pricing formulas are derived and their accuracy is tested for the Heston model (1993) as well as for the jump-diffusion SVJJ model proposed by Duffie et al. (2000).
Resumo:
Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.
Resumo:
Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda USL della Romagna, Presidio Ospedaliero di Ravenna e consiste nella validazione del dato dosimetrico visualizzato su due apparecchiature per mammografia digitale e nel confronto tra qualità immagine di diverse curve di acquisizione in funzione della dose e della post-elaborazione. Presupposto per l’acquisizione delle immagini è stata la validazione del dato dosimetrico visualizzato sui mammografi, tramite misura diretta della dose in ingresso con strumentazione idonea, secondo protocolli standard e linee guida europee. A seguire, sono state effettuate prove di acquisizione delle immagini radiografiche su due diversi fantocci, contenenti inserti a diverso contrasto e risoluzione, ottenute in corrispondenza di tre curve dosimetriche e in funzione dei due livelli di post-elaborazione delle immagini grezze. Una volta verificati i vari passaggi si è proceduto con l’analisi qualitativa e quantitativa sulle immagini prodotte: la prima valutazione è stata eseguita su monitor di refertazione mammografica, mentre la seconda è stata effettuata calcolando il contrasto in relazione alla dose ghiandolare media. In particolare è stato studiato l’andamento del contrasto cambiando le modalità del software Premium View e lo spessore interposto tra la sorgente di raggi X ed il fantoccio, in modo da simulare mammelle con grandezze differenti.
Resumo:
In questo lavoro di tesi sono state evidenziate alcune problematiche relative alle macchine exascale (sistemi che sviluppano un exaflops di Potenza di calcolo) e all'evoluzione dei software che saranno eseguiti su questi sistemi, prendendo in esame principalmente la necessità del loro sviluppo, in quanto indispensabili per lo studio di problemi scientifici e tecnologici di più grandi dimensioni, con particolare attenzione alla Material Science, che è uno dei campi che ha avuto maggiori sviluppi grazie all'utilizzo di supercomputer, ed ad uno dei codici HPC più utilizzati in questo contesto: Quantum ESPRESSO. Dal punto di vista del software sono state presentate le prime misure di efficienza energetica su architettura ibrida grazie al prototipo di cluster EURORA sul software Quantum ESPRESSO. Queste misure sono le prime ad essere state pubblicate nel contesto software per la Material Science e serviranno come baseline per future ottimizzazioni basate sull'efficienza energetica. Nelle macchine exascale infatti uno dei requisiti per l'accesso sarà la capacità di essere energeticamente efficiente, così come oggi è un requisito la scalabilità del codice. Un altro aspetto molto importante, riguardante le macchine exascale, è la riduzione del numero di comunicazioni che riduce il costo energetico dell'algoritmo parallelo, poiché in questi nuovi sistemi costerà di più, da un punto di vista energetico, spostare i dati che calcolarli. Per tale motivo in questo lavoro sono state esposte una strategia, e la relativa implementazione, per aumentare la località dei dati in uno degli algoritmi più dispendiosi, dal punto di vista computazionale, in Quantum ESPRESSO: Fast Fourier Transform (FFT). Per portare i software attuali su una macchina exascale bisogna iniziare a testare la robustezza di tali software e i loro workflow su test case che stressino al massimo le macchine attualmente a disposizione. In questa tesi per testare il flusso di lavoro di Quantum ESPRESSO e WanT, un software per calcolo di trasporto, è stato caratterizzato un sistema scientificamente rilevante costituito da un cristallo di PDI - FCN2 che viene utilizzato per la costruzione di transistor organici OFET. Infine è stato simulato un dispositivo ideale costituito da due elettrodi in oro con al centro una singola molecola organica.
Resumo:
La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.
Resumo:
La tesi fornisce una chiave di lettura del rapporto che si instaura tra la biologia e la matematica, nello specificio nell'analisi della Teoria dell'Evoluzione proposta da Charles Darwin e del processo di Selezione Naturale attraverso l'utilizzo di modelli matematici forniti dalla Teoria dei giochi e la Teoria dei giochi Evolutivi.
Resumo:
Il seguente lavoro di tesi si è concentrato sull'analisi statistica dei dati prodotti dall'imaging di risonanza magnetica di pazienti affetti da tumori di alto grado, in particolare glioblastoma multiforme. Le tipologie di acquisizione d'immagine utilizzate sono state l'imaging pesato in T1 e il Diffusion-Weighted Imaging (DWI). Lo studio è stato suddiviso in due fasi: nella prima è stato considerato un campione di pazienti affetti da glioblastoma multiforme che, dopo il trattamento, avessero manifestato una ricaduta della malattia; per questi pazienti è stato quantificato in che modo la dose erogata durante la terapia si sia distribuita sul target del trattamento, in particolare nella porzione di tessuto in cui andrà a svilupparsi la recidiva. Nella seconda fase, è stato selezionato un campione più ristretto che disponesse, per entrambe le modalità di imaging, di un'acquisizione pre-terapia e di un numero sufficiente di esami di follow up; questo al fine di seguire retrospettivamente l'evoluzione della patologia e analizzare tramite metodi statistici provenienti anche dalla texture analysis, i dati estratti dalle regioni tumorali. Entrambe le operazioni sono state svolte tramite la realizzazione di software dedicati, scritti in linguaggio Matlab. Nel primo capitolo vengono fornite le informazioni di base relative ai tumori cerebrali, con un'attenzione particolare al glioblastoma multiforme e alle sue modalità di trattamento. Nel secondo capitolo viene fatta una panoramica della fisica dell'imaging di risonanza magnetica e delle tecniche di formazione delle immagini, con un'ampia sezione è dedicata all'approfondimento dell'imaging in diffusione. Nel terzo capitolo viene descritto il progetto, i campioni e gli strumenti statistici e di texture analysis utilizzati in questo studio. Il quarto capitolo è dedicato alla descrizione puntuale dei software realizzati durante questo lavoro e nel quinto vengono mostrati i risultati ottenuti dall'applicazione di questi ultimi ai campioni di pazienti esaminati.
Resumo:
Nell'ambito della Fisica Medica, le simulazioni Monte Carlo sono uno strumento sempre più diffuso grazie alla potenza di calcolo dei moderni calcolatori, sia nell'ambito diagnostico sia in terapia. Attualmente sono disponibili numerosi pacchetti di simulazione Monte Carlo di carattere "general purpose", tra cui Geant4. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico "S.Orsola-Malpighi", è basato sulla realizzazione, utilizzando Geant4, di un modello Monte Carlo del target del ciclotrone GE-PETtrace per la produzione di C-11. Nel modello sono stati simulati i principali elementi caratterizzanti il target ed il fascio di protoni accelerato dal ciclotrone. Per la validazione del modello sono stati valutati diversi parametri fisici, tra i quali il range medio dei protoni nell'azoto ad alta pressione e la posizione del picco di Bragg, confrontando i risultati con quelli forniti da SRIM. La resa a saturazione relativa alla produzione di C-11 è stata confrontata sia con i valori forniti dal database della IAEA sia con i dati sperimentali a nostra disposizione. Il modello è stato anche utilizzato per la stima di alcuni parametri di interesse, legati, in particolare, al deterioramento dell'efficienza del target nel corso del tempo. L'inclinazione del target, rispetto alla direzione del fascio di protoni accelerati, è influenzata dal peso del corpo del target stesso e dalla posizione in cui questo é fissato al ciclotrone. Per questo sono stati misurati sia il calo della resa della produzione di C-11, sia la percentuale di energia depositata dal fascio sulla superficie interna del target durante l'irraggiamento, al variare dell'angolo di inclinazione del target. Il modello che abbiamo sviluppato rappresenta, dunque, un importante strumento per la valutazione dei processi che avvengono durante l'irraggiamento, per la stima delle performance del target nel corso del tempo e per lo sviluppo di nuovi modelli di target.
Resumo:
Questo progetto ha confrontato gli effetti indotti da diversi tipi di radiazioni, diversa intensità delle dosi, diverso rateo di dose su sistemi cellulari differenti. In particolare sono stati seguiti due studi differenti, finalizzati all’indagine degli effetti e dei meccanismi indotti da trattamenti radioterapici su cellule in coltura. Nel primo studio -EXCALIBUR- sono stati investigati i meccanismi di induzione e trasmissione del danno a basse dosi di radiazioni, in funzione della qualità della radiazione (raggi gamma e protoni) e della dose. Cellule di glioblastoma umano (T98G) sono state irraggiate con raggi gamma e protoni a due diverse dosi (0,25 Gy e 2 Gy); in questo studio è stata valutata e analizzata la variazione di espressione genica rilevata utilizzando la tecnologia dei microarray. Per mezzo dell’analisi statistica, con due software diversi, si è osservato come nelle cellule irraggiate si attivino i geni legati alla senescenza cellulare; questo risultato è significativo, visto che potrebbe rappresentare una prospettiva terapeutica interessante per molte neoplasie. Il secondo studio –Plasma Focus- ha lo scopo di ampliare le applicazioni nel settore medicale di una sorgente radiante che produce raggi X ad altissimo rateo di dose (plasma focus). In questo studio, l’attenzione è stata posta sulla preparazione dei campioni biologici per l’irraggiamento. Cellule di adenocarcinoma mammario (MCF7) sono state coltivate in laboratorio e posizionate all’interno di appositi portacampioni pronte per essere irraggiate con raggi X ad alto e a basso rateo di dose. Per mezzo della microscopia ottica e della citometria a flusso in fluorescenza, si è osservato come un rateo di dose elevato provochi danni cellulari superiori. L’analisi quantitativa ha mostrato che, nelle cellule trattate con il plasma focus, il 18% risulti danneggiato rispetto al 7% delle cellule di controllo; con i raggi X convenzionali risulta danneggiato l'8% di cellule, rispetto al 3% delle cellule di controllo.
Resumo:
I processori multi core stanno cambiando lo sviluppo dei software in tutti i settori dell'informatica poiché offrono prestazioni più elevate con un consumo energetico più basso. Abbiamo quindi la possibilità di una computazione realmente parallela, distribuita tra i diversi core del processore. Uno standard per la programmazione multithreading è sicuramente OpenMP, il quale si propone di fornire direttive semplici e chiare per lo sviluppo di programmi su sistemi a memoria condivisa, fornendo un controllo completo sulla parallelizzazione. Nella fisica moderna spesso vengono utilizzate simulazioni al computer di sistemi con alti livelli di complessità computazionale. Si ottimizzerà un software che utilizza l'algoritmo DMRG (Density Matrix Renormalization Group), un algoritmo che consente di studiare reticoli lineari di sistemi a molti corpi, al fine di renderlo più veloce nei calcoli cercando di sfruttare al meglio i core del processore. Per fare ciò verrà utilizzata l'API OpenMP, che ci permetterà in modo poco invasivo di parallelizzare l'algoritmo rendendo così più veloce l'esecuzione su architetture multi core.