722 resultados para Moto browniano lemma di Ito modello di Black-Scholes-Merton
Resumo:
Trattazione del metodo delle tavole semantiche come modello per la ricerca della validità logica o insoddisfacibilità di un enunciato sia proposizionale che predicativo.
Resumo:
L'elaborato illustra una serie di modelli termici, che si differenziano principalmente per la loro accuratezza e velocità di calcolo, per essere in grado di scegliere il modello più adatto da utilizzare in relazione all'applicazione prevista e alle esigenze richieste. Per una migliore comprensione del problema, vengono introdotti inizialmente alcuni concetti generali legati alle temperature in gioco nei componenti elettronici di potenza e alla trasmissione del calore, poi si passa alla determinazione della sorgente del calore (ovvero le perdite) in un modulo IGBT. Vengono quindi descritti alcuni modelli che siano in grado di rappresentare il sistema in esame dal punto di vista termico. Infine viene implementato in Simulink uno dei modelli proposti, mettendo così in pratica gran parte dei concetti esposti. Per il calcolo delle perdite, per i modelli e per la simulazione ci si è concentrati su un determinato componente elettronico di potenza per entrare nel cuore di un problema termico. È stato scelto l’IGBT perché è un dispositivo relativamente nuovo, in continuo miglioramento ed è sempre più utilizzato.
Resumo:
Descrizione della messa in operatività del simulatore di volo DC9-30, del modello matematico realizzato in ambiente Simulink e dell'implementazione di Google Earth.
Resumo:
Le reti veicolari, anche dette VANET, sono da tempo oggetto di studio. Durante il periodo di ricerca svolto presso l'Università della California Los Angeles (UCLA) è stato possibile studiare i protocolli adatti allo scambio di contenuti fra i veicoli secondo il paradigma del Named Data Networking (NDN). Il Named Data Networking rappresenta un nuovo modello di comunicazione per il reperimento dei contenuti all'interno della rete. Nelle VANET ogni veicolo è potenzialmente un fornitore di contenuti, oltre che un richiedente. L'infrastruttura di riferimento posta all'interno del campus universitario permette il reperimento di dati necessario allo studio del problema, non solo da un punto di vista pratico ma anche da un punto di vista teorico. Infatti, data la tipologia dei test e le difficoltà intrinseche che essi comportano, l'attività di simulazione svolge un ruolo importante per lo sviluppo e lo studio del protocollo all'interno delle reti veicolari. L'attività di ricerca svolta si articola nei seguenti aspetti: introduzione al nuovo paradigma di comunicazione: principi del Named Data Networking, funzionamento di NDN, reti veicolari, applicabilità di NDN alle VANET; modelli di mobilità per le reti veicolari: linee guida per la costruzione di un modello di mobilità, situazione attuale dei modelli disponibili, simulatori di rete, strumenti utilizzati e il loro funzionamento; attività di simulazione: pianificazione e implementazione di diverse tipologie di scenari di reti veicolari; analisi dei dati raccolti dalla fase precedente: vengono elaborati i dati raccolti e si cerca di catturarne gli aspetti più significativi. L'obiettivo è quello di condurre uno studio di fattibilità sull'applicazione di NDN alle reti mobili, in particolare alle reti veicolari in ambito urbano. Al momento in cui è iniziata la collaborazione con il gruppo di ricerca del Network Research Lab di UCLA, era da poco stata rilasciata la prima versione di NDN contenente l'estensione pensata per il veicolare, quindi non erano presenti in letteratura studi condotti per questo tipo di scenari. Lo scopo è quello di estrarre informazioni e ricavarne significative indicazioni sulle prestazioni del sistema.
Resumo:
Progetto SCATh allo ZHAW. Il dipartimento di meccatronica (IMS) dell'Università di scienze applicate di Winterthur (ZHAW), ha partecipato attivamente al progetto SCATh concentrandosi principalmente sullo sviluppo, il condizionamento, e la modellizzazione di un sensore di flusso che fosse facilmente applicabile e di piccole dimensioni in modo da poter essere applicato su catetere e permettere la misura diretta della grandezza fisica sopracitata. All'interno della struttura universitaria è stato possibile inizialmente analizzare il fenomeno che sta alla base del sensore, utilizzando conoscenze già presenti in dispositivi quali l'anemometria a filo caldo, che sfruttano lo scambio di calore tra sensore (riscaldato) e fluido sanguigno. La realizzazione del circuito di condizionamento è stato il passo successivo, necessario sia per mantenere il sensore ad una temperatura voluta e sia per leggere i dati di flusso mediante una tensione in uscita. Una volta effettuato ciò si è proceduto alla calibrazione del sensore (relazione tra flusso e tensione) ed infine alla trasposizione del circuito su LTspice. Nell' Introduzione (Capitolo 1) verranno presentati tutti i concetti preliminari, ossia i principi fisici, necessari a comprendere il funzionamento del sensore. Dunque dopo una breve definizione di flusso (riferito a liquidi) saranno presentati i principi di trasmissione del calore con particolare attenzione riservata alla convezione. Infine, parte dello stesso capitolo sarà dedicata ad una descrizione anatomica dell'aorta e dei rami collaterali. Successivamente nel secondo capitolo verrà analizzato, sia dal punto di vista statico che dal punto di vista dinamico, il circuito di condizionamento, ossia la circuiteria che sta a valle del sensore. Questo circuito permette al sensore di acquisire talune caratteristiche fondamentali per la misura di velocità ed inoltre consente la trasduzione da variabile fisica (velocità del flusso) a variabile elettrica (Tensione). In questo capitolo verrà inoltre fornita una descrizione delle relazioni matematiche fondamentali che legano la temperatura del sensore, la velocità del flusso e la tensione in uscita. Una descrizione del set sperimentale utilizzato per raccogliere dati sarà presente nel terzo capitolo. Qui si troverà una descrizione di tutte le attrezzature utilizzate al fine di poter testare il funzionamento del sensore. Nel quarto capitolo verranno visualizzati i risultati ottenuti facendo riferimento ai test effettuati prima su acqua e successivamente su sangue (suino). Verrà inoltre trovata la curva di calibrazione che permetterà di trovare una relazione biunivoca tra velocità del flusso e tensione in uscita. Infine, nel quinto capitolo verrà proposto un modello del circuito di condizionamento ottenuto mediante LTspice. Mediante il modello sarà possibile simulare un flusso di una velocità voluta e seguire l'andamento della tensione e della temperatura del sensore.
Resumo:
La tesi affronta il tema della neuromatematica della visione, in particolare l’integrazione di modelli geometrici di percezione visiva con tecniche di riduzione di dimensionalità. Dall’inizio del secolo scorso, la corrente ideologica della Gestalt iniziò a definire delle regole secondo le quali stimoli visivi distinti tra loro possono essere percepiti come un’unica unità percettiva, come ad esempio i principi di prossimità, somiglianza o buona continuazione. Nel tentativo di quantificare ciò che gli psicologi avevano definito in maniera qualitativa, Field, Hayes e Hess hanno descritto, attraverso esperimenti psicofisiologici, dei campi di associazione per stimoli orientati, che definiscono quali caratteristiche due segmenti dovrebbero avere per poter essere associati allo stesso gruppo percettivo. Grazie alle moderne tecniche di neuroimaging che consentono una mappatura funzionale dettagliata della corteccia visiva, è possibile giustificare su basi neurofisiologiche questi fenomeni percettivi. Ad esempio è stato osservato come neuroni sensibili ad una determinata orientazione siano preferenzialmente connessi con neuroni aventi selettività in posizione e orientazione coerenti con le regole di prossimità e buona continuazione. Partendo dal modello di campi di associazione nello spazio R^2xS^1 introdotto da Citti e Sarti, che introduce una giustificazione del completamento percettivo sulla base della funzionalità della corteccia visiva primaria (V1), è stato possibile modellare la connettività cellulare risolvendo un sistema di equazioni differenziali stocastiche. In questo modo si sono ottenute delle densità di probabilità che sono state interpretate come probabilità di connessione tra cellule semplici in V1. A queste densità di probabilità è possibile collegare direttamente il concetto di affinità tra stimoli visivi, e proprio sulla costruzione di determinate matrici di affinità si sono basati diversi metodi di riduzione di dimensionalità. La fenomenologia del grouping visivo descritta poco sopra è, di fatto, il risultato di un procedimento di riduzione di dimensionalità. I risultati ottenuti da questa analisi e gli esempi applicativi sviluppati si sono rivelati utili per comprendere più nel dettaglio la possibilità di poter riprodurre, attraverso l’analisi spettrale di matrici di affinità calcolate utilizzando i modelli geometrici di Citti-Sarti, il fenomeno percettivo di grouping nello spazio R^2xS^1.
Resumo:
L'elaborato ha avuto come obiettivo l'analisi di vulnerabilità del liceo scientifico Sabin. Tramite le informazioni ricavate dai rilievi e dalla documentazione disponibile in merito allo stabile, è stato creato un modello agli elementi finiti per compiere una serie di analisi dinamiche lineari a spettro di risposta. Tali analisi sono servite per giungere ad una stima dell'accelerazione orizzontale al suolo di collasso per la struttura. Tale valore è stato poi messo a paragone con quello ottenuto tramite la metodologia speditiva denominata "resisto".
Resumo:
Scopo della tesi è analizzare il modello di migrazione 'pre-copy' e convalidare il simulatore che lo implementa. Modificando opportunamente il codice e facendo delle prove di simulazione in diversi casi, si vogliono riprodurre i grafici che si ottengono applicando il metodo analitico per la migrazine di insiemi di macchine virtuali. Si cerca di fare chiarezza, attraverso un'analisi dettagliata delle varie opzioni, su come i vari parametri fondamentali del sistema influiscono, dal punto di vista quantitativo, sulle prestazioni del sistema stesso.
Resumo:
In questa tesi è stato trattato il problema della ricostruzione di immagini di tomografia computerizzata considerando un modello che utilizza la variazione totale come termine di regolarizzazione e la norma 1 come fidelity term (modello TV/L1). Il problema è stato risolto modificando un metodo di minimo alternato utilizzato per il deblurring e denoising di immagini affette da rumore puntuale. Il metodo è stato testato nel caso di rumore gaussiano e geometria fan beam e parallel beam. Infine vengono riportati i risultati ottenuti dalle sperimentazioni.
Resumo:
La presente tesi si inserisce nel contesto del progetto europeo Theseus, che ha l’obiettivo di pianificare strategie di difesa sostenibili nei confronti dell’erosione costiera e del rischio di inondazioni. E’ stata indagata la zona intertidale di sei spiagge della costa emiliano-romagnola, diverse per caratteristiche morfodinamiche, grado di antropizzazione e modalità di gestione contro l’erosione. Lido di Spina, Bellocchio e lido di Dante sono siti più naturali, Cervia, Cesenatico e Cesenatico sud sono antropizzati per la presenza di strutture di difesa costiera o attività di bulldozing. Lo scopo principale è stato quello di valutare la risposta della componente macrobentonica a variazioni morfodinamiche conseguenti alla differente gestione. I principali risultati possono essere così riassunti. Bellocchio, sito naturale, si è rivelato il più differente per tipologia di sedimento, fine e argilloso, e comunità presenti, con specie non tipiche delle spiagge sabbiose, quali Polydora e Mytilus galloprovincialis. Lido di Dante, anch’esso naturale, si pone all’opposto, con un sedimento più grossolano e caratterizzato sia dalla dominanza di Lentidium mediterraneum, la cui presenza evidenzia il maggiore grado di idrodinamismo del sito, sia dalle specie Scolelepis squamata ed Eurydice spinigera, tipiche delle spiagge sabbiose esposte al moto ondoso. Cervia, Cesenatico e Cesenatico sud presentano un numero di specie e di individui minore rispetto agli altri siti, come probabile conseguenza della gestione antropica, e comunità che rispecchiano le variazioni idrodinamiche dovute alla presenza di barriere. In generale, le differenze individuate sia fra le comunità che fra i descrittori sedimentari e morfodinamici, sembrano dovute alle caratteristiche peculiari dei siti e dal grado di antropizzazione piuttosto che dalla presenza di un vero e proprio gradiente morfodinamico o geografico. Questi risultati portano un contributo sostanziale alla problematica generale dell’impatto conseguente ai cambiamenti climatici e alla messa in opera di programmi di gestione sostenibili da un punto di vista anche ambientale.
Resumo:
In questo eleborato viene presentato uno studio focalizzato sull’ottimizzazione della geometria dei microcanali di un dissipatore di calore, con lo scopo di fornire una serie di relazioni operative e quindi direttamente utilizzabili per la progettazione di tali dispositivi. Alla definizione delle tradizionali funzioni obiettivo, legate ai Performance Evaluation Criteria (PEC), è stata aggiunta un’analisi dal punto di vista del secondo principio della termodinamica, per valutare l’entropia generata da un flusso fluido in un canale. Normalizzando l’entropia generata si è passati all’utilizzo di un numero di generazione entropica adimensionale e quindi più adatto alla valutazione delle prestazioni. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare. Inoltre, è stato approfondito anche il caso in cui non siano trascurabili gli effetti di dissipazione viscosa, che possono effettivamente incidere in modo determinante sullo scambio termico, soprattutto alle microscale.
Resumo:
L'esigenza di poter usufruire in clinica di uno strumento per l'analisi cinematica dell'arto superiore altamente attendibile che fornisca dati clinicamente validi e facili da interpretare e rapidamente applicabile dal personale medico competente, ha posto le basi per la realizzazione del modello che in questa tesi viene proposto. L'obiettivo è stato definire un metodo di misura per l'analisi delle traiettorie dell'arto superiore basato su un modello di markerizzazione che sia clinicamente attuabile e descriva la catena completa dell'estremità superiore interessata nel gesto di “reaching” indipendentemente dalla patologia.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
In the last years, new materials have been developed in the broad area of nanoscience. Among them, an emergent class characterized by excellent electrical conductivity properties as well as high optical transmittance in the visible region are TCOs (Transparent Conducting Oxides). Due to their versatile properties, they have found many applications in a lot of optoelectronic devices, such as solar cells, liquid crystal displays, touch-panel displays, gas sensors, to cite a few examples. Different research groups have studied and characterized the TCOs. In this context, a new synthetic method has been developed to produce FTO nanocrystals (Fluorine-doped Tin Oxide NCs) in Prof. Pinna’s lab at the Humboldt University in Berlin. FTO belongs to the TCO category, and they have been studied as a promising alternative to ITO NCs (Indium Tin Oxide) which represent the standard TCO material in terms of properties and performances. In this work, FTO NCs have been synthesized using the “benzyl alcohol route” (a non-aqueous sol-gel method) via microwave, which permits to produce FTO particles with good properties as revealed by the characterizations performed, employing a cheap, fast and clean method.
Resumo:
La sintesi di catalizzatori Rh-Al2O3 e Pt-Al2O3 è stata condotta per via elettrochimica su dei supporti con diverse geometrie (lastrine, schiume) e diversa composizione (Pt e FeCrAlY). Per l’elettrosintesi dei precursori dei catalizzatori sono state utilizzate due diversi tipi di celle elettrochimiche (a singolo comparto, nella quale il moto degli elettroliti segue un regime di tipo diffusivo, e cella in flusso a comparti separati). Per il catalizzatore Rh-Al2O3 sono stati sintetizzati i precursori composti da idrossidi di Al3+ e Rh3+. Per il catalizzatore Pt-Al2O3 sono state condotte sia delle sintesi mono-stadio di nanoparticelle di Pt sul supporto ricoperto di Al2O3 che delle sintesi cercando di inglobare le nanoparticelle di Pt in un film di idrossido di alluminio. La caratterizzazione morfologica e composizionale della superficie del supporto metallico, ha permesso di studiare l’influenza delle varie condizioni di sintesi sulla qualità del ricoprimento ottenuto tramite elettrosintesi. I migliori risultati in termini di ricoprimento del supporto e omogeneità dello strato catalitico depositato, sono stati ottenuti tramite l’utilizzo della cella in flusso e confrontando i campioni ottenuti con delle schiume ricoperte di allumina tramite washcoating, sono state osservate le principali differenze tra i due metodi. L’elettrosintesi dei precursori del catalizzatore Rh-Al2O3 ha portato ad uno scarso ricoprimento ma la fattibilità del processo è stata dimostrata tramite l’utilizzo di un elettrodo di Pt. Per il catalizzatore Pt-Al2O3, lo scarso controllo nella grandezza e distribuzione delle nanoparticelle di Pt elettrosintetizzate sulle schiume ricoperte di Al2O3 ha dimostrato l’esigenza di un metodo alternativo di sintesi. Questo prevede l’incorporazione delle nanoparticelle di Pt durante l’elettrosintesi del film di idrossido di alluminio. Utilizzando un elettrodo di Pt la fattibilità del processo è stata dimostrata, tuttavia il metodo richiede dei miglioramenti, in termini di ricoprimento e distribuzione delle particelle se condotto su schiume.