722 resultados para Moto browniano lemma di Ito modello di Black-Scholes-Merton


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Il presente lavoro di tesi si è posto sostanzialmente due obbiettivi principali. Il primo è stato quello di valutare in maniera speditiva la vulnerabilità sismica dell’Edificio 5 - BO0960005 in uso alla polizia di stato, mediante il metodo RE.SIS.TO. Il secondo obiettivo è stato quello di validare tramite modellazione agli elementi finiti, i risultati ottenuti con la metodologia speditiva. In particolare è stato confrontato il rapporto PGAc/PGAd della struttura ottenuto con l’approccio speditivo, con quello ottenuto tramite un’analisi pushover. L’Edificio 5 – BO0960005 oggetto di studio, è composto da tre unità strutturali in c.a., denominate U.S.1, U.S.2 e U.S.3, separate da giunti sismici. Gli studi effettuati successivamente, quindi, considereranno ciascuna unità strutturale indipendente dalle altre. Come precedentemente esposto, la prima parte dell’elaborato tratta la valutazione speditiva della vulnerabilità sismica, attraverso l’utilizzo della classificazione RE.SIS.TO, il quale è in grado di definire il livello di criticità del fabbricato. Nell’applicazione del metodo è stato ottenuto un livello di sicurezza, pari all’88% per l’U.S.1, al 353% per l’U.S.2 e al 109% per l’U.S.3. La seconda parte della tesi è incentrata sull’implementazione dell’analisi pushover di tipo “cerniere concentrate” su un modello agli elementi finiti realizzato attraverso il software commerciale MidasGen. Essendo i risultati delle analisi PO una serie di curve di capacità, al fine di effettuare il confronto finale, si ha che in questo formato risulta impossibile ottenere una stima della PGA che porta a collasso la struttura. Per stimare da tale grandezza è stato utilizzato il Capacity Spectrum Method (CSM). Nell’ultima parte dell’elaborato vengono confrontati i valori di livelli di sicurezza ottenuti dalle due metodologie, dai quali si è potuta accertare la buona approssimazione della metodologia speditiva RE.SIS.TO nell’ambito della valutazione di vulnerabilità sismica.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Un'anomalia della curva di luce di un evento di microlensing può indicare la presenza di una lente composta da un sistema stella-pianeta. Quindi questo effetto si può utilizzare come tecnica per la ricerca di esopianeti. Partendo dallo studio teorico dei fondamenti del lensing gravitazionale e del microlensing, la tesi di laurea presentata include il lavoro di analisi svolto durante il tirocinio curriculare. Lo scopo di questo lavoro è stato sviluppare un modello per la curva di luce dell'evento OB171226 rilevato nel 2017 dai dati di quattro telescopi terrestri (OGLE e KMTNet) ed uno spaziale (Spitzer), grazie al quale si è visto come questo probabilmente non sia un sistema di tipo planetario ma composto da due stelle compagne di diversa massa. Questa evento era già stato studiato ma lo sviluppo ulteriore fatto è stato modellizzarlo considerando anche il moto orbitale dei due corpi e l'effetto di parallasse da satellite per i dati spaziali.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Questo lavoro di tesi contribuisce allo sviluppo di una metodologia in silico, che può essere utilizzata sia come strumento clinico per la predizione del rischio di frattura, sia come strumento per la valutazione dell’efficacia di trattamenti farmacologici. Lo scopo di questo lavoro è di validare un modello di progressione dell’osteoporosi utilizzando dati clinici prospettici. Per fare ciò, è stata utilizzata una procedura già precedentemente validata da Bhattacharya et al. su una coorte retrospettica di Sheffield, con validazione effettuata unicamente per l’ARF0. In questo lavoro di tesi è stata intergata una legge di invecchiamento dell’osso e predetto il carico di rottura del femore ed il rischio di frattura fino a cinque anni successivi all’esecuzione della CT (ARF5). I risultati ottenuti sono poi stati confrontati con i dati reali, ovvero con le reali fratture che sono avvenute o meno nei pazienti reali oggetto dello studio. La validazione su una coorte prospettica ha evidenziato una discriminazione tra fratturati e non fratturati migliore rispetto a quella trovata per la coorte retrospettica. Tuttavia, l’ARF5 e l’ARF0, sui trentaquattro soggetti considerati, hanno delle prestazioni confrontabili.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

I gangli della base (BG) sono un gruppo di nuclei subcorticali che si trovano alla base del telencefalo e nella parte superiore del mesencefalo. La funzione dei BG è il controllo e la regolazione delle attività delle aree corticali motorie e premotorie in modo che i movimenti possano essere eseguiti fluidamente, ma sono coinvolti in numerosi altri processi motori e cognitivi. L’obiettivo che si pone questo lavoro di tesi è di simulare il comportamento dei BG attraverso un nuovo modello neurocomputazionale. È stato valutato il funzionamento del modello in varie condizioni, di base ed alterate, per illustrare casi standard (soggetti sani) e casi patologici (deplezione di dopamina nei pazienti Parkinson o ipermedicazione della dopamina tramite levodopa) durante un compito di probabilistic reversal learning (RL). Sono stati variati parametri di dopamina tonica e di rumore applicato ai soggetti e ai dati per simulare il modello durante il “one-choice task” presente in letteratura. I risultati raccolti indicano come il modello funzioni in maniera del tutto confrontabile con i risultati in letteratura, dimostrando la sua validità ed un utilizzo corretto dei parametri e della regola di apprendimento. Non è stato possibile dire altrettanto per seconda fase del RL, in cui la regola viene invertita: i soggetti non risultano apprendere in maniera coerente rispetto ai dati in letteratura, ma risultano restii all’individuazione del nuovo stimolo vincente. Tale risultato è da ricondursi probabilmente ad alcuni fattori: il numero di epoche utilizzate per il test sono esigue, lasciando ai soggetti poco tempo per apprendere la nuova regola; la regola di apprendimento usata nel reversal potrebbe non rappresentare la scelta migliore per rendere i soggetti più esplorativi nei confronti delle scelte proposte. Tali limiti sono spunti per futuri sviluppi del modello e del suo funzionamento, utilizzando regole di apprendimento diverse e più efficaci rispetto ai diversi contesti di azione.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La ventilazione meccanica è un utile strumento per far fronte a patologie respiratorie, ma per avere un risultato ottimale è necessario impostare il ventilatore in modo personalizzato, al fine di rispettare la meccanica respiratoria di ogni paziente. Per far questo si possono utilizzare modelli della meccanica respiratoria dello specifico paziente, i cui parametri devono essere identificati a partire dalla conoscenza di variabili misurabili al letto del paziente. Schranz et al. hanno proposto l’utilizzo di un nuovo metodo, il Metodo Integrale Iterativo, la cui efficacia è stata valutata confrontandone le prestazioni con quelle di altre tecniche consolidate di identificazione parametrica: regressione lineare multipla, algoritmi iterativi e metodo integrale. Tutti questi metodi sono stati applicati ad un modello viscoelastico del secondo ordine della meccanica respiratoria utilizzando sia dati simulati sia dati clinici. Da questa analisi comparata è emerso che nel caso di simulazioni prive di rumore quasi tutti i metodi sono risultati efficaci, seppur con tempi di calcolo diversi; mentre nel caso più realistico con la sovrapposizione del disturbo l’affidabilità ha subito un ridimensionamento notevole in quasi tutti i casi, fatta eccezione per il metodo Simplex Search (SSM) e il Metodo Integrale Iterativo (IIM). Entrambi hanno fornito approssimazioni soddisfacenti con errori minimi, ma la prestazione di IIM è stata decisamente superiore in termini di velocità (fino a 50 volte più rapido) e di indipendenza dai parametri iniziali. Il metodo SSM, infatti, per dare buoni risultati necessita di una stima iniziale dei parametri, dalla quale far partire l’iterazione. Data la sua natura iterativa, IIM ha invece dimostrato di poter arrivare a valori realistici dei parametri anche in caso di condizioni iniziali addirittura fuori dal range fisiologico. Per questo motivo il Metodo IIM si pone come un utile strumento di supporto alla ventilazione meccanica controllata.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Questa tesi tratterà principalmente la fase di studio preliminare e successivamente la progettazione del retrotreno di una moto supersportiva. Il lavoro centrale della tesi si è focalizzato quindi sul forcellone posteriore di questa nuova motocicletta. È stato dunque indispensabile valutare, definire e progettare anche altri componenti meccanici ad esso collegati come ad esempio lo schema sospensivo posteriore e l’ingombro dell’impianto di scarico. Alla base di questo progetto c’è la volontà di creare una moto supersportiva con cilindrata pari a 1000 cm3 e capace di erogare oltre 200 cv che possa essere venduta nel mercato europeo ad un prezzo concorrenziale. Per tale scopo sono state prese in considerazione e successivamente studiate in modo molto approfondito motociclette già in commercio capaci di rispettare tali vincoli progettuali. L’evoluzione naturale di tale studio si è fondata sulla valutazione delle diverse scelte progettuali e le diverse metodologie di produzione. Le motociclette sono state scansionate per intero per valutarne le geometrie fondamentali e successivamente è stato creato un modello dei componenti passando da una valutazione preliminare degli ingombri fino ad ottenere dei veri e propri componenti realizzabili attraverso le diverse tecnologie. Il componente è stato simulato attraverso analisi FEM seguendo una procedura standard all’interno dell’azienda che ha permesso di evidenziare le geometrie critiche che successivamente sono state migliorate alla luce di tali risultati. Per ottenere un buon prodotto a livello di leggerezza e proprietà meccaniche si è scelto come materiale la lega di alluminio da fonderia che in futuro sarà anche utilizzata per la produzione di serie. Questo processo produttivo è funzionale per ridurre i costi in fase di realizzazione per una produzione in serie ed un altro importante vantaggio è dato dal fatto che in questo modo si possono evitare spiacevoli fenomeni legati alla saldatura dell’alluminio.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Con le crescenti esigenze di personalizzazione, la capacità di prevedere con precisione la domanda di un numero sempre maggiore di prodotti è diventata una delle caratteristiche fondamentali che l’azienda manufatturiera moderna deve possedere. L’esigenza dunque di fornire una gamma di prodotti sempre più vasta, contenendo i costi associati alla realizzazione e alla giacenza dei prodotti finiti e contemporaneamente riducendo al minimo i tempi di risposta alla domanda, non viene pienamente soddisfatta da nessuna delle due politiche produttive che rappresentano i due approcci più classici, ossia le due strategie Make-To-Stock (MTS) e Make-To-Order (MTO). Per rispondere a questa esigenza di personalizzazione è stata proposta un’ulteriore politica produttiva nota come Delayed Product Differentiation (DPD) basata sul concetto delle piattaforme di prodotto, ossia delle strutture comuni a più prodotti diversi che, tramite l’aggiunta dei componenti, permettono di ottenere la gamma di prodotti finali richiesti. Il seguente lavoro di tesi si pone lo scopo di studiare, tramite un algoritmo ideato e sviluppato con l’ausilio del linguaggio di programmazione di Matlab, il caso di un sistema che già adotta l’approccio DPD per riuscire a trovare una soluzione al problema di estendere il catalogo iniziale degli articoli presenti, avendo una lista di prodotti nuovi da analizzare e dovendo scegliere quali aggiungere e quali invece eliminare, stabilendo come modificare le piattaforme per l’aggiunta di essi.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Negli ultimi decenni sempre più attenzione è stata posta sugli effetti derivanti dalla produzione dell'energia. In particolare, emissioni di specie inquinanti e gas serra sono state oggetto di continue limitazioni al fine di raggiungere soluzioni energetiche sempre meno climalteranti. Ciò ha evidenziato la necessità di sviluppare nuove soluzioni inerenti alla mobilità sostenibile. Tra le possibili soluzioni, l'utilizzo di idrogeno rappresenta una delle più promettenti grazie alle proprietà chimiche che lo contraddistinguono. L'impiego di tale elemento come combustibile in un tradizionale motore a combustione interna propriamente convertito garantirebbe la possibilità di una transizione energetica progressiva grazie all'utilizzo di una tecnologia già ampiamente consolidata e avanzata. Questo lavoro si concentra sullo sviluppo di un modello 1D di un motore a combustione interna alimentato ad idrogeno per studiarne le potenzialità. Al fine di ottenere dati attendibili, si è sviluppato e validato un modello su un motore noto di cui i dati in benzina erano disponibili. Successivamente, tale modello è stato convertito all'utilizzo di idrogeno. Completata la conversione sono state svolte svariate prove al variare dei principali parametri motoristici quali: lambda, anticipo d'accensione, giri, carico. Il modello sviluppato ha mostrato risultati comparabili con i dati attualmente disponibili in letteratura al variare delle diverse condizioni operative. In particolare, alte efficienze e basse emissioni sono garantite da combustioni magre, tuttavia alti carichi non possono essere raggiunti per limiti derivanti dal gruppo di sovralimentazione. Sono stati ottenuti promettenti risultati che incoraggiano uno sviluppo avanzato del modello, con l’obbiettivo futuro di effettuare esperimenti con l’idrogeno su un motore reale.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Obiettivo di questo progetto di tesi è la realizzazione di un modello per la gestione termica di un veicolo elettrico a batteria: l’elettrificazione in ambito automotive richiede un approfondito studio delle problematiche termiche allo scopo di incrementare l’efficienza del veicolo, le performance e la vita della batteria. In particolare, l’oggetto di ricerca consiste nella modellazione di una pompa di calore. Partendo dalla definizione dei requisiti e degli obiettivi del sistema di gestione termica, ogni componente della pompa di calore viene analizzato modellato e connesso all’intero sistema. La modellazione è stata affrontata mediante l’utilizzo dell’ambiente MATLAB/Simulink. Il primo passo è stato avanzato nell’analisi del ciclo termodinamico ideale, analizzando il comportamento di vari fluidi frigorigeni, la funzionalità dei singoli componenti e l’interazione di quest’ultimi al variare delle condizioni di funzionamento, principalmente potenze scambiate, pressioni, temperature e portata massica di refrigerante. Il principale lavoro di simulazione è legato alla realizzazione di un modello configurabile dell’intero apparato di gestione termica della batteria per un veicolo elettrico. Per mezzo dello studio delle relazioni termodinamiche dei componenti principali del ciclo frigorifero sono state valutate tutte le grandezze che variano durante le trasformazioni che compie il fluido refrigerante all’interno del ciclo frigorifero. L’attività di validazione del modello implementato è stata svolta mediante il confronto tra le condizioni del fluido refrigerante determinate mediante le relazioni termodinamiche e quelle ottenute valutando le trasformazioni sui diagrammi di stato dei fluidi frigorigeni trattati. Il modello implementato è da ritenersi primordiale nel contesto legato alla modellazione e controllo dei sistemi di gestione termica per i sistemi propulsivi dei veicoli elettrici a batteria.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Una delle principali sfide odierne è la volontà di ridurre l’impatto ambientale, causato dalle attività umane, riducendo le emissioni inquinanti. Per questo motivo, negli ultimi anni, i requisiti di omologazione dei motori a combustione interna sono diventati sempre più selettivi, evidenziando la necessità di utilizzare nuove e più avanzate tecnologie. Tra le possibili alternative, le nuove tecnologie che forniscono i risultati più promettenti sono le cosiddette Low Temperature Combustions (LTC). Una di esse è la Gasoline Compression Ignition (GCI) che è caratterizzata da una combustione mediante il processo di auto-accensione di un carburante tipo benzina ed è in grado di ottenere un’elevata efficienza con ridotte emissioni inquinanti. Per poter controllare correttamente una combustione GCI, è necessario realizzare un pattern di iniezioni consecutive al fine di raggiungere le condizioni termodinamiche nel cilindro per garantire l’auto-accensione della benzina. I principali problemi dovuti alla realizzazione di un’iniezione multipla sono la generazione di onde di alta pressione nel condotto di iniezione e, nel caso di iniettori Gasoline Direct Injection (GDI) solenoidali, la magnetizzazione residua dei coil dello stesso. Sia le onde di pressione che la magnetizzazione residua comportano una variazione di massa iniettata rispetto al valore previsto. In questo elaborato è presentato un modello matematico realizzato per compensare le variazioni di massa che avvengono durante un pattern di due iniezioni consecutive in un iniettore GDI benzina ad alta pressione. Con tale modello, è possibile correggere i parametri che caratterizzano le iniezioni per introdurre il quantitativo desiderato di benzina indipendentemente dal pattern selezionato.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Historia magistra vitae, scriveva Cicerone nel De Oratore; il passato deve insegnare a comprendere meglio il futuro. Un concetto che a primo acchito può sembrare confinato nell'ambito della filosofia e della letteratura, ma che ha invece applicazioni matematiche e fisiche di estrema importanza. Esistono delle tecniche che permettono, conoscendo il passato, di effettuare delle migliori stime del futuro? Esistono dei metodi che permettono, conoscendo il presente, di aggiornare le stime effettuate nel passato? Nel presente elaborato viene illustrato come argomento centrale il filtro di Kalman, un algoritmo ricorsivo che, dato un set di misure di una certa grandezza fino al tempo t, permette di calcolare il valore atteso di tale grandezza al tempo t+1, oltre alla varianza della relativa distribuzione prevista; permette poi, una volta effettuata la t+1-esima misura, di aggiornare di conseguenza valore atteso e varianza della distribuzione dei valori della grandezza in esame. Si è quindi applicato questo algoritmo, testandone l'efficacia, prima a dei casi fisici, quali il moto rettilineo uniforme, il moto uniformemente accelerato, l'approssimazione delle leggi orarie del moto e l'oscillatore armonico; poi, introducendo la teoria di Kendall conosciuta come ipotesi di random walk e costruendo un modello di asset pricing basato sui processi di Wiener, si è applicato il filtro di Kalman a delle serie storiche di rendimenti di strumenti di borsa per osservare se questi si muovessero effettivamente secondo un modello di random walk e per prevedere il valore al tempo finale dei titoli.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le criticità sorte in seguito alla diffusione della Pandemia da Covid-19, a partire dal 2020, sono numerose. In tal senso, all’interno della logistica, rivestono un ruolo molto rilevante i numerosi ritardi nelle consegne, che trovano maggiore evidenza nelle spedizioni via mare. Pertanto, l’adozione di strategie volte ad aumentare la resilienza delle catene di approvvigionamento, rendendole in grado di resistere alle criticità del presente e alle possibili evoluzioni del futuro, diventa sempre più importante. L’obiettivo del presente studio è l’individuazione di una strategia che permetta di rispondere alle criticità legate ai ritardi nelle consegne dei materiali, per ridurre i problemi da essi causati. L’azienda in cui questo studio è stato svolto è la Ducati Motor Holding S.p.A., produttrice di motocicli. Infatti, nelle aziende manifatturiere, il ritardo nell’arrivo dei componenti determina delle conseguenze nella produzione ed eventuali ritardi nella consegna del prodotto finito. Per fronteggiare queste difficoltà, il metodo individuato consiste nell’analisi dei dati storici relativi ai ritardi rilevati e nella previsione dei ritardi futuri, utilizzando le tecniche di previsione basate sulle serie storiche. L’individuazione del numero di giorni di ritardo previsti viene utilizzata per determinare ogni mese il margine di copertura ottimale con cui effettuare gli ordini ai fornitori, in modo da evitare problemi nella produzione. Questo margine di copertura è definito dinamico, poiché non è fissato tutto l’anno per un medesimo materiale, ma varia ogni mese in base alle previsioni effettuate, garantendo così la flessibilità necessaria per rispondere alle contingenze esterne. In questo modo, riducendo i ritardi nelle consegne e, di conseguenza, i ritardi nella produzione, si ottiene un risparmio economico in termini di costi da sostenere, considerando i costi di stoccaggio e i costi di recupero delle moto incomplete.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In questo lavoro di tesi è stato approfondito il modello di coalescenza, ampiamente utilizzato in letteratura per descrivere la formazione di (anti)nuclei leggeri in collisioni ad alta energia negli acceleratori e di antinuclei cosmici, con applicazioni alle ricerche indirette di materia oscura nell’universo. Nello specifico, è stato studiato il parametro di coalescenza per (anti)nuclei con numero di massa A ≤ 4; utilizzando un fit ai dati dell’esperimento ALICE a LHC sulla dimensione della sorgente di protoni in collisioni pp a √s = 13 TeV, si è cercato di esplicitare la dipendenza del parametro di coalescenza dall’impulso trasverso. Dal confronto delle previsioni del modello così ottenuto con le misure del parametro di coalescenza raccolte da ALICE, si osserva che il parametro di coalescenza di d e 3He non segue l’andamento previsto. Questo risultato evidenzia quindi la necessità di rivedere il modello di sorgente adottato o i suoi limiti di applicazione a diversi sistemi di collisione. In vista della possibilità di implementare il meccanismo di formazione per coalescenza nei generatori Monte Carlo per la simulazione degli antinuclei, si è tentato di caratterizzare la sorgente di protoni attraverso l’utilizzo del generatore PYTHIA 8.3. In particolare, è stata effettuata un’analisi delle coordinate spaziali, della quantità di moto e del tempo di produzione dei protoni a rapidità centrale generati in 10^5 collisioni pp. I grafici ottenuti mostrano che la sorgente è sostanzialmente isotropa.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La matrice di Leslie è uno degli strumenti più utilizzati in ecologia nella dinamica delle popolazioni. Infatti a partire dallo studio dell'autovalore dominante della matrice e dell'autovettore ad esso associato è possibile prevedere l'evolversi della popolazione (sviluppo o estinzione), la convergenza di ogni classe di età e la sensibilità dell'autovalore dominante al variare delle componenti della matrice. L'obiettivo di questo elaborato è quindi quello di presentare e studiare questo modello matriciale, applicandolo a esempi di popolazioni e analizzandone le analogie con il Metodo delle Potenze.