688 resultados para trasformata di Fourier formule di valutazione modello Black-Scholes e Merton


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell'ambito dei motori ad accensione comandata, la comprensione del processo di accensione e delle prime fasi di sviluppo del kernel è di primaria importanza per lo studio dell'intero processo di combustione, dal momento che questi determinano lo sviluppo successivo del fronte di fiamma. Dal punto di vista fisico, l'accensione coinvolge un vasto numero di fenomeni di natura molto complessa, come processi di ionizzazione e passaggio di corrente nei gas: molti di questi avvengono con tempi caratteristici che ne impediscono la simulazione tramite le attuali tecniche CFD. Si rende pertanto necessario sviluppare modelli semplificati che possano descrivere correttamente il fenomeno, a fronte di tempi di calcolo brevi. In quest'ottica, il presente lavoro di tesi punta a fornire una descrizione accurata degli aspetti fisici dell'accensione, cercando di metterne in evidenza gli aspetti principali e le criticità. A questa prima parte di carattere prettamente teorico, segue la presentazione del modello di accensione sviluppato presso il DIN dell'Università di Bologna dal Prof. Bianche e dall'Ing. Falfari e la relativa implementazione tramite il nuovo codice CONVERGE CFD: la validazione è infine condotta riproducendo un caso test ben noto il letteratura, che mostrerà un buon accordo tra valori numerici e sperimentali a conferma della validità del modello.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'evoluzione dei motori ad accensione comandata, a fronte di una richiesta di mini- mizzazione delle emissioni di CO2 e la necessità di mantenere un target di potenza e guidabilità unitamente a consumi sempre inferiori, ha portato allo sviluppo di motori più piccoli a maggiore densità di potenza. Con l'introduzione dei motori downsized, le ridotte dimensioni della camera di combustione in congiunzione alla soluzione dell'iniezione diretta, hanno creato le condizioni per le quali un certo quantitativo di combustibile (e/o acqua nel caso della water injection) va ad impattare a parete interagendo con lo strato di olio lubrificante. Vista l'importanza del lubrificante nel cilindro motore e le conseguenze del suo inquinamento o trasporto sul funzionamento dello stesso, si rende necessario uno studio di dettaglio sul fenomeno dell'impatto. Il seguente lavoro di tesi consiste nello sviluppo di un modello monodimensionale per l'analisi numerica dell'interazione tra due uidi mono o multi componenti, che permetta di stimare la variazione di composizione e l'evoluzione delle grandezze ter- modinamiche del sistema binario valutando le sue possibili condizioni al contorno a seconda dell'applicazione. Ad esempio nel caso della camera di un MCI, le condizioni al contorno del sistema binario possono essere rappresentate dagli scambi con uno strato solido (rappresentativo del cilindro) da una parte e con uno strato gassoso (rappresentativo della miscela in formazione in camera) dall'altro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In campo motoristico, negli ultimi anni, la ricerca si è orientata allo studio approfondito dell'efficienza di combustione, individuandone in primo luogo i principali aspetti limitanti. Primo tra tutti la detonazione che, essendo dannosa per i componenti del motore (e in particolare quelli della camera di combustione), è adesso al centro di molti studi. L'obiettivo è di conoscerla a fondo in modo da poterne arginare gli effetti. Questa tesi si colloca in un ampio progetto volto a perseguire tale risultato. Infatti, lo studio del danno che viene indotto sui componenti della camera di combustione (i pistoni in particolare), della sua morfologia, della localizzazione prevalente e i principali parametri ai quali esso risulta correlabile, fanno parte dell'attività sperimentale esposta in questo lavoro. Essa si concentra inoltre sul degrado termico della lega dei pistoni a seguito di prove a banco sul motore, che si pongono l'obiettivo di provocare elevati livelli di detonazione e su eventuali benefici che derivano dal poterne accettare episodi di entità incipiente. A tale proposito, viene esposto e validato un modello di temperatura dei gas di scarico Real Time, tramite il quale è possibile calcolare la temperatura di essi una volta noto il punto motore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le fratture fragili del collo del femore rappresentano un grave problema sociosanitario, in via di aggravamento a causa dell’aumento dell’età media e dell’aspettativa di vita. Il verificarsi di tale evento dipende da più fattori: la frequenza con la quale si verificano cadute, la gravità delle stesse e lo stato di salute del paziente, in particolare la resistenza meccanica delle sue ossa e il suo grado di controllo neuro-motorio. Negli ultimi anni gli strumenti di analisi e stima della resistenza meccanica del femore basati su modelli agli elementi finiti hanno raggiunto un tale livello di maturità da prospettarne l’utilizzo nel contesto di “in silico trials”, ovvero la simulazione virtuale di sperimentazioni cliniche e precliniche. In questo studio si è sviluppato un modello stocastico in grado di simulare la sperimentazione clinica di nuovi trattamenti per l’osteoporosi. Questo comprende più sotto modelli in grado di simulare il processo di invecchiamento, determinare stocasticamente le cadute che si verificano in una certa popolazione in un determinato orizzonte temporale e l’entità delle forze che agiscono sul grande trocantere. In particolare, le cadute sono state generate a partire da una distribuzione di Poisson e le forze sono state stimate attraverso un modello stocastico multiscala. La tesi si è concentrata su aspetti metodologici e procedurali, nell’ottica di sviluppare un modello che permettesse agevolmente la variazione dei parametri associati alla caduta, dotato di buone robustezza ed applicabilità. È stato verificato come la discretizzazione nel dominio del tempo del rimodellamento osseo non influisca significativamente nella determinazione delle fratture; inoltre, il modello si è dimostrato capace di fornire risultati stabili in modo computazionalmente efficiente. La validazione dei risultati del modello, invece, ha dato risultati non soddisfacenti, per cui sarà necessario procedere in futuro a un’attenta calibrazione dei parametri del modello.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni, il natural language processing ha subito una forte evoluzione, principalmente dettata dai paralleli avanzamenti nell’area del deep-learning. Con dimensioni architetturali in crescita esponenziale e corpora di addestramento sempre più comprensivi, i modelli neurali sono attualmente in grado di generare testo in maniera indistinguibile da quello umano. Tuttavia, a predizioni accurate su task complessi, si contrappongono metriche frequentemente arretrate, non capaci di cogliere le sfumature semantiche o le dimensioni di valutazione richieste. Tale divario motiva ancora oggi l’adozione di una valutazione umana come metodologia standard, ma la natura pervasiva del testo sul Web rende evidente il bisogno di sistemi automatici, scalabili, ed efficienti sia sul piano dei tempi che dei costi. In questa tesi si propone un’analisi delle principali metriche allo stato dell’arte per la valutazione di modelli pre-addestrati, partendo da quelle più popolari come Rouge fino ad arrivare a quelle che a loro volta sfruttano modelli per valutare il testo. Inoltre, si introduce una nuova libreria – denominata Blanche– finalizzata a raccogliere in un unico ambiente le implementazioni dei principali contributi oggi disponibili, agevolando il loro utilizzo da parte di sviluppatori e ricercatori. Infine, si applica Blanche per una valutazione ad ampio spettro dei risultati generativi ottenuti all’interno di un reale caso di studio, incentrato sulla verbalizzazione di eventi biomedici espressi nella letteratura scientifica. Una particolare attenzione è rivolta alla gestione dell’astrattività, un aspetto sempre più cruciale e sfidante sul piano valutativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I gangli della base (BG) sono un gruppo di nuclei subcorticali che si trovano alla base del telencefalo e nella parte superiore del mesencefalo. La funzione dei BG è il controllo e la regolazione delle attività delle aree corticali motorie e premotorie in modo che i movimenti possano essere eseguiti fluidamente, ma sono coinvolti in numerosi altri processi motori e cognitivi. L’obiettivo che si pone questo lavoro di tesi è di simulare il comportamento dei BG attraverso un nuovo modello neurocomputazionale. È stato valutato il funzionamento del modello in varie condizioni, di base ed alterate, per illustrare casi standard (soggetti sani) e casi patologici (deplezione di dopamina nei pazienti Parkinson o ipermedicazione della dopamina tramite levodopa) durante un compito di probabilistic reversal learning (RL). Sono stati variati parametri di dopamina tonica e di rumore applicato ai soggetti e ai dati per simulare il modello durante il “one-choice task” presente in letteratura. I risultati raccolti indicano come il modello funzioni in maniera del tutto confrontabile con i risultati in letteratura, dimostrando la sua validità ed un utilizzo corretto dei parametri e della regola di apprendimento. Non è stato possibile dire altrettanto per seconda fase del RL, in cui la regola viene invertita: i soggetti non risultano apprendere in maniera coerente rispetto ai dati in letteratura, ma risultano restii all’individuazione del nuovo stimolo vincente. Tale risultato è da ricondursi probabilmente ad alcuni fattori: il numero di epoche utilizzate per il test sono esigue, lasciando ai soggetti poco tempo per apprendere la nuova regola; la regola di apprendimento usata nel reversal potrebbe non rappresentare la scelta migliore per rendere i soggetti più esplorativi nei confronti delle scelte proposte. Tali limiti sono spunti per futuri sviluppi del modello e del suo funzionamento, utilizzando regole di apprendimento diverse e più efficaci rispetto ai diversi contesti di azione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ventilazione meccanica è un utile strumento per far fronte a patologie respiratorie, ma per avere un risultato ottimale è necessario impostare il ventilatore in modo personalizzato, al fine di rispettare la meccanica respiratoria di ogni paziente. Per far questo si possono utilizzare modelli della meccanica respiratoria dello specifico paziente, i cui parametri devono essere identificati a partire dalla conoscenza di variabili misurabili al letto del paziente. Schranz et al. hanno proposto l’utilizzo di un nuovo metodo, il Metodo Integrale Iterativo, la cui efficacia è stata valutata confrontandone le prestazioni con quelle di altre tecniche consolidate di identificazione parametrica: regressione lineare multipla, algoritmi iterativi e metodo integrale. Tutti questi metodi sono stati applicati ad un modello viscoelastico del secondo ordine della meccanica respiratoria utilizzando sia dati simulati sia dati clinici. Da questa analisi comparata è emerso che nel caso di simulazioni prive di rumore quasi tutti i metodi sono risultati efficaci, seppur con tempi di calcolo diversi; mentre nel caso più realistico con la sovrapposizione del disturbo l’affidabilità ha subito un ridimensionamento notevole in quasi tutti i casi, fatta eccezione per il metodo Simplex Search (SSM) e il Metodo Integrale Iterativo (IIM). Entrambi hanno fornito approssimazioni soddisfacenti con errori minimi, ma la prestazione di IIM è stata decisamente superiore in termini di velocità (fino a 50 volte più rapido) e di indipendenza dai parametri iniziali. Il metodo SSM, infatti, per dare buoni risultati necessita di una stima iniziale dei parametri, dalla quale far partire l’iterazione. Data la sua natura iterativa, IIM ha invece dimostrato di poter arrivare a valori realistici dei parametri anche in caso di condizioni iniziali addirittura fuori dal range fisiologico. Per questo motivo il Metodo IIM si pone come un utile strumento di supporto alla ventilazione meccanica controllata.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con le crescenti esigenze di personalizzazione, la capacità di prevedere con precisione la domanda di un numero sempre maggiore di prodotti è diventata una delle caratteristiche fondamentali che l’azienda manufatturiera moderna deve possedere. L’esigenza dunque di fornire una gamma di prodotti sempre più vasta, contenendo i costi associati alla realizzazione e alla giacenza dei prodotti finiti e contemporaneamente riducendo al minimo i tempi di risposta alla domanda, non viene pienamente soddisfatta da nessuna delle due politiche produttive che rappresentano i due approcci più classici, ossia le due strategie Make-To-Stock (MTS) e Make-To-Order (MTO). Per rispondere a questa esigenza di personalizzazione è stata proposta un’ulteriore politica produttiva nota come Delayed Product Differentiation (DPD) basata sul concetto delle piattaforme di prodotto, ossia delle strutture comuni a più prodotti diversi che, tramite l’aggiunta dei componenti, permettono di ottenere la gamma di prodotti finali richiesti. Il seguente lavoro di tesi si pone lo scopo di studiare, tramite un algoritmo ideato e sviluppato con l’ausilio del linguaggio di programmazione di Matlab, il caso di un sistema che già adotta l’approccio DPD per riuscire a trovare una soluzione al problema di estendere il catalogo iniziale degli articoli presenti, avendo una lista di prodotti nuovi da analizzare e dovendo scegliere quali aggiungere e quali invece eliminare, stabilendo come modificare le piattaforme per l’aggiunta di essi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prima parte della seguente tesi intende studiare lo stato dell’arte in ambito delle principali tecnologie di smaltimento e di recupero dei rifiuti da costruzione, per poi analizzare le metodologie di analisi del sistema di decostruzione, basate su processi di calcolo semplificati. La seconda parte si concentra invece sul confronto tra due ipotesi di intervento differenti: uno scenario di riqualificazione energetica e uno di demolizione e ricostruzione. L’obiettivo della ricerca è indagare quale dei due interventi sia il più circolare e sostenibile, dal punto di vista ambientale ed economico. Questo obiettivo si concretizza mediante lo svolgimento di una analisi LCA attraverso l’utilizzo del software OneClick LCA. Il caso di studio sul quale viene svolta tale indagine consiste nella villa realizzata agli inizi del Novecento, appartenente al complesso “Corte Palazzo” sito ad Argelato (Bologna). Per lo scenario di demolizione, dopo una prima analisi iniziale delle tecniche circolari da poter applicare più adeguate al contesto esistente, è stato sviluppato un progetto che rispettasse le stesse caratteristiche dimensionali (in termini di sagoma) e le stesse prestazioni dell’involucro (in termini di trasmittanza termica) dell’edificio riqualificato. Il metodo di analisi proposto, reiterabile e proposto ad altri casi di studio, eventualmente implementato per includere tutti i materiali che compongono il sistema costruttivo e non soltanto quelli dell’involucro, rappresenta un efficace strumento di valutazione dell’impatto ambientale ed economico degli interventi, per consentire ai progettisti e ai committenti di compiere scelte più consapevoli.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo di questo progetto di tesi è la realizzazione di un modello per la gestione termica di un veicolo elettrico a batteria: l’elettrificazione in ambito automotive richiede un approfondito studio delle problematiche termiche allo scopo di incrementare l’efficienza del veicolo, le performance e la vita della batteria. In particolare, l’oggetto di ricerca consiste nella modellazione di una pompa di calore. Partendo dalla definizione dei requisiti e degli obiettivi del sistema di gestione termica, ogni componente della pompa di calore viene analizzato modellato e connesso all’intero sistema. La modellazione è stata affrontata mediante l’utilizzo dell’ambiente MATLAB/Simulink. Il primo passo è stato avanzato nell’analisi del ciclo termodinamico ideale, analizzando il comportamento di vari fluidi frigorigeni, la funzionalità dei singoli componenti e l’interazione di quest’ultimi al variare delle condizioni di funzionamento, principalmente potenze scambiate, pressioni, temperature e portata massica di refrigerante. Il principale lavoro di simulazione è legato alla realizzazione di un modello configurabile dell’intero apparato di gestione termica della batteria per un veicolo elettrico. Per mezzo dello studio delle relazioni termodinamiche dei componenti principali del ciclo frigorifero sono state valutate tutte le grandezze che variano durante le trasformazioni che compie il fluido refrigerante all’interno del ciclo frigorifero. L’attività di validazione del modello implementato è stata svolta mediante il confronto tra le condizioni del fluido refrigerante determinate mediante le relazioni termodinamiche e quelle ottenute valutando le trasformazioni sui diagrammi di stato dei fluidi frigorigeni trattati. Il modello implementato è da ritenersi primordiale nel contesto legato alla modellazione e controllo dei sistemi di gestione termica per i sistemi propulsivi dei veicoli elettrici a batteria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una delle principali sfide odierne è la volontà di ridurre l’impatto ambientale, causato dalle attività umane, riducendo le emissioni inquinanti. Per questo motivo, negli ultimi anni, i requisiti di omologazione dei motori a combustione interna sono diventati sempre più selettivi, evidenziando la necessità di utilizzare nuove e più avanzate tecnologie. Tra le possibili alternative, le nuove tecnologie che forniscono i risultati più promettenti sono le cosiddette Low Temperature Combustions (LTC). Una di esse è la Gasoline Compression Ignition (GCI) che è caratterizzata da una combustione mediante il processo di auto-accensione di un carburante tipo benzina ed è in grado di ottenere un’elevata efficienza con ridotte emissioni inquinanti. Per poter controllare correttamente una combustione GCI, è necessario realizzare un pattern di iniezioni consecutive al fine di raggiungere le condizioni termodinamiche nel cilindro per garantire l’auto-accensione della benzina. I principali problemi dovuti alla realizzazione di un’iniezione multipla sono la generazione di onde di alta pressione nel condotto di iniezione e, nel caso di iniettori Gasoline Direct Injection (GDI) solenoidali, la magnetizzazione residua dei coil dello stesso. Sia le onde di pressione che la magnetizzazione residua comportano una variazione di massa iniettata rispetto al valore previsto. In questo elaborato è presentato un modello matematico realizzato per compensare le variazioni di massa che avvengono durante un pattern di due iniezioni consecutive in un iniettore GDI benzina ad alta pressione. Con tale modello, è possibile correggere i parametri che caratterizzano le iniezioni per introdurre il quantitativo desiderato di benzina indipendentemente dal pattern selezionato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il modello ΛCDM è l’attuale modello standard della cosmologia e descrive la presenza dell’energia oscura attraverso una costante cosmologica Λ. Nonostante i buoni fit con le osservazioni a livello di background, il modello non risulta essere simultaneamente consistente nella stima della costante di Hubble con le osservazioni ad alto redshift e quelle a basso redshift. Si presenta un modello cosmologico di quintessenza con accoppiamento, in cui si utilizza come vincolo una funzione di Hubble identica a quella del modello standard e in cui si studiano i principali parametri di interesse cosmologico per diversi possibili accoppiamenti costanti, risolvendo numericamente le equazioni del campo scalare di energia oscura e delle perturbazioni lineari del modello. Si introducono poi due possibili estensioni del modello, utilizzando come vincolo una funzione di Hubble che differisce da quella classica per una piccola deviazione nei valori a basso redshift e risolvendone il background, infine studiando nuovamente il modello con il background di ΛCDM in cui però si introduce un accoppiamento che varia nel tempo, in accordo con i vincoli derivanti dai dati della CMB.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni la competitività nei mercati è notevolmente cresciuta, la complessità dei prodotti industriali è considerevolmente aumentata e quest’ultimi devono ora essere accuratamente ottimizzati sotto ogni aspetto. I prodotti, oltre ad avere dei cicli di vita più brevi, sono soggetti a un’alta personalizzazione e a una domanda variabile. Per rimanere competitive, le aziende manifatturiere devono possedere nuovi tipi di sistemi di produzione che siano convenienti e molto reattivi a tutti questi cambiamenti del mercato, quali i Sistemi di produzione riconfigurabili (Reconfigurable Manufacturing System - RMS). La particolarità di tali sistemi risiede nella capacità di cambiare rapidamente le loro strutture hardware e software, aspetto che li renda idonei a soddisfare la produzione moderna. Oltre agli aspetti produttivi, l’attenzione odierna è incentrata anche sulle tematiche ambientali legate al risparmio energetico durante i processi produttivi, alla riduzione delle quantità di CO2 emesse e alla sostenibilità ambientale. L’obiettivo di questa tesi è quello di proporre un modello di ottimizzazione multi-obiettivo che tenga conto sia della minimizzazione del tempo complessivo necessario alla movimentazione dei prodotti e alla riconfigurazione delle macchine, e sia della minimizzazione del consumo energetico. Tale modello è stato applicato ad un caso studio realistico che ha permesso di individuare un trade-off tecnico-ambientale individuando la frontiera di Pareto con punto di ottimo (134.6 min; 9346.3 kWh) che si discosta del 57% dal valore trovato ottimizzando la funzione tempo, e dello 0.76% dal valore ottenuto ottimizzando la funzione energia.