688 resultados para trasformata di Fourier formule di valutazione modello Black-Scholes e Merton
Resumo:
Valutazione degli effetti ambientali sulle caratteristiche meccaniche di materiali compositi avanzati. Laminati in fibra di carbonio e resina epossidica, sottoposti a cicli termici, sono stati analizzati per determinare le resistenze strutturali degli stessi. I valori ottenuti sono stati comparati con materiale non invecchiato.
Resumo:
In collaborazione con la sezione di Bologna dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV) si è dato il via ad un progetto mirato alla costruzione di nuove stazioni monitoranti. Stazioni che dovranno avere un basso impatto in termini di costi e consumi energetici, dando contemporaneamente la possibilità di essere pilotate a distanza. Quest’ultimo è un parametro fondamentale perché permetterebbe di interagire con la stazione anche durante il verificarsi di calamità naturali. Per giungere ad una soluzione si è quindi proceduto analizzando i possibili scenari e le soluzioni attualmente impiegate. Valutandone gli aspetti negativi e positivi. Successivamente, terminata la fase di documentazione, si è passati a vagliare le soluzioni tecnologiche attualmente disponibili sul mercato e ad assemblare un prototipo sperimentale. Non appena in possesso di una macchina sulla quale poter effettuare tutte le prove necessarie si è passati alla fase successiva. L’implementazione di test che potessero rappresentare al meglio una situazione reale. Da qui si è giunti ad una conclusione, tenendo in considerazione diversi fattori: le condizioni imposte dall’ambiente durante le operazioni di test ed i risultati ottenuti.
Resumo:
In questo progetto di tesi saranno applicate tecniche appartenenti al campo della bioingegneria, indirizzate al riconoscimento delle attività motorie e all’analisi del movimento umano. E' stato definito un protocollo di ricerca necessario per il raggiungimento degli obiettivi finali. Si è quindi implementata un’App Android per l’acquisizione e il salvataggio dei dati provenienti dai principali sensori di Smartwatch e Smartphone, utilizzati secondo le modalità indicate nel protocollo. Successivamente i dati immagazzinati nei dispositivi vengono trasferiti al Pc per effettuarne l’elaborazione off-line, in ambiente Matlab. Per facilitare la seguente procedura di sincronizzazione dei dati intra e inter-device, tutti i sensori sono stati salvati, dall’App Android, secondo uno schema logico definito. Si è perciò verificata la possibilità del riconoscimento del contesto e dell’attività nell’uso quotidiano dei dispositivi. Inoltre si è sviluppato un algoritmo per la corretta identificazione del numero dei passi, indipendentemente dall’orientamento del singolo dispositivo. Infatti è importante saper rilevare in maniera corretta il numero di passi effettuati, soprattutto nei pazienti che, a causa di diverse patologie, non riescono ad effettuare una camminata fluida, regolare. Si è visto come il contapassi integrato nei sistemi commerciali per il fitness più diffusi (Smartwatch), pecca soprattutto in questa valutazione, mentre l’algoritmo, appositamente sviluppato, è in grado di garantire un’analisi accettabile a prescindere dal tipo di attività svolta, soprattutto per i dispositivi posizionati in L5. Infine è stato implementato un algoritmo, che sfrutta il filtro di Kalman e un modello biomeccanico appositamente sviluppato, per estrapolare l’evoluzione dell’angolo Tronco-Coscia. Avere a disposizione tale informazione e perciò conoscere la biomeccanica e la cinematica del corpo umano, rende possibile l’applicazione di questa procedura in svariati campi in ambito clinico e non.
Resumo:
Studio di una procedura ottimale per il serraggio delle teste dei motori destinati alle moto che concorrono nel campionato mondiale Moto GP, svolto presso Ducati Corse. Lo studio era rivolto a prigionieri in acciaio e prigionieri in lega di titanio. Sono state svolte prove di serraggio per valutare le caratteristiche dell'accoppiamento, in termini di stima dei coefficienti di attrito, coppie di serraggio, precarichi e materiali. Per i prigionieri in acciaio sono state proposte modifiche alle attuali procedure in uso in azienda ed è stata approvata una procedura di serraggio che porta i migliori risultati possibili in termini di stabilità dei precarichi di serraggio raggiunti. Per i prigionieri in titanio lo studio ha riguardato la scelta del lubrificante migliore e l'utilizzo di diverse tipologie di dadi. Con le attrezzature attualmente presenti in Ducati Corse non è stato possibile approvare una procedura di serraggio ottimale. Si è comunque definito il miglior accoppiamento di materiali per poter testare in seguito una procedura di serraggio proposta.
Resumo:
Il seguente lavoro è uno studio preliminare motivato dalla possibilità di integrazione di un sistema ecografico portatile in un'apparecchiatura per Tecarterapia. Lo scopo è permettere al fisioterapista di dare una valutazione oggettiva dell'efficacia dei trattamenti erogati, mediante il calcolo di parametri oggettivi: il confronto tra questi consentirà il monitoraggio e la valutazione del follow-up. La Tecarterapia è particolarmente efficace nel trattamento precoce non chirurgico di tendinopatie e lesioni muscolari e per dimostrarlo sono stati sviluppati due algoritmi per il calcolo automatico di parametri caratterizzanti il tendine e il muscolo. Questi sono stati testatati su pazienti affetti da tendinopatia al tendine d'Achille e lesione ai muscoli flessori della coscia prima e dopo un ciclo di Tecar e i risultati ottenuti hanno rispecchiato le aspettative, permettendo di stabilire oggettivamente l'efficacia della terapia. Per permettere anche ad utenti non esperti in programmazione di utilizzare questi strumenti di calcolo, è stata elaborata, separatamente per le lesioni e le tendinopatie, un’ interfaccia grafica in Matlab.
Resumo:
L’insufficienza renale cronica è una malattia di grande impatto sulla sanità pubblica. Il punto di approdo per la maggior parte dei pazienti, alternativo al trapianto renale, è il trattamento dialitico che rappresenta una cura ad alto costo sia sociale che economico. Il rene artificiale è il dispositivo attraverso il quale si effettua la terapia, ed è frutto di un costante sviluppo che mira a sostituire la funzione renale in quanto sottosistema dell’organismo umano. Per questo è sempre più importante dotarlo di un adeguato set di sensori che permettano di monitorare l’efficacia del trattamento. L’emodialisi prevede la rimozione dei liquidi in eccesso accumulati nel periodo che intercorre tra due trattamenti successivi, per questo un parametro molto importante da monitorare è la variazione relativa del volume ematico (RBV, Relative Blood Volume Variation). A questo scopo gli attuali dispositivi per dialisi in commercio utilizzano tecnologie ad ultrasuoni o ottiche: è stata però recentemente evidenziata la sensibilità indesiderata di questa seconda tecnica ai cambiamenti di osmolarità del sangue sotto analisi. Lo studio presentato in questa tesi è volto a migliorare l’accuratezza con la quale effettuare la stima del RBV nel corso del trattamento dialitico, attraverso un sistema di misura ottico sperimentale. Il prototipo realizzato prevede di aumentare le informazioni raccolte sia aumentando la distribuzione spaziale dei sensori ottici che allargando la banda di lunghezze d’onda alla quale i dati vengono acquisiti. La stima del RBV è gestita attraverso algoritmi basati sulle combinazioni lineari, sulle reti neurali e su modelli autoregressivi.
Resumo:
I rifiuti rappresentano un’opportunità di crescita sostenibile in termini di riduzione del consumo di risorse naturali e di sviluppo di tecnologie per il riciclo di materia ed il recupero energetico. Questo progetto di ricerca si occupa di valutare, attraverso l’approccio dello studio del ciclo di vita, la valorizzazione energetica di una particolare categoria di rifiuti: i fanghi derivanti dalla depurazione delle acque. Si è studiata la valorizzazione dei fanghi attraverso l’applicazione del Thermo Catalytic Re-forming (TCR)®, tecnologia che consente di trasformare i fanghi in un carburante per la produzione di energia elettrica (bioliquido). Le valutazioni sono effettuate per una linea di processo generale e due configurazioni progettuali declinate in due scenari. Il caso di studio è stato riferito al depuratore di S. Giustina (Rimini). Per la linea di processo, per ognuna delle configurazioni e i relativi scenari, è stato compilato il bilancio energetico e di massa e, conseguentemente, valutata l’efficienza energetica del processo. Le regole della Renewable Energy Directive (RED), applicate attraverso lo strumento ‘BioGrace I’, permettono di definire il risparmio di gas serra imputabile al bioliquido prodotto. I risultati mostrano che adottare la tecnologia TRC® risulta essere energeticamente conveniente. Infatti, è possibile ricavare dal 77 al 111% del fabbisogno energetico di una linea di processo generale (linea fanghi convenzionale e recupero energetico TCR®). Questo permette, quindi, di ricavare energia utile al processo di depurazione. La massima performance si realizza quando la tecnologia si trova a valle di una linea di trattamento fanghi priva di digestione anaerobica e se il biochar prodotto viene utilizzato come combustibile solido sostitutivo del carbone. La riduzione delle emissioni imputabile al bioliquido prodotto va dal 53 al 75%, valori che soddisfano il limite definito dalla RED del 50% di riduzione delle emissioni (2017) per ogni configurazione progettuale valutata.
Resumo:
Gli odori rappresentano uno degli elementi di disturbo che la popolazione avverte maggiormente e, anche nel caso in cui non siano associati a sostanze tossiche, sono causa di conflitti e di intolleranza, sia nei confronti delle aziende che li diffondono nel territorio, sia nella scelta del sito di localizzazione di nuovi impianti. La valutazione del disturbo olfattivo e la sua regolamentazione (esistono linee guida, ma non una legislazione di riferimento) rappresentano aspetti caratterizzati da elevata complessità, dal momento che l’inquinamento olfattivo è strettamente associato alla percezione umana. Nella tesi vengono valutate le emissioni odorigene e le relative immissioni, dovute ad un comparto per la gestione integrata dei rifiuti. Per caratterizzare le emissioni sono stati prelevati dei campioni di aria presso le principali sorgenti individuate e quantificate utilizzando la tecnica dell’olfattometria dinamica. Una volta caratterizzate le sorgenti, i dati di emissione ottenuti dalla campagna di misura e dall’analisi olfattometrica sono stati utilizzati come dati di input del modello LAPMOD (LAgrangian Particle MODel). LAPMOD è stato implementato con un modulo specifico per la determinazione delle concentrazioni massime orarie che utilizza un peak-to-mean variabile nel tempo, a differenza di altri modelli che usano un valore costante per la determinazione. Dall'elaborazione dei dati è emerso che, utilizzando il modulo specifico per gli odori, le concentrazioni come 98° percentile riferite al giorno tipico hanno un andamento opposto rispetto all’uso di un peak-to-mean costante. Dal confronto della simulazione in cui le emissioni sono indipendenti dalla variazione della portata di odore in funzione della velocità del vento, con quella che invece simula tale dipendenza (nelle sorgenti che presentano paratie laterali e tettoia) è emerso che la simulazione che mitiga completamente l’effetto del vento è più coerente con la realtà.
Resumo:
Simulazione numerica con software Abaqus di impatti a bassa energia su laminati di fibra di carbonio con matrice epossidica per la previsione della formazione di delaminazioni interne. Confronto tra impatti centrali al provino e in prossimità del bordo.
Resumo:
Il presente elaborato di tesi valuta l’effetto delle condizioni di estrazione dei composti fenolici in un sottoprodotto della lavorazione industriale delle patate, la buccia, con l’obiettivo di poter valorizzare tale residuo di processo per utilizzi futuri. Al fine di ottimizzare le condizioni di estrazione, si è deciso di utilizzare il disegno sperimentale Box-Behnken (DBB) mediante la variazione di tre fattori (tempo, tipologia di solvente, rapporto campione/solvente) e per un totale di 15 determinazioni. I dati risultanti dalla determinazione dei composti fenolici totali e dell’attività antiossidante hanno messo in evidenza come la buccia di patate, sottoprodotto del processo di lavorazione industriale, sia un prodotto interessante per il proprio contenuto in composti fenolici ad elevata attività antiossidante. Tuttavia, la scelta delle condizioni ottimali di estrazione è fondamentale al fine di evitare la sottostima del contenuto in composti bioattivi, che deriverebbe da una incompleta estrazione degli stessi dalla matrice alimentare. Il disegno Box-Behnken ha permesso di stabilire le condizioni ottimali di estrazione dei composti fenolici e per questo sará utilizzato in futuro per lo screening di diversi campioni procedenti dalla produzione industriale. L’estrazione ottimale dei composti di interesse ha comunque evidenziato come la buccia di patata sia una fonte di composti fenolici ad attivitá antiossidante che potrá essere utilizzata sia come ingrediente alimentare che in campo nutraceutico.
Resumo:
In this thesis we have identified two electrochemical procedures for preparing two compounds of copper hexacyanoferrate (CuHCF) films with different compositions and structures. The deposition were carried out using a “two steps” method consisting in electrochemical oxidation of previously deposited metallic copper on carbon substrates (glassy carbon and graphite foil electrodes) in K3[Fe(CN)6] solution. Both films, CuHCF-methodA and CuHCF-methodB, were characterized by cyclic voltammetry (GC) and their study using XANES spectroscopy revealed evidence of different structures. Additionally, insertion and extraction of different cations (Na+, K+, Mg2+, Al3+ and Cs+) were performed and the results indicate that CuHCF-methodA has slightly better performances and operational stability than CuHCF-methodB. Data from galvanostatic charge-discharge tests confirme the latter observation. An application for amperometric detection of H2O2 and SEM micrographs are also reported for both films (method A and B). Comparing these results with a previous work of our research group, seems that the deposition of two different compounds using methodA and methodB is due to the different stoichiometry of ions Cu2+ e [Fe(CN)6]3– created near electrode surface during the dissolution step.
Resumo:
L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).
Resumo:
Questa tesi di laurea è uno studio magmatologico, sedimentologico e morfostrutturale dei depositi dell’eruzione del Vesuvio del 1944, con particolare riferimento ai depositi di valanghe ardenti associati ad essa. Lo studio è stato affrontato utilizzando metodologie petrografiche, di chimica dei minerali e geotermo-barometriche al fine di ricavare informazioni sul sistema magmatico e sulla dinamica eruttiva nel corso dell’eruzione. I dati petrochimici e l’utilizzo di modelli geotermo-barometrici, unitamente alle informazioni dalla letteratura, indicano che il fattore di trigger che ha determinato il passaggio dalla iniziale effusione di colate laviche alle successive intense fasi di attività esplosiva ultrastromboliana è rappresentato dalla risalita di magma meno evoluto e più ricco in volatili dalla camera magmatica profonda (11-22 km) verso quella più superficiale (circa 3 km) dove ha interagito con il magma lì presente. Durante queste fasi a maggiore esplosività si è avuto sulla parte sommitale del cono un rapido accumulo di materiale ad elevata temperatura e l’instaurarsi di condizioni di overloading dei fianchi con aumento dell’angolo di pendio e conseguente instabilità. Ciò ha verosimilmente determinato la generazione di flussi di valanghe ardenti per rimobilizzazione sin-deposizionale del materiale piroclastico da caduta, probabilmente in seguito ad eventi sismici come elementi di innesco. I flussi di valanghe ardenti del 1944 sono stati interpretati come flussi granulari secchi, in base ai dati sedimentologici e vulcanologici raccolti nel corso dell’attività di terreno, rendendo possibile l’applicazione dei modelli elaborati da Castioni (2015) per la stima della velocità massima del flusso e degli assi maggiore e minore del deposito corrispondente. Sono state ricavate velocità che variano da un minimo di circa 4 m/s ad un massimo di circa 16 m/s in un range che è tipico di flussi granulari in ambiente vulcanico. Le variazioni della velocità sono state messe in relazione con la morfologia del pendio, il tipo di materiale coinvolto nel processo di rimobilizzazione e l’organizzazione interna del flusso, evidenziando in particolare come le maggiori lunghezze siano raggiunte dai flussi che hanno la possibilità di scorrere su pendii più omogenei e con più ridotte variazioni dell'angolo di pendio. La definizione di valori di velocità per i flussi di valanghe ardenti dell'eruzione del 1994 fornisce un ulteriore elemento utile per la valutazione della pericolosità vulcanica del Vesuvio.
Resumo:
Dopo aver dato una definizione formale per il modello di Erdos-Rényi, si dimostra che in un grafo ER il grado dei nodi (misura della connessione) risulta essere una variabile aleatoria con distribuzione binomiale, mentre il clustering (misura della densità di archi a livello locale) tende a zero. Successivamente si determinano le funzioni soglia per alcune proprietà monotone particolarmente significative, consentendo così di descrivere diverse configurazioni possibili per un grafo ER al variare dei suoi parametri. Infine, si mostra come si possano utilizzare i grafi ER per modellizzare la diffusione di una malattia infettiva all’interno di una popolazione numerosa.
Resumo:
Dati climatici ad alta risoluzione sono attualmente molto richiesti essendo indispensabili per la valutazione degli impatti dei cambiamenti climatici alla scala locale in svariati campi d'applicazione. Per aumentare l'offerta di tali dati per il territorio italiano viene presentata in questo studio la realizzazione di un data-set con risoluzione di trenta secondi d'arco, per le temperature massime e minime giornaliere per il Trentino Alto Adige, per il periodo che va dal 1951 al 2014. La metodologia utilizzata per proiettare i dati meteorologici di un set di stazioni su di un grigliato ad alta risoluzione si basa sull'assunzione che la struttura spazio-temporale del campo di una variabile meteorologica su una determinata area possa essere descritta dalla sovrapposizione di due campi:i valori normali relativi e un periodo standard, ovvero la climatologia,e le deviazioni da questi, ovvero le anomalie. La climatologia mensile verrà interpolata sull'intero dominio tramite una regressione lineare pesata della temperatura rispetto alla quota,stimata separatamente per ogni nodo del grigliato,con pesi legati alla topografia del territorio,in modo da attribuire di volta in volta la massima importanza alle stazioni con caratteristiche più simili a quella del punto di griglia considerato. Da questa sarà possibile tramite la sovrapposizione con le anomalie mensili ricostruite sul medesimo grigliato, ottenute mediante un'interpolazione basata su una media pesata,ottenere un grigliato a 30 secondi d'arco, di serie temporali mensili in valori assoluti. Combinando poi l'interpolazione dei rapporti delle anomalie giornaliere relative alla media mensile per un set di stazioni con i campi mensili precedentemente stimati,sarà possibile costruire il data-set a risoluzione giornaliera. Prima di quest'ultima fase sarà necessario effettuare un'operazione di sincronizzazione dei dati giornalieri per assicurarsi che non vi siano sfasamenti nelle serie utilizzate. I risultati confermano l'efficacia nell'utilizzo di tale metodo su regioni orograficamente complesse, sia nel confronto diretto con i casi di studio,nei quali si nota bene la discriminazione spaziale effettuata dal modello, che nella valutazione dell'accuratezza e della precisione dei risultati. I dati ottenuti non sono affetti da errori sistematici,mentre l'errore medio assoluto risulta pari od inferiore ai $2^{\circ}$C, in linea con precedenti studi realizzati su altre aree alpine. Il metodo e i risultati risultano soddisfacenti ma ulteriormente migliorabili, sia tramite un ulteriore ottimizzazione del modello usato, che con un aumento nella qualità dei dati sui quali è stato svolto lo studio.